杂七杂八 23-02
杂七杂八 23-02
NLP必读:十分钟读懂谷歌BERT模型 : https://zhuanlan.zhihu.com/p/51413773 AIGC基于文本生成音乐 GitHub : https://www.qbitai.com/2022/10/38979.html AI好声音,国内大学生做的: https://voiceofai.github.io/ 微软的Muzic,AI音乐工具,功能强大: https://github.com/microsoft/muzic
电源中的+12V/+5V/+3.3V都给谁供电: https://www.expreview.com/53153.html 电源各路供电那些事 : https://www.luyouqi.com/shezhi/19349.html
[Modern C++ Parallel Task Programming | Taskflow QuickStart](https://taskflow.github.io/taskflow/index.html) |
关于减少模型训练的资源消耗和提升效率:Colossal-AI https://www.51cto.com/article/709231.html , 英伟达3090单挑180亿参数大模型。 https://www.51cto.com/article/699807.html , 2天训练出15亿参数大模型。
https://cloud.tencent.com/developer/article/1589050 ,不同深度学习模型和对应的显卡需求(2020)。 https://zhuanlan.zhihu.com/p/62760251 , NLP预训练模型汇总。 https://help.aliyun.com/document_detail/183593.html , 机器学习PAI,AI资产管理,ModelHub公共模型仓库,自然语言处理(NLP)类模型。 有一系列NLP处理相关的API。 https://www.zhihu.com/question/267242467 , NLP和知识图谱,知识图谱是否是NLP的未来。
https://www.fcpowerup.com/psudg/ , ATX电源规范解读,该网站是专门做电源评测的网站。 https://www.expreview.com/54251.html , 电源接口逐个看。 接口讲解
2023-03-01 多模态模型
2023-03-01 机器之心推送的一篇文章,“微软多模态ChatGPT 16亿参数搞定看图答题、智商检测等任务” 以下是相关信息整理:
论文:Language is not all you need: aligning perception with language models, 多模态大型语言模型MLLM, KOSMOS-1 , https://arxiv.org/pdf/2302.14045.pdf 。 这个论文也很好,不同于以往的论文。 GitHub: https://github.com/microsoft/unilm 参数量下降到16亿, 支持图文混合输入
机器之心的报道: 评论提到论文: Multimodal Chain-of-Thought Reasoning in Language Models,https://arxiv.org/abs/2302.00923, 知乎说明: https://zhuanlan.zhihu.com/p/608912974
量子位的报道: https://www.qbitai.com/2023/03/42435.html
知乎关于多模态的说明: https://zhuanlan.zhihu.com/p/473760099
其他: https://arxiv.org/pdf/2301.04655, ChatGPT is not all you need. A State of the Art Review of large Generative AI models