杂七杂八 23-02

NLP必读:十分钟读懂谷歌BERT模型 : https://zhuanlan.zhihu.com/p/51413773 AIGC基于文本生成音乐 GitHub : https://www.qbitai.com/2022/10/38979.html AI好声音,国内大学生做的: https://voiceofai.github.io/ 微软的Muzic,AI音乐工具,功能强大: https://github.com/microsoft/muzic

电源中的+12V/+5V/+3.3V都给谁供电: https://www.expreview.com/53153.html 电源各路供电那些事 : https://www.luyouqi.com/shezhi/19349.html

[Modern C++ Parallel Task Programming Taskflow QuickStart](https://taskflow.github.io/taskflow/index.html)

关于减少模型训练的资源消耗和提升效率:Colossal-AI https://www.51cto.com/article/709231.html , 英伟达3090单挑180亿参数大模型。 https://www.51cto.com/article/699807.html , 2天训练出15亿参数大模型。

https://cloud.tencent.com/developer/article/1589050 ,不同深度学习模型和对应的显卡需求(2020)。 https://zhuanlan.zhihu.com/p/62760251 , NLP预训练模型汇总。 https://help.aliyun.com/document_detail/183593.html , 机器学习PAI,AI资产管理,ModelHub公共模型仓库,自然语言处理(NLP)类模型。 有一系列NLP处理相关的API。 https://www.zhihu.com/question/267242467 , NLP和知识图谱,知识图谱是否是NLP的未来。

https://www.fcpowerup.com/psudg/ , ATX电源规范解读,该网站是专门做电源评测的网站。 https://www.expreview.com/54251.html , 电源接口逐个看。 接口讲解

2023-03-01 多模态模型

2023-03-01 机器之心推送的一篇文章,“微软多模态ChatGPT 16亿参数搞定看图答题、智商检测等任务” 以下是相关信息整理:

论文:Language is not all you need: aligning perception with language models, 多模态大型语言模型MLLM, KOSMOS-1 , https://arxiv.org/pdf/2302.14045.pdf 。 这个论文也很好,不同于以往的论文。 GitHub: https://github.com/microsoft/unilm 参数量下降到16亿, 支持图文混合输入

机器之心的报道: 评论提到论文: Multimodal Chain-of-Thought Reasoning in Language Models,https://arxiv.org/abs/2302.00923, 知乎说明: https://zhuanlan.zhihu.com/p/608912974

量子位的报道: https://www.qbitai.com/2023/03/42435.html

知乎关于多模态的说明: https://zhuanlan.zhihu.com/p/473760099

其他: https://arxiv.org/pdf/2301.04655, ChatGPT is not all you need. A State of the Art Review of large Generative AI models