杂七杂八 23-12
杂七杂八 23-12
之后的浏览记录就保存在PinBox里面了,按时导出。
- https://www.epubit.com/bookDetails?id=N18159 , OCaml语言编程基础教程 , 电子书
- https://www.zhihu.com/column/c_1648820659034480640 , 专栏, OCaml编程:正确 + 高效 + 美观
-
https://www.datalearner.com/blog/1051698150066829 ,关于清华智谱AgentLM的新闻稿,有简单说明
- https://systemd.io/ , systemd官网,官方文档、手册
-
https://www.shellhacks.com/systemd-service-file-example/ , 一个很好的用简单例子说明systemd service文件写法的文章
- https://www.datalearner.com/blog/1051689842100145 , 大模型驱动的自动代理(AI Agent),OpenAI安全团队负责人的解释与观点
-
https://www.datalearner.com/blog/1051698150066829 , 提高模型Agent能力,清华大学与智谱AI推出AgentTuning方案
- https://zhidx.com/p/391943.html , 翻译型大模型,支持语音到语音,文本到文本,(交叉也可),100种语言的翻译
-
https://zhuanlan.zhihu.com/p/653952569 , 大模型,2023年初到九月的重要进展
- https://huggingface.co/blog/optimum-nvidia , 一个大大提高nvidia推理大模型速度的项目
- https://github.com/huggingface/optimum-nvidia
- https://juejin.cn/post/7286676030965317668 , 稀土掘金,大模型推理框架概述,内容较多,介绍多个大模型推理框架
-
https://zhuanlan.zhihu.com/p/658765876 , 单卡可推理CodeFuse-CodeLlama-34B 4bits量化版
- https://juejin.cn/post/7310102466569453606 , Mistral 7B 超越Llama 2 13B, 附带 AI快站模型免费加速下载
-
https://zhuanlan.zhihu.com/p/671295316 , 首个开源MoE大模型发布!7Bx8个专家
-
https://www.jiqizhixin.com/articles/2023-12-13-10 , 微软小模型phi-2,27亿参数超越130亿
- 折腾Emacs环境
- https://www.zhangjiee.com/blog/2019/emacs-is-fun-1.html , Emacs 心路历程(上), 一个老手的经验之谈,提及一些有用信息,如helm
- https://www.zhangjiee.com/blog/2019/emacs-is-fun-2.html , 接上文。 讲到 helm、ivy, 以及ido+smex
- https://elpy.readthedocs.io/en/latest/introduction.html , Elpy, Emacs里面的python开发环境,功能强大
- https://github.com/emacs-lsp/lsp-pyright , pyright, 可以配合lsp、company 使用
- https://gambitscheme.org/ , 一个scheme实现,可以生成c代码进行编译,有一个类似racket的派生版本。
- https://zh.wikipedia.org/wiki/Gambit_(Scheme%E5%AE%9E%E7%8E%B0) , wiki百科的说明
- 以上是在解决 lsp-scheme 相关问题时看到的
- https://www.thepaper.cn/newsDetail_forward_3368785 , 中国网络文学发展史:从“远古大神”到“修仙的学霸”。 提到:
- 斗破苍穹,比较“小白”,估计是没有太多深层逻辑吧。 修真四万年 , 反对“黑暗森林法则”的设定。 走进修仙, 结合科学思维。
- https://github.com/apple/ml-ferret , 苹果开源多模态大模型(7B 13B) (在HelloGitHub公众号看到)
-
https://huggingface.co/upstage/SOLAR-10.7B-v1.0 , SOLAR 10.7B 缝合大模型,据说性能超过MoE(7Bx8)
- https://juejin.cn/post/6844904077889912839 , 手把手教你开发一个 chrome 扩展程序 (已经保存Pin Box)