本文阅读量 次
1. 人工智能¶
-
https://mp.weixin.qq.com/s/jqzr5QvByk2o8OpOdSuzCw ⧉ 一篇大模型数据合成和增强技术最新综述
-
https://mp.weixin.qq.com/s/vfiMTB3X7qj6gHmZ1c5ehQ ⧉ Yann LeCun最新万字演讲:致力于下一代AI系统,我们基本上不做LLM了
-
大语言模型的拐杖——RLHF https://zhuanlan.zhihu.com/p/622211264 ⧉
- 大语言模型的演进 https://zhuanlan.zhihu.com/p/622209738 ⧉
-
大语言模型为人工智能科技树再次剪枝 https://zhuanlan.zhihu.com/p/622209261 ⧉
-
Transformer是什么?看完这篇你就醍醐灌顶 https://blog.csdn.net/fs1341825137/article/details/120247499 ⧉
- 简化Transformer模型训练技术简介 https://zhuanlan.zhihu.com/p/438150240 ⧉
- 理解语言的 Transformer 模型 https://tensorflow.google.cn/tutorials/text/transformer?hl=zh-cn ⧉
- 十分钟理解Transformer https://zhuanlan.zhihu.com/p/82312421 ⧉
- NLP中的RNN、Seq2Seq与attention注意力机制 https://zhuanlan.zhihu.com/p/52119092 ⧉
- 完全图解RNN、RNN变体、Seq2Seq、Attention机制 https://zhuanlan.zhihu.com/p/28054589 ⧉
- 为什么现在的LLM都是Decoder only的架构? https://www.zhihu.com/question/588325646/answer/2940298964 ⧉
- 为什么现在的LLM都是Decoder-only的架构? https://kexue.fm/archives/9529 ⧉
- 图解transformer | The Illustrated Transformer https://blog.csdn.net/qq_36667170/article/details/124359818 ⧉
- 现在的BERT等语言模型,最快训练要多久? https://www.zhihu.com/question/505630287 ⧉
- 大型语言模型(LLM)训练指南 https://zhuanlan.zhihu.com/p/611325149 ⧉
- 解读 ChatGPT 背后的技术重点:RLHF、IFT、CoT、红蓝对抗 https://zhuanlan.zhihu.com/p/604237227 ⧉ ***
- 思维链 (Chain-of-thought,CoT) 提示 (Wei 等,'22) 是指令示范的一种特殊情况,
- ChatGPT 背后的“功臣”——RLHF 技术详解 https://mp.weixin.qq.com/s/TLQ3TdrB5gLb697AFmjEYQ ⧉
-
https://learn.microsoft.com/en-us/semantic-kernel/whatissk ⧉
- https://lolitasian.blog.csdn.net/?type=blog ⧉
1.1 Llama 2¶
- 关于 Llama 2 的一切资源,我们都帮你整理好了 https://zhuanlan.zhihu.com/p/650614370 ⧉
1.2 通用人工智能¶
- 从第一性原理看大模型Agent技术 https://zhuanlan.zhihu.com/p/662538702 ⧉
- 从 CoT 到 Agent,最全综述来了!上交出品 https://zhuanlan.zhihu.com/p/668914454 ⧉
1.3 图像生成¶
- 【翻译】图解Stable Diffusion https://lolitasian.blog.csdn.net/article/details/125422216 ⧉
- The Illustrated Stable Diffusion http://jalammar.github.io/illustrated-stable-diffusion/ ⧉
- The Illustrated Transformer https://jalammar.github.io/illustrated-transformer/ ⧉
- https://lolitasian.blog.csdn.net/article/details/125422216 ⧉
1.4 向量数据库¶
1.5 参考¶
- seq2seq
- CoT,就是思维链
- Transformer沿用了Bengio的编码器-解码器架构,将源语言文本映射到目标语言文本
- https://www.zhihu.com/question/585091993 ⧉
- 2014 Bengio Neural Machine Translation by Jointly Learning to Align and Translate
- GPT Generative Pre-Train 生成式预训练, BERT 判别式预训练
- RLHT Reinforcement Learning for Hierarchical Text Generation
1.6 论文¶
-
NLP From Scratch Without Large-Scale Pretraining: A Simple and Efficient Framework https://arxiv.org/abs/2111.04130 ⧉
- http://torch.ch/ ⧉
1.6.1 中文¶
1.6.2 国外 AI 公司¶
1.6.3 API 代理¶
1.6.4 多 Agent¶
- https://mp.weixin.qq.com/s?__biz=MzA5MTIxNTY4MQ==&mid=2461142953&idx=1&sn=d79187137d548231b7f3d90f3f463521&chksm=87396d87b04ee49109fb124e0251ecbb3799fb6a1bc3112040197b3430a9a5d64079e6d5b7d3&scene=21#wechat_redirect ⧉ 一文探秘LLM应用开发(26)-Prompt(架构模式之Agent框架AutoGPT、AutoGen等)
1.6.5 榜单 & 评测¶
1.6.6 未分类¶
1.6.7 AI 基础入门¶
1.6.7.1 word2vec¶
- https://medium.com/@manansuri/a-dummys-guide-to-word2vec-456444f3c673 ⧉ A Dummy’s Guide to Word2Vec
- https://jalammar.github.io/illustrated-word2vec/ ⧉
- https://www.kaggle.com/pierremegret/gensim-word2vec-tutorial ⧉