查看原文
其他

收藏!大型语言模型(LLMs)大盘点,含源码及Demo地址

ShuCP AINLPer 2023-09-09
点击上方AINLPer,设为星标更多干货,第一时间送达|转自Github: chenking2020



ChatYuan



Colossal AI


ChatGLM


LLaMa



OpenChatKitk



BELLE



PaLM-rlhf-pytorch



alpaca-lora




Dolly



Vicuna 和 Chinese-Vicuna



LMFLOW


GPTrillion


OpenFlamingo

  


Baize白泽

  


Koala考拉


StackLLaMA
随着斯坦福Alpaca的出现,一大堆基于LLama的羊驼家族和扩展动物家族开始出现,终于Hugging Face研究人员近期发布了一篇博客StackLLaMA:用RLHF训练LLaMA的实践指南。同时也发布了一个70亿参数的模型——StackLLaMA。这是一个通过人类反馈强化学习在LLaMA-7B微调而来的模型。

推荐阅读

[1]Google最新TiDE架构,比Transformer快10倍

[2]MiniGPT-4 发布,代码模型开源,支持在线体验!

[3]白泽:一个以中国神兽命名的大型自然语言模型(LLM)

[4]NLP突破界限,2023 十篇必读的顶级NLP论文!

[5]中文通用开源指令数据集(COIG):数据多样,质量高

[6]OpenAGI:一个开源的通用人工智能(AGI)研究平台

点击下方链接🔗关注我们

「资料整理不易,点个再看吧」

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存