OpenBMB开源社区

科技

社区讨论 | 如何从零开始训练大模型——MiniCPM分享&讨论

的详细技术文档:https://shengdinghu.notion.site/MiniCPM-c805a17c5c8046398914e47f0542095a这说明,现有参数量情况下,哪怕是
3月19日 上午 11:26
其他

探险 AI 大模型最前沿|OpenBMB 招募实习生,待遇不设上限

每个环节的细致与严谨,获益良多。大模型的工作是一项复杂的大工程,数据准备、模型训练、模型推理等各方面环环相扣,微小的错误也可能导致任务的失败。但是在以上方面团队中早已有了对应的技术积累(包括但不限于
2023年4月11日
其他

不必排队等 OpenAI Plugins,OpenBMB 开源大模型工具学习引擎

的能力。除了ChatGPT自身强大的能力外,Plugins能够支持ChatGPT连接浏览器、数学计算等外部工具,能力大幅增强。这些功能吊起了开发者的胃口,但菜还上不了那么快。迫不及待点进
2023年4月4日
其他

拨动大模型的琴弦|Delta Tuning 成果登上 Nature子刊封面!

已经展示了同时拟合不同数据分布和促进各种任务的下游性能的惊人能力。因此,在大规模预训练时代,多任务学习受到越来越多的关注。作为全参数微调方法的有效替代,Delta
2023年3月24日
其他

登顶 ZeroCLUE!CPM-Bee 凭什么这样强?

2022年10月13日,我们开启了CPM-Live第二期模型CPM-Bee的训练。在CPM-Ant的基础上,CPM-Bee考虑了任务模式增强、多语言融合、复杂结构处理等新特性。CPM-Bee训练即将完成,成果到底如何?我们决定将CPM-Bee“拉出来遛遛”。ZeroCLUE是中文零样本学习权威榜单,在学术界和工业界有着广泛的影响力,自发布以来已经吸引了百度、阿里云、IDEA
2023年1月16日
其他

小工具撬动大模型,『模力表格』惊喜问世

https://live.openbmb.org/playground/大模型能力以函数形式嵌入,不用配置环境、不用跑代码,只用打开熟悉的表格,输入大模型函数即可。IE、QA、MT、SA、SM
2023年1月13日
其他

OpenBMB 年 度 大 事 记

的真诚关注和参与,我们一同点燃了大模型的星星之火,来年我们还将一路见证它如何演变燎原之势。久交念敦敬,提前祝大家新年快乐!官方网站https://www.openbmb.org技术文章CPM-Ant
2022年12月31日
其他

盼星星盼月亮:首期模型CPM-Ant训练完成啦!

bug,方便您提前了解模型训练过程中的可能会遇到的各种“坑”。在模型训练“风平浪静”的日子,研发小哥也会抛出一些名言名句、介绍一些最新论文、甚至发起猜谜活动,细细读之相信会别有收获。-
2022年9月16日
其他

突破显存墙,BMInf现已支持GLM-130B

25GB,性能如下表所示。显存峰值时间A100-SAT40.3G74.6sV100-SAT内存不足内存不足V100-SAT-BMInf32.3G196.0s综上所述,BMInf
2022年9月7日
其他

大模型哪家强?OpenBMB发布BMList给你答案!

等内容有新的想法与意见,也非常欢迎在社区提出。除此之外,由于信息来自公开渠道,榜单在收录模型与模型信息等内容上可能会不完全准确,也希望大家能够积极通过
2022年7月28日
其他

OpenBMB x 清华NLP:20小时大模型公开课带你从入门到精通

篇。欢迎大家积极参与课程,并祝愿大家能够有所收获。让我们一起努力,为大模型时代添砖加瓦!官方网站https://www.openbmb.org技术文章高效训练工具BMTrain
2022年7月20日
其他

OpenBMB发布“破壁英才”实习生项目

岗位职责开发大规模预训练语言模型训练、部署、微调系统,主要涉及功能实现、性能优化、系统调优、硬件适配等工作。在工作的过程中,需要根据具体任务的需求,查阅相关资料和文献,并结合实际情况实现相应技术。▶
2022年7月5日
其他

不止于ZeRO:BMTrain技术原理浅析

分布式训练一种典型的分布式训练方法是使用数据并行,然而对于大模型来说,仅通过数据并行进行显存优化是远远不够的,我们需要更进一步地进行切割。进一步优化的技术主要来自两大技术路线:在算子层面进行切割的
2022年6月20日
自由知乎 自由微博
其他

训练即将启动,和CPM-Ant一起乘风破浪!

Twitter:https://twitter.com/OpenBMB欢迎转载商务合作请联系OpenBMB邮箱:openbmb@gmail.com往期文章👇叮!你有一份大模型直播训练邀请函!
2022年5月29日
其他

叮!你有一封大模型直播训练邀请函!

致关注大模型的你:夏始春余,叶嫩花初。时光来到2022年的初夏,宜居家,宜潜心科研,在忙碌的工作之余,不妨劳逸结合,来看一场当下最火热话题的直播——一场开源大模型训练直播。说到大模型,你会想起什么?我们会想起大模型令人惊艳的效果,我们会想起2020年Open
2022年5月26日
其他

计算成本节省9成:大模型高效训练工具BMTrain

背景介绍2018年,预训练语言模型技术横空出世并引发了人工智能领域的性能革命。研究表明,增大参数量与数据规模是进一步提升语言模型性能的有效手段,对十亿、百亿乃至千亿级大模型的探索成为业界的热门话题。这引发了国内外研究机构与互联网企业的激烈竞争,将模型规模与性能不断推向新的高度。除
2022年5月7日
其他

OpenBMB:让大模型飞入千家万户

近年来,随着预训练语言模型技术引发人工智能领域性能革命,大规模预训练模型技术的成熟标志着“大模型时代”的到来。然而在大模型的具体应用与落地中,却存在着“训练难、微调难、应用难”三大挑战。为此,我们发起了OpenBMB开源社区,旨在打造大规模预训练语言模型库与相关工具,加速百亿级以上大模型的训练、微调与推理,降低大模型使用门槛,实现大模型的标准化、普及化和实用化,让大模型飞入千家万户。▶
2022年4月8日