查看原文
其他

可能是最强的开源代码大模型!深度求索发布 DeepSeek Coder

DeepSeek DeepSeek
2024-09-10

成立半年后,DeepSeek 带着代码大模型与大家见面了。免费商用,完全开源。


DeepSeek 智能代码助手

Talk is cheap, show me the code


进入 DeepSeek Coder 对话界面,输入:用 Python 写一个贪吃蛇游戏,随着屏幕快速输出跳跃的代码,一段可直接运行的游戏代码即可生成:



贪吃蛇太简单了?两轮交互,指挥 DeepSeek Coder 修改 UI,轻松写出更难的 2048 游戏:



作为代码助手,如果只会写游戏那未免也太局限了。DeepSeek Coder 还能生成测试样例:



DeepSeek Coder 修 bug 同样是一把好手,从此告别恼人的内存泄露:



作为数据分析的好帮手,学写 SQL 也是必备技能:



你还可以从 LeetCode 挑选任意一个周赛题,让 DeepSeek Coder 帮你冲击 No.1:



目前,DeepSeek Coder 已经开放内测

访问 coder.deepseek.com 或者扫描以下二维码,立即抢先使用。



DeepSeek 全系列已开源

Talk is cheap, show me the model


DeepSeek Coder 已开源 1B,7B33B 全系列模型,包含 Base 模型和指令调优模型。

Hugging Face 首页:

https://huggingface.co/deepseek-ai

GitHub 仓库:

https://github.com/deepseek-ai/DeepSeek-Coder



图1:Hugging Face 开源模型一览


在国际权威数据集 HumanEval 编程多语言测试上,DeepSeek Coder 在各个语言上的表现都领先已有的开源模型。


图2:Multilingual HumanEval 测评


与之前最好的开源大模型 CodeLlama 相比,DeepSeek Coder 在代码生成任务上(使用标准数据集 HumanEval、MBPP 和 DS-1000 进行评测)分别领先 9.3%10.8%  5.9%。其中 DeepSeek Coder 的 70 亿参数版本在代码能力上达到了 CodeLlama 的 340 亿参数水平。经过指令调优后的 DeepSeek Coder 模型更是全面超越了 GPT3.5-Turbo。


图3:代码生成测评


除了代码能力以外,DeepSeek Coder 也展现了极强的数学和推理能力。不通过任何指令微调,DeepSeek Coder 在数学推理评测上展现了极佳的性能。

图4:基于程序的数学推理能力测评


DeepSeek Coder 如何炼成

Talk is cheap, show me the details


数据处理

步骤1:从 GitHub 收集代码数据,并利用过滤规则高效地筛选数据。

步骤2:解析同一项目中代码文件之间的依赖关系,根据它们的依赖关系重新排列文件位置。

步骤3:组织依赖文件,并使用项目级别的 minhash 算法进行去重。

步骤4:进一步过滤掉低质量的代码,例如语法错误或可读性差的代码。



图5:数据处理流程


模型训练

步骤1:使用 4K 的窗口大小在 1.8 万亿单词上进行模型的预训练。

步骤2:使用 16K 的窗口在 2 千亿单词进一步进行预训练,从而得到基础版本模型(DeepSeek-Coder-Base)。

步骤3:使用 20 亿单词的指令数据进行微调,得到经过指令调优的模型(DeepSeek-Coder-Instruct)。

图6:模型训练流程

关于 DeepSeek

DeepSeek 致力于探索 AGI 的本质,不做中庸的事,带着好奇心,用最长期的眼光去回答最大的问题。


DeepSeek Coder 是深度求索发布的第一代大模型,在不久的将来,我们还将呈现给社区更多更好的研究成果。让我们在这个激动人心的时代,共同推进 AGI 的到来!



END

DeepSeek



如果你想参与构建下一代通用人工智能(AGI),那么请不要犹豫,加入 DeepSeek,与我们共同在 AGI 征程上“深度求索”吧!简历投递邮箱:talent@deepseek.com(备注:岗位-姓名-电话)


修改于
继续滑动看下一个
DeepSeek
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存