源2.0
基础模型 低成本微调 可拓展上下文长度
源2.0是采用新型的LFA(局部过滤的自注意力)模型结构,具备文本生成、知识问答、数学推理、编程和复杂逻辑理解的能力。在HumanEval、AGIEval、GSM8K等公开数据集上的测试精度接近GPT4。
开源社区:
源 | 源2.0-102B
开源可商用中英双语复杂数理逻辑

1026亿

模型参数

4K

上下文长度

源 | 源2.0-51B
开源可商用知识问答代码能力

518亿

模型参数

4K

上下文长度

源 | 源2.0-2B
开源可商用部署门槛低推理性能优

21亿

模型参数

8K

上下文长度

源 | 源1.0-245B
可商用面向中文多场景泛化

2457亿

模型参数

2K

上下文长度

下面是基于源大模型模型开发的一些示例应用,可供开发者参考,启发思路,探索更多的应用类型,示例应用也会持续进行增加。
为了方便各位开发者了解浪潮源大模型及其应用方法,我们组织了源创空间及线上讲解。为了方便各位开发者回顾,我们梳理了往期论坛视频,大家可以随时观看
浪潮·源大模型自2021年9月发布以来,面向所有生态伙伴开放1TB的互联网文本数据资源,该数据集可有效丰富大模型预训练的数据集,目前已为近百家单位(包括但不限于本页面展示单位)提供开源数据。
开发者线上注册和审核流程
源 1.0 预训练语言模型用户手册
源 1.0 预训练语言模型使用示例
源 1.0 预训练语言模型开源开放FAQ