We're sorry but this site doesn't work properly without JavaScript enabled. Please enable it to continue.
首页
示例应用
源创空间
文档中心
注册
登录
浪潮信息最新一代开源基础大模型
中英双语大模型
新型LFA模型结构
整体性能接近GPT4
102B模型
51B模型
2B模型
浪潮信息初代大模型
通用NLP预训练模型
可实现小样本和零样本学习
多场景泛化
申请源1.0API
申请源1.0数据集和工具
甲、乙两筐苹果的质量相同,从甲筐取出7千克,乙筐加入19千克,这时乙筐苹果的质量是甲筐的3倍,求两筐原来共有苹果多少千克?
根
帮我用python语言写一个求斐波那契数列的函数
我在南京曾经用公积金购买过一套房,但是已经卖掉了。我目前在北京没有房子,现在购买住房进行公积金贷款的话,能算首套吗?
源2.0
基础模型
低成本微调
可拓展上下文长度
源2.0是采用新型的LFA(局部过滤的自注意力)模型结构,具备文本生成、知识问答、数学推理、编程和复杂逻辑理解的能力。在HumanEval、AGIEval、GSM8K等公开数据集上的测试精度接近GPT4。
开源社区:
源 | 源2.0-102B
开源可商用
中英双语
复杂数理逻辑
1026亿
模型参数
4K
上下文长度
源 | 源2.0-51B
开源可商用
知识问答
代码能力
518亿
模型参数
4K
上下文长度
源 | 源2.0-2B
开源可商用
部署门槛低
推理性能优
21亿
模型参数
8K
上下文长度
源 | 源1.0-245B
可商用
面向中文
多场景泛化
2457亿
模型参数
2K
上下文长度
下面是基于源大模型模型开发的一些示例应用,可供开发者参考,启发思路,探索更多的应用类型,示例应用也会持续进行增加。
查看更多
为了方便各位开发者了解浪潮源大模型及其应用方法,我们组织了源创空间及线上讲解。为了方便各位开发者回顾,我们梳理了往期论坛视频,大家可以随时观看
查看更多
浪潮·源大模型自2021年9月发布以来,面向所有生态伙伴开放1TB的互联网文本数据资源,该数据集可有效丰富大模型预训练的数据集,目前已为近百家单位(包括但不限于本页面展示单位)提供开源数据。
开发者线上注册和审核流程
源 1.0 预训练语言模型用户手册
源 1.0 预训练语言模型使用示例
源 1.0 预训练语言模型开源开放FAQ
ModelScope
Huggingface
WiseModel
ModelScope
Huggingface
WiseModel
ModelScope
Huggingface
WiseModel