孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具
K2-上海交通大学
一个地球科学的开源大预言模型
阅文妙笔大模型
全面探索有声、漫画、动画、衍生等开发链条的AI应用。
TigerBot
以世界级的基础大模型,贡献于中国式的创新。
轩辕大模型
国内首个开源的千亿级中文对话大模型
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
昇思大模型
在线体验为一体的AI学习与实践社区
其他人也看的工具
xAI Grok
使用xai的大型语言模型(LLM)进行聊天
西湖大模型
智商情商俱佳的多模态大模型
LOGOAI
创建匹配的文具,设计您喜欢的品牌!
Captions
人工智能相机和编辑应用程序...
Neon AI
利用Neon AI的授权技术创建最...
MAHOUT
开箱即用的分布式后端,或者可以扩展到其他分布式后端。