孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具
K2-上海交通大学
一个地球科学的开源大预言模型
TigerBot
以世界级的基础大模型,贡献于中国式的创新。
乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
MiniMax开放平台
MiniMax新一代通用大模型
OpenBMB
可商业化使用的中英文双语基础模型
阿里·通义千问
一个专门响应人类指令的大模型
他人最近看的工具
事半网
一键聊天、生成文章、图片、声音等
360智脑
以人为本,安全可信
山海大模型
人类的良师益友,也是灵动强大的智能助理
MiniMax开放平台
MiniMax新一代通用大模型
ChatGLM千亿对话模型
面向高校学术交流与行业合作的试用申请
MOSS(复旦大模型)
复旦大模型MOSS,正式开源了
AI 中文社
