孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具

轩辕大模型
国内首个开源的千亿级中文对话大模型

MediaGPT:中文自媒体大模型
一个针对自媒体领域进行特殊训练的模型

阿里·通义千问
一个专门响应人类指令的大模型

乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

曹植GPT大语言模型
可内置在客户各类业务系统中提供专用服务

零一万物-官网01.ai
以 Project AI2.0 之名入局大模型
其他人也看的工具

frase
Frase AI 可帮助您在几分钟而不是几小时内研究、编写和优化高质量的 SEO 内容。

事半网
一键聊天、生成文章、图片、声音等

AI绘画课
AI绘画课目前共有529个教程

AI写作课
如何驾驭GPT为我们工作?7个教程

AI服务市场
服务全行业 促进产供销

charisma.ai
在元宇宙、游戏和 VR 中为真...