孟子预训练模型是基于团队自研技术研发的大规模预训练语言模型。可处理多语言、多模态数据,同时支持多种文本理解和文本生成任务,能快速满足不同领域、不同应用场景的需求。孟子模型基于 Transformer 架构,仅包含十亿参数量,基于数百 G 级别涵盖互联网网页、社区、新闻、电子商务、金融等领域的高质量语料训练。
类似的工具

书生
定义任意任务和轻量级自适应融合

阿里·通义千问
一个专门响应人类指令的大模型

乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

曹植GPT大语言模型
可内置在客户各类业务系统中提供专用服务

零一万物-官网01.ai
以 Project AI2.0 之名入局大模型

阅文妙笔大模型
全面探索有声、漫画、动画、衍生等开发链条的AI应用。
其他人也看的工具

CrowdView
人工智能搜索引擎,搜索各种...

Sih.ai换图
在线极速修图换图工具,一键换装/换发型/换脸/换背景/换风格。

Natural Language Playlist
Natural Language Playlist 探索语言和音乐之间丰富而复杂的关系,并使用 Transformer 语言模型构建播放列表。由于没有更好的术语,音乐推荐是一种“闭门造车”的东西。

ArticleForge
从产品描述到整个博客文章,A...