BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
类似的工具
零一万物-官网01.ai
以 Project AI2.0 之名入局大模型
封神榜-IDEA研究院
最大的开源预训练模型体系
xAI Grok
使用xai的大型语言模型(LLM)进行聊天
CodeFuse
蚂蚁自研智能研发助手
阿里·通义千问
一个专门响应人类指令的大模型
阅文妙笔大模型
全面探索有声、漫画、动画、衍生等开发链条的AI应用。
其他人也看的工具
会读ReadFlow
帮你解决海量信息焦虑,为你提供好的TLDR内容摘要
CapCut剪映专业版
ai剪辑软件,让创作更简单
Natural Language Playlist
Natural Language Playlist 探索语言和音乐之间丰富而复杂的关系,并使用 Transformer 语言模型构建播放列表。由于没有更好的术语,音乐推荐是一种“闭门造车”的东西。
北京大学人工智能研究院
北京大学人工智能研究院(Institute for Artificial Intelligence, Peking University)于2019年4月27日宣布成立,作为学校直属的独立实体机构,是统筹全校相关资源、建设世界一流智能学科、服务国家人工智能重大战略、培养智能学科一流人才的主要支撑平台。
灵医智惠
构建多项医疗专项能力,覆盖临床、科研、管理、患者服务等多环节,支撑院内院外多种解决方案