BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
类似的工具
悟道·天鹰(Aquila)
国内数据合规需求的开源语言大模型
紫东太初 – 多模态大模型
全球首个多模态图文音预训练模型
MediaGPT:中文自媒体大模型
一个针对自媒体领域进行特殊训练的模型
SparkDesk讯飞星火认知大模型
从海量数据和大规模知识中持续进化,实现从提出、规划到解决问题的全流程闭环。
阅文妙笔大模型
全面探索有声、漫画、动画、衍生等开发链条的AI应用。
xAI Grok
使用xai的大型语言模型(LLM)进行聊天
其他人也看的工具
笔尖Ai写作
Ai智能写作,1000+写作模板,轻松原创,拒绝写作焦虑!一款在线Ai写作生成器
DeepMusic
为音乐行业提供新的体验和方案
飞链云AI绘画
一款免费且强大的在线AI生成图片的网站
AlibabaWOOD
阿里达摩院自动剪辑故事性的短视频
replit
在世界上任何地方、任何设备上协作地构建软件,而无需在设置上花费一秒钟
悟道·天鹰(Aquila)
国内数据合规需求的开源语言大模型
AI 中文社

