BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务

类似的工具

盘古大模型
各组织、企业、个人的专家助手

讯飞星火认知大模型
免费使用-AI写作、AI百科、AI问答

商汤商量SenseChat
商量商量,都能解决

ChatLaw-法律大模型
促进LLM在法律甚至其他垂直应用落地

乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

OpenBMB
可商业化使用的中英文双语基础模型
其他人也看的工具

wordtune
通过清晰、引人注目和真实的写作准确表达您的意思。

曹植GPT大语言模型
可内置在客户各类业务系统中提供专用服务

NeverEnds
生成更具电影感、真实性和实用性的AI镜头

pollinations
我们结合并微调算法以匹配任...

飞桨AI Studio星河社区
飞桨AI Studio星河社区-人工智能学习与实训社区