BigBang Transformer[乾元]是基于GPT Decoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
模型开源后所有开发者可以:
1. 可以直接调用大模型进行对话
2. 在我们训练的基础上使用自由语料库继续训练
3. 对大模型进行微调训练以满足各种下游任务
类似的工具
K2-上海交通大学
一个地球科学的开源大预言模型
xAI Grok
使用xai的大型语言模型(LLM)进行聊天
TigerBot
以世界级的基础大模型,贡献于中国式的创新。
商汤商量SenseChat
商量商量,都能解决
言犀
人机交互平台,懂业务更懂你
轩辕大模型
国内首个开源的千亿级中文对话大模型
其他人也看的工具
山海大模型
人类的良师益友,也是灵动强大的智能助理
商汤日日新大模型
“大模型+大算力”是商汤科技在通用人工智能领域
Stability AI
一个专门的开发者平台和动画艺术家的Discord社区
ZAKER-AI智能客服
机器人客服、智能客服、ai机器人客服
AI觉醒社区
以AIGC为主题的学习与交流、资源对接的一站式平台!
Connected Papers
对某一研究领域有一个直观的...