
云从科技从容大模型
国产AI领军者云从从容大模型,以多模态技术撬动千行百业智能变革,打造高度可定制的一站式解决方案。
当你面对股票研报想自动提炼核心观点?或者需要快速解析几千份财报数据?乾元BigBangTransformer(简称BBT)就是专为解决这些专业场景而生的国产大模型家族。超对称团队从2022年起陆续开源这个系列:BBT-1-0.2B、1-1B、2-12B再到最新的2.5-13B,用独特的中文金融语料库训练出了比GPT更懂中国市场的语言大脑!
| 版本 | 训练特色 | 实战表现 |
|---|---|---|
| BBT-1-1B | 千亿金融Token+研报精炼 | 财报关键数据抽取速度提升4倍 |
| BBT-2-12B | 纯中文底座模型 | 中文CLUE榜单金融类任务TOP3 |
| BBT-2.5-13B | 2000亿中英混合Token | 跨境金融文档处理准确率88.7% |
金融级大模型玩儿免费?想都别想!乾元系列官网明确显示:核心模型使用需邮件申请授权。目前公开渠道仅开放研究用途下载,商业部署直接联系邮箱 model@ssymmetry.com 获取报价。不过根据同业案例推测:要部署130亿参数模型,训练集群就烧掉上千万;这还不算数据清洗标注的隐形支出。好在提供了BBT-2这种120亿版本的开源选择,普通企业也能低成本试用。企业如果计划大规模部署,建议先评估自有算力——毕竟调130亿参数需要超高密度计算。这里倒是推荐了解下OpenNN的企业AI服务,专门满足高性能场景需求。
真香警告!用BBT-2-12B做本地化实验时发现三个惊喜:
但坑也有:中文金融语料默认编码GBK差点让我破防!还好用上CUGE评测工具包发现BBT的金融NER(命名实体识别)性能居然达到94.3分,比通用模型高出一截,数据清洗的罪没白受。







