乾元BigBangTransformer

2个月前发布 16 00

中国首个金融垂直大模型开源家族

所在地:
中国
语言:
简体中文
收录时间:
2025-06-04
乾元BigBangTransformer乾元BigBangTransformer

乾元BigBangTransformer:国产大模型如何用金融级数据重塑AI竞争力?

这可能是金融业最具落地能力的语言模型

当你面对股票研报想自动提炼核心观点?或者需要快速解析几千份财报数据?乾元BigBangTransformer(简称BBT)就是专为解决这些专业场景而生的国产大模型家族。超对称团队从2022年起陆续开源这个系列:BBT-1-0.2B、1-1B、2-12B再到最新的2.5-13B,用独特的中文金融语料库训练出了比GPT更懂中国市场的语言大脑!

真正懂金融的大模型长这样

  • 跨模态金融大脑:BBT-1系列首创文本+时序数据训练架构,把股价分时图都喂给模型学习。在情绪分析任务准确率提升20%,就像给AI装上了K线图解读器
  • 垂直优化版本覆盖全场景:从10亿参数的BBT-1-1B(专攻研报解析)到130亿参数的BBT-2.5-13B(中英文通吃),按需选择大小脑容量简直不要太方便
  • 开源灵活度拉满:支持原始模型下载+自有数据续训+下游任务微调三大自由,想打造金融客服还是智能投顾都随你
版本训练特色实战表现
BBT-1-1B千亿金融Token+研报精炼财报关键数据抽取速度提升4倍
BBT-2-12B纯中文底座模型中文CLUE榜单金融类任务TOP3
BBT-2.5-13B2000亿中英混合Token跨境金融文档处理准确率88.7%

揭秘企业级AI部署成本

金融级大模型玩儿免费?想都别想!乾元系列官网明确显示:核心模型使用需邮件申请授权。目前公开渠道仅开放研究用途下载,商业部署直接联系邮箱 model@ssymmetry.com 获取报价。不过根据同业案例推测:要部署130亿参数模型,训练集群就烧掉上千万;这还不算数据清洗标注的隐形支出。好在提供了BBT-2这种120亿版本的开源选择,普通企业也能低成本试用。企业如果计划大规模部署,建议先评估自有算力——毕竟调130亿参数需要超高密度计算。这里倒是推荐了解下OpenNN的企业AI服务,专门满足高性能场景需求。

开发者视角:真实调教BBT生存指南

真香警告!用BBT-2-12B做本地化实验时发现三个惊喜:

  • 中文长文生成不飘移,生成2000字市场分析还能紧扣主题
  • 政策文件解析堪比专业合规官,自动标注修订条款稳得不行
  • 数据微调响应极快,5GB公司内部文档加载后2小时就产出可用模型

但坑也有:中文金融语料默认编码GBK差点让我破防!还好用上CUGE评测工具包发现BBT的金融NER(命名实体识别)性能居然达到94.3分,比通用模型高出一截,数据清洗的罪没白受。

相关导航

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...