谷歌发布长上下文基础模型 TimesFM-2.5
上周三

谷歌发布拥有 2 亿参数的纯解码器架构时间序列基础模型 TimesFM-2.5,支持 16K 上下文长度,原生具备概率预测能力,推动时间序列预测迈向实用化。它在 GIFT-Eval 基准测试零样本基础模型中表现优异,通过减半参数规模、扩展上下文长度实现效率与性能突破。目前已在 Hugging Face 开放访问,与 BigQuery 及 Model Garden 的集成正在推进,有望加速零样本时间序列预测在真实业务场景落地。

专业版功能专业版功能
登录
体验专业版特色功能,拓展更丰富、更全面的相关内容。

行业标签

二维码

更多体验

前往小程序

二维码

24 小时

资讯推送

进群体验

logo
科技新闻,每天 3 分钟