英伟达发布最新小型语言模型 Nemotron-Nano-9B-V2,参数量为 90 亿,优化适配 A10 GPU,处理速度比同规模 Transformer 模型快 6 倍。该模型融合 Transformer 与 Mamba 架构,提升长上下文处理能力,并支持多语言及代码生成任务。其内置「推理」功能允许用户进行自我检查和控制输出质量。模型采用开放许可协议,企业可免费用于商业用途。