借助司机助理系统,无人驾驶汽车依赖雷达、激光和摄像头看清道路,但所有信息还需要进行分析、领会。Nvidia在CES展上演示了其新款K1图形处理器如何识别街面信号、车道线与其他交通工具的全过程。
Nvidia在其展台进行了演示,安装有K1芯片的测试台记录了一段由一个摄像头拍摄到的路面行驶视频。借助图像识别资料库,K1图形芯片分析视频,将速度限制信号标为红色、其他交通工具标为蓝色,车道线标为绿色。
芯片不停地处理着视频,与现实世界并无两样。
Nvidia自动化主管丹尼·夏皮罗(Danny Shapiro)向CNET表示,早期的Tegra芯片无法达到演示中显示的K1处理水平,新款KI处理器能耗却与Tegra相似,仅为5-7瓦。
K1芯片是汽车的幕后“工作者”,分析大量传感器传来的实时数据,创建即时环境3D模型。汽车厂商负责适当的回应,通过刹车或方向盘进行控制或报警,对环境因素做出响应。
Nvidia演示时,K1芯片分析速度限制信号,并在显示屏上显示当前速度。
夏皮罗指出,Nvidia能够针对不同目标、街道标识和信号提供一个视觉识别模式基本资料库,但汽车厂商还需要通过广泛的现实世界测试细化识别模式。
奥迪、宝马和Tesla汽车目前均采用Nvidia芯片。奥迪在CES展上宣布未来一款汽车将使用Nvidia K1芯片。夏皮罗表示,Nvidia将在今年3月份举办的日内瓦车展上公布一个新客户——一家亚洲主流汽车厂商。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。