
今日(美国时间9月10日)是英特尔IDF2014召开的第二天,在上午的主题演讲中,英特尔高级副总裁兼数据中心事业部总经理柏安娜称,有调查机构认为数据正以42%的速度增长。
柏安娜指出,虽然数据持续增长,但利用率却以50%速度下降,应用虚拟存储软件方法、统一硬件平台、硅光电传输等方法解决。
事实上在进入主题演讲大厅之前,记者在一展台上看到英特尔与柯达合作的流量分析解决方案,将两小时实路况信息压缩为一分钟显现,使之达到充分利用。
柏安娜认为,如果前端用凌动、酷睿,后台用至强,数据传输效率就自然提高;而铜缆传3M max@100Gbps用硅光电缆就会达到>300M@100Gbps,且可靠性相对高。即用铜传3米/100Gbps,而用硅光电则能传300米/100Gbps。
柏安娜指出,未来的基础架构将被软件定义。为此,英特尔正在大力推广软件定义基础设施的生态链建设。而英特尔在9月8日新发布的至强E5-2600 v3处理器,则是软件定义基础设施的基础。
在本届IDF上,7家公司展示了利用即将推出的英特尔硅光子光学模块开发的早期原型设备,该技术把光子模块的速度(100Gbps)和范围(目前最高300米,未来将达到2000米)与CMOS制造具体的批量和可靠性等优势相结合。
柏安娜在演讲中透露,英特尔正在向客户提供英特尔至强处理器D产品家族的样品。这款产品是第一款英特尔至强品牌的系统芯片(SoC),也是第三代面向数据中心的英特尔64位SoC。英特尔至强处理器D产品家族预计在2015年上半年投产。
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。