今日(美国时间9月10日)是英特尔IDF2014召开的第二天,在上午的主题演讲中,英特尔高级副总裁兼数据中心事业部总经理柏安娜称,有调查机构认为数据正以42%的速度增长。
柏安娜指出,虽然数据持续增长,但利用率却以50%速度下降,应用虚拟存储软件方法、统一硬件平台、硅光电传输等方法解决。
事实上在进入主题演讲大厅之前,记者在一展台上看到英特尔与柯达合作的流量分析解决方案,将两小时实路况信息压缩为一分钟显现,使之达到充分利用。
柏安娜认为,如果前端用凌动、酷睿,后台用至强,数据传输效率就自然提高;而铜缆传3M max@100Gbps用硅光电缆就会达到>300M@100Gbps,且可靠性相对高。即用铜传3米/100Gbps,而用硅光电则能传300米/100Gbps。
柏安娜指出,未来的基础架构将被软件定义。为此,英特尔正在大力推广软件定义基础设施的生态链建设。而英特尔在9月8日新发布的至强E5-2600 v3处理器,则是软件定义基础设施的基础。
在本届IDF上,7家公司展示了利用即将推出的英特尔硅光子光学模块开发的早期原型设备,该技术把光子模块的速度(100Gbps)和范围(目前最高300米,未来将达到2000米)与CMOS制造具体的批量和可靠性等优势相结合。
柏安娜在演讲中透露,英特尔正在向客户提供英特尔至强处理器D产品家族的样品。这款产品是第一款英特尔至强品牌的系统芯片(SoC),也是第三代面向数据中心的英特尔64位SoC。英特尔至强处理器D产品家族预计在2015年上半年投产。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。