Google当地时间周三在Google I/O开发者会议上宣布,“L”版Android将采用一种全新的软件基础技术,使应用性能提升1倍。
名为Android Runtime(ART)的软件层将取代目前的Dalvik软件。Dalvik的任务是运行为Android智能手机和平板电脑编写的应用。Android技术主管戴夫·伯格(Dave Burke)援引大量测试结果称,ART将能使Android应用性能翻一番,“应用无须进行任何调整、优化,应用性能的提升是‘免费’的”。
性能对于移动应用非常重要。性能的提高使开发者能开发具有更复杂功能的应用,为工具类软件添加更有趣的界面,吸引用户更多地运行移动应用。
Google去年在Android 4.4 KitKat中引入了原型版ART,但默认情况下没有激活。原型版ART存在部分兼容性问题,现在Google显然认为它已经解决了这一ART存在的问题。伯克说,开发者无须对软件进行任何改动。
ART还引入了一个大变化:支持64位芯片。ART支持ARM的64位ARMv8架构、英特尔和AMD的64位X86、MIPS的MIPS64。
苹果已经转向64位计算技术,使用户能使用新的加速功能,访问超过4GB的内存。Android生态链也将转向64位。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。