自从去年苹果发布iPhone 5s时宣布使用64位处理器以后,高通、英特尔、联发科等芯片大厂也纷纷跟进推出了自主研发的64位处理器产品。而一直在芯片市场上辛勤耕耘的Marvell也不甘示弱,近日推出两款64位4G LTE移动芯片——ARMADA Mobile PXA1936和PXA1908。
两者均采用ARM Cortex A53 64位架构CPU,其中PXA1936是一款8核芯片,提供优秀的图形和安全功能、高性能图像处理能力以及集成的SensorHub功能,适用于全球高性能智能手机和平板电脑。而PXA1908是一款经过成本优化的移动处理器针对全球快速增长的5模4G LTE大众市场,属于Marvell 4核 64位移动LTE SoC系列。
Marvell是全球化的移动产品提供商,为移动通信、存储、物联网(IoT)、云基础设施方面都提供完整芯片解决方案。除了中国,目前在美国、以色列、日本、欧洲、印度等国家都有设计中心。在发布会现场,Marvell全球副总裁李春潮表示,Marvell明年在中国的战略核心将放在移动业务上。
“目前LTE发展非常快,全球已有约4亿部LTE手机或终端,明年还会继续增长。今年年初时,Marvell大部分的LTE产品都是以运营商市场为主,而下半年公开市场和电商市场也成为了很重要的市场。”
事实上,Marvell在进军4G手机之前就已经定调了其千元4G的地位,并在上一年发布了首款支持4G LTE的1088 LTE这款业内首款四核心LTE单芯片,在中国移动主导的TD-SCDMA领域,Marvell将重点放在了TD-LTE制式网络的支持上。
目前,与Marvell深度的合作伙伴有中国移动、联通、三星、中华酷联,最近魅族刚刚发布的一款高端手机MX4 Pro,也是采用了Marvell的LTE方案。
刚刚过去的第三季度Marvell帮助合作伙伴推出了非常多的LTE手机,市场份额表现良好。目前,在中国LTE市场,Marvell是前两名的芯片供应商,在全球也是第二。Marvell对终端芯片市场非常有信心,并会继续加大力度发展。
对于实现移动计算、社交网络、云游戏以及其他数据密集型应用而言,4G LTE是非常关键的技术,已经成为我们日常生活中不可或缺的组成部分。作为全球领导厂商,用优秀的创新和发明为人们提供更好的生活体验是Marvell所肩负的使命,也是Marvell的激情所在。
此次发布的两款4G LTE芯片中,ARMADA Mobile PXA1936采用了Marvell低功耗SensorHub技术,提供优秀的传感器数据融合能力。作为Marvell 64位移动SoC系列的组成部分,该产品还为设备制造商开发基于安卓操作系统5.0的64位平板电脑和智能手机创造了机会。
Marvell PXA1936拥有八个CPU核心,主频为1.5GHz,支持1080p显示以及视频编解码、1300万像素至1600万像素的相机,并增强了安全处理器功能。而Marvell PXA1908则拥有四个CPU核心,主频为1.2GHz,支持720p显示以及800万像素摄像头。
值得一提的是,ARMADA Mobile PXA1936与PXA1908 SoC在软件上完全兼容,从而使OEM和ODM能够快速无缝地推出高性能8核手机。两者在都支持目前最流行的蜂窝通信技术,包括TD-LTE、FDD-LTE、TD-SCDMA、WCDMA和 GSM。
目前,64位4核5模LTE SoC用来满足快速增长的LTE市场需求,简便地实现了2G和3G连接与4G LTE集成。而Marvell 64位系列移动SoC已准备好为设备制造商基于安卓5.0操作系统开发,用于64位平板电脑和智能手机,预计一些重要智能手机厂商将于2015年初开始在全球发布采用Marvell PXA1908的产品。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。