
12月27日,紫光展锐CEO楚庆通过线上发布会官宣,公司的第二代5G芯片平台实现客户产品量产——这是公司首款6nm 5G芯片,支持5G Rel-16标准,意味着公司已具备先进制程芯片的研发与商用能力。
当下,展锐正在全力冲击5G芯片,过去两年内发布了两代5G芯片,第二代包括两款产品:唐古拉T770、唐古拉T760。目前,T770搭载在中国电信的新一代云手机天翼1号上,T760搭载在中兴和海信的新一代5G手机上,其中中国电信和中兴的手机将于2022年上市,另外T760芯片还搭载在海信的一款5G车载平板上。
据官方介绍,相比第一代,第二代芯片在性能上最高提升100%以上,在集成度上提升超过100%,在性能、功耗、安全、生产力之间也取得最佳的平衡。实现客户产品量产,意味着芯片平台的产品成熟度和质量都已达到了能够直接面向消费者等最终用户的状态,只有实现客户产品量产,才真正代表芯片平台完全达到了设计目标。
紫光展锐的5G芯片在第一代产品上采用12nm工艺,第二代采用6nm工艺,两种工艺都属于先进工艺范畴。楚庆表示,后者的经济投入要比前者大5倍以上,越往下一代工艺,投入就越大,从6nm到5nm的经济投入会提升2.5至3倍。
5G手机的基带芯片,一直是芯片技术最为复杂的领域之一。作为一种让全球各个区域都能使用的通用芯片,要支持不同国家地区的不同频段,这使得芯片设计极为复杂,仅仅是对2G、3G、4G兼容这一项要求,就足以让大多数厂商望而却步。研发5G,考验着公司团队的前期研发、技术储备、资金实力,投入巨大。
楚庆坦言,5G芯片研发难度很大,因为那是一整套方案,且“覆盖了人类有关芯片知识的全版图”。展锐第二代5G芯片平台拥有完整的5G主平台套片+可选配的5G射频前端套片等多达十多颗芯片。其中5G主平台套片包含主芯片、Transceiver、电源管理芯片以及connectivity芯片等7颗芯片;5G射频前端套片包含PA等多颗芯片。
楚庆称,客户现在也要求紫光展锐提高到先进厂商的行列,“后面的竞争只会是越来越激烈,所以在每一款芯片上,公司都是在赌命,如果赌输了的话,后果可能是倒闭”。同时,展锐也在进行治理架构的调整,这也是一项巨大挑战和不确定因素。
对于产业未来,楚庆表示乐观。“2022年,按我的判断,会发生一个逆转。”楚庆说道,芯片经历了近一年的供应短缺之后,到明年第三季度,将从供应短缺阶段进入到供应充足阶段、再到供过于求的阶段。“在供过于求的局面里,大家都可以获得丰富的产业资源,如果这个时候不能利用好这些机会给自己填满燃料、全速前进,别人将超过你,你将失去机会。”
他认为,无论是处于紧缺时代,还是供应充足的时代,对于5G玩家而言,都有不同的赛道,但最终竞争结果是一样的,就是优胜劣汰。
楚庆还称,当前中国的5G发展带来了巨大机遇。他表示,只有东亚还在正常且迅速地推进5G,其中主要是东亚三国——中国、日本和韩国,尤以中国为甚。“现在中国的六百多个地级市都被5G覆盖了。”他认为,“如果你是一商人,必须发现这一点。而且,一定要有实际行动,与其临渊羡鱼,不如退而结网,赶紧做好发掘未来金矿的准备,否则会错过这辈子最好的机遇。”
尤其是今年才封板公布的5G Rel-16标准,它才是真正释放5G全部潜力的标准。“我们有关它是如何改造人类社会的,如何改造工业体系的,这些想象力,全部都写在R16里面。我们需要长期集中重兵攻坚它。”楚庆说。
过去近1年内,展锐与运营商在5G Rel-16技术方面进行了深入合作。今年7月30号,展锐与联通一起首发全球第一个R16的版本,另外,展锐与三大运营商共同做了切片的全链路的测试,获得了成功。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。