苹果、三星等手机上有了Wi-Fi通话的时候,中国运营商的服务还没见踪影;当商场、博物馆、机场越建越雄伟的时候,运营商愈发犯愁室内覆盖……这些,其实爱立信都能帮运营商出主意:比如用手机拨号就能直接实现Wi-Fi语音通话,比如有像女生用的粉饼大小的支持TD-LTE的爱立信点系统。
iPhone iOS8发布的时候,中国用户第一次见识到了Wi-Fi语音通话,随后,微信电话本推出,腾讯快速切入了Wi-Fi语音通话市场。这在业内人士看来,是苹果抛给运营商的一大难题。现在来看,爱立信可以帮运营商迅速补齐这一产品。
其实,基于Wi-Fi的语音通话的需求最早来自于北美运营商,T-Mobile是第一个商用此方案的运营商。T-Mobile为了吸引用户,还为申请这一服务的用户赠送了个人小基站,这样,即便用户身处异国他乡,也一样可以用Wi-Fi语音通话来享受优惠的资费。
在地广人稀的北美,室内的语音覆盖是运营商经常遇到的一个棘手问题,Wi-Fi语音通话能有效地利用家庭、企业、公共Wi-Fi热点补充传统宏网络的语音覆盖。除此之外,Wi-Fi上的语音通话还能提供更高质量的语音电话服务与数据服务,充分挖掘移动增值业务收入的潜力。
借助此服务,T-Mobile在美国市场的份额从第四跃升到第三。
现在,爱立信的Wi-Fi语音通话解决方案已经就绪,能够提供端到端的商用Wi-Fi语音方案,支持VoLTE与Wi-Fi语音之间无缝衔接,并且得到了主流芯片厂商高通和英特尔的支持。
值得一提的是,在用户体验上,爱立信的解决方案可以在手机自带的拨号中实现呼叫,不管是呼出的体验,还是语音通话的体验,都不会让用户感受到与普通的语音通话有什么不同。
图:在手机拨号里面就可以直接呼出Wi-Fi电话,不需要另行安装APP
图:用户可以根据自己的需要进行拨号设置,选择是否Wi-Fi电话优先
据介绍,2014年10月,爱立信在北京向中国电信演示了这一技术,并完成了国内的第一个Wi-Fi电话。
拨出一个Wi-Fi电话,很酷,当然还有更酷的,那就是一个像女生用的粉饼大小的爱立信点系统,只要插上一根普通网线,就能实现室内覆盖。
这个小东西只有300g重,只要固定到屋顶上都可以,而且屋顶也完全可以承受这个重量,建筑本身装修一般也都会预留网线,利用一根网线,就可以快速部署,降低了60%的馈缆成本。
图:爱立信点系统非常小巧
爱立信的工程师们自称这是一款“颜值很高”的产品,小巧、做工精细。
图:在爱立信东北亚区无线创新实验演示中心(WILD Center)的屋顶上就部署了点系统,如果没有工程师的标识,很难发现
目前,Claro、MTS、新加坡电信、西班牙电信、Verizon和沃达丰等都已开展了测试并进行了部署。在世界各地的实际部署结果表明,移动数据吞吐量增加了5倍,通话中断率降至零,大大提升了LTE的室内覆盖效果。
在2015年3月的巴塞罗那全球移动通信大会上,爱立信携手中国移动首次展示了支持TD-LTE的点系统。
能够“洋气”的根源还是来自爱立信在创新上的投入。
位于南京的爱立信熊猫通信有限公司,现在是爱立信全球的三大供应中心之一,南京熊猫通信有限公司的总裁唐伟德介绍,南京爱立信熊猫通信有限公司生产的产品主要是在中国的北京,还包括其他的研发机构来进行开发的,开发之后的产品主要是在爱立信南京进行工业化和进行量产的,面向全球的客户进行交付和发货。
在过去六年当中,南京研发中心提交了116项的专利,其中36项获得了批准,同时还提出了163项的改进实施。
尽管受到毛利率下降的困扰,但是,唐伟德指出,精益和敏捷的方式来去开发生产是需要继续秉承的,也是由此进一步提升爱立信的核心竞争力的路径,从而提升利润水平。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。