第六届“Qualcomm大中华区高校合作科研项目研讨会”期间,来自内地、香港、台湾的十所高校的19个项目组展示了“ Qualcomm高校合作科研项目”最新成果。
回顾历史,Qualcomm与国内高校合作由来已久。早在1998年,Qualcomm与北京邮电大学共同创建联合研发中心;随后,扩展至中国各知名学府和科研院所,连续17年为中国高校研究提供资金资助,支持校内讲座竞赛;迄今,Qualcomm中国高校合作科研项目共发表了超过600篇学术文章,上千名学生受益。
在与高校合作过程当中,Qualcomm研发副总裁范明熙透露,Qualcomm选择高校一般从技术领域、未来发展两方面考虑。从技术领域来说,Qualcomm比较看重的是通信和计算。
研发部门,Qualcomm重点关注的方向为:解决千倍数据增长挑战、推动计算平台的未来发展、将数字第六感变为现实、支持智能家居、加强移动用户体验等。
今年,多个合作项目围绕上述方向开展。
计算方面,与上海交通大学合作的“行人检测与跟踪”项目,这也是Qualcomm汽车辅助驾驶项目的一部分:汽车摄像头获得车外影像,随即进行分析,以辨识是否有行人,以及行人的运动轨迹;
与台湾清华大学合作的“使用立体摄像头的快速深度图计算”项目,合作中增加了一个难点:输入的立体视频是由两个不同分辨率的摄像头获取,如果此难点得以解决,未来将在智能手机上产生很多全新应用,如距离估算、视频分割等;
连接方面,与清华大学合作,通过对大规模 MIMO技术的分析研究,以进一步提升无线网络的性能;
与香港中文大学合作,完成一种全新编码理论,有别于现有通信网络中的编码技术,目标是提高传输效率。
范明熙坦言,Qualcomm和高校的合作模式是多样化的,总体来说归为两种。一种是,合作所取得的成果,在近期或者两三年之内可以逐渐转化为产品。这个模式就需要我们的产品团队、研发团队跟高校有非常紧密的合作和沟通;另外一种是,一些技术虽然目前看起来还处于早期,但将来五到十年之内有发展空间。
在这种合作模式中,研究项目的自主权在学校,Qualcomm会定期和学校交流,可能是每两周或者每两、三个月。
这样一来,和企业的合作同时也让高校教育受益。
中国科学院计算技术研究所研究员、博士生导师陈熙霖表示,和企业合作告诉我们,应该培养什么样的人才,什么样的人才是企业真正需要的。
其次,做工科研究,我们需要有一个实验场,这个实验场和学生将来工作的环境尽可能的接近,这样培养出来的学生在真正参与工作的时候,所需二次训练的时间就会缩短。
第三,这种合作可以使我们教师不断地自我学习、自我教育,从而不断进步,其中包括和企业的交流以及自己科研能力的进步。
北京邮电大学信息与通信工程学院副教授、硕士生导师牛凯表示赞同:“和Qualcomm合作过程中,我们实验室很多学生都因为出色的能力被Qualcomm录用,目前也在从事通信方面研究,相当于真正的学有所用。”
Qualcomm以无线通信发家,极其注重研发投入。截至2014年第四季度,Qualcomm的研发投入累计超过328亿美元。2014年间,按照GAAP准则,Qualcomm研发投入近 55亿美元,占年度营收20%。
关键的是,一直以来,Qualcomm将研发力量投入中国,据范明熙介绍,从上世纪90年代,Qualcomm先后在北京、上海、深圳及西安开设了四个分公司,并先后在北京和上海设置了两个研发中心。而北京亦是Qualcomm最早设立的海外研发中心,当北京研发中心获得成功之后,此模式被推广到了世界其他国家。
此外,“Qualcomm大中华区高校合作项目交流会”期间,Qualcomm宣布设立新的奖学金项目,并承诺向北京大学和清华大学提供50万美元奖学金基金。
右:北京大学教育基金会欧美部部长赵琳
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。