CNET科技资讯网 5月26日 北京消息: 5月26日,在贵阳数博会“机器智能”高峰对话上,全球IT届的多位领军人物就MI(机器智能)与AI(人工智能)的区别展开激烈讨论。
“只要创造出关于动物和人的智能,都可以叫做人工智能。但人与动物不具备的智能,如果机器具备了,那就是机器智能,这是我的理解。”阿里巴巴技术委员会主席王坚说。
王坚举例说,最常见的人工智能就是创造一个聊天机器人,基本上是过去人能做的事情。但是去年我们给杭州装一个城市大脑,那是一个人也不具备的智能,我觉得更适合机器智能。
美国硅谷著名创业家、天使投资人史蒂夫·霍夫曼认为,AI是拿图灵测试作为定义,能与人进行互动通过图灵测试的都是AI。MI会是人机共生的核心点,我希望在有生之年能看到MI无处不在。因为今天我所做的很多决定,如果有MI辅助,我可以作出更好的决定,这让每个人未来可以发挥潜力。“我是写书的,写每一本书的时候要做大量的研究工作,如果有MI帮我收集信息、整理信息,把最相关的信息提取出来,我可以用更短时间写出更有水平的书。”
斯坦福大学人工智能与伦理学教授杰瑞·卡普兰认为,机器智能不应该认为它是让机器变得像人一样有智慧,应该看成是新一代的自动化。它不是来取代人,它是来辅助人,还会有大量的工作岗位,现在就有很多工作岗位不能靠自动化来取代,这个技术它会改变工作的性质,让我们工作变得更加高效。如果从这个视角来理解,机器智能是自动化的延伸。
北京大数据研究院院长鄂维南认为,机器智能的核心是会学习的机器,它将会把我们带入智能化社会,就像当年造出了会劳动的机器把我们代入了工业化社会一样。
机器智能如此无所不能,是否会取代人类?对此,王坚打了一个有趣的比喻:“我们拿一条狗让它去找毒品的时候从来没有说过我们的鼻子被狗的鼻子给取代了。”他认为,我们要尊重机器在某些方面的能力超越人类。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。