人随时随地都会有喜怒哀乐等情感的起伏变化。那么在人与人工智能交互过程中,机器是否能够体会人的喜怒哀乐,并见机行事呢?
2021年7月7日,2021世界人工智能大会的H2-B110展台,我们看到一个大屏幕上出现一位AI头像——“知心”,站在“知心”对面,它能够跟你对话,通过对话,生成一份心理情绪检测报告。这就是深圳市亚略特生物识别科技有限公司推出的“知心”情感计算。
亚略特展台——“大观视界”
情感计算研究就是试图创建一种能感知、识别和理解人的情感,并能针对人的情感做出智能、灵敏、友好反应的计算系统,即赋予计算机像人一样的观察、理解和生成各种情感特征的能力。
亚略特展台——“知心情感计算”
知心系统是基于脑电科学领域前庭情绪反馈(VER技术)的研究,是远程非接触式的生物信号技术和人工智能的深度学习技术为基础的情感计算产品。通过赋予人工智能识别、理解、表达和适应人的情感的能力来建立和谐人机环境,并使人工智能具有更高的、全面的智能。这是人工智能从感知到认知智能发展的关键技术之一。
知心系统由算法、应用、专用硬件三大类组成,由于亚略特公司具有自主的“算法、芯片、模块、应用、平台、智能硬件制造”六位一体能力,也率先突破了“无感检测、深度描述、多人群动态切割、环境去噪、动静分离、专用设备一体化”等重大技术难题,从2020年1月份起将“技术”搬到了“应用现场”,目前已经应用到社会层面多个“重点岗位”等领域的心理监测。
观众现场体验“知心情感计算”
亚略特在人工智能和生物识别行业耕耘的17年间,拥有200多项多模态生物识别技术专利,生物识别算法和产品已通过中国相关部门GA评测、印度STQC认证和美国MINEX/FBI认证,相关产品及解决方案已落地覆盖全国30多个省市,并销往美国、意大利、墨西哥、西班牙、印度、菲律宾、泰国、安哥拉、尼日利亚、乌干达等十余个国家,正为全球超20亿人口提供生物认证产品和服务。
亚略特在“情感计算”领域,不管是在底层算法还是实际项目经验上,都已经具备了产业化的底蕴和能力,亚略特希望能够赋能更多的友商、合作伙伴、行业,实现更多的场景化AI落地。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。