人随时随地都会有喜怒哀乐等情感的起伏变化。那么在人与人工智能交互过程中,机器是否能够体会人的喜怒哀乐,并见机行事呢?
2021年7月7日,2021世界人工智能大会的H2-B110展台,我们看到一个大屏幕上出现一位AI头像——“知心”,站在“知心”对面,它能够跟你对话,通过对话,生成一份心理情绪检测报告。这就是深圳市亚略特生物识别科技有限公司推出的“知心”情感计算。
亚略特展台——“大观视界”
情感计算研究就是试图创建一种能感知、识别和理解人的情感,并能针对人的情感做出智能、灵敏、友好反应的计算系统,即赋予计算机像人一样的观察、理解和生成各种情感特征的能力。
亚略特展台——“知心情感计算”
知心系统是基于脑电科学领域前庭情绪反馈(VER技术)的研究,是远程非接触式的生物信号技术和人工智能的深度学习技术为基础的情感计算产品。通过赋予人工智能识别、理解、表达和适应人的情感的能力来建立和谐人机环境,并使人工智能具有更高的、全面的智能。这是人工智能从感知到认知智能发展的关键技术之一。
知心系统由算法、应用、专用硬件三大类组成,由于亚略特公司具有自主的“算法、芯片、模块、应用、平台、智能硬件制造”六位一体能力,也率先突破了“无感检测、深度描述、多人群动态切割、环境去噪、动静分离、专用设备一体化”等重大技术难题,从2020年1月份起将“技术”搬到了“应用现场”,目前已经应用到社会层面多个“重点岗位”等领域的心理监测。
观众现场体验“知心情感计算”
亚略特在人工智能和生物识别行业耕耘的17年间,拥有200多项多模态生物识别技术专利,生物识别算法和产品已通过中国相关部门GA评测、印度STQC认证和美国MINEX/FBI认证,相关产品及解决方案已落地覆盖全国30多个省市,并销往美国、意大利、墨西哥、西班牙、印度、菲律宾、泰国、安哥拉、尼日利亚、乌干达等十余个国家,正为全球超20亿人口提供生物认证产品和服务。
亚略特在“情感计算”领域,不管是在底层算法还是实际项目经验上,都已经具备了产业化的底蕴和能力,亚略特希望能够赋能更多的友商、合作伙伴、行业,实现更多的场景化AI落地。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。
上海AI实验室团队发现自回归图像生成模型存在局部依赖、语义不一致和空间不变性缺失三大问题,提出ST-AR训练方法。该方法通过掩码注意力、跨步骤对比学习和跨视角对比学习,让AI"先理解再生成"。实验显示,ST-AR将LlamaGen模型的图像理解准确率提升一倍以上,图像生成质量提升42-49%,为构建更智能的多模态AI系统开辟新路径。