微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 宝洁、本田、可口可乐这些公司正在利用AI捕捉你的喜怒哀乐

宝洁、本田、可口可乐这些公司正在利用AI捕捉你的喜怒哀乐

2018-01-24 16:36
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2018-01-24 16:36 CNET科技行者

《去年AI当了回电影节作品编剧,现在MIT又训练它来预测观众泪点》)中,我们介绍了麻省理工学院(MIT)Media Lab如何通过AI来分析影片中常见的情感曲线,从而识别和预测人类的泪点。

今天,我们将进一步介绍AI如何通过用户或潜在用户的面部表情、语言文字甚至肢体语言,来实现情绪识别,并反馈到企业、机构和市场等场景中。

宝洁、本田、可口可乐这些公司正在利用AI关心你的情绪

往前追溯,情感人工智能技术最早是由Affectiva公司开发的,而情绪识别一词则是由EMRAYS公司提出。两者都在借助功能强大的AI软件,识别人类收看广告和撰写评论时表达的情绪。

以下我们将对两家公司做简单介绍:

借助情感智能连接用户,洞察需求

Affectiva隶属麻省理工学院(MIT)的Media Lab,2009年由Rosalind Picard 博士和Rana el Kaliouby博士(现公司CEO)联手创建。Picard是工程博士,曾于1997年出版了Affective Computing,该书为情感智能技术的研究奠定了重要的基础。目前,Picard仍就职于MIT,并兼任Affectiva的经理,有时还写书,并有持续的发明创造。

Picard博士在剑桥大学访学期间,与Kaliouby博士相识。当时,Kaliouby博士正在研究如何实现设备及数据体验的情感智能,并试图研发出能够实时识别和反馈用户情感的初步算法。因为想法的不谋而合,两人决定联手研发有助于自闭症患者社交的可戴式眼镜,以此向美国国家科学基金会(National Science Foundation)提出了立项申请,并得以通过。随后,Kaliouby也加入了MIT Media Lab。

在过去的很长一段时间里,MIT Media Lab一直希望能将情感识别技术应用于各自行业。譬如,日本丰田(Toyota)希望借助该技术监测司机在驾驶过程中的疲劳状态,宝洁(Procter and Gamble)希望借此洞察用户对于新香味沐浴露的反馈,火狐(Fox)则想借其探究观众如何与电视节目互动

为满足以上一系列的需求,经过多轮的商讨和研究,Affectiva应运而生,并获得MIT Media Lab的全力支持。

Affectiva的第一款产品诞生于2010年,客户多为媒体、广告和市场调研公司,如跨国市场调研公司Kantar Millward Brown。

如今,已有1400多家公司正在使用该技术来观察和分析顾客的情感参与度。Affectiva将其产品定位为一个集计算机视觉、深度学习和世界上最大的情感数据库于一身的情感智能技术平台

三年前,Affectiva发布了情感识别软件开发包(SDK),紧接着又推出了移动版SDK,如今,该产品已经能在七种平台上运行。经过E轮融资后,截至目前Affectiva共融资2630万美元。

而现如今,我们看到,事实上除了媒体、广告和市场调研公司之外,教育和医疗健康等领域也越来越关注如何利用情感识别技术记录情感,连接用户,洞察用户需求。“过去的八到十个月,大批一线公司都在咨询该技术,需求数量急剧增加。”Affectiva首席市场官Gabi Zijderveld称,“无人驾驶汽车领域也开始着眼情感智能,从而实现所谓的‘司机状态监测’。此外,Zijderveld还表示,已经有无人驾驶汽车制造商正在开展相关的实验项目。

据她介绍,Affectiva的情感识别软件已经分析了来自87个国家的20亿张面孔。[编者按:2016年全球人口数为74亿。]受试者的酬劳为5小时25美元。

EMRAYS:对多语言文本进行情感解析

EMRAYS创建于荷兰,其技术主要用于识别学术和商业文本。“我们是多语言情感识别软件分析公司,” EMRAYS 的首席市场官和联合创始人Michiel Maandag表示:“我们的技术可通过分析多语言文本,预测读者自然和无偏见的情感反馈。”

EMRAYS的四名创始人和现任CEO分别为:CEO和首席科学家Ilia Zaitsev是俄罗斯彼得斯堡大学的计算语言学博士,他致力于借助机器学习技术分析语言,从文本中提取情感情绪建立模型;首席技术官和首席数据师Paul Tero拥有加州大学伯克利分校计算机科学本科学位和苏塞克斯大学进化和自适应系统专业的硕士学位;首席体验官Cliff Crosbie曾任耐克、诺基亚、宜家和苹果公司的零售和销售主管;首席营销官Michiel Maandag曾任诺基亚品牌总监,现为独立营销专家,与多家行业品牌进行过合作。

公司现主要提供四种产品:其一,软件即服务(SaaS)平台,主要针对博主、记者、作家,用于研究并检查其作品所带来的情感影响;其二,用于情感分析的社交倾听(Social Listening)产品;面向媒体机构和企业的广告定位产品;针对研发者的应用程序界面(API)和软件开发包(SDK)。

EMRAYS曾用名为Emotions.Tech,于2017年7月正式更名,并于同年加入英伟达(NVIDIA)项目,与英国的独立搜索供应商Mojeek合作研发情感搜索引擎,目的是根据用户情感需求提供搜索结果。

EMRAYS的首席技术官Paul Tero表示:“依据观众的情绪回馈分析数字内容,能够重新定义人类与技术之间的关系。同时,网络广告商也能针对消费者情感需求投放广告。”

具体来看,识别文本情感需处理大量文本。而EMRAYS通过使用英伟达的GPU来完善深度学习,根据网页中体现情感的内容进行排名、罗列和搜索。Tero 表示,“该技术可帮助我们快速掌握人类复杂的情绪。” “NVIDIA GPU是我们系统的运行基础,不到一毫秒可处理一页元数据标记,比普通GPU要快50倍。”

为关注读者的情绪反馈,EMRAYS的研究工具不仅统计了文本中积极和消极词汇的数量,分析了作者的语气。此外,还每天收集社交媒体上的数百万条反馈,继而借助这些数据训练人工神经网络,预测人类在阅读某段内容时可能产生的情绪。EMRAYS表示自己已经分析了十亿多个情绪数据点。Facebook和Twitter社交媒体平台每天都能通过这样的方式为EMRAYS提供大量信息训练数据,进一步提升神经网络准确度。

据了解,目前EMRAYS能够处理的语言包括了英语、挪威语、荷兰语、瑞典语和俄罗斯语等。

而为了观察软件的工作原理,EMRAYS还聘请了包括记者在内的用户参与测试。公司联合创立人兼首席营销官Michiel Maandag接受AI Trends网站采访时表示,对作家来说,这就像情绪“语法检查器”。“实际上,即便顺利完成情绪分析,也无法理解其真正含义。而我们却可以了解文本是如何影响读者的。” Maandag说。

涉足情绪识别领域的其他公司

  • Innerscope:消费者研究公司Nielsen去年收购了Innerscope,该公司通过使用大脑扫描和皮肤电反应(GSR)等生物测定技术,从而识别人们潜意识中对媒体和营销的情绪反应。
  • 初创公司Emotient每天收集并标记100,000个面部图像,此方法已申请专利,可以帮助计算机实现面部表情识别能力。2016年Emotient被苹果收购。未来,其情绪识别技术很可能会被iPhone和iPad采用,从而使得用户的搜索更具针对性,更加人性化。
  • 除此之外,nViso公司正在为网站和移动应用提供实时情绪识别服务;Visage Technologies AB公司在Visage的软件开发包中增加了情绪评估服务,用于市场营销和科学研究;情绪识别公司Eyeris的正在与包括汽车制造商等嵌入式系统制造商、社交机器人公司和视频内容创作方在内的公司一起,致力于情绪识别技术的落地应用。

宝洁、本田、可口可乐这些公司正在利用AI关心你的情绪




其中,家乐氏正在利用Affectiva开发的软件帮助Crunchy Nut麦片的实现广告创意,意图吸引更多消费者。比如,Affectiva发现,当观众们观看了动物主题的各版本商业广告时,其中以蛇为主角的版本反响最好,但观看第二遍时,吸引力却大大降低;再比如,Affectiva发现,以外星人为主题的广告非常受到观众的欢迎,因此,家乐氏推出了外星人主题广告推动谷类食品销售。

总而言之,情感人工智能和情绪识别技术正在日趋成熟,并广泛应用于计算机交互各领域。这意味着,我们正在一起走进一个情绪被监测、评估和记录的时代。

| 来源:AI Trends;作者:John P. Desmond;编译整理:科技行者

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-