来自 WSJ 的消息,位于伦敦的初创公司Realeyes近日获得了欧盟360万欧元(390万美元)的拨款奖励。
Realeyes 创立于2007年,利用图像处理、人工智能、计算机视觉等技术帮助,通过使用网络摄像头或智能手机监测追踪人的面部表情数据,以进行人的情绪识别和行为反 应分析。目前,Realeyes已建立起超过500万帧的人脸数据库,每一帧都有多达7个面部动作注解,比如皱眉意味着困惑,而眉毛向上抬起则表示惊讶。 此外还会有其他面部特征帮助一起进行情绪识别,使分析结果更有说服力。
此外,这项技术将会自动检测人的性别和年龄,并且还会与其他数据库信息进行合并,从而建立起更为具体的个人信息。
Realeyes近日获得的欧盟这笔资助将与来自伦敦帝国理工学院和德国帕绍大学的研究者、以及英国博彩公司PlayGen共同分享,以试图深入研究测量人的情绪,从而识别人们是否对于自己看到的事物表现出喜欢的态度。
Realeyes 的支持者认为这项技术将有非常好的应用前景,例如可以提升驾驶员的安全性,提高课堂教学效率,帮助警察测谎等。而在商业方面,可以帮助商家进行视频广告监 测和内容的重塑。比如AOL可以利用这项技术监测什么样的视频广告内容可以让用户产生兴趣并能够促使他们分享,从而制作提供更好的广告内容。
当然,Realeyes的这项技术也涉及到了个人隐私的问题,尤其是在欧洲个人隐私受到更为严格的法律保护。Realeyes方面表示,这项技术经过了严格的审查,而且只有得到用户非常明确的同意后他们才会进行视频录制和面部情绪研究。
CEO Mihkel Jäätma 认为,未来Realeyes将会进军其他领域,尤其是他想创建一款心理健康产品,可以帮助人们变得快乐并且保持快乐。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。