
在本届CES展会上,东芝展出了一款人形机器人,这款概念机器人名为ChihiraAico,外型几乎与人无异,即使从近距离观察,也让人几乎分辨不出其机器人的本质。
这款名为ChihiraAico的机器人可以做出多种与人类相似的面部表情,包括:开心、难过,伤心等,旨在打造一个真正触动人心的交流体验。东芝表示,这款机器人拥有全球最高级的面部表达能力,可以通过43个气压传动装置提供安静、迅速、流畅的肢体运动——其中有15个位于面部、4个位于躯干,24个位于肩膀和胳膊中。
东芝也为这款产品注入了希望:用于重复没有含金量及重复引发人力浪费的商业应用,取代部分人工。东芝发言人表示,ChihiraAico是该公司的人类智能社区理念的一部分。它或许可以充当医疗专家,为老人或残疾人提供帮助,还有可能成为服务专家,为用户端盘上菜,甚至扮演拉拉队长的角色。
好文章,需要你的鼓励
openGauss的目标是探索oGRAC和超节点深度融合的可能,打造超节点原生数据库。
清华团队开发DKT模型,利用视频扩散AI技术成功解决透明物体深度估计难题。该研究创建了首个透明物体视频数据集TransPhy3D,通过改造预训练视频生成模型,实现了准确的透明物体深度和法向量估计。在机器人抓取实验中,DKT将成功率提升至73%,为智能系统处理复杂视觉场景开辟新路径。
字节跳动研究团队提出了专家-路由器耦合损失方法,解决混合专家模型中路由器无法准确理解专家能力的问题。该方法通过让每个专家对其代表性任务产生最强响应,同时确保代表性任务在对应专家处获得最佳处理,建立了专家与路由器的紧密联系。实验表明该方法显著提升了从30亿到150亿参数模型的性能,训练开销仅增加0.2%-0.8%,为混合专家模型优化提供了高效实用的解决方案。
上海AI实验室团队开发的Yume1.5是一个革命性的AI视频生成系统,能够从单张图片或文字描述创造无限可探索的虚拟世界。用户可通过键盘控制实时探索,系统8秒内完成生成,响应精度达0.836,远超现有技术。该系统采用创新的时空通道建模和自强制蒸馏技术,支持文本控制的事件生成,为虚拟现实和内容创作领域开辟了新的可能性。