当地时间周三,亚马逊在公司总部西雅图,正式对外发布了传闻已久的智能手机产品——Fire Phone。
亚马逊Fire Phone配备了4.7英寸高清720p显示屏,2.2GHz四核Snapdragon处理器,2GB RAM,后置摄像头像素达到1300万,同时配置了用于视频通话的前置摄像头。此外,亚马逊Fire Phone引入了一项名为“动态视角”3D显示独特技术,有望成为该产品的一大卖点。
亚马逊Fire Phone“动态视角”3D显示技术,使手机桌面和锁屏画面能根据用户的观看角度进行实时调节。这一功能更多的借助了手机的重力感应和摄像头识别技术,通过安装在手机正面4个顶角的4个专业前置摄像头,并结合中心摄像头,可随时追踪用户头部动作、并发现用户的眼睛,这一过程称为“立体视觉”,从而向用户提供最好的视觉效果。
亚马逊称,包括红外发光二极管在内的“动态视角”3D显示设备基于低功率发送,因此能够确保用户在绝对黑暗处使用。在任何状态下,至少有两个摄像头处于共同工作状态,大大方便了用户进行自动网页浏览和单手操作。用户在玩游戏时,也可以通过倾斜设备,以获得新的视角。
亚马逊Fire Phone智能机7月25日上市销售,暂仅面向AT&T用户开放订购,32GB版本售价199美元,6432GB版本售价299美元。
此外,亚马逊还面向打算利用“动态视角”功能开发新应用的开发人员,发布了一款软件开发工具包。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。