在人们还沉浸在十一黄金周的假期中时,科技宅们又将相继迎来信息量极大的科技新品发布周。
先是苹果确认将于十月举行新品发布的好消息,接着联想也将在10日发布Yoga新品,然而另一家通讯厂商HTC却抢跑在最前列,于北京时间10月9日凌晨在纽约举办发布会,并宣告HTC正在开启神秘且全新的转型之路:重新定义移动影像。
与此同时,HTC还发布了全新的拍照系统Eye Experience,这套拍照系统对原有HTC的拍照体系进行大幅升级。基于这套系统的新品HTC One M8 Eye和Desire Eye也正式亮相。HTC还发布了首款手持式便携拍照相机HTC Re。
事实上,早在今年9月份HTC向媒体派发的邀请函里,就已曝光10月神秘发布会的主题“双曝光(Double Exposure)”,而且HTC还邀请受邀者们在其邀请回复中提交一张自拍照,这暗示着这可能是一场相机或以照片为中心的发布会。
HTC近年来一直在强调其设备中的相机性能和特性。该公司抛弃了原始HTC One智能手机摄像头的传统像素,转而选择了一种自定义影响传感器,并以UltraPixels摄像头技术将其推向市场。
HTC Desire Eye的外观类似Desire 820,机身配色更有活力,采用5.2英寸1080P分辨率显示屏,搭载高通骁龙801处理器,内置2GB运行内存和16GB机身存储空间(支持SD卡扩展),电池容量为2410mAh,支持IPx7级别防水,可在1米深水下保持30分钟。
值得一提的是,Desire Eye的前、后摄像头均为1300万像素,并且均配有双色温补光灯。从正面看,硕大的前置摄像头非常明显。
M8 Eye作为HTC M8的改款出现,最大的变化是将M8上原有的400万像素UltraPixel镜头更换为了1300万像素常规的背照式镜头,同时手机的前后面板颜色将采用撞色搭配,而不再是统一的。
M8 Eye配备了5.2英寸1080p分辨率显示屏,搭载2.3GHz骁龙801处理器,用于2GB运行内存和16GB机身存储空间(支持SD卡扩展)。
作为HTC手机的拍照系统软件升级版出现,升级后的系统将支持诸如前后摄像头摄像、五方视频通话、120帧慢快门拍摄等功能。HTC为视频通话定制了面部追踪功能,前置摄像头通过面部识别功能,可以追踪使用者的面部位移变化,只要在前置摄像头的拍摄范围内,使用者随意移动,Eye Experience都可以锁定人脸。
此外,全新的Eye Experience拍摄功能也将率先登陆M8 Eye。Eye Experience允许用户进行分屏拍摄、前后摄像头同时拍摄视频、滑动切换摄像头等操作,并且支持微笑、声音自拍及实时美颜、魔幻变脸、面部识别追踪等功能。未来,Eye Experience将向微信、Line等社交软件开放API接口。
除了两款手机产品,HTC还发布了名为“RE”的便携式拍照相机。
这款设备的外观很像一个潜望镜,只有镜头和快门,并未取景器,机身小巧,仅重66克,拥有多种配色供选择。当用户手持“RE”时,它会自动启动,而在静止30秒之后,其会随之进入休眠状态。HTC称,Re的电池容量为820mAh,可以保持休眠状态两个月,使用时可拍摄1000张照片,或100分钟全高清视频。
HTC RE采用了1600万像素定焦镜头,拥有146度广角,支持4倍速的慢速或快速摄像模式,以及IPx7级别防水,可以直接进入游泳池拍摄。为了满足不同用户的需求,HTC还提供了RE防水帽(可在水下3米使用2小时),以及镜头保护套和外置配件,例如绑在头盔上使用。
HTC RE内置8GB存储空间,可扩展至128GB,通过蓝牙与手机配对,数据传输则依赖于WiFi。RE的手机端应用可以浏览照片或控制摄像头拍照,支持Android和iOS平台。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。