北京时间3月25日消息,苹果并不是唯一一家与美国政府的间谍攻击做斗争的科技公司。正当苹果与FBI的官司广受瞩目时,谷歌也在以自己的方式加强自身服务的安全性——他们会直接把情况告知用户。
该公司将通过警告的方式加强Gmail的安全性,希望以此帮助用户在收发电子邮件时更好地采取自我保护措施。
其中一项变化是扩大“安全浏览”通知的范围,这项功能可以在用户从电子邮件中打开可疑链接时发出提醒。当用户点击某个可以链接后,系统便会在该链接真正打开前发出提醒信息,要求用户最终确认是否打开该链接。
在此之前,这种链接只会出现在用户尚未点击链接前。倘若用户没有看到链接,便不会再次发出警告。谷歌希望通过这种额外的警告帮助用户避开恶意网站。
除此之外,谷歌还将继续与政府支持的攻击行为展开斗争。当系统发现有政府支持的黑客正在监控用户时,便会展示一条全屏警告信息。谷歌曾经在官方博客中表示,只有不到0.1%的Gmail用户会收到这种警告,但由于看到这一警告信息的往往是记者、政策制定者和激进人士,使得这种警告变得尤为重要。
这种新的警告方式有可能与现有的警告共存,也有可能取代现有的模式。
谷歌最近一直在加强Gmail的安全性,该公司上月还宣布将向没有使用TLS加密技术的用户发送邮件。谷歌表示,自从发出这封邮件以来,使用加密连接发送的电子邮件数量增加了25%。
好文章,需要你的鼓励
Queen's大学研究团队提出结构化智能体软件工程框架SASE,重新定义人机协作模式。该框架将程序员角色从代码编写者转变为AI团队指挥者,建立双向咨询机制和标准化文档系统,解决AI编程中的质量控制难题,为软件工程向智能化协作时代转型提供系统性解决方案。
西北工业大学与中山大学合作开发了首个超声专用AI视觉语言模型EchoVLM,通过收集15家医院20万病例和147万超声图像,采用专家混合架构,实现了比通用AI模型准确率提升10分以上的突破。该系统能自动生成超声报告、进行诊断分析和回答专业问题,为医生提供智能辅助,推动医疗AI向专业化发展。
上海AI实验室团队发现自回归图像生成模型存在局部依赖、语义不一致和空间不变性缺失三大问题,提出ST-AR训练方法。该方法通过掩码注意力、跨步骤对比学习和跨视角对比学习,让AI"先理解再生成"。实验显示,ST-AR将LlamaGen模型的图像理解准确率提升一倍以上,图像生成质量提升42-49%,为构建更智能的多模态AI系统开辟新路径。