库克演讲谈隐私保护:反遭美媒呛声
6月12日消息,苹果CEO蒂姆•库克(Timothy D. Cook)上周发表的一场演讲,在科技行业中引发了争议。《纽约时报》网络版近日发表题为《库克捍卫隐私的演讲忽略了什么》(What Apple’s Tim Cook Overlooked in His Defense of Privacy)的文章。对库克的隐私保护言论进行了评论。
文章称,库克在近日的一次演讲中,暗讽谷歌、Facebook等科技巨头以用户隐私为代价,提供免费服务获得了商业上的成功。纽约时报认为,事实上,苹果也在搜集用户的数据,并通过内置谷歌搜索引擎等免费服务,间接获得了商业利益。库克所倡导的隐私保护标准是过于严格和不切实际的,且忽视了以广告驱动的免费服务为用户带来的巨大价值。
该文还指出,隐私保护的实质其实是信息的公开。苹果也会在自家系统中内置各种免费服务,如iPhone和iPad中的谷歌搜索引擎等。这表明,苹果也赞同科技行业的其他公司以及许多用户的观点——依赖广告的免费服务整体而言是有益的。问题的关键,不在于用户是否应使用免费服务,而在于当我们使用这些免费服务时,这些公司是否向我们提供了足够的信息,以帮助我们理性地做出决定。
有趣的是,纽约时报发表这篇文章后,引起了极大的关注,但苹果发言人却拒绝对这篇文章发表评论。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。