来源 | Forbes
作者 | Oliver Williams
编译 | 科技行者
并非所有科技界的大咖都是人工智能的倡导者。有些人对AI给社会带来的影响忧心忡忡,他们正拿出数十亿美元试图监控人工智能,这反过来变成了慈善事业的一个新前沿。
对于eBay公司创始人Pierre Omidyar来说,人工智能是一个令人担忧的问题,去年他成立了Luminate,一家总部位于伦敦的组织。Luminate倡导公民赋权、数据和数字权利、财务透明和独立媒体。
▲ 图为eBay创始人Pierre Omidyar支持监控人工智能
Luminate 首席执行官Stephen King表示:“这是一个新生的领域,我们发现,人工智能是由那些不关心道德后果的程序员开发出来的。”
King强调AI带来的两个真实后果,激发了像Omidyar这样的慈善家采取行动。一个是风险评估软件COMPAS(Correctional Offender Management Profiling for Alternative Sanctions),这种软件会分析大数据预测被告再犯下其他违法行为的风险。
当新闻机构ProPublica对在美国佛罗里达州被捕的1万人进行COMPAS评估对比时,数据显示有些人可能会重新犯罪,ProPublica发现,当算法正确的时候,其决策也是公平的。但当算法错误的时候,有色人种被标记的风险要高出两倍多,但其实他们并没有重新犯罪。
King举的另一个例子是中国的社会评分系统,这是一个涉及大数据和人工智能的国家项目,是给数百万公民进行社会信用评分,账单逾期支付和其他不良行为就意味着会给负面评分。“信用评分为负就无法乘坐高铁,”King说。
▲ 图为社会信用评分系统让500万-1300万中国公民被禁止乘坐高铁。
当人工智能在诸如此类的场景中使用时,你应该如何抑制人工智能带来的影响?
King表示,需要从源头上解决这个问题。AI底层的算法通常在开发时就融入了无意识的偏见。
纽约大学AI Now研究所的一份报告发现,主要是白人男性编码人员制造了算法中的偏见。
不管这是有意的还是无意的,都会影响AI的结果。麻省理工学院的研究人员发现,有一些面部识别软件无法识别少数民族。King说:“没有人把所有种族偏见问题都考虑清楚。”
▲ 图为Luminate首席执行官Stephen King
而这正是Omidyar希望通过Luminate的资金来遏制的偏见问题。在成立第一年,Luminate的资金额就达到了6000万美元。
King表示:“我们设立了基金,通过一系列其他研究机构再授权,以更好地了解人工智能带来的危害。”一个名为Ethics and Governance of AI Initiative的项目从Luminate以及John S. and James L. Knight基金会、LinkedIn创始人Reid Hoffman等人那里获得了2700万美元的资金。
Luminate表示,这笔资金将用于确保自动化和机器学习“是以一种维护公平、人类自治和正义的社会价值观的方式进行研究、开发和部署的”。
此外还有麻省理工学院媒体实验室和哈佛伯克曼克莱因互联网与社会中心。2017年,其他九个组织得到了该基金的760万美元资金,专注于“媒体、刑事司法和自动驾驶汽车三大领域”, John S. and James L. Knight基金会主席AlbertoIbargüen在声明中这样表示。
Omidyar并不是希望阻止人工智能失控的唯一一位慈善家。
事实上,自Elon Musk和Sam Altman于2015年推出Open AI以来,这个慈善事业的新前沿就大受欢迎。Open AI是一个促进“安全人工智能”的非盈利组织。(Musk后来离开了该组织,因为这可能与特斯拉自动驾驶汽车开发中采用的人工智能存在潜在冲突。)
▲ 图为Y Combinator总裁Sam Altman于2015年创立了Open AI,以推广安全的人工智能理念
在去年,Symphony Technology Group背后的印度亿万富翁Romesh Wadhwani与他的兄弟Sunil成立了瓦德瓦尼人工智能研究所(Wadhwani Institute for Artificial Intelligence,WIAI)。Wadhwani为该组织提供了3000万美元资金支持,目标是探索“人工智能研究和实施的道德维度”。
具有讽刺意味的是,科技界的亿万富翁们花钱来遏制这些给曾经给他们带来财富的技术,这应该被视为一个更广泛的警告:如果那些最了解技术前沿的人都担心技术的发展方向,我们就更应该注意了。
King说:“和硅谷其他很多慈善家一样,Pierre在10年前还是一位科技乐观主义者。我认为,我们现在看到了黑暗的一面,这个领域需要更多的资金支持者。”
好文章,需要你的鼓励
这项研究探索了如何通过"LLM情境调节"和"持续工作流程提示"技术来提高大型语言模型在验证化学分子式时的准确性。研究者发现,普通提示方法往往不可靠,因为LLM倾向于自动"纠正"错误而非指出它们。然而,通过精心设计的情境调节提示,研究成功引导Gemini 2.5 Pro不仅识别出文本中的错误,还发现了之前人工审阅未察觉的图像中的分子式错误。这一概念验证研究表明,即使不修改模型本身,也能通过适当的提示策略显著提高LLM在科学技术文档细节验证中的表现。
复旦大学研究团队开发的uLLSAM模型成功将多模态大语言模型(MLLMs)与分割一切模型(SAM)结合,解决了显微镜图像分析的跨域泛化难题。通过创新的视觉-语言语义对齐模块(VLSA)和语义边界正则化(SBR)技术,该模型在9个领域内数据集上提升了7.71%的分割准确度,在10个从未见过的数据集上也展现了10.08%的性能提升。这一统一框架能同时处理光学和电子显微镜图像,大大提高了生物医学图像分析的效率和准确性,为科研人员提供了强大的自动化分析工具。
斯坦福大学等机构研究团队利用强化学习训练大语言模型,使其能够优化汇编代码性能。研究构建了8,072个程序的数据集,并通过近端策略优化(PPO)训练模型生成既正确又高效的汇编代码。实验表明,训练后的Qwen2.5-Coder-7B-PPO模型实现了96.0%的测试通过率和1.47倍平均加速比,超越包括Claude-3.7-sonnet在内的所有其他模型。研究发现模型能识别编译器忽略的优化机会,如用单一指令替代整个循环,为性能敏感应用提供了有价值的优化途径。
这项研究提出了一种改进的声乐效果风格迁移方法,通过在推理时间优化过程中引入高斯先验知识,解决了传统ST-ITO方法忽视参数合理性的问题。研究团队基于DiffVox数据集构建了专业效果器参数分布模型,将风格迁移转化为最大后验概率估计问题。实验结果表明,该方法显著优于基准方法,参数均方误差降低了33%,并在主观听感测试中获得最高评分。这一创新为音频处理领域融合数据驱动和专业知识提供了新思路。