纵然能够收集到与之相关的所有数据,访问难度仍然难以克服——除非,你有Sam这位海洋问题专家的帮助。
IBM公司在第30份年度环境报告中,就强调了这样一个试点项目的设计思路。简而言之,“蓝色巨人”正在与联合国环境规划署(UNEP)合作,展示如何利用信息技术与人工智能解决海洋垃圾挑战。这项工作也是IBM公司的一项重要投资,将以免费形式向环境署方面提供。
海洋环境确实面临着严峻挑战:联合国环境规划署估计,每年约有800万吨塑料制品流入海洋,相当于每分钟倾泄一辆满载塑料的垃圾车。即使是新冠疫情也没有阻止环境破坏,反而令全球范围内的制品回收项目纷纷停滞,而一次性产品的数量也开始急剧增加。
IBM与环境署在过去几年中一直协同努力。今年年初,开发人员完成了关于海洋垃圾多边利益相关方数字平台的概念验证。他们希望解决两项挑战:一是,打破集中式全球海洋垃圾数据库的缺乏局面;第二,打通立足地球各个角落访问集中信息的便捷通道。
▲ 图:联合国环境规划署发布的海洋垃圾仪表板
为了让这套方案发挥最大作用,IBM的工程师们提出了“Sam助手”的设想。
IBM公司全球政府数据与人工智能首席技术官Nicholas Holmes表示,“Sam是一种具有自主动画效果、具有情感响应能力的类人型化身,由IBM公司合作伙伴Soul Machines HumanOS与Digital DNA技术提供支持。”
“Sam的出现,是为了在海洋垃圾与使用者之间建立起情感纽带,我们坚信这种情感的联系将有助于增强行动力。”
这套界面使用IBM技术解释用户意图,并从环境署庞大的存储库及其他来源处检索相关信息。
IBM于今年6月在联合国环境规划署的一个咨询会上展示了这套设计原型。此次会议,亦是2021年联合国环境大会第五届会议的预筹备论坛。
Holmes补充道,“我们之所以进行这一概念验证,旨在强调IT、特别是AI解决方案,在处理海洋垃圾问题及帮助联合国实际可持续发展目标方面,都发挥着至关重要的作用。”
这些可持续发展目标,包括到2025年减少海洋污染,也是各国共同努力推动地球全面实现可持续发展的重要发展蓝图。
与海洋污染目标相关的一项重要指标,为“沿海区域富营养化与塑料漂浮碎片密度”。
Holmes指出,为了实现这一目标,必须开发一种新的机制以跟踪塑料碎片随时间推移发生的密度变化。但到目前为止,环境署还没有出台关于塑料碎片密度的任何基准评估值。
在世界各地众多志愿者的协同努力之下,海洋塑料密度数据已经逐渐充实,但不同组织往往使用不同的计量方法,因此必须首先对数据进行组织与标准化,而后才能加以分析……最终以统一的方式完成结果呈现。
只有这样,才能实现一种可随时间推移衡量改善进度的方法。
简单来说,有什么问题,都可以直接问他。
Holmes回应道,“我们的目标是,让联合国环境规划署全球海洋垃圾平台中的信息,变得更加易于访问。”
“无论你是普通民众、成员国官员或者行业代表,包括当地政府雇员,乃至非营利组织成员,都可以轻松与之交互,就解决全球海洋垃圾问题采取行动。”
目前,Holmes已经向环境署提供Sam化身方案,各合作伙伴们则计划在今年晚些时候分享更多项目成果。
简单来说,我们需要让人们更积极地参与到海洋垃圾问题的解决中,并为他们提供采取行动所需要的信息与数据支持。
Holmes指出,“难以访问及使用的数据自然容易受到忽视。IBM的AI专家团队与环境界为此设立了共同的目标,即以一种引人入胜、直观且新颖的方式访问并使用海洋垃圾数据。”
Holmes表示,Sam化身的实现,离不开作为技术底层的协作沙箱概念——即通过一系列虚拟机与协同空间,将思路转化为实际解决方案。这一项目也在联合国环境规划署组织的会议上得到广泛好评。
作为在线服务,Sam能够为从周末志愿者到政府机构的任何个人、团体或组织提供洞见与可行性数据。
“虽然这套免费的概念验证系统尚未正式揽入使用,但其已经通过联合国环境规划署、IBM以及各成员国代表的审议与体验。我们对这一目标感到兴奋,也将努力推动其不断完善。未来,我们将说明更多用户加入进来,在Sam的帮助下持续降低海洋垃圾数据的获取门槛、改善海洋环境保护行动的实际效果。”
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。