5月13日上午消息,昨日,滴滴打车和快的打车在洛阳的办事处遭当地工商联合执法查封,滴滴快的向新浪科技表示,公司已在配合相关部门进行调查,目前专车、出租车业务正常展开,不受影响。
据财经网报道,5月12日下午,滴滴公司内部人士证实,滴滴打车和快的打车在洛阳的办事处遭当地工商联合执法查封,当地出租司机对这一结果表示支持。
5月11日上午,一辆郊县出租车在洛阳市区用打车软件接单,被其他出租车司机发现,并遭跟踪。这些司机唤来同行,围堵那台使用打车软件的出租车。
发现有外地人使用打车软件,引起了更多本地出租车司机的愤怒,于是大批司机将车开到到位于310国道附近的滴滴打车洛阳办事处,要求滴滴的工作人员把异地营运者的打车软件卸载,但遭到工作人员的拒绝。
由于出租车司机越聚越多,当地的大批民警到场维持秩序。随后,洛阳市工商部门的人员到场,将滴滴洛阳办事处查封,并带走部分工作人员和电脑等办公设备。紧接着,工商部门人员又来到快的打车的办事处,并将其查封。
滴滴快的向新浪科技表示,“滴滴快的的出租车业务在配合洛阳相关部门调查。我们希望尽快解决问题。我们的专车、出租车业务目前正常开展,不受影响。”
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。