6月15日消息,大众点评今日针对6月12日发生的三起美团员工殴打大众点评员工的事件发布声明,回应称已紧急成立专项法务支援小组,为员工开通24小时支援热线,同时已着手就三起事件提起法律诉讼,今日向美团总部发出律师函。
近日有“美团网与大众点评网员工互殴”的消息传出。6月12日晚,有微博网友表示,“大众点评网的同事在地推的过程中遭受多名美团销售殴打”,同时,一篇名为《业绩现拐点压力倍增,美团销售又打人了!》的文章在网上传开。文中提到,美团之所以出现打人举动,原因是“美团的大粮仓三四线市场正不断被大众点评攻城略地,业绩压力不断加大”。
随后美团镇江微博发布声明表示,美团网镇江站两名员工在万达广场工作期间,遭遇大众点评男员工无端围殴,美团城市经理带同事赶到现场了解情况时,再度被大众点评员工殴打,引发双方冲突。美团镇江在声明中表示,社交媒体出现的“美团销售打人”文章,是大众点评故意为之,目的是对大众点评市场业绩进行虚假宣传。
据报道,美团网与大众点评网方面的拳脚相向已经并不止这一次了,去年下半年,受大众点评网投资的饿了么就曾多次与美团网发生员工打架事件。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。