CNET科技资讯网 4月6日 北京消息:今天,乐视控股HR发出内部全员邮件,正式任命程时盛为乐视控股传播副总裁。程此前担任乐视控股公关部总经理兼O2O公司品牌传播副总裁。
这次程时盛的任命,是通过内部竞聘的方式完成,由各子生态业务线CEO、传播营销高管以及战略和人力VP对竞聘高管进行评估审核。此前,乐视董事长贾跃亭曾大手笔吸纳各领域精英,此次启用跟随多年的“子弟兵”出任重要岗位高管,表明乐视优化组织结构的行动已经开始实施了。
据了解,乐视自2016年底宣布进入战略第二阶段,贾跃亭直言将对公司管理层提出更高要求:要以经营为导向、以协同化反为己任、充分投入、勇于担当、以合伙人精神和责任感和创造奇迹的主动性为员工做出表率。同时,对不合格的高管要坚决清除出队伍。
不难发现,在乐视战略第一阶段,在全球范围内延揽顶尖行业大咖加盟,迅速搭建了七大子生态自上而下的组织构架,形成了业务的爆发式成长。第二阶段则会进入精细化运营,重视自下而上的执行力,内部竞聘是具体做法之一。
而这次竞聘选拔的80后高管程时盛2008年加盟乐视,是乐视早期员工,也是乐视第一位具体负责传播的员工。据乐视HR发布的内部全员邮件显示,程时盛未来将全面负责控股传播部门的整体战略规划、业务指标的达成及部门团队管理,从公关、社会化、视频、媒介、植入、口碑等业务职能上拉通控股与子生态的资源整合和团队协同,并对LeEco各业务的传播组织进行二级组织建设与双实线管理,实现全生态传播资源整合及价值共享,向阿木汇报。
同时成立乐视控股传播策划与协同决策委员会,阿木担任组长,程时盛任常务副组长,负责形成委员会日常运作机制并运转。
此次乐视对程时盛的选拔任命,也在向外界发出乐视内部人才体系建设的一个全新概念:建设生态型人才团队。
有别于BAT等传统内部人才体系建设,乐视已经建立起三维生态职级体系,为乐视员工提供了除常规的管理通道(M)、专业通道(P)以外的第三条职业发展通道——生态等级通道(Eco),为生态型人才提供专属的职业发展空间。
据了解,生态职级体系把生态人才划分不同的生态等级,而生态等级代表员工的“生态程度”,不受其管理职级或专业职级的束缚,让普通员工有了超越领导的机会,在生态人才通道上实现晋升,获得专属的待遇和资源。
LeEco HR负责人蒋晓琳表示,在乐视供职经历中,如果能够涉足乐视生态子生态的七个产业,体验不同的职能和分工,那么他将成为一名复合型、多知识结构、不可被行业复制的稀缺人才。
在互联网业界,尤其是超大型公司往往组织构架层级相对传统保守,人才成长受制于职级天花板,更可能出现老员工得到不了长期持续发展的机会。而程时盛作为乐视2017内部竞聘产生的、带有深刻乐视生态烙印的80后高管,是生态人才构建模式革新,是贾跃亭从迅速圈地到精耕细作的一个重要基础建设。
值得注意的是,在乐视体系内,80后高管正在成为业务发展的中坚力量。阿不力克木•阿不力米提、雷振剑、杨永强等,以及此次晋升的程时盛,都是乐视生态内部培养重用的,有魄力有冲劲的年轻高管,凸显了生态型组织进化的新风向。
在互联网行业的激烈厮杀中,乐视能够冲出BAT的围剿,短短数年成长为全球化的新巨头,打造世界级的品牌影响力,具有生态创新特色的品牌营销战略战术,是不可忽视的取胜利器。
在乐视快速崛起的巨大品牌影响力中,最引人注目的品牌营销经典案例包括了414硬件免费日、919乐迷节等成功的“品牌节”营销、引领超级电视综艺软性植入风向标、乐视超级汽车首发品牌营销等。这种品牌价值在2016年跟随乐视全球化,在全球商业界刮起了生态传播营销旋风。
目前乐视独创的生态传播营销模式下多项经典案例,已经被北大、清华等中国顶尖高校的商学院引用。程时盛还受邀为文化部培训讲师,向领导干部讲授新媒体时代的传播理念与品牌战略。
评论人士评价:“有意思的是,乐视业务由于太过颠覆性,从出生日起,其品牌传播环境是非常恶劣,程时盛不但要能唱红,更要能扛黑”。这位老媒体人说,从这个角度看,多年伴随贾跃亭一路走来的这位内部高管,不但培养出了很多子业务线传播主管,也早已适应了乐视“招黑”体质,确实是他们要的“生态人才”。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。