9月8日晚上,杭州黄龙体育中心成为了一片橙色的海洋。在这里,阿里巴巴集团迎来了自己的18岁“生日”,齐聚杭州的6万名员工与生态伙伴一起见证了阿里巴巴的“成年礼”,也开启了未来的新征程。
这场“世界级”的年会,不仅有缤纷多彩的节目,激动人心的抽奖,也少不了令人眼花缭乱的“黑科技”:现场40000只手环组成的“灯光秀”、高清全息投影、首次引入国内的数控球阵列技术……在今年3月提出面向未来20年储备核心技术的“NASA”计划后,阿里也为自己的18岁生日打上了浓墨重彩的“科技”底色。
4万手环组成全球最大“无线大屏” 阿里自研技术上演3万平米“灯光秀”
年会一开始,漆黑的黄龙体育场看台上突然闪过一行用无数的手环的光点组成的大字“阿里程序员向你问好”。原来,年会现场每位员工都领到了一只手环,40000名阿里员工组成了一张3万多平米的全世界最大的“无线大屏”。当IoT手环接收到特定的命令信号后,手环上的LED灯会相应地亮起不同的颜色或熄灭,随着不同的颜色和闪烁拼凑出一幅幅赏心悦目的巨幅动画。
阿里巴巴信息平台技物联网术专家韩康是手环系统的研发负责人,同时也负责现场所有的手环信号控制。他介绍,40000只手环全部采用阿里自主研发的物联网技术来实现远程实时精准控制,每个手环都独立接收和执行命令,响应速度量级达到毫秒级精度。
这项技术或许会让很多人想起伦敦奥运会开幕式上的上的伦敦碗灯光秀,韩康表示,阿里的IoT手环全部通过无线通信技术来控制,比伦敦奥组委的有线LED方案更加先进,“我们在现场仅用了1个无线基站,结合自研算法,就实现了和40000只手环的即时通讯。相比伦敦奥运会,这套方案更加高效便捷、成本更低。”
CEO“全息”出场人工智能抽奖 40人技术团队打造“黑科技”年会
除了一场4万人的“集体灯光秀”,一场高科技的年会还能怎么玩?阿里巴巴集团CEO张勇和蚂蚁金服集团CEO井贤栋的出场就让现场的所有人都“嗨了”。随着主持人的介绍,先后出场的两位CEO都仿佛是“凭空”出现在舞台上的。这一舞台效果也来自于全息立体投影技术。
和所有的公司年会一样,阿里这场“世界级”年会最激动人心的环节也是抽奖,但这次抽奖的嘉宾是一个人工智能——由阿里人工智能实验室推出的智能语音终端天猫精灵。而它抽出的18名神秘大奖,是清空双11购物车!
在去年提出"五新"战略后,马云也在联合生态伙伴,不断推进这一历史使命。这场年会也以科技的方式诠释了“五新”,在马云和生态伙伴及合伙人的带动下,"五新能量球"通过首次引入国内的数控球阵列技术飞越全场,开启了阿里新征程。
这样一场高科技年会,需要多少程序员来保障支持呢?答案是40个。“我们的年会技术保障团队除了要负责IoT手环的系统开发、年会现场高速网络的搭建、报名票务系统的对接、各项现场技术保障运维之外,还要考虑到如何降低网络直播的延迟。”阿里巴巴信息平台技术总监祁越介绍,一场高科技的年会,不仅需要高水平的灯光舞美导演团队,也需要高水平的技术团队支持,“比如手环灯光秀这个创意,没有技术支持是不可能实现的,而这些技术也不是‘一次性’的,未来都有可能应用到实际业务中。”
“科技年会”折射阿里科技高度 技术驱动下的阿里新征程
巴斯巨石像、玛雅金字塔、哥伦布、紫禁城、纽约帝国大厦、名画《自由引导人民》、人类解剖、奥运会、反战运动、星空、牛顿、居里夫人、爱因斯坦、太空计划、鸟巢……阿里巴巴的年会开场视频,以这样深邃的符号开始对人类历史的回顾,和对未来的探索。
从湖畔花园最初的18罗汉,发展到今日横跨20多个国家的6万多名员工,阿里巴巴已成为全世界范围内不可忽视的新经济体。从B2B电子商务起家,然后切入C2C和B2C,做起了淘宝和天猫,还拆分出了蚂蚁金服这家科技金融公司,阿里云成为与微软和亚马逊并驾齐驱的“3A”云服务商。很多人会好奇“成年”之后,阿里的下一段星途大海的征程将如何起航,或许可以从今晚这场万人庆典中窥探一二。
不纯为技术的酷炫而技术,也不被业务需求倒逼技术改良,既有对现有业务的持续改进,又有对未来创新的持续投入,这是阿里巴巴这家巨头所展现出的科技高度,比如阿里年会此次用到的各种技术也可能在实际场景中落地。把公司眼前的利益置身于整个人类发展历史进程中去看待,用一种较长历史观去看待公司的成长。
一场年会,从6万人的庆典,变成全社会的关注热点,人们对于阿里的震撼感受,已不仅仅是财报上阿里强大的盈利能力和双十一的数字,更多的正在变为阿里在技术层面迸发出的激荡整个大众无限想象力和让人瞬间沸腾的力量。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。