10月15日, 2023搜狐视频舞蹈翻跳大赛重庆赛区正式拉开帷幕,众多舞蹈大神现场实力斗舞,展现舞技。现场的随机舞蹈大狂欢,超百人跟着节奏随机舞蹈嗨翻天,过千人到场观赛场面壮观,随着搜狐视频直播一起在雾都线下和关注流线上社交转发中,掀起出圈热浪。
当日,搜狐创始人、董事局主席兼首席执行官、物理学博士张朝阳现场出席。人气偶像、内地流行乐唱跳歌手、新生代演员孙滢皓,NAME组合成员龙韵竹、冯若航,舞蹈达人酱咖力力、JOY等也来到现场并带来精彩表演,此外众多KPOP舞蹈达人组合、国内外知名KPOP翻跳比赛评委、多个明星艺人合作舞者、编舞师等也都来到现场助阵。
达人现场表演燃炸翻跳大赛 以舞会友激发随舞潮流
此次搜狐视频舞蹈翻跳大赛重庆赛区精彩纷呈,15日下午3小时的路演赛火热上演,在路演赛后,持续90分钟的随机舞蹈挑战吸引了数百位舞者一起舞蹈,更有近一百五十首KPOP歌曲嗨燃现场,超千人共同点燃现场气氛。舞蹈达人组成团队展开斗舞大战,最终选出前三名队伍颁发荣誉。重庆赛区作为线下路演赛的最后一站,为大赛的分赛区竞演部分画上圆满句号。
大赛阵容强大,热力值拉满,不仅有重庆本地舞蹈达人,也吸引了其他地区的优秀舞者。不论是专业舞者还是业余爱好者,跟着随机的动感节奏,都随时加入进来,现场盛况空前,引发出圈热议。
事实上,2023年搜狐视频舞蹈翻跳大赛于7月启动,线下路演活动曾在广州、上海举办,聚集了众多舞蹈界大V,还有刘隽、王一桥、曹宇雪等明星爱豆空降现场,火爆出圈。要参加2023搜狐视频舞蹈翻跳大赛,可以通过搜狐视频APP搜索“Z世代舞蹈日记”圈子关注并上传舞蹈翻跳视频,即有可能获得万元奖金。据悉,大赛总颁奖典礼预计将于11月底在北京举行。
舞出更大平台 搜狐持续发掘视频社交价值扶持创作者
此次火爆出圈的搜狐视频舞蹈翻跳大赛重庆赛区活动,是搜狐视频在山城重庆开展系列直播活动的部分之一。搜狐视频知识直播的代表IP《张朝阳的物理课》也在10月14日走进重庆大学。
无论是在大赛舞台展现风采的舞蹈达人,还是有任何一种热爱特长的用户、播主,皆可成为优质内容创作者,在搜狐视频关注流中,转发分享,利用社交制造和分发多元化内容。
如今的搜狐视频已经远不止一个长视频平台,打开搜狐视频“关注流”,就可以发现不同种类的圈子和丰富的直播、短视频内容,涵盖了幽默搞笑、国风、KPOP舞蹈、医疗健康、美妆、母婴、汽车、萌宠等等不同垂直领域的兴趣爱好者和播主们,每天分享各垂直领域新鲜的资讯,这里更是一个火热的视频社交平台。本次舞蹈翻跳大赛就源于搜狐视频“关注流”丰富多元的圈层文化,其中“Z世代舞蹈日记”圈子是全网年轻舞者聚集地。
在内容布局上,搜狐视频越来越丰富的话题度和更包容的平台吸引了不少大V入驻和开播,包括知识直播赛道,吸引了何懿医生、不刷题的吴姥姥、航天王一等专家学者来开直播讲知识,还成功推出了《张朝阳的物理课》《星空下的对话》《科学演讲局》等出圈IP,在全网掀起了知识学习的热潮。
当前,搜狐视频正通过“关注流”逐渐加重用户参与和共创视频内容,搜狐视频账号品类覆盖丰富,个人属性强,兼具“有趣、有用、观赏性强”等特征,内容高频更新,再加上平台的转发,能高效触达优质内容,获得更多信息增量,更能精准满足用户的内容需求。用户可以在“关注流”里面转发、关注、消费,实现以视频会友,构建了一个视频社交平台。
张朝阳表示,短视频时代每个人有点东西都可以迅速开直播和发短视频来讲,都成为每个领域的专家达人。除了知识直播,搜狐视频正在走向视频社交,基于“关注流”社交分发,覆盖了特别广泛的领域。年轻人在互联网上无论带货,还是传播各种知识,长期做就会在某个领域会变得特别专业,特别优秀,是非常有前途的,鼓励大家来搜狐视频做播主,开直播或者发短视频获得收益。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。