CNET科技资讯网 4月25日 北京消息(文/周雅):2016年11月23日,在北京工人体育场的爱奇艺办公楼里,爱奇艺龚宇接见了有着演唱会行业前辈名号的田京泉,两个人一起悄悄“密谋”着互联网+演唱会,这个点子只是当时俩人一拍脑袋想出来的,却在五个月之后的昨天,成为了爱奇艺的最新战略。
“线上演出具有巨大的生命力!”爱奇艺首席内容官王晓晖昨天在北京以这样的开场白,对外宣布,爱奇艺正式进入音乐演唱会领域——从2017年5月20日开始,透过大连、福州、深圳、北京、西安、上海、济南和南京8场“青岛纯生尖叫之夜”万人演唱会,打造一场线上到线下的音乐荷尔蒙共振。将“尖叫之夜”变成爱奇艺的一个品牌。
王晓晖有理由相信线上演出市场是一个红海。
据CNNIC不久前发布《第39次中国互联网络发展状况统计报告》显示,2016年各类网络直播使用率当中,演唱会直播到2016年12月是15.1%,少于体育直播(20.7%)、游戏直播(20%)和真人聊天秀直播(19.8%),但增速却仅次于游戏直播。“演唱会直播”赛道从2012年到现在,达到惊人的千万量级。
于是爱奇艺、腾讯、乐视等视频平台加码音乐演出直播,野马直播、正在现场等布局垂直类的音乐直播平台,而数字王国、微鲸则试图则通过VR技术来进入演出直播领域......各家公司纷纷进场,砸钱,砸资源,市场整个都热气腾腾。
热闹的市场让玩家们意识到,除了拼技术之外,服务体验和商业模式更关键。
这时候你或许会问,互联网时代的演唱会和以前的演唱会到底有什么不一样?
“传统演唱会的受众规模往往受场地、安全、成本等多方因素的限制,存在一系列痛点。”爱奇艺市场副总裁陈宏嘉介绍,首先,买票亲临现场的观众即使有现场感,但是缺乏互动性;同时,那些在上网看直播的观众,虽然不用花太多的成本,但是体验感不足。
以上痛点给了爱奇艺两个方向,一是如何去创造一个无差别的现场感,这时候考验的是技术实力。二是要用更丰富的社交产品来达到现场互动,让整场演唱会不论线下还是线上都变得更好玩起来。
具体到“尖叫之夜”演唱会怎么玩?用爱奇艺的话来说,是“最顶级的制作团队、全新媒体的思维推广、最新科技与交互的结合”。
首先是制作团队方面。总导演陈镇川、现场导演牛佳伟、总监制亚宁、总执行田京泉、主题曲创作人方文山。首场演唱会阵容由汪峰、李健、A-Lin、陶晶莹等明星组成。
其次是科技和交互方面。1、除了在爱奇艺平台进行4K高清直播之外,现场会设置VR体验专属区域,同时打造PC和移动客户端VR模式观看直播,引入人工智能技术,尝试3D180度直播(移动端);2、爱奇艺首次在VR直播里采用电影级拍摄设备,并且引入了交互模式,区别于其他VR直播体验;3、推出了二次元虚拟偶像——双儿,据说利用大数据依据全球1000位最具魅力的女性形象所打造的。
爱奇艺二次元虚拟偶像——双儿
尽管现在谈演唱会的4K和VR直播已经不算是新尝试,因为任何商品内容的生产和消费的升级都得益于技术的进步,音乐内容也不例外,VR技术开始被应用到游戏、动漫、演出、影视等领域,特别是在演出市场——2014年汪峰演唱会首次尝试了4K直播,张北草原音乐节同样运用了4K机器,在2015年10月BIGBANG的直播中也有VR和多机位的尝试,去年12月王菲演唱会通过直播+VR创下近2150万在线观看人数纪录。
但爱奇艺为什么强调180度VR直播?爱奇艺副总裁段有桥是这样说的:
“大多数人看完VR的演唱会之后都有一个感觉,好像还不如普通的演唱会,有一个突出的缺点就是不清晰。不清晰的原理是因为,VR是360度的,任何一个视频内容的各个角度都需要用网络传输巨大的码流,意思是,同样的带宽之下,一个VR的清晰度只有普通电视视频的1/5或者1/4。因此,180度VR直播,也就是相当于给每个观众眼前画一个视角,视角区间在面对舞台左右180度放大90度之间,恰好是最清晰的跨度。”
最后,爱奇艺还将投入新媒体思维和新媒体资源来推广——与一级新媒体平台(新浪微博等等)一起投入10亿级的推广资源,覆盖至少200家以上的媒体进行推广,加上爱奇艺泡泡圈、奇秀直播等互动平台,设置AR抢礼物、网红派发虚拟红包、网红跟唱等互动环节,去迎合年轻用户的娱乐需求。
致力于成为“互联网时代的娱乐公司”的爱奇艺近来不断完善IP生态闭环,布局视频付费、视频技术、电影、动漫、游戏、VR、社交等领域,尽管“现象级”演唱会直播已经不新鲜,但爱奇艺的加入,还是掀起了一个不大不小的高潮。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。