“腾讯开放平台将帮助页游向着更长期、更精品、更开放的方向持续发展。与此同时,近年来迅猛发展的手游呈现出多元化及社交化的特点,日分发量突破1亿的腾讯应用宝将全面助力手游发展,支持广大游戏开发者在应用宝平台上的成长。”在10月31日举办的2014腾讯全球合作伙伴大会“连接 · 游戏”分论坛上,腾讯开放平台、移动应用平台副总经理侯晓楠向与会嘉宾分析了中国游戏行业的现状与趋势。为了进一步扶持游戏开发者成长,侯晓楠在会上发布了应用宝的游戏扶持新政策:前三个月收入100万以内的游戏腾讯不参与分成,从新游测试到成长为千万精品的每个阶段全面保障开发者收益。
腾讯开放平台、移动应用平台副总经理 侯晓楠
页游稳步上扬 更长期、更精品、更开放助力开发者成长
易观智库近期发布的报告显示,2014年第2季度中国网页游戏市场规模达到53.85亿元人民币,较第1季度环比增长3.8%。腾讯开放三年以来,页游产品在腾讯开放平台上通过腾讯优异的运营模式和营销模式,实现了持续的成长,并在广点通、QQ会员、任务集市等工具的助力下为开发者打造了更优质的游戏创业生态环境。
“腾讯开放平台将帮助页游向着更长期、更精品、更开放的方向持续发展”,侯晓楠表示,依托自身的独特平台优势,页游产品将在腾讯开放平台上持续得到更好的成长。
侯晓楠向嘉宾分享了几组数据,表明在腾讯开放平台上运营的网页游戏可以获得更长的生命周期以及更多的累计流水收益。腾讯开放平台上的网页游戏在2-3年时间窗中能够长时间持续维持高收入,后期对收入的维持成本将逐渐降低,利润率逐步攀升,最终实现创业者总收益的最大化。
侯晓楠表示,未来,网页游戏将向精品化更进一步发展,精品化将是页游市场的制胜秘诀。腾讯开放平台将通过精品挖掘、高潜扶持、聚焦流量等形式全力支持页游精品的输出。据侯晓楠介绍,在腾讯开放平台上,月流水1000万以上的页游佳作已经达到16款,月流水3000万以上的有6款, 而月流水4000万以上的有3款,核心资源聚焦打造精品页游大作。
除此之外,在电脑管家、腾讯视频、QQ会员、QQ浏览器及QQ音乐等多渠道推广下,腾讯页游将在未来获得更开放的接入平台。在更开放的流量支持下,腾讯开放平台同时施行更开放的内容策略,能够更好地支持U3D微端插件类游戏,打造效果更佳、题材更全的游戏。
手游井喷式增长 亿级平台应用宝再出扶持新政
相比于页游的稳中有升,手游近年来正呈现爆发式增长。侯晓楠分析,从应用宝上手游产品的表现来看,手游的蓬勃发展呈现出多元化和社交化的特点。目前,应用宝日发量突破一亿,海量分发将进一步支持手游产品在应用宝上的成长。
不仅仅在数据上,应用宝所具有的一点接入多平台流量分发的优势,整合了腾讯体系PC、移动端优质流量,能够帮助游戏开发者的手游产品,迅速获取用户、赢得收入。 侯晓楠表示,应用宝拥有“场景化推荐,关系链、社交化开放,强效分发,多屏联动”四大平台能力,能够帮助手游开发者分发并不断改进产品。
侯晓楠还向现场嘉宾分享了两款在应用宝平台上表现突出的游戏案例。《斩仙》是腾讯首款修仙类精品手游,精美的画面、简便的操作让其一经推出就立刻吸引了众多玩家的注意,在应用宝高粘度的用户支撑和精细化的运营手段下,《斩仙》获得了上线首月腾讯渠道流水破千万、日收入破百万的骄人成绩;而另外一款游戏《天天来战》也凭借次世代3D动作手游的定位吸引了大批动作游戏爱好者的眼球。《天天来战》在登陆应用宝平台10天内收入即破千万。
在开发者扶持计划方面,侯晓楠在会上宣布了应用宝的重磅游戏扶持新政策:在长尾游戏中,前三个月收入100万以内的腾讯不参与分成;应用宝对成熟游戏产品,将以3 : 7的比例进行分成,开发者获得7成收益,从新游测试到成长为千万精品的每个阶段全面保障开发者收益。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。