近日,数字媒体公司 Migme 向澳大利亚证券交易所(ASX)透露,再获 620 万美元股权融资,投资者包括 Malcolm Steinberg、印尼媒体公司 MNC Group 和富士康集团等。到目前为止,Migme 完成了本轮融资,共计 770万美元,其中获美图投资 150 万美元。这是美图第二次投资 Migme,今年三月份,美图就曾向 Migme 投资 512 万美元,欲将美图工具整合到 Migme 的社交娱乐平台。
Migme 创立于 2005 年,总部位于新加坡,是一家全球性的数字媒体公司,于 2014 年 8 月 11 日上市。公司致力于为用户提供社交娱乐平台服务,品牌产品包括 migme、 LoveByte、alivenotdead 和 Sold,其中 migme 是公司自有的核心社交网络和娱乐平台,用户可以在该平台聊天、发微博、玩游戏并交换虚拟礼物。用户购买的礼品、表情、壁纸、头像及游戏道具等是公司的主要收入来源。
2014 年10 月,Migme 收购情侣夫妻专属应用 LoveByte,双方可以通过该平台进行沟通、分享想法,来保存下一些日常相处的珍贵时刻。同年 2 月份,Migme 收购 Alivenotdead,为名人与粉丝提供一个互动的平台。2015 年 1 月,Migme 收购在线付费竞价拍卖网站 Sold,用户可以通过该平台提交竞价,购买优质产品。
Migme 最近还宣布了与台北“移动平台专用加速器” MOX 建立了合作关系,将公司平台放到 Mox 软件开发工具包,共同为平台做宣传工作。Mox 与移动领域的企业创建战略合作伙伴关系,向全球超过 1.35 亿的安卓移动用户推出 App。所以,Migme 此次行动也是向安卓用户的一大推销之举。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。