
北京时间1月5日消息,谷歌DeepMind开发的AI在围棋棋盘上战胜韩国世界冠军之后再度重返,这一次AlphaGo在网上战胜了顶尖棋手,而且是悄悄进行的。

DeepMind创始人哈撒比斯(左一)与李世石握手
今天早些时候,谷歌DeepMind创始人丹米斯·哈撒比斯(Demis Hassabis)在Twitter发布消息,证实升级版AlphaGo在网上与真人对决。
哈撒比斯写道:“在过去几天里,我们在网上进行了一些非正式围棋比赛,对局以快棋的形式进行……我们的目的只是为了查看系统是否如预期一样好。”他还说:“感谢那些在弈城围棋网和野狐围棋网与我们对弈的棋手,我们的账号是Magister(P) 和Master(P),我们还要感谢那些观战的人。”
之前许多人都在猜测这位围棋高手是谁,大家都不确定,有人怀疑它是电脑。中国棋手古力悬赏10万元,寻找可以打败“Master”的棋手。
DeepMind发布的消息显示,非正式测试可能已经结束,今年晚些时候,AlphaGo将会参加一些正式比赛。
附哈撒比斯发布的最新声明:

一直以来,我们都在努力改进AlphaGo,在过去几天里,我们进行了一些非正式网上比赛,对局以快棋的形式进行,参加比赛的是最新开发的原型版系统,进行网上对决只是为了检查系统,看它是不是和预料的一样好。感谢那些在弈城围棋网和野狐围棋网与我们对弈的棋手,我们的账号是Magister(P) 和Master(P),我们还要感谢那些观战的人。
新版AlphaGo在比赛中下出了一些富有创意、非常漂亮的棋步,我们和围棋社区从中学到了许多东西,对此我们感到很兴奋,结果让人满意。
与AlphaGo对弈之后,棋手古力发帖称:“人类与AI携手合作,很快将会揭开围棋的深层秘密。”现在我们的非正式测试已经结束,今年我们准备与围棋组织、专家合作,举办正式、完整的比赛,进一步探索围棋的秘密,让人类与AI互相启迪,共同进步。很快我们就会公布更多消息。
好文章,需要你的鼓励
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。
南洋理工大学与腾讯联合研究团队开发出Rolling Forcing技术,实现AI视频实时流式生成的重大突破。该技术通过滚动窗口联合去噪、注意力锚点机制和高效训练算法三项创新,解决了长视频生成中的错误累积问题,可在单GPU上以16fps速度生成多分钟高质量视频,延迟仅0.76秒,质量漂移指标从传统方法的1.66降至0.01,为交互式媒体和内容创作开辟新可能。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。