导语:美国《福布斯》杂志网络版上周六撰文称,Twitter关闭第三方firehose数据接口的行为非常“邪恶”,将会扼杀整个生态系统。
以下为文章主要内容:
今天有条坏消息,Twitter宣布关闭firehose数据接口。这组数据涵盖了所有的推文和相关信息,第三方企业多年以来都在利用这些数据开发各种各样的功能。
Twitter多年以来一直向第三方出售这些数据,允许他们对其进行分析,并向相关企业出售各种分析,用于营销宣传和广告投放。Twitter去年收购Gnip时,业界就感到了些许不安。那是一家专门从事Twitter firehose数据分析的企业。虽然Twitter当时表示,Gnip将会与其他数据合作伙伴公平竞争,但该公司的战略已经发生了变化,并最终关闭了数据接口。
Twitter发言人在发给媒体的声明中说:“2014年5月收购Gnip后,我们决定将所有的数据授权活动收回,以便更好地服务于客户和合作伙伴。”
DataSift便是Gnip的众多竞争对手之一。据悉,Twitter一年前对合作伙伴表示,将会关闭数据接口,自那以后,DataSift便一直在与之展开谈判,希望能继续使用这些数据。
DataSift CEO尼克·哈尔斯泰德(Nick Halsted)在博文中写道:“几个月来,我们一直在努力与Twitter续签合约。谈判一直很有希望。有好几次,我们感觉立刻就能签下合同。这个结果令我们极度失望。我们在这个生态系统中利用Twitter数据帮助很多公司开发了各种解决方案,对于这些公司来说,同样感到十分失望。”
早在Twitter收购Gnip之前,DataSift便于2011年之展开了合作。这项业务可以带来不小的盈利机会。Twitter去年通过数据授权创收1.47亿美元,但收购Gnip后,该公司还可以利用原始数据制作出更为丰富的分析,从而获得远高于授权业务的收入。
由于Twitter本身的服务完全免费,所以亟待探索新的收入来源。广告和商务已经带来了两大创收机会,但该公司还希望充分利用大数据进一步创收。
当然,Twitter完全有权利这么做,毕竟,该公司拥有所有的数据所有权,对这些数据的很多支配行为也都完全合法,包括关闭第三方接口。但法律与道德不同,很多人认为Twitter此举只了自己的商业利益,堪称“邪恶”。
事实上,这并非Twitter首次打压其生态系统的合作伙伴。很多年前,当该公司收购Tweetdeck客户端时,很多第三方客户端就纷纷提出抗议。事实上,Twitter一直没有隐藏对第三方生态系统的观点。该公司曾经明确表示,将打击那些“模仿”其自家产品、服务和体验的公司。
但问题在于,原本没有威胁其业务的企业却有可能突然之间成为Twitter核心服务的竞争对手。有趣的是,Twitter最近投资了另外一家通过Twitter追踪新闻和财经信息的分析公司Dataminr——这是否意味着该领域的其他企业也应当开始担忧?
API管理服务提供商3Scale CEO史蒂芬·威尔莫特(Steven Willmott)在博客中对此展开了猛烈抨击。毕竟,3Scale是一家完全依靠API创收的企业。因此,Twitter关闭数据API将对其业务产生重大影响。威尔莫特认为,Twitter此举犯了重大错误,将会因此失去重要的创新层。
威尔莫特表示:虽然从某种意义上讲,希望更加接近用户数据(从产品角度来讲,这些数据很有价值,此举也值得赞赏)并无不妥,但切断其他渠道却会破坏创新。Twitter无疑能在用户体验方便实现很多优异表现,但切断第三方对firehose数据的访问权,却会产生严重破坏。Twitter非但不应该限制firehose数据访问权,反而应当扩大这种权限范围:
——Twitter和Gnip团队拥有一流的工程师,他们将继续开发一流的产品和服务。然而,他们不可能覆盖所有用户使用情境。各种商业上的限制将会令他们只能专注于最有利可图、潜力最大的业务。小众市场不会得到满足。
——没有几家公司有权使用所有或多数的Twitter firehose数据,这意味着小众需求的价值将会进一步损失。
——很多最有吸引力的使用情境都需要借助Twitter和其他社交平台的数据:这原本就很难实现,今后还会更难。
威尔莫特提到了Twitter收购Tweetdeck后,第三方客户端所遭遇的情况。他认为,自从Twitter收购了Tweetdeck后,该服务的客户端创新便已基本停止,其他客户端厂商也相继衰落。威尔莫特表示,Twitter此次的举动也将产生类似的效果。
尽管很多人认为,这只是市场行为,Twitter有充分的权利做出这种调整。但威尔莫特回应说:“平台经济的根本原则在于:做大蛋糕,切勿独吞。”
很显然,Twitter的确有权利这么做,但这是否对整个生态系统以及Twitter自身有利,恐怕还有待观察。
好文章,需要你的鼓励
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。
南洋理工大学与腾讯联合研究团队开发出Rolling Forcing技术,实现AI视频实时流式生成的重大突破。该技术通过滚动窗口联合去噪、注意力锚点机制和高效训练算法三项创新,解决了长视频生成中的错误累积问题,可在单GPU上以16fps速度生成多分钟高质量视频,延迟仅0.76秒,质量漂移指标从传统方法的1.66降至0.01,为交互式媒体和内容创作开辟新可能。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。