北京时间8月23日上午消息,不久前刚刚退役的NBA传奇球星科比·布莱恩特(Kobe Bryant)有了一个全新的身份——风险投资家,他在美国纽交所(NYSE)宣布成立一只1亿美元的风险投资基金“Bryant Stibel”,计划对科技、媒体和数据公司展开投资。
科比·布莱恩特
同样在这一天,Bryant Stibel战略投资了中国在线少儿英语教育品牌VIPKID,这是科比迄今为止全球投资的唯一一家教育企业,同时,也是继2014年投资阿里巴巴之后,科比在中国投资的第二家创新企业。
VIPKID先前已经有过多次融资。2013年底,VIPKID获得创新工场提供的300万元天使轮投资;2014年10月获得经纬中国领投、创新工场和红杉资本联合投资的500万美元A轮融资;2015年10月,VIPKID获得由北极光创投,经纬中国、红杉资本和创新工场的近2000万美元B轮融资;2016年4月,VIPKID再度获得真格基金的增资。
而Bryant Stibel的投资是在两个月前,科比在中国与VIPKID首次接触时作出的决定。科比在《洛杉矶时报》的采访中表示,决定投资VIPKID,自己只用了五分钟的时间。“这样的企业就是我们一直在找的能够通过教育帮助孩子更好的成长和发展的公司。”
在风投这个行当里,38岁的科比并非孤军奋战,43岁的杰夫·斯蒂贝尔(Jeff Stibel)将成为他的合伙人。后者长期从事创业和投资,他们是通过一位共同的好友相识的。这家新公司的名字为Bryant Stibel,总部将位于洛杉矶地区。
他们二人自2013年以来已经投资了15家公司,但直到科比退役后,他们才决定正式组建一只基金。目前的1亿美元均来自他们二人的自有资金,预计将在未来几年内陆续完成对外投资。他们目前还不准备寻求外部投资者。
Bryant Stibel目前的投资对象包括体育媒体网站The Players Tribune、视频游戏设计公司Scopely、法律服务公司LegalZoom、电信软件公司RingDNA和家用榨汁机公司Juicero。
科比和斯蒂贝尔接受采访时表示,他们二人的能力实现了互补,斯蒂贝尔带来了企业运营经验,科比则贡献了创造力、对细节的关注,以及经营品牌和讲故事的能力。这家新公司的logo设计灵感来自于钢琴琴键。
值得一提的是,他们二人甚至受过同样的伤,科比在2013年对战金州勇士队时脚踝受伤,而斯蒂贝尔也在曼哈顿的一起事故中脚部骨折。
斯蒂贝尔说:“我们并不想让科比作为企业的背书,这没有意思。关键在于增加真正的价值。”斯蒂贝尔最初从事脑科学研究,后来创办了多家科技公司。
科比在篮球比赛的准备和训练过程中都很刻苦,他也寻找那些工作刻苦的创业者。
“有时候立刻就能识别出这种品质,有时候却没有那么快。”科比说,“克服所有困难是一个人的内在品质。正是这种坚韧不拔的精神激励着创业者从事他们真正信仰和热爱的事业。”
今年夏天,科比经常在早晨6点帮助年轻的NBA球员提升竞技水平。他表示,在为创业者提供支持的过程中,他也将保持相同的激情。
“如果你10年前问我,我会说我求胜心切。”科比说,“年龄似乎拓宽了你的视角。我现在最享受的是帮助别人成功。我很喜欢这种感觉,这种事情可以永远持续下去,也希望他们能够为下一代做同样的贡献。”
很多退役运动员都曾经谋划过野心勃勃的商业梦想,但很多都以失败而告终。大约10年前,棒球投手科特·席林(Curt Schilling)成立了一家视频游戏公司,并在罗德岛政府的帮助下筹集了资金。但该公司在2012年申请破产保护。
前洛杉矶湖人队队员、科比的前队友大鲨鱼奥尼尔也对科技和娱乐创业公司展开了多笔投资。与科比最相似的或许是纽约尼克斯队的卡梅隆·安东尼(Carmelo Anthony),他创办的Melo7 Tech Partners专门投资早期科技公司。
科比表示,他并不认为自己与这些运动员存在竞争关系。“很多人的第一反应是,我会与其他人展开竞争。这很有意思。但我更感兴趣的是如何为他们提供帮助。”
至少有一位风险投资家认为体育明星可以在商界有所作为:New Enterprise Associates的乔·萨克达(Jon Sakoda)就与斯蒂贝尔和科比展开了合作,与之共同投资了体育网站Players Tribune。“职业运动员和企业创办者之间有很多相似之处。创业者都很重视运动员。”
斯蒂贝尔补充道:“最重要的是决心和才能。你必须拥有足够的激情才能取得成功。企业和想法可以不断变化,但创业者一定要坚持下去。”
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。