智能硬件圈又掀起了风暴。6月19日,美国智能手环制造商Fitbit正式在纽约证劵交易所挂牌上市,股票代码FIT。
作为第一家成功登陆纽交所的可穿戴设备公司,Fitbit也给出了一份漂亮的挂牌成绩,该公司开盘即报30.40美元,相比20美元的发行价开盘即飙升了近50%。
或许对于Fitbit来说,这是一个最好的时机。按目前业界分享的数据来看,可穿戴设备这方沃土一直在增长。根据美国数据分析公司IDC公司的预测,可穿戴设备全球出货量将从去年的1540万增长到2019年的5200万。
相观之,Fitbit近两年公布的财报,2015财年第一季度与2014财年第一季度业绩对比:营收同比增长209%;毛利润同比增长278%;净利润同比增长441%。而Fitbit此前向美国证券交易委员会提交的F-1文件显示:该公司去年营收为7.45亿美元,净利润为1.31亿美元;今年第一季度,该公司营收为3.36亿美元,净利润为4799.7万美元。
据IDC研究数据显示,Fitbit设备今年一季度出货量为390万台,市场份额为34%,位居智能手环市场第一。此次,Fitbit的IPO发行价定为每股20美元,较初始定价区间的中值高出33%。若以每股20美元计算,Fitbit市值也已突破40亿美元。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。