北京时间5月8日消息,据《华尔街日报》网络版报道,智能手环开发商Fitbit周四向美国证券交易委员会(SEC)提交了IPO申请文件,最高募资1亿美元,摩根士丹利、美银美林、德意志银行担任承销商。
招股书显示,Fitbit计划在纽约证券交易所上市,股票代码为“FIT”,欲通过发行普通股最高融资1亿美元。不过1亿美元融资金额很可能只是个占位符,用来计算注册费,日后还会发生变化。
招股书显示,截至今年3月31日的三个月,Fitbit营收为3.37亿美元,净利润为4800万美元。Fitbit在2014年售出了1090万部智能手环。
Fitbit销售的设备从售价59.95美元的入门级无线追踪设备Zip到售价129.95美元的WiFi连接设备Aria。Aria可追踪人体的脂肪率。Fitbit去年停止了销售最新智能手环Fitbit Force,原因是用户多个月以来一直抱怨,该设备会引起手腕皮疹。Fitbit在招股书中称,这些投诉已经导致该公司遭到起诉。
市场调研公司NPD零售追踪服务提供的数据显示,截至2014年11月的12个月,健身追踪设备零售额同比增长一倍以上至4.894亿美元。但是,早期健身追踪设备使用者多数是健身发烧友,已经开始远离这一市场,原因是他们发现这些设备功能太过基础。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。