电商解决方案提供商宝尊今晚纳斯达克IPO
5月21日消息,总部位于上海的中国电商IT解决方案提供商宝尊宝尊(Baozun Inc)预计将于今晚在美国纳斯达克交易所挂牌上市。
不出意外,宝尊将于今天晚些时候公布发行价。
宝尊计划以每股美国存托股(ADS)12美元至14美元的发行价区间,发行1100万股ADS,最高融资额为1.771亿美元,股票代码为“BZUN”,承销商为摩根士丹利、瑞信、美林证券。
宝尊自称中国最大的电商解决方案提供商,招股书援引艾瑞数据称,宝尊以交易额价值计算的中国区市场份额为20%,具体业务包括向品牌电商提供IT解决方案、运营服务支持以及直接帮助电商向消费者销售商品两种模式的服务。
在融资额和发行价方面,根据宝尊5月8日更新招股书,该公司计划以每股美国存托股(ADS)12美元至14美元的发行价区间,发行1100万股ADS,授予承销商最高1,650,000股ADS超额配售权,即最高融资总额为1.771亿美元。
在市值方面,倘若承销商不行使超额配售权,即最终发行1100万股ADS(3300万股普通股),宝尊在IPO后在外发行普通股总量为145,825,312股普通股,以发行价区间上限的每股ADS 14美元计算,宝尊IPO后市值约为6.8亿美元。
在过往交易额方面,宝尊电商2012年、2013年和2014年商品交易总额分别为14.604亿元、26.208亿元和42.489亿元。在营收方面,宝尊2012年、2013年和2014年营收分别为9.545亿元、15.218亿元和15.844亿元。
在过往盈利情况方面,美国通用会计准则下,宝尊2012年、2013年和2014年净亏损分别为4720万元、3780万元和5980万元,不按照美国通用会计准则,宝尊2012年、2013年的净亏损分别为4720万元、2626万元,在2014年则实现净利润2514万元。
扣除归属于优先股的分红以及可转换优先股赎回价值变更等影响后,美国通用会计准则下,宝尊2012年、2013年和2014年归属于普通股东的净亏损为6814万元、9920万元、1.55亿元。
在近期业绩方面,宝尊电商2015年第一季营收4.77亿元,同比增77.9%;第一季净利润为198万元,同比下降12.5%,不按照美国通用会计准则,第一季度净利润764万元,去年同期净利润335万元。
扣除归属于优先股的分红以及可转换优先股赎回价值变更等影响后,美国通用会计准则下第一季度净亏损2335万元,去年同期净亏损1531万元。
在公司股权结构方面,宝尊CEO Vincent Wenbin Qiu在IPO前持股10.1%,IPO后持股7.9%,投票权36%,是实际控制人。
阿里巴巴和软银是宝尊的两大外部股东,其中阿里在IPO前持股23.5%,IPO后持股18.2%,投票权10.0%;软银在IPO前持有17.8%股权,在IPO后持有13.5%股权以及7.5%投票权。
除了资本方面的合作,宝尊和阿里还存在业务方面的合作。
宝尊因为在天猫开设的官方旗舰店,在2012年、2013年、2014年以及2015年第一季度向阿里巴巴支付了2960万元、5590万元、7180万元、1910万元服务费。
阿里巴巴在天猫开展促销活动期间,宝尊因为提供推广服务在2012年和2013年从阿里处获得3760万元和1270万元的收入。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。