
CNET科技资讯网 6月30日 北京消息(文/张丹):ZUK从诞生之日起就站在聚光灯下,人们通过各种手段试图曝光这家初创公司藏在幕后不为人知的那些事,这之中,产品是最大的秘密。
过去的时间里,常程和外界进行了为数不多的沟通,关注ZUK的人们如愿以偿的获得了想了解的信息,尽管信息量不大,但非常有价值。
用数学逻辑生产
常程第一次与外界交流产品时透露自己学数学出身,所有做产品的逻辑都是数学逻辑。
“所有我的逻辑都是从数学来的,做第一只机器我们暴露了一个原则,有三条,在数学里任何事情都是讲究存在性的,当你提出一个假设提出一个命题的时候它存不存在。第二,可解性,你提出来的假设提出来一个命题,这个东西可解吗。第三个,唯一性,你的解决方案是不是唯一的。”
做产品需要指导方针,存在性、可解性、唯一性就是ZUK做Z1最核心的原则。
揭秘Z1目标用户:重度手机用户
在第二次与外界交流时,常程揭晓了目标用户群。Z1这只机器给谁做的?是一支为重度用户打造的机器。
常程透露,我们对重度用户有自己的一些解读,重度用户有六个显著的特征:
第一,低头族。大家坐地铁坐公车包括我在公司里面经常走路会撞上,大家都在低头看手机。低头族还有一个解释,手机捧在你手里的时间会很久。
第二,夺宝族。我们去学校观察学生,今天课有意思吗,今天有一个ZUK发布会,他可能带一块充电宝,明天有一个魅族的发布会或者明天有一个华为的发布会可能带三块充电宝,背后的逻辑是什么?今天的课有意思我就少带一块充电宝,因为玩手机的时间少,今天的课没意思多带充电宝,电池是很重要的事情,包括现在推出的快充都是解决这个问题。
第三,暴晒族。很多人出去玩都拿手机拍一下,现在手机自拍非常强大,可以把我这样的大叔弄成18岁的小伙子,我们也会针对拍照做一些特殊的优化处理,满足客户的需求。
第四,APP。去学校我们发现学生里大家装APP会装多少?我们看到的屏幕数都在两百上下,我回家看我女儿手机,光拍照装十个都不止,他们的使用频度远远超过我们想象,原来打游戏的用户手机上装非常多的游戏。
第五,速光族。跟流量相关,流量还是很挑战的事情,在座的各位还好,但是很多学生们还是很在意流量的,学校里面很多运营商的促销,更多看哪个运营商的流量更便宜。
第六,蹭网族。刚进屋到咖啡厅,第一句话密码是什么?尽管我的卡流量很高,但还是习惯性要蹭网,蹭别人的流量刷起来比较爽,刷自己的流量还是比较心疼。
产品将重点强调“调校”
ZUK在产品上将非常强调“调校”。
“对ZUK来说,我们对平台的挑剔程度超过了很多人。我们会挑一个非常好的平台,我们投了很多工程师,我们投入在平台调校性能、调校功耗、调校稳定性,上面的资源花的非常多,大家说安卓的机器都卡,买的时候都不卡,用一段都卡,你们可以买一只ZUK手机Z1试试三个月以后还卡不卡,一年之后还卡不卡,工程师的心血在里面会有完全不一样的感受。”
常程没有想把苹果用户转化到Z1,但他认为,安卓机用户都将是Z1潜在用户。
揭秘唯一性:指纹人性化交互
Z1与其他手机最大的不同就是指纹。
“我们指纹是跟世界上非常好的一家公司合作,这家公司是诺基亚的高管出来做的公司,我到上海跟他们谈合作,第一次谈合作的时候他们问我你们是不是想做这件事情?真的想做这件事情。不一定能做成。试试看,非常有机会,希望把这个机会再努一下。”
常程透露,“Z1不仅把指纹放在前面,而且赋予指纹非常多人性化的交互。”这将是9月份发布会最重要的一个卖点。
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。