
在CES2014上,联想发布了旗下最新ThinkPad超极本产品2014版ThinkPad X1 Carbon。
2014版Thinkpad X1 Carbon拥有主流的尺寸, 14英寸的屏幕浓缩了高达2560x1440的惊人分辨率;采用碳纤维的材质,刷新14英寸超极本轻量记录;秉承Thinkpad精致商务风格,坚固、轻薄、沉稳的外观,接口齐全;全新按键布局设计,新元素虚拟按键融入,触控功能键设计,非常洋气。
在软件方面,配合Windows 8.1,同时还集成了联想增强版的开始菜单程序,为了简化设置,联想还提供了一个基于触控界面的设置中心,极大程度方便了用户操作。
我们在现场看到,这款产品搭载酷睿i7的高配版本的售价为1299美元,算上税款,含税价格大约是8500元人民币,相信如果是针对主流的i5版本,售价会相当有竞争力。
在联想发布的23款新品中,2014版ThinkPad X1 Carbon绝对是此次CES2014中耀眼的明星之一,是时下全球最轻薄的14英寸超极本产品。
以下是我们在CES2014的现场评测。
首先我们来看看2014版ThinkPad X1 Carbon的外观全景图,仍然继承了小黑的酷黑外观,但同时你也能够感受到很多的时尚元素融入其中,而屏幕上,触摸屏成为了标准的配置,令人惊喜的是,尽管采用了触摸屏,屏幕的厚度对比上一代非触摸版本,并没有太大的变化,从而很好的控制了整机厚度。
再来看看接口部分,超极本为了轻薄设计,往往省略了大量的接口,而2014版ThinkPad X1 Carbon在这点上表现尚可,两个USB 3.0,一个标准HDMI,一个miniDP,还有扩展口,算是比较全的设计了,从侧面我们也可以看到,2014版ThinkPad X1 Carbon真的很薄!
接下来是小黑迷们最关注的键盘以及输入设备部分了,先说触摸板吧,很多小黑迷可能又失望了,2014版ThinkPad X1 Carbon仍然采用了一体式的触摸板,这主要是为了降低产品的整体厚度,不过从现场极其简单的使用感受来看,2014版ThinkPad X1 Carbon的一体式触控板相比之前的产品似乎有所改进。再来看键盘部分,这个部分变动非常大,从原来的六行变成了五行的物理按键加上一行的虚拟按键,虚拟按键部分是原来的F1-F12以及功能快捷键,这样的设计非常时尚,隐隐还有种Android的感觉,但比Android的虚拟按键感觉上更高端,让超极本和平板电脑之间的界限更加模糊了。电源开关和指纹识别基本还保持在了老地方。
接下来来看看屏幕角度,2014版ThinkPad X1 Carbon的屏幕分辨率达到了2560x1440的惊人程度,而开合角度方面和之前的Carbon一样,2014版ThinkPad X1 Carbon的屏幕最大角度是180度,可以放平,但不能折叠,这在保证实用性的同时,也保证了铰链的寿命,提升整机可靠性。
最后看看软件部分,Windows 8.1,同时屏幕右下方还集成了联想增强版的开始菜单程序,这个非常方便,甚至比原版Win7的开始菜单都方便,同时为了简化设置,联想还提供了一个基于触控界面的设置中心,即便是新手也可以快速的在这里调节部分设置选项。
总结下这款产品,并提供下参考价格信息,2014版ThinkPad X1 Carbon无疑是我们在CES2014上看到的优秀超极本产品之一,尤其是触控的功能键设计,非常洋气,我们在现场看到,这款产品搭载酷睿i7的高配版本的售价为1299美元,算上税款,含税价格大约是8500元人民币,相信如果是针对主流的i5版本,售价会相当有竞争力。
最后预告下,明天我们将会对2014版ThinkPad X1 Carbon以及其他联想产品的发布做现场图文直播,欢迎大家到时围观。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。