CNET科技资讯网 3月22日 北京消息: 3月21日,又拍云正式确认完成B轮融资,金额达数亿人民币,由一家产业资本领投。本轮融资,又拍云将专注于打造场景化CDN服务,加大网络基础设施投入,团队建设以及品牌打造。围绕着互联网及移动互联网的各种应用场景,又拍云持续打造场景化CDN,通过集CDN加速、存储、处理、安全的一体化解决方案,面向细分行业提供稳定、快速、高性价比的产品和服务。一个帐号,一次接入,践行又拍云“让创业更简单更快”的初心!
作为中国最早的专业云计算服务商,又拍云高性能、高可用性、高稳定性的加速表现,得益于在全球范围内自建的存储、加速节点。通过几年的基础设施部署,又拍云现拥有完全云化的6大数据中心,150多个自建CDN节点,3000多台服务器,1.5TB保有带宽资源,支撑日均500亿次请求。目前已帮助蘑菇街、唱吧、美团、乐视网、浙江卫视、芒果TV、蜻蜓FM、美拍、心动游戏、58同城、什么值得买、同程旅游等超过15万不同应用类型的客户实现完美加速。
随着新一轮融资到位,又拍云将更专注于打造场景化CDN服务,围绕着客户提出的需求,提炼优化,进一步增设新节点,扩展海外节点,不断提升边缘加速节点带宽,为用户带来更稳定、更迅捷的加速服务,打造电商,互动娱乐,在线教育,点播云及直播云等通用型解决方案,满足不同使用场景的客户需求。
“又拍云的场景化CDN服务,不仅包含了传统意义上的CDN服务,更是以CDN产品服务为核心,完美融合了云存储、云安全以及文件云端处理服务。贯穿了开发加速,上传加速,用户访问加速整个业务过程,大大缩短了客户从想法落地为产品再到产品发布的时间,提升了用户的体验“,又拍云创始人之一,COO 沈志华说。
“唱吧”是一款时尚的社交K歌手机应用,加速流程包括用户录歌、上传、下载试听,其社交属性需要将上传的录音“即时”分享给其他用户。使用第三方节点的服务商需等待内容推送到合作CDN节点之后方能提供试听,而自建CDN可以很好地做到这一点,当其他用户到又拍节点下载试听新内容时,就近节点会立刻回源找到最新的内容,用户无需等待即可实时K歌互动。唱吧之所以选用又拍云,正是因为又拍云在上传、下载的速度表现,均为国内领先。
唱吧资深技术总监黄全能表示:“又拍云的就近上传功能,的的确确大大改善了用户上传速度和成功率,是我们选择又拍云的关键。上传的压缩和回调都相当灵活,有效减少了集成的复杂性。”
随着移动互联网的深入发展,竞争压力越来越大,客户的需求也是越来越多样化。为了更好地适应客户需求,又拍云适时加大了场景化CDN的推进力度,投入大量资金和精力自建CDN节点,一方面对分发业务具备更强的掌控力和敏捷性,能够在出现问题的第一时间精准定位,为客户提供更好地体验;另一方面实现CDN业务的定制化,满足不同使用场景下的客户需求。
电商行业是最具代表性,也是互联网化最成熟的领域。电商网站页面通常由若干图片构成,打开一个网站,最重要的是下载和打开这些图片资源。打开的速度慢,会在很大程度上影响客户使用体验和成单率。又拍云遍布全国CDN节点,可以将用户的数据全部缓存到离终端用户最近的节点提供下载,页面加载速度更快。同时,这些图片根据不同的使用场景,需要匹配不同尺寸的图片,又拍云的云处理功能可以在线生成自定义尺寸的缩略图,省去了图片处理的人力和时间消耗,一站式的整合了存储、处理、CDN加速需求,带来更顺畅的访问体验。
对于电商网站来说,很多独家图片并不希望被竞争对手盗用,又拍云的防盗链功能可以很好的帮助电商产品进行原图防盗链保护,同时避免消耗自身流量,减少成本浪费。
随着网站的内容类型不断增加和丰富,流媒体、Flash、视频等业务成了主流应用对象。对于音视频领域的客户而言,一方面视频应用加载的数据量远高于普通网页或图片,另一方面内容源端遍布全国,加之要保障视频加载的连续性。上传不畅、访问延时或频繁卡顿,势必会严重影响视频服务的用户体验。
又拍云将视频服务内容缓存到各个节点资源,用户端就近快速获取内容。面对视频格式繁多,终端播放设备的屏幕尺寸不一的情况,又拍云的云处理服务器集群,可以让终端用户生成的文件数据,在云端智能完成各个格式的转换和生成,大大减轻企业本身的资源压力,同时自适应播放设备,带给用户最佳的播放体验。
随着场景化CDN提供加速的内容类型不断丰富,又拍云提供的服务也已从单纯的内容加速拓展到应用和服务的加速。无论客户业务转型还是新业务扩展,又拍云鼎力支持多样化的应用场景。由此,场景化CDN模式势必对传统CDN市场造成了冲击,也引发了整个CDN行业向场景化CDN的领域转变。
又拍云创始人老刘(刘平阳)表示:“我们创办又拍云的初衷就是希望帮助创业者解决基础设施的问题,这些问题每个创业者都不可避免,但可以交给专业人士去解决的问题,通过提供场景化服务从而让客户能够专注于核心业务逻辑打造,加快产品上线及业务成功的速度。简单地说,就是帮助创业者节省时间,节省精力,节省成本”。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。