ChatGPT为代表的AIGC应用,正在以“迅雷不及掩耳”之势,带来人工智能的新想象,虽然数据库不处于人工智能的最前沿,但作为人工智能的基础设施,都在不由的为这个快速成长的“孩子”做好准备,呵护AIGC应用的大批来袭。
人工智能会因为ChatGPT的火爆而有大量的应用涌现出来,数字化的进程会因此提速,这些应用的前提是,要有一个能为人工智能应用普及化到来而准备的数据库。这样的数据库是否已经有了?是否能在AIGC时代,不拖后腿,还能助一臂之力?
坐在记者面前的阿里云数据库产品事业部负责人李飞飞,看起来胸有成竹。阿里云瑶池数据库,将云原生数据库PolarDB和云原生数据仓库AnalyticDB打通融合,形成了“云原生一体化”的HTAP解决方案。阿里云还推出了全新多模数据库Lindorm AI 引擎,在数据库内集成人工智能能力,对非结构化数据进行智能分析和处理,打造AIGC应用的数据基础设施。
图:阿里云数据库产品事业部负责人李飞飞
人工智能来袭?已经准备好
AIGC时代需要能够支持海量、多模态数据的数据库,因为AIGC一定是需要多模态的数据、不是单一形态的数据,所以阿里云Lindorm数据库就非常好地满足了这个条件。
“这些应用的背后,可能会是基于用户自建的数据模型,也可能会是第三方的模型,这种多模态共存的方式,接下来会成为普遍存在的现象。支撑海量、多模态数据的低成本、高效率的存储和处理,这是Lindorm这么多年打造的坚实基础。但光有这个不行,还需要能够支持丰富、灵活、强大的模型导入和使用。”
如此众多的模型,对数据库来说,就好比是“人民战争的汪洋大海”。
李飞飞指出,阿里云应对的办法是——足够的开放,用平台化的方式去赋予数据库更多的能力,去无缝导入第三方的模型。
把用户导入的模型放在一个机密容器里,保证模型安全。导入模型以后,结合多模态数据,这个想象空间天花板就非常高。有多模态数据高效低成本的存储,加上第三方灵活开放应用的导入,任何事情几乎都可以干,足以应对AIGC的各种创新需求。
当然,随着AIGC的相关应用推进,人工智能逐渐的平民化,数据库在运维管控层面,运维和调优会也变得更加智能化。“过去,MySQL和PostgreSQL都是几百个参数起,每个参数对不同场景的影响都不一样,依赖有经验的DBA和开发者,就像老中医开药方一样,有的药方灵,有的药方吃了就没有用,”李飞飞说,“这些都会随之变得平民化和智能化,运维、高可用的检测告警、异常的报警,等等这些都会智能化。其实这件事已经发展几年了,但是接下来的一到两年会加速。”
如果人工智能加速变革,那么数字化必然也会加快脚步。
李飞飞指出,“过去一二十年,是信息时代的数字化,也就是说,是企业的信息化办公实现了数字化。比如我们实现了无纸化办公,比如说电话会议等等,这叫信息化的数字化。”
当人工智能到了临界点,一定会催生两个趋势:李飞飞说“一个叫物理世界数字化,还有一个是生物世界数字化,不管是在中国、美国还是欧洲,人类对长生不老的追求是生生不息的,所以生物世界数字化一定会是非常热的热点。还有物理世界数字化,将整个物理世界数字化。”
我们正在经历、见证着这样的变革。
数据中心的“四化”
数字化的变革时代,AIGC带来的智能化浪潮,智能化的趋势无可厚非,除了智能化,李飞飞提到了数据库发展到现在的发展阶段,云计算进入深水区,就像我们要进行“四个现代化建设”一样,数据库也要实现“四化”,除了要发展智能化,数据库还要大力发展云原生化、平台化、一体化。
站在今天这个节点,已经没有人再质疑数据库向云原生化演进的必要性和现实的紧迫感,已经有非常成熟的存储计算分离技术,存储池化、计算池化带来高可用、高可靠弹性,现在进入云原生化。
李飞飞说:“随着数据量爆发式的增长,数据形态的多元化,以及业务的多样化,数字化深入带来业务多样化是必然的,传统的单一的数据库产品包打天下、解决所有问题的时代已经结束了,一定是用一个平台化的思维去构建可能有多个引擎,基于平台来提供一个一整套的、一站式的能力和解决方案,这就是数据库的平台化。”
以后的数据库,不用再去管是集中式数据库、分布式数据库,这个问题应该由数据库本身来解决,什么时候用集中式架构,什么时候用分布式架构,是有业务需要来抉择的,自动在两者之间切换,平滑地转化,实现云原生分布式真正的一体化,集中分布一体化。
阿里云瑶池数据库卡位“云原生+一站式”的数据管理与服务,正在用这样的理念,做更符合这个时代的数据库产品。
好文章,需要你的鼓励
这项研究探索了如何通过"LLM情境调节"和"持续工作流程提示"技术来提高大型语言模型在验证化学分子式时的准确性。研究者发现,普通提示方法往往不可靠,因为LLM倾向于自动"纠正"错误而非指出它们。然而,通过精心设计的情境调节提示,研究成功引导Gemini 2.5 Pro不仅识别出文本中的错误,还发现了之前人工审阅未察觉的图像中的分子式错误。这一概念验证研究表明,即使不修改模型本身,也能通过适当的提示策略显著提高LLM在科学技术文档细节验证中的表现。
复旦大学研究团队开发的uLLSAM模型成功将多模态大语言模型(MLLMs)与分割一切模型(SAM)结合,解决了显微镜图像分析的跨域泛化难题。通过创新的视觉-语言语义对齐模块(VLSA)和语义边界正则化(SBR)技术,该模型在9个领域内数据集上提升了7.71%的分割准确度,在10个从未见过的数据集上也展现了10.08%的性能提升。这一统一框架能同时处理光学和电子显微镜图像,大大提高了生物医学图像分析的效率和准确性,为科研人员提供了强大的自动化分析工具。
斯坦福大学等机构研究团队利用强化学习训练大语言模型,使其能够优化汇编代码性能。研究构建了8,072个程序的数据集,并通过近端策略优化(PPO)训练模型生成既正确又高效的汇编代码。实验表明,训练后的Qwen2.5-Coder-7B-PPO模型实现了96.0%的测试通过率和1.47倍平均加速比,超越包括Claude-3.7-sonnet在内的所有其他模型。研究发现模型能识别编译器忽略的优化机会,如用单一指令替代整个循环,为性能敏感应用提供了有价值的优化途径。
这项研究提出了一种改进的声乐效果风格迁移方法,通过在推理时间优化过程中引入高斯先验知识,解决了传统ST-ITO方法忽视参数合理性的问题。研究团队基于DiffVox数据集构建了专业效果器参数分布模型,将风格迁移转化为最大后验概率估计问题。实验结果表明,该方法显著优于基准方法,参数均方误差降低了33%,并在主观听感测试中获得最高评分。这一创新为音频处理领域融合数据驱动和专业知识提供了新思路。