科技行者 11月26日 北京消息:当前,数据的价值日益凸显,已成为重要的生产要素和社会财富。云计算、人工智能、5G等技术的蓬勃发展,带来了智能化时代算力的提升。以数据为“能源”、以技术为“引擎”,才能将数据转化为智能,产生突破局限、跨越发展的力量。
11月25日,T11 2019数据智能技术峰会在北京举办。TalkingData正式宣布了2019年的最新战略布局,以数据平台为支撑,借助大数据技术积累与人工智能技术创新,聚焦不同行业场景需求,并在选址、预测、个性化推荐等方面进行深入应用,以数据和科技的力量驱动发展。
TalkingData CTO 王亭与合伙人兼首席架构师黄洋成首先分享了对大数据与人工智能技术发展现状与趋势的深刻认识,并详细解读了TalkingData近几年的相关探索实践。王亭表示,当前企业数据服务尚属早期市场,60%企业有超过一半的Dark Data没有利用,处理庞大数据和多样数据化关联和分析仍然是巨大挑战。而AI将成为企业市场的技术颠覆者,但在数据、模型及工程等方面的门槛阻碍其进一步发展。
在此背景下,TalkingData从战略层面对旗下数据平台和营销平台进一步升级。一方面,为伙伴企业提供数据接入、集成治理、增值开放的平台服务;另一方面,基于平台能力,面向市场营销和运营人员,提供数据分析、数字营销的智能应用,进行数据连接、客群细分、同步投放、效果监测的营销全场景覆盖。另外,通过数据分析和智能算法模型,服务不同行业场景需求,进一步打通从选址运营、到销售预测再到个性化推荐的应用流程。
大数据时代,数据体量越来越大,对于数据的综合处理和分析能力要求也越来越高。峰会上,英特尔(中国)数据中心集团渠道业务技术总经理李悦阐述了英特尔以数据为中心的发展战略和技术,并对其在人工智能发展历程中的价值进行了深入分析。此外,涛思数据联合创始人李广分享了自研物联网大数据处理平台TDengine及其应用场景案例。大数据释放出的价值为很多行业带来了颠覆性影响,ARK Federation联合创始人兼董事长张文新分享如何用数据驱动美学,提升视觉设计与千人千面的用户体验。
以“AI是否能带来真正的价值”主题的圆桌论坛由AI 媒体超神经 HyperAI 执行主编袁滚滚主持,邀请英特尔(中国)首席工程师和人工智能技术中国首席架构师夏磊、ARK Federation联合创始人兼董事长张文新、涛思数据联合创始人李广与TalkingData CTO王亭,共同针对AI技术适合在哪些场景落地、在企业端应用的挑战等话题展开了精彩对话。
在下午的主题演讲中,TalkingData研发总监韩广利、资深架构师徐岷峰、资深架构师赵志刚以及架构师肖强分享了大数据从收集、处理到分析、应用及安全合规的全流程实践,以一线丰富经验为开发者和技术人提供有价值的参考。
开源项目在业内有广泛的应用基础,南京大学计算机系副研究员顾荣在演讲中深入介绍了开源AI和大数据存储编排平台Alluxio的基本原理、Alluxio 2.0的新特性,以及国内开发者社区对Alluxio缓存优化方面所做的贡献。
2018年,人工智能进入商业化元年。2019年,随着数据和算力的不断提升,AI技术正逐渐步入成熟期。TalkingData首席数据科学家张夏天在演讲中分享了对AI应用场景方法论的深入思考,并首次解读了TalkingData在需求预测场景下的AI技术实践与产品。
T11暨TalkingData数据智能峰会创办于2015年,是由TalkingData主办的业界盛会。本届峰会设置数据智能峰会与数据智能技术峰会两大会场。技术会场重点关注大数据与人工智能技术的创新发展,分享技术实战经验和各行业场景中的创新应用。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。