国产大模型阵营再添新锐选手。11月14日,阿里巴巴智能信息事业群发布全栈自研、千亿级参数的夸克大模型,将应用于通用搜索、医疗健康、教育学习、职场办公等众多场景。夸克App将借助自研大模型全面升级,加速迈向年轻人工作、学习、生活的AI助手。
近期,在CMMLU权威大模型性能评测中,夸克大模型成绩位列榜首。最新评测显示,夸克大模型整体能力已经超过GPT-3.5,在写作、考试等部分场景中优于GPT-4。
国产自研大模型中的“学霸”
夸克大模型是基于Transformer架构、自主研发的多模态大模型,每天会对亿级的图文数据进行训练和精调,具有低成本、高响应、综合能力强等特点。同时,夸克大模型还将衍生出通识、医疗、教育等垂类模型,可以提供AIGC、智能检索的专业服务。

性能方面,凭借语义理解、逻辑推理、内容生成等技术优势,夸克大模型在CMMLU权威榜单的最新评测结果中,取得排名第一的优异成绩。在国内专业考试测试中,夸克大模型高考成绩接近满分,并以486分的高水平通过临床执业医师资格考试,是名副其实的“学霸”。
同时,夸克大模型具备了对不良、虚假信息识别、回答和指引的出色能力。知识能力方面,夸克大模型拥有广泛的知识覆盖、上下文理解、创造性表达、信息搜集和整合、多语言支持等,同时具备外接专业知识增强、检索增强能力,进一步提升跨领域、时效性的知识和语言理解能力。此外,夸克大模型还具有撰写各类文本的强大文学创作能力,以及准确、合理、连贯的对话回复能力。
整体能力超过GPT-3.5,部分场景优于GPT-4,夸克大模型能力“爆表”源于数据、行业、知识正确性、平台等四方面优势。首先,夸克大模型拥有最全面的中文数据库,能更好地理解、评估、提炼中文知识体系;第二,夸克自建及拥有各类题库、知识点、医疗知识图谱、书籍及出版物等资料,沉淀了非常丰富的数据及用户场景;第三,在通用知识、写作增强等方面,夸克建立了从内容、搜索再到推理的一套可辨别知识真伪的技术体系。第四,夸克组建了数百人的研发团队,在搜索、教育、医疗等垂直领域中进行大模型的预训练与精调。
据介绍,坚持自研大模型的研发路线是服务于夸克的业务战略,也是持续推动夸克App在产品体验创新和迈向新一代搜索的技术底座。
夸克将借助自研大模型全面升级
今年以来,人工智能技术已经逐步融入到夸克App的产品迭代中。夸克扫描王能够在复杂场景下模仿人类思维,更精准地识别、分析和提取文字、公式及图片,实现更完美的扫描效果。夸克网盘上线的AI自然语言搜索功能,仅通过模糊词、形容词等关键信息,就能快速找到照片、文档等云端资料,进一步提升搜索效率。
作为最受年轻人青睐的智能产品,夸克App为数千万95后职场人和大学生提供了跨场景的智能效率工具。根据QuestMobile发布的《2023年轻人群智能效率应用研究》报告显示,夸克App在泛学生人群和新生代职场人群的用户占比最高,年轻用户使用时长位列行业第一。
据悉,夸克大模型将会优先落地在通识问答、专业搜索等信息服务领域,满足年轻人学习知识和提升自我的需求。未来,夸克大模型应用于搜索、智能工具和资产管理助手等场景,一系列AI原生应用将为年轻人工作、学习、生活提供更全面的服务。
今年9月,阿里集团宣布了用户为先、AI驱动的两大战略重心,将加大对“技术驱动的互联网平台业务”、“AI驱动的科技业务”等业务的战略性投入。近日举办的2023世界互联网大会上,阿里巴巴集团CEO吴泳铭预判,在可见的未来,会有更智能的下一代产品进入人们的生活,AI助理会无处不在,成为每个人工作、生活、学习中的助手。
“AI时代已经来临,大模型应用的全新体验临界点近在咫尺。”阿里巴巴智能信息事业群总裁吴嘉表示,基于大模型的AIGC技术将会给搜索产品带来全新变化,加速迈向下一代搜索。夸克借助自研大模型将全面升级,全新的夸克很快会和大家见面。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。