CNET科技行者 11月15日 北京消息: 2017年11月14日, Makeblock在GET2017教育科技大会上发布了普及型编程机器人“程小奔”(Codey Rocky),以及全新的编程软件mBlock 5,致力于让孩子们掌握人工智能(以下称AI)时代的编程技能。
拥抱AI时代的机器人
在去年的GET教育科技大会上,Makeblock曾发布了可编程模块化无人机Airblock,让“少儿编程 ”概念迅速成为展会的一大焦点。为了推进编程教育的更大普及,今年Makeblock又发布了这款软硬件结合、价格更亲民的可编程机器人“程小奔”。同时推出全新的基于 Scratch 3.0 开发的mBlock 5编程软件, 可以将积木式编程实时转换到代码编程,更是将STEAM教育模式推进到了AI时代。
上图的萌物就是Makeblock最新发布的可编程教育机器人“程小奔”,它由两部分组成,分别是可独立使用的主控板“小程”和它的座驾“小奔”。
11月14日下午举行的新品发布会上刚刚亮相,这个充满未来设计风格的机器人就吸引了全场眼球。在现场演示环节当中,“程小奔”可以通过编程设定实现不同路径的移动、各种表情的切换和音乐演奏;同时,“程小奔”还可以通过物联网功能将家居变得智能化。
Makeblock创始人&CEO王建军表示:少儿编程作为STEAM教育中的典型学科,也是国家对未来AI人才培养的基本技能。在美国,计算机编程已经成为继阅读、写作、算术这三项基本能力外孩子需要掌握的第四项必备技能。作为全球STEAM教育解决方案的领导者,Makeblock开发的“程小奔”将软件和硬件完美结合。单纯电脑编程不容易让孩子保持兴趣度,但将编程与硬件结合后,孩子能将想象力变成现实,从而不断提升孩子的学习能力及开发能力。Makeblock希望帮助孩子掌握足够的知识应用于生活和娱乐,启发孩子对万物互联时代的感知,并且初步掌握AI人工智能时代的语言。
王建军说:”Makeblock的STEAM教育综合解决方案在全球140个国家获得了市场的认可,我们希望将这些成功经验在国内进行推广,推动STEAM教育的蓬勃发展。”
王建军同时在发布会上宣布,“程小奔”于当天正式在京东众筹平台上线。这款机器人“程小奔”的众筹价是499元,可单独使用的主控板“小程”众筹价为299元。
在本届GET2017教育科技大会上,Makeblock还举办了刚在本月荣获2018年CES创新大奖的Makeblock Neuron神经元电子积木产品”智造家”套件体验工作坊。
“程小奔”——小身材 大智慧
“程小奔”是一款适合六岁以上儿童操作的全球首款普及型编程机器人,通过编程后可以支持人脸识别、语音识别等AI功能,通过这些功能展现出来的实际效果,将AI技术的抽象概念与具体的功能联系起来,让孩子可以更生动地掌握AI技术的逻辑和原理。
"小程"内置丰富的可编程电子模块,功能强大的小程可支持实现在线编程、无线连接、红外通讯控制等功能,轻松实现智能家居小管家。而"小奔"内置颜色红外传感器,其中集成了颜色传感器、灰度传感器、IR近距传感器等多功能的传感器。搭载上“小奔”之后,程小奔可以分别实现颜色检测、躲避障碍物、巡线等多种好玩且实用的黑科技。同时兼容乐高、IO扩展,可连接Makeblock神经元电子积木,帮助用户实现更多的奇思妙想。
同“程小奔”一起亮相的功能全面升级的mBlock 5,它就是“程小奔”的大脑“主人”。mBlock 5是一款可免费下载使用的积木式编程软件,基于MIT开源软件Scratch3.0开发,是一款十分有趣且简单易用的的编程软件。这款软件的最大特点就是像搭积木一样,将复杂的指令代码变成一个个图形化的积木块,孩子可以通过像搭积木一样的编程方式,来定制“程小奔”的动作和表情,操作非常简单。孩子可以让看似抽象的代码变成可看、可操控的游戏,以娱乐的方式了解和学习编程
全新mBlock 5不仅支持积木式编程,还可以一键切换到Python等代码语言编程,让孩子轻松完成入门到进阶的学习。Python已经成为AI时代最流行,使用率最高的编程语言之一,是进阶学习的首选。
另外mBlock 5未来将支持更多的软、硬件产品,除了Makeblock 和Arduino 的硬件产品,还支持micro:bit 等其他品牌,拥抱更多教育产品。强大的扩展中心也为创作提供无限可能性,mBlock 5 的上一代mBlock 3 试运行扩展中心已有多位开发者开发了近百个扩展程序。
mBlock 5 支持图像识别、语音识别等 AI 技术,还可以实现各种 IoT 的应用,让AI 和 IoT 等创新技术更普及。
未来,mBlock 5 可以在MacOS、Windows、ChromeOS、Linux、iOS 实现多平台作品操作和分享,满足多种多种教育场景。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。