您的位置: 首页 >六安新闻>百姓关注>详细内容

CES2026焦点:声网R2套件让AI机器人从“能听会说”升级到“能看会动”

编辑:高方勇 来源:广告 浏览次数: 发布时间:2026-01-21 10:03:22 【字体:

  每年的CES展会都是全球科技趋势的“风向标”,2026年这场科技盛宴上,端侧AI交互领域迎来重磅突破。声网联合国内领先无线连接芯片设计企业博通集成,正式发布基于BK7259芯片的“R2全场景AI机器人开发套件”,同步亮相的还有陆吾智能旗下标杆产品“陆卡卡”桌面机器人,一举成为展会焦点,标志着AI机器人正式迈入“能看会动”的全场景交互新时代。

  熟悉科技圈的朋友可能还记得,早在去年3月声网R1开发套件发布时,就凭借出色的实时语音交互能力惊艳市场。当时珞博智能的“芙崽Fuzozo”成为首批搭载该套件的产品,在2025年京东6·18大促中,芙崽旗下“金木水火土”五个款式直接包揽AI玩具竞速榜前六位,用实打实的市场成绩验证了R1套件的硬实力与市场潜力。如今在CES 2026的声网兄弟公司Agora展位上,芙崽与全新升级的R2套件产品同台亮相,直观展现了从“能听会说”到“能看会动”的技术跨越。

  作为R1系列的迭代升级款,R2套件完整继承了前者业界领先的全双工对话、背景降噪、流畅打断等核心语音交互能力——这些经过市场验证的技术,确保了人机对话的自然流畅,避免了传统智能设备“答非所问”“反应迟缓”的尴尬。而真正的突破在于新增的两大核心功能,彻底打破了语音交互的边界。

  • 第一个核心突破是本地视觉识别与处理能力。依托 BK7259 芯片强大的集成 NPU 与 ISP,R2 新增本地视觉识别与处理能力。这意味着机器人可以实现人脸跟踪、手势识别、物体跟随等复杂功能,让实时交互从“语音”扩展到“视觉”。 • 第二个突破是实现了更具“活人感”的具身互动。R2 支持多自由度运动控制,结合视觉与语音功能,助力机器人实现“走到用户面前打招呼”、“转头注视说话者”等富有生命感的情感化肢体交互。

  在CES展会现场,除了陆吾智能的“陆卡卡”桌面机器人,Lookee、Choochoo、小匠等多款搭载R2套件的产品集中亮相,覆盖了桌面、教育、办公等多个场景,生动诠释了R2套件“全场景赋能”的设计初衷。不同于专注单一场景的解决方案,R2套件旨在为所有需要融合“感知-决策-动作”的AI硬件提供标准化技术基座,给出一套经过验证、可快速适配的端侧多模态AI解决方案。

  对于创业者和开发者来说,R2套件的发布更是一场“及时雨”。以往开发一款智能机器人,需要整合语音、视觉、运动控制等多方技术,不仅周期长、成本高,还容易出现兼容性问题。而R2套件提供的是一站式“交钥匙”方案,开发者无需再纠结于“如何实现技术”,可以将核心精力集中在“如何打造更打动人心的用户体验”上,大幅缩短产品化路径。

  随着AI技术的不断落地,智能机器人正从科幻场景走进现实生活。声网R2全场景AI机器人开发套件的发布,不仅展现了国内企业在端侧多模态交互领域的技术实力,更为整个行业提供了一套高效、可靠的创新基座。

免责声明:本内容为广告,相关素材由广告主提供,广告主对本广告内容的真实性负责。本网发布目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,广告内容仅供读者参考,如有疑问请联系:0564-3996046。

扫一扫在手机打开当前页
【打印正文】