这款开源桌面机器人,开发者可自由编程AI应用
关键词: Reachy Mini AI模型 多模态交互 开源机器人 主控芯片
电子发烧友网报道(文/李弯弯)近日,Hugging Face宣布,其Reachy Mini桌面机器人现已开始接受订单。Reachy Mini有两个版本:第一个版本为售价499美元的无线版本Reachy Mini Wireless;第二个版本是需要连接到计算设备的Reachy Mini Lite,价格为299美元。
该机器人预装了一组演示程序,并与开源机器学习平台Hugging Face Hub集成。任何人都可以为Reachy Mini构建自己的特定功能和应用程序,然后与社区分享。
Reachy Mini的技术核心在于其硬件与AI模型的深度整合,尤其是无线版搭载的Raspberry Pi 5主控芯片,成为支撑多模态交互与实时决策的关键。
Raspberry Pi 5主控采用4核64位ARM Cortex-A76处理器,主频最高2.4GHz,性能较前代提升2-3倍,可并行处理视觉识别、语音交互及运动控制任务。其内置的VideoCore VII GPU支持4K视频解码,为机器人视觉系统提供低延迟支持。
Reachy Mini搭配多模态感知芯片组。 视觉处理方面,集成Intel RealSense D435i深度摄像头模块,通过专用ASIC芯片实现实时三维重建与物体追踪,精度达毫米级。
语音交互方面,采用专用音频DSP芯片,支持8麦克风阵列波束成形,可实现360度声源定位与噪声抑制,即使在嘈杂环境中也能精准识别语音指令。
运动控制方面,瑞士Maxon电机驱动器内置PID控制算法芯片,可实时调整机械臂扭矩与速度,确保抓取动作的精准性与安全性。
低功耗设计方面,无线版通过动态电源管理技术,根据任务负载自动调节芯片频率与电压。例如,在待机状态下,主控芯片功耗可降至0.5W以下,而满负荷运行时峰值功耗不超过15W,配合5000mAh电池可支持连续3小时自主运行。
Reachy Mini的核心竞争力在于深度整合Hugging Face Hub的170万+ AI模型和40万+数据集。开发者通过Python编程即可调用预训练模型,实现语音识别、物体识别、情感分析等功能,未来还将支持JavaScript和Scratch,降低儿童及非专业用户的使用门槛。
软件层面,提供Python SDK与仿真器SDK,包含超过15种预设行为库(如人脸识别、语音对话、手势互动),可直接在Hugging Face Hub下载使用。支持在硬件到货前通过虚拟环境开发和测试代码,大幅缩短开发周期。用户可上传、分享与复用行为脚本,形成“众包式”技术迭代。
Reachy Mini的灵活性使其成为多领域的理想工具。如在教育领域,教师可通过Scratch让小学生编写指令,让机器人完成简单任务,直观理解编程逻辑。例如,学生可编程控制机器人完成“递送物品”任务,学习条件判断与循环结构。
在科研创新领域,研究人员可测试具身智能模型,例如训练机器人通过视觉和触觉识别未知物体。Hugging Face与The Robot Studio共同设计的全尺寸人形机器人HopeJR已能在仿真环境中行走,下一步目标是在现实世界中实现行走测试。
Hugging Face首席执行官德朗格明确表示,开源策略旨在防止机器人技术“被少数使用封闭系统的大公司垄断”。通过发布Reachy Mini和全尺寸人形机器人HopeJR,Hugging Face将技术文档、设计图纸和软件架构全部开源,真正实现由开发者社区自行构建的可能。这种模式延续了其在NLP领域的成功经验——通过降低技术门槛,推动全球开发者共同创新。
