如何使用Hiwonder LeRobot SO-ARM101机械臂
扫描二维码
随时随地手机看文章
在机器人和人工智能的世界里,理论算法和物理世界之间的桥梁——被称为具身智能——往往是复杂而昂贵的。Hiwonder LeRobot SO-ARM101改变了这一点。它不仅仅是另一个机械臂套件;它是一个完全开源的双臂平台,专门为模仿学习而设计,无缝集成到拥抱脸LeRobot生态系统中。
如果你拿着这个工具包,你就拿着一把通往现实世界人工智能机器人最容易进入的大门之一的钥匙。本指南将引导您完成开箱,设置和运行您的第一个ai驱动任务。
1. 在开始之前:套件概述和先决条件
首先,了解你所拥有的。SO-ARM101是一个领导者-追随者系统。你可以亲自教领导手臂,然后跟随手臂学会自主模仿任务。
2. 环境设置
步骤1:安装Miniconda
•Windows系统安装
①下载Miniconda包
Miniconda官方安装程序
找到Miniconda3-py311_25.7.0-2-Windows-x86_64.exe并下载到您的计算机。
③更改包源
anaconda |镜像网站帮助|清华开源镜像
单击链接以访问Miniconda软件存储库,并找到下图中突出显示的第三方源代码。
按Win + R打开控制面板,输入cmd,打开终端。
在终端输入要生成的命令。condarc文件。
要获得完整的指南,您可以查看Hiwonder LeRobot教程
3. 魔术:你的第一个模仿学习项目
设置完成后,让我们让机器人学习一个简单的拾取和放置任务。
第一阶段:数据收集——边做边教
概念:你将使用先导臂执行任务20-30次。系统会记录下一切。
过程:
1. 在工作区中定位目标对象(例如,一个彩色的立方体)。
2. 运行数据收集脚本:
3.物理抓取和操纵先导臂完成完整的任务:接近,抓住,抬起,移动,释放。
4. 系统同步记录:
所有伺服关节角度。
抓手相机拍摄的视频(详细视图)。
来自外部摄像机的视频(上下文视图)。
5. 重复进行多次演示。更多的数据=更好的模型。
第二阶段:模型训练-创造“大脑”
概念:LeRobot框架使用您的演示数据来训练Action Chunking Transformer (ACT)模型,这是一种最先进的模仿学习算法。
过程:
•数据被自动格式化为数据集。
•用如下命令开始训练:
3. 训练运行在你的GPU上。你可以监控损失,它会随着时间的推移而减少,这意味着模型正在学习复制你的行为。多亏了hug Face的集成,你甚至可以从一个共享的预训练模型开始,以加快速度。
第三阶段:自主执行——看着它学习
概念:将训练好的模型部署到跟随臂上进行实时推理。
真相时刻:
1. 运行部署脚本:
2. 追随者之臂将会复活。它将尝试执行拾取和放置任务,只使用它的双摄像头视觉来定位物体,并使用它的训练模型来决定行动。
3.第一次尝试并不完美,但这是在行动中体现的AI——一个感知、决定和行动的物理系统。
4. 专业提示,故障排除和下一步
使用BusLinker软件:BusLinker V3.0 GUI非常适合实时伺服监控,测试单个运动和排除连接问题。
常见的陷阱:
•“Servos not found”:检查Linux (sudo chmod 666 /dev/ ttyacm0)上的USB权限,并仔细检查电源/数据线连接。
•抖动运动:确保机械结构完全拧紧,并且使用正确,稳定的电源。
•训练错误:验证您的Conda环境(lerobot)是活动的,并且安装了所有依赖项。
从这里到哪里去:
•实验:尝试不同的任务(堆、推、画)。
•探索拥抱中心:下载社区数据集和模型,立即尝试。
•更深入:修改ACT模型架构,或在初始模仿学习之后进行强化学习实验。
•贡献:将您自己的数据集和训练过的模型分享回hug Face社区,以帮助他人。
结论:不仅仅是一个工具包,一个社区护照
Hiwonder SO-ARM101揭开了嵌入式AI的神秘面纱。在一个周末,你可以从打开箱子到拥有一个向你学习的机器人。它真正的力量在于它的开源理念和拥抱脸的深度集成,将您直接连接到全球创新者社区。
这不仅仅是制造一个机器人;这是关于建设未来,一次一个示范。现在,去教它一些神奇的东西吧。
本文编译自hackster.io





