본문 바로가기

테스트4

[젯슨나노 프로젝트]자율 주행 배달 로봇 Selly(8)_visual SLAM 테스트 우리 팀은 자율주행에 있어서 딥러닝 기반의 이미지 처리를 핵심 아이디어로 가져와 프로젝트를 진행하고 있다. SLAM 관련 논문을 읽던 중, 기술 이름만 알고 있던 visual SLAM 기술에 대해 자세히 알게 되었고, vision 기술을 중시하는 우리 프로젝트의 특성상 visual SLAM을 사용하는 것이 좋겠다고 생각했다 visual SLAM은 SLAM에 비해서 최근에 연구되는 기술이라 오픈소스가 많이 없고 정보가 없어서 애먹었다. 그 중 xdspacelab에서 visual SLAM 기술을 연구하고 오픈소스로 제공하고 있다. https://arxiv.org/pdf/1910.01122.pdf (논문) https://github.com/xdspacelab/openvslam xdspacelab/openvsl.. 2020. 5. 12.
[젯슨나노 프로젝트]자율 주행 배달 로봇 Selly(7)_Cartographer SLAM 개발 환경 : ubuntu 18.04, ROS melodic 사용한 센서 : zed 카메라(zed2), ydliar x4 사용하는 카메라 센서에서 odometry와 imu topic도 publish하기 때문에, 위 센서 데이터를 사용했다. cartographer docs에 따르면 2d SLAM에서는 imu data는 있어도 그만 없어도 그만이라는 것 같아서 우선 odometry 토픽만 사용했다. cartographer 구동을 위해 필요한 odometry 데이터는 odom이라는 토픽으로 subscribe된다. rostopic list -p를 통해 zed 카메라에서 퍼블리싱하는 모든 ros 토픽은 zed2/zed_node/topic의 형태로 이루어져 있음을 확인하고 published topic을 remap했.. 2020. 5. 12.
[젯슨나노 프로젝트]자율 주행 배달 로봇 Selly(5)_SLAM 테스트 자율 주행 기술에서 빠지지 않고 등장하는 기술에 SLAM 기술이 있다. 자율 주행을 위해서는 로봇 스스로가 위치를 추정(navigation)할 수 있어야 하는데, 이를 위해 지도를 작성(mapping)하는 과정에서 사용되는 기술이다. SLAM : Simultaneous Localization And Mapping SLAM이란 이름에서 알 수 있듯 자율 주행에 필수적인 스스로 위치 추정을 할 수 있게 도와주는 기술이다. 초기 상태에서 주행하며 얻은 정보를 바탕으로 자신이 주행하는 공간에 대한 지도를 그린 후 다음 주행에서는 내장된 지도를 이용하여 자신의 위치에 대한 추정을 도와주는 기술이라 할 수 있다. ​ https://google-cartographer-ros.readthedocs.io/en/lates.. 2020. 5. 11.
[젯슨나노 프로젝트]자율 주행 배달 로봇 Selly(4)_라이다 센서를 이용한 주행 컨트롤 아주 간단한 주행과 방향 컨트롤 테스트를 해 보았다. ​ 서보모터를 이용해서 방향 제어를 하는 이륜 구동 자동차 프레임을 사용해서 제자리 회전이 불가능한 점이 문제가 된다. 제자리 회전 뿐만 아니라 커브할 수 있는 각도에도 제한이 있어 장애물을 회피하려면 후진해서 거리를 벌려놓고 돌아가야 하는 문제 때문에, 각 바퀴에 DC모터를 달아 방향을 자유롭게 조절하는 로봇을 구상 중이다. 2020. 5. 11.