Skip to content

feat: integrate YOLO-based vision node into parking pipeline#2

Open
minnje0ng wants to merge 2 commits intomainfrom
feat/yolo-finetuning
Open

feat: integrate YOLO-based vision node into parking pipeline#2
minnje0ng wants to merge 2 commits intomainfrom
feat/yolo-finetuning

Conversation

@minnje0ng
Copy link
Copy Markdown
Collaborator

Summary

  • YOLO 기반 slot type detection을 parking vision pipeline에 통합
  • vision_node.py가 launch parameter로 전달된 YOLO model을 로드하도록 수정
  • multi-camera(front / left / right) 입력을 기반으로 isa_mark detection이 가능하도록 반영함
  • trained model weight(best.pt)를 프로젝트에 추가

Changes

  • vision_node.py 수정
    • cv_bridge dependency 제거
    • ROS image를 NumPy array로 직접 변환하도록 변경
    • YOLO inference 추가
    • ROI 기반 slot matching 로직 추가
    • occupancy는 기본적으로 metadata 값을 사용하도록 유지
  • autonomous_parking/models/best.pt 추가
  • 관련 .gitignore 및 설정 정리

Validation

  • YOLO model loading이 정상 동작하는 것 확인
  • /parking/slot_states publish 정상 동작 확인
  • decision_nodeparking_node와 연동되는 것 확인
  • general / handicapped scenario에서 parking flow가 실행되는 것 확인

Notes

  • 현재 ROI는 Gazebo camera view 기준의 initial setting이며, 필요 시 추가 tuning이 가능
  • occupancy는 LiDAR 기반 대신 metadata 기반으로 유지하도록 설정함(LiDAR 관련 오류 수정할 예정)

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Labels

None yet

Projects

None yet

Development

Successfully merging this pull request may close these issues.

3 participants