목록분류 전체보기 (30)
CVAD

이전 포스팅 : 2023.08.12 - [CARLA] - 1. Ubuntu 20.04 CARLA install 집 컴퓨터로 CARLA를 돌리는데 너무 렉도 심하게 걸리고, 무엇보다 headless로 돌리는 방법이 굉장히 복잡한 것 같아서0.9.12버전으로 다시 설치했다. 이전 포스팅도 리마인드할 겸 다시 절차를 기록해보자. 먼저, Software requirements에 있는 항목들을 설치해준다. 아래의 명령어를 수행해주자.sudo apt-get update &&sudo apt-get install wget software-properties-common &&sudo add-apt-repository ppa:ubuntu-toolchain-r/test &&wget -O - https://apt.llvm.o..

Isaac sim은 NVIDIA에서 개발한 시뮬레이션 플랫폼으로, 고품질 렌더링과 다양한 물리 시뮬레이션을 제공한다. 나도 연구실에서 로봇을 시뮬레이션하기위해 사용한게 처음이었고, 그 당시 잘 정리된 내용이나 국내 자료가 없다보니까 사용에 많은 문제를 겪었다. (이건 지금도 마찬가지다) 이번 포스팅을 시작으로 Issac sim의 사용법과 코드를 일부 다뤄보려고 한다.1. Isaac sim 설치Isaac sim을 설치하기 위해 "Omniverse launcher" 라는 것을 다운받아야한다. 아래의 링크로 들어가준다.https://www.nvidia.com/en-us/omniverse/ NVIDIA OmniverseDesign, Develop, Deploy Next Era of 3D Applications ..

요즘 다시 Isaac sim을 쓰기 시작했다. 얼마 전에 연구실 사람과 연락이 닿아서 프로젝트를 진행하게 되었는데,그 때부터 Issac sim project를 시작하게 되었다. 너무 오랜만에 시작하려고하니, python 스크립트 작성법이나 명령어, simulation app에서 기능등 까먹은게많아서 document 보면서 공부하고 있다. 지금은 가장 급한 문제인 robot importing를 해결하고 있댜. 일부 로봇을 불러오는데, 스크립트자체가 실행되지 않거나 로봇이 보이지 않는 경우 등의 문제가 발생해서 스크립트를 고쳐보고있다. 다행히 현재는 어느정도 문제가 해결되었고, 코드 정리 및 controller 적용해서 테스트해보면 될 것 같다.아래는 현재 importing하려고 하는 robot들의 모습이다..

컴퓨터 세팅 기록 2번째 글이다. 사실 필요한 작업은 5월전에 끝냈지만, 글은 지금 쓰고있다.앞으로는 미리미리 좀 써놔야겠다. 1. 그래픽 드라이브 설치터미널에 아래의 명령어를 입력하면, 현재 설치 가능한 그래픽 드라이버가 나온다.ubuntu-drivers devices 보통은 recommended 표시된 것을 설치하면된다. 나의 경우 사진처럼 nvidia-driver-535를 설치했다.설치는 아래의 명령어를 입력하면 된다. sudo apt install nvidia-driver-535 이 과정이 귀찮다면 처음부터 권장 드라이버를 자동으로 설치하는 방법도 있다. 아래의 명령어를 사용하면 된다. sudo ubuntu-drivers autoinstall 설치가 완료되면 재부팅해준다.2. CUDA 설치사실 ..

이번 포스팅은 YOLO-v8로 마스크 착용 유무를 판별하도록 해보겠다.이번 포스팅에서는 전과 달리 ultralytics라는 라이브러리를 사용해서 모델정의, 학습, 검증 등을진행할 것이기 때문에 다른 예제 포스팅에 비해 간단하다. 절차는 다음과 같다데이터셋 준비모델 학습검증결과 분석1. 데이터셋 준비마스크 데이터셋은 아래의 깃허브의 링크에서 다운받을 수 있다.https://github.com/VictorLin000/YOLOv3_mask_detect GitHub - VictorLin000/YOLOv3_mask_detect: Face mask detection using YOLOv3 on GoogleColabFace mask detection using YOLOv3 on GoogleColab. Contribu..

요새하도 많은 일이 있어서 정신이 없었다. 그러다보니 공부나 블로그 포스팅을 전혀 하지 못했다. 티스토리도 나름 포토폴리오를 목적으로 사용해보려고 시작했는데, 이게 리뷰나 코드 가이드 같은 글을 작성하는데 시간이 너무 소요되는 것 같았다. 그래서 든 생각이 일단 일상 기록용으로 티스토리를 적고, 혹시나 더 기록하고 싶은 내용이 있다면 따로 적어야할 것 같다. 그래서 오늘부터는 일상 기록을 위해 일기장(?)처럼 쓸것 같다. 최근에 그래픽드라이버를 잘못 건드렸다가 컴퓨터가 먹통이 되서 다시 싹다 지우고, 셋팅을 하고있다...연구실에 있었을 때도 꽤 많이 해봤는데 오랜만에 다시 하려니 순서나 방법이 헷갈렸다. 그래서 내가 다시 보려고 순서를 기록해 놓으려고 한다.VGA : Nvidia GTX 4060 T..

이전 포스팅 내용이 궁금하시다면 아래의 링크를 참고하시면 감사하겠습니다! - 전이학습(Transfer learning)이란? - 1 저번 포스팅에서는 전이 학습의 개념과 원리, 적용 방법론에 대해서 알아보았다. 이번에는 실제 모델을 사용해서 전이 학습을 적용해 보자. 두 가지 방법론 중 이번에 구현할 것은 feature extractor로 사용하는 방법이다. 사전 학습된 VGG16 모델을 사용해서 간단한 classifcation task를 해결하도록 classifier 부분만 새로 교체하여 학습할 것이다. 이번 포스팅의 절차는 아래와 같다. 데이터셋 준비 Classifier 제거 후 학습 결과 확인 1. 데이터셋 준비 데이터셋은 'Dogs vs Cats'을 사용할 것이다. 이 데이터셋은 아래의 Kaggl..

어떤 모델을 학습시키는 상황을 생각해 보자. 우리에게 충분한 양질의 데이터, 시간, 하드웨어 그리고 심적인 여유가 있다면 신경망을 처음부터 구성해서 학습시킬 수도 있을 것이다. 하지만, 대부분의 경우 위의 조건들을 모두 만족시키기는 어렵다. 밤새 이미지에 수백만 장의 이미지에 레이블링을 수작업한다고생각해 보자. 수 백만까지가 아니라 백 장 언저리만 해도 현타가 올 것 같다. 그렇다면, 우리의 시간과 노력을 아낄 수 있는 방법은 무엇일까? 바로 전이학습(Transfer learning)을 사용하는 것이다! 이번 포스팅에서 우리는 전이학습에 대한 아래의 내용을 다룰 것이다. 전이학습(Transfer learning)이란? 전이학습의 원리 컴퓨터 비전에서 전이학습의 적용 1. 전이학습(Transfer lear..

이전 포스팅 내용이 궁금하시다면 아래의 링크를 참고하시면 감사하겠습니다 ! - [Penn-Fudan] Object detection 학습하기 - 1 - [Penn-Fudan] Object detection 학습하기 - 2 저번에 모델 구현까지 완료했으니, 이번 포스티에서는 학습 코드를 작성하고 학습 시킨 뒤 결과를 분석해보자. 이번 포스팅의 내용은 아래와 같다. 모델 학습 코드 구현 학습 결과 분석 요약 3. 모델 성능 검증 3.1 학습 코드 구현 학습 코드는 Pytorch 예제에 나와있는 실행 코드를 사용할 것이다. 나의 경우, 일부 python 파일에서 모듈 인식에 문제가 생겨서 코드를 일부 수정해주었다. 우선 예제에 나와있듯, 학습을 진행할 경로에 'reference/detection'으로 파일을 ..

이전 포스팅 내용이 궁금하시다면 아래의 링크 참고하시면 감사하겠습니다 ! - [Penn-Fudan] Object detection 학습하기 - 1 저번 포스팅에 이어 이번 포스팅은 Pen-Fudan 데이터셋을 학습할 모델을 정의하고 코드로 작성해볼 것이다. 모델은 Mask R-CNN을 사용하되, 2가지 방법으로 구현해 볼 것이다. Pretrain된 Mask R-CNN 모델을 불러온 뒤, head를 Faster R-CNN으로 변경하고 마지막 layer만 학습 Backbone을 MobileNet v2로 변경한 뒤 학습 2. 학습 모델 정의 2.1 Pretrain된 모델을 불러온 뒤, head를 변경 후 마지막 Layer만 학습 해당 코드는 다음과 같다. import torchvision import torc..

- 본 포스팅은 Pytorch 홈페이지에서 제공하는 예제를 기반으로 작성하였습니다. 이번 포스팅에서는 Mask R-CNN을 사용하여 Object detection을 수행해보자. 정확히는 처음부터 학습하는 것은 아니고, 이미 학습된 모델을 fine-tunning하는 형식으로 진행할 것이다. 주요 절차는 아래와 같다. 데이터셋 다운로드 및 정의 학습 모델 정의 모델 성능 검증 1. 데이터셋 다운로드 및 정의 먼저 학습에 필요한 데이터셋을 다운받아야한다. 아래의 링크에 접속하여 4. Download zipoed file를 눌러서 다운받자. https://www.cis.upenn.edu/~jshi/ped_html/ Pedestrian Detection Database Penn-Fudan Database for ..

- 이번 포스팅은 해당 Git hub를 참고하여 진행하였습니다. - 해당 포스팅을 진행하기 앞서, USB cam을 ROS로 연결하는 과정이 선행되어야합니다. 관련 내용은 Ubuntu 20.04에서 ROS를 통해 USB cam 연결하기를 참고하시면 됩니다. 이번 포스팅은 YoLoV5로 실시간 object detection을 진행해보겠다. 직접 모델을 학습해서 사용한다면 좋겠지만, 이미 학습된 모델을 사용해서 적용해보자. 이번 포스팅의 절차는 아래와 같다. yolo v5_ros package 다운로드 및 설정 yolo v5 topic 확인 모델 출력 시각화 launch 파일 생성 1. yolo v5_ros package 다운로드 및 설정 먼저 ROS를 통해 실행할 패키지를 다운받자. catkin_ws/src..