일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- setting up transformations
- nav2 튜토리얼
- docker foxy
- humble development guides
- ros2 튜토리얼 환경설정
- ROS FOXY 튜토리얼
- nav2 getting started
- nav2 dev contatiner
- Foxy tutorial
- Python
- 코드업
- ros2 환경설정
- ros2 configuring environment
- humble 환경설정
- ros2 튜토리얼
- nav2 tutorial
- error
- ros2 foxy docker
- Nav2 document
- ros2 foxy tutorial
- foxy nav2
- ros2 transformations 개념
- ros2 remapping
- nav2 first-time robot setup guide
- CodeUp
- ros2 development guides
- nav2 설치
- nav2 development guides
- first-time robot setup guide
- CODEUP 6073
- Today
- Total
목록전체 글 (101)
BAN2ARU

print()는 출력하기위한 함수로, 우리가 흔히 쓰고 보았던 Hello worlds를 출력하기 위해 print("Hello worlds")에서 사용되는 함수입니다. print()의 옵션에서는 sep와 end 옵션을 활용하여 출력시에 보다 원하는 모양으로 나오도록 출력할 수 있습니다. 또한 file 옵션을 통해 print함수를 출력할 것인지 아니면 파일로 저장할 것인지도 선택할 수 있습니다. print의 default옵션은 sep = ' ' (공백), end = '\n' (띄어쓰기), file = sys.stdout (콘솔 출력) 입니다. 각 옵션에 대해 예제와 함께 살펴보도록 하겠습니다. sep # 일반적으로 아무 옵션을 주지 않으면 공백으로 출력됨 >>> print('Apple', 'Banna') A..
Python에서는 요소를 추가하는 함수로 append(), extend(), insert()가 있는데 각각 어떠한 차이가 있는지 알아보자. 간략하게, 한 줄로 각 함수를 설명하면 다음과 같다. append() list.append(x)로 활용하며, list의 끝에 x와 같은 요소를 더해준다. [기존의 list 마지막 위치에 다른 요소 추가] extend() list.extend(iterable)로 활용하며, list의 끝에 iterable의 요소들을 더해준다. [기존의 list에 다른 list 추가] insert() list.extend(i,x)로 활용하며, list의 인데스 i 위치에 x와 같은 요소를 더해준다. [기존의 list의 지정한 위치에 다른 요소 추가] # append() 예시 : list의..
논문 리뷰는 Ban2aru-Paper (tistory.com)에서 작성 중임! * 개인적으로 공부하며 작성한 글이라 틀린 부분이 있을 수 있으니, 댓글을 통해 알려주시면 최대한 빠르게 수정할 수 있도록 하겠습니다 :) 1. DARTS 리뷰 : DARTS : Differentiable Architecture Search 리뷰 (tistory.com) - 한줄평 : Network Architecture Search 분야에서 Differentiable Architecture Search 방법을 통해 기존의 Non-differntiable 방법들에 비해 학습이 상당히 빠르며 성능이 높은 효율적인 방법을 제시하였음 DARTS : Differentiable Architecture Search 리뷰 DARTS : h..
https://pytorch.org/docs/stable/generated/torch.nn.ReLU.html를 기반으로 작성하였음 CLASS torch.nn.ReLU(inplace=False) Rectified linear unit fuction을 element 별로 적용 $$ ReLU(x) = (x)^{+} = max(0,x) $$ Parameters inplace - 선택적으로 in-place에서 연산을 수행할 수 있으며, default는 False임. (만약 inplace=True로 설정하면 inpurt 들어온 것 자체에서 연산을 수행함) Shape Input : (*), 여기서 *는 임의의 dimension의 수를 의미함 Output : (*), input과 똑같은 shape임.
https://pytorch.org/docs/stable/generated/torch.nn.ModuleList.html를 기반으로 작성하였음 CLASS torch.nn.ModuleList(modules=None) Submodule(conv,batchnorm 등 layer)을 list속에 담을 수 있음. 일반적인 python의 list와 유사하지만, torch.nn.module에서 확인 할 수 있음. Nerual network를 학습을 하기 위해서는 module list로 선언해주어야함. (일반 list로 구성시에는 torch.nn.module 메서드에서 확인이 불가능하므로, 학습이 되지 않음 - [1] 참조) Parameters modules (iterable, optional) : 추가할 모듈의 ite..
https://pytorch.org/docs/stable/generated/torch.nn.BatchNorm2d.html를 기반으로 작성하였음. CLASS torch.nn.BatchNorm2d( num_features, eps=1e-05, momentum=0.1, affine=True, track_runing_stats=True, device=None, dtype=None ) Batch Normalization $$ y=\frac{x-E[x]}{\sqrt{Var[x]+\epsilon}} *\gamma +\beta $$ 각 batch 별로 평균(mean)과 분산(variance)를 이용해 정규화하는 것을 의미함 파라미터 num_features : input size $(N,C,H,W)$에서 $C$ ($N$..
CLASS torch.nn.Conv2d( in_channels, out_channels, kernel_size, stride=1, padding=0, dilataion=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None ) Conv 2d에서 필수적으로 입력되어야 하는 파라미터는 in_channels, out_channels, kernel_size 임. Input에 2D convolution 연산을 적용하는 함수이며, input size가 $(N,C_{in},H,W)$이면 output size는 $(N, C_{out}, H_{out}, W_{out})$ 이며, 관련하여 input/output에 관한 식은 아래와 같음. $$ out(N..