일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- error
- ros2 foxy tutorial
- ros2 튜토리얼
- development guides
- humble getting started
- ubuntu ros2 설치
- ros2 getting started
- nav2 튜토리얼
- foxy nav2
- humble nav2
- humble development guides
- nav2 getting started
- Foxy tutorial
- nav2 development guides
- nav2 dev contatiner
- ros2 remapping
- ros2 foxy docker
- ROS FOXY 튜토리얼
- ros2 development guides
- docker foxy
- nav2 development guides
- humble 도커
- Python
- 코드업
- CODEUP 6073
- nav2 설치
- CodeUp
- ubuntu humble 설치
- humble docker
- Nav2 document
- Today
- Total
목록분류 전체보기 (93)
BAN2ARU
print()는 출력하기위한 함수로, 우리가 흔히 쓰고 보았던 Hello worlds를 출력하기 위해 print("Hello worlds")에서 사용되는 함수입니다. print()의 옵션에서는 sep와 end 옵션을 활용하여 출력시에 보다 원하는 모양으로 나오도록 출력할 수 있습니다. 또한 file 옵션을 통해 print함수를 출력할 것인지 아니면 파일로 저장할 것인지도 선택할 수 있습니다. print의 default옵션은 sep = ' ' (공백), end = '\n' (띄어쓰기), file = sys.stdout (콘솔 출력) 입니다. 각 옵션에 대해 예제와 함께 살펴보도록 하겠습니다. sep # 일반적으로 아무 옵션을 주지 않으면 공백으로 출력됨 >>> print('Apple', 'Banna') A..
Python에서는 요소를 추가하는 함수로 append(), extend(), insert()가 있는데 각각 어떠한 차이가 있는지 알아보자. 간략하게, 한 줄로 각 함수를 설명하면 다음과 같다. append() list.append(x)로 활용하며, list의 끝에 x와 같은 요소를 더해준다. [기존의 list 마지막 위치에 다른 요소 추가] extend() list.extend(iterable)로 활용하며, list의 끝에 iterable의 요소들을 더해준다. [기존의 list에 다른 list 추가] insert() list.extend(i,x)로 활용하며, list의 인데스 i 위치에 x와 같은 요소를 더해준다. [기존의 list의 지정한 위치에 다른 요소 추가] # append() 예시 : list의..
논문 리뷰는 Ban2aru-Paper (tistory.com)에서 작성 중임! * 개인적으로 공부하며 작성한 글이라 틀린 부분이 있을 수 있으니, 댓글을 통해 알려주시면 최대한 빠르게 수정할 수 있도록 하겠습니다 :) 1. DARTS 리뷰 : DARTS : Differentiable Architecture Search 리뷰 (tistory.com) - 한줄평 : Network Architecture Search 분야에서 Differentiable Architecture Search 방법을 통해 기존의 Non-differntiable 방법들에 비해 학습이 상당히 빠르며 성능이 높은 효율적인 방법을 제시하였음 DARTS : Differentiable Architecture Search 리뷰 DARTS : h..
https://pytorch.org/docs/stable/generated/torch.nn.ReLU.html를 기반으로 작성하였음 CLASS torch.nn.ReLU(inplace=False) Rectified linear unit fuction을 element 별로 적용 $$ ReLU(x) = (x)^{+} = max(0,x) $$ Parameters inplace - 선택적으로 in-place에서 연산을 수행할 수 있으며, default는 False임. (만약 inplace=True로 설정하면 inpurt 들어온 것 자체에서 연산을 수행함) Shape Input : (*), 여기서 *는 임의의 dimension의 수를 의미함 Output : (*), input과 똑같은 shape임.
https://pytorch.org/docs/stable/generated/torch.nn.ModuleList.html를 기반으로 작성하였음 CLASS torch.nn.ModuleList(modules=None) Submodule(conv,batchnorm 등 layer)을 list속에 담을 수 있음. 일반적인 python의 list와 유사하지만, torch.nn.module에서 확인 할 수 있음. Nerual network를 학습을 하기 위해서는 module list로 선언해주어야함. (일반 list로 구성시에는 torch.nn.module 메서드에서 확인이 불가능하므로, 학습이 되지 않음 - [1] 참조) Parameters modules (iterable, optional) : 추가할 모듈의 ite..
https://pytorch.org/docs/stable/generated/torch.nn.BatchNorm2d.html를 기반으로 작성하였음. CLASS torch.nn.BatchNorm2d( num_features, eps=1e-05, momentum=0.1, affine=True, track_runing_stats=True, device=None, dtype=None ) Batch Normalization $$ y=\frac{x-E[x]}{\sqrt{Var[x]+\epsilon}} *\gamma +\beta $$ 각 batch 별로 평균(mean)과 분산(variance)를 이용해 정규화하는 것을 의미함 파라미터 num_features : input size $(N,C,H,W)$에서 $C$ ($N$..
CLASS torch.nn.Conv2d( in_channels, out_channels, kernel_size, stride=1, padding=0, dilataion=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None ) Conv 2d에서 필수적으로 입력되어야 하는 파라미터는 in_channels, out_channels, kernel_size 임. Input에 2D convolution 연산을 적용하는 함수이며, input size가 $(N,C_{in},H,W)$이면 output size는 $(N, C_{out}, H_{out}, W_{out})$ 이며, 관련하여 input/output에 관한 식은 아래와 같음. $$ out(N..