From 2045f7d3800253a6a2e17ac0a8982b60bea36b67 Mon Sep 17 00:00:00 2001 From: Junwon Lee <63298243+cpprhtn@users.noreply.github.com> Date: Fri, 7 Jul 2023 16:51:53 +0900 Subject: [PATCH 01/10] =?UTF-8?q?fix:=20=EC=9B=B9=ED=8E=98=EC=9D=B4?= =?UTF-8?q?=EC=A7=80=EC=97=90=EC=84=9C=20table=EA=B0=80=20=EA=B9=A8?= =?UTF-8?q?=EC=A7=80=EB=8A=94=20=ED=98=84=EC=83=81?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- pytorch_vision_wide_resnet.md | 1 + 1 file changed, 1 insertion(+) diff --git a/pytorch_vision_wide_resnet.md b/pytorch_vision_wide_resnet.md index d0e7e76..bb5513f 100644 --- a/pytorch_vision_wide_resnet.md +++ b/pytorch_vision_wide_resnet.md @@ -91,6 +91,7 @@ Wide Residual 네트워크는 ResNet에 비해 단순히 채널 수가 증가했 `wide_resnet50_2` 및 `wide_resnet101_2` 모델은 [Warm Restarts가 있는 SGD(SGDR)](https://arxiv.org/abs/1608.03983)를 사용하여 혼합 정밀도(Mixed Precision) 방식으로 학습되었습니다. 체크 포인트는 크기가 작은 경우 절반 정밀도(batch norm 제외)의 가중치를 가지며 FP32 모델에서도 사용할 수 있습니다. + | Model structure | Top-1 error | Top-5 error | # parameters | | ----------------- | :---------: | :---------: | :----------: | | wide_resnet50_2 | 21.49 | 5.91 | 68.9M | From 757ed043069d077936a502092a9767cc2ed60b0e Mon Sep 17 00:00:00 2001 From: Junwon Lee <63298243+cpprhtn@users.noreply.github.com> Date: Fri, 7 Jul 2023 16:53:24 +0900 Subject: [PATCH 02/10] =?UTF-8?q?fix:=20=EB=A7=81=ED=81=AC=20=EC=97=B0?= =?UTF-8?q?=EA=B2=B0=EC=9D=B4=20=EC=A0=9C=EB=8C=80=EB=A1=9C=20=EB=90=98?= =?UTF-8?q?=EC=96=B4=EC=9E=88=EC=A7=80=EC=95=8A=EB=8A=94=EB=B6=80=EB=B6=84?= =?UTF-8?q?=20=EC=88=98=EC=A0=95?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- pytorch_vision_resnext.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/pytorch_vision_resnext.md b/pytorch_vision_resnext.md index 3daadff..5417e4a 100644 --- a/pytorch_vision_resnext.md +++ b/pytorch_vision_resnext.md @@ -85,7 +85,7 @@ for i in range(top5_prob.size(0)): ### 모델 설명 -Resnext 모델은 논문 [Aggregated Residual Transformations for Deep Neural Networks]에서 제안되었습니다. (https://arxiv.org/abs/1611.05431). +Resnext 모델은 논문 ["Aggregated Residual Transformations for Deep Neural Networks"](https://arxiv.org/abs/1611.05431) 에서 제안되었습니다. 여기서는 50개의 계층과 101개의 계층을 가지는 2개의 resnet 모델을 제공하고 있습니다. resnet50과 resnext50의 아키텍처 차이는 논문의 Table 1을 참고하십시오. ImageNet 데이터셋에 대한 사전훈련된 모델의 에러(성능)은 아래 표와 같습니다. From 77b3cd77a69756b9495e20211c00dfce3fa81533 Mon Sep 17 00:00:00 2001 From: Junwon Lee <63298243+cpprhtn@users.noreply.github.com> Date: Fri, 7 Jul 2023 16:57:08 +0900 Subject: [PATCH 03/10] =?UTF-8?q?fix:=20=EB=8B=A8=EC=96=B4=20=EC=98=A4?= =?UTF-8?q?=ED=83=80=20=EC=88=98=EC=A0=95?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- pytorch_vision_vgg.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/pytorch_vision_vgg.md b/pytorch_vision_vgg.md index 5855d03..c379f3a 100644 --- a/pytorch_vision_vgg.md +++ b/pytorch_vision_vgg.md @@ -90,12 +90,12 @@ for i in range(top5_prob.size(0)): ### 모델 설명 -각 구성 및 bachnorm 버전에 대해서 [Very Deep Convolutional Networks for Large-Scale Image Recognition](https://arxiv.org/abs/1409.1556)에서 제안한 모델에 대한 구현이 있습니다. +각 구성 및 BatchNorm 버전에 대해서 [Very Deep Convolutional Networks for Large-Scale Image Recognition](https://arxiv.org/abs/1409.1556)에서 제안한 모델에 대한 구현이 있습니다. 예를 들어, 논문에 제시된 구성 `A`는 `vgg11`, `B`는 `vgg13`, `D`는 `vgg16`, `E`는 `vgg19`입니다. batchnorm 버전은 `_bn`이 접미사로 붙어있습니다. -사전 훈련된 모델이 있는 imagenet 데이터 세트의 1-crop 오류율은 아래에 나열되어 있습니다. +사전 훈련된 모델이 있는 ImageNet 데이터 세트의 Top-1 오류율은 아래에 나열되어 있습니다. | Model structure | Top-1 error | Top-5 error | | --------------- | ----------- | ----------- | From 468fd663b7633777600bf7134167893a804ddcfe Mon Sep 17 00:00:00 2001 From: Junwon Lee <63298243+cpprhtn@users.noreply.github.com> Date: Fri, 7 Jul 2023 17:03:05 +0900 Subject: [PATCH 04/10] Update pytorch_vision_vgg.md --- pytorch_vision_vgg.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/pytorch_vision_vgg.md b/pytorch_vision_vgg.md index c379f3a..56b5003 100644 --- a/pytorch_vision_vgg.md +++ b/pytorch_vision_vgg.md @@ -90,7 +90,7 @@ for i in range(top5_prob.size(0)): ### 모델 설명 -각 구성 및 BatchNorm 버전에 대해서 [Very Deep Convolutional Networks for Large-Scale Image Recognition](https://arxiv.org/abs/1409.1556)에서 제안한 모델에 대한 구현이 있습니다. +각 구성 및 batchnorm 버전에 대해서 [Very Deep Convolutional Networks for Large-Scale Image Recognition](https://arxiv.org/abs/1409.1556)에서 제안한 모델에 대한 구현이 있습니다. 예를 들어, 논문에 제시된 구성 `A`는 `vgg11`, `B`는 `vgg13`, `D`는 `vgg16`, `E`는 `vgg19`입니다. batchnorm 버전은 `_bn`이 접미사로 붙어있습니다. From 4f001158cd2aaf5a0bb6d5554db1879a5700a31c Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:36:37 +0900 Subject: [PATCH 05/10] =?UTF-8?q?fix:=20=EC=83=9D=EB=9E=B5=EB=90=9C=20?= =?UTF-8?q?=EC=9D=B8=EC=9A=A9=EB=A7=81=ED=81=AC=EC=99=80=20=EC=9D=B8?= =?UTF-8?q?=EC=9A=A9=EB=AC=B8=20=EC=B6=94=EA=B0=80?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- hustvl_yolop.md | 14 ++++++++++++-- 1 file changed, 12 insertions(+), 2 deletions(-) diff --git a/hustvl_yolop.md b/hustvl_yolop.md index 7d677d0..2fe373f 100644 --- a/hustvl_yolop.md +++ b/hustvl_yolop.md @@ -127,5 +127,15 @@ det_out, da_seg_out,ll_seg_out = model(img) See for more detail in [github code](https://github.com/hustvl/YOLOP) and [arxiv paper](https://arxiv.org/abs/2108.11250). -본 논문과 코드가 여러분의 연구에 유용하다고 판단되면, GitHub star를 주는 것과 본 논문을 인용하는 것을 고려해 주세요: - +본 [논문](https://arxiv.org/abs/2108.11250) 과 [코드](https://github.com/hustvl/YOLOP) 가 여러분의 연구에 유용하다고 판단되면, GitHub star를 주는 것과 본 논문을 인용하는 것을 고려해 주세요: + +```BibTeX +@article{wu2022yolop, + title={Yolop: You only look once for panoptic driving perception}, + author={Wu, Dong and Liao, Man-Wen and Zhang, Wei-Tian and Wang, Xing-Gang and Bai, Xiang and Cheng, Wen-Qing and Liu, Wen-Yu}, + journal={Machine Intelligence Research}, + pages={1--13}, + year={2022}, + publisher={Springer} +} +``` \ No newline at end of file From 6fd55bd985fd5924c8aab5825f6ed657ef77ecdf Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:37:57 +0900 Subject: [PATCH 06/10] =?UTF-8?q?fix:=20=EB=AF=B8=EB=B2=88=EC=97=AD=20?= =?UTF-8?q?=EB=AC=B8=EC=9E=A5=20=EC=A0=9C=EA=B1=B0?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- hustvl_yolop.md | 2 -- 1 file changed, 2 deletions(-) diff --git a/hustvl_yolop.md b/hustvl_yolop.md index 2fe373f..3332cf0 100644 --- a/hustvl_yolop.md +++ b/hustvl_yolop.md @@ -125,8 +125,6 @@ det_out, da_seg_out,ll_seg_out = model(img) ### 인용(Citation) -See for more detail in [github code](https://github.com/hustvl/YOLOP) and [arxiv paper](https://arxiv.org/abs/2108.11250). - 본 [논문](https://arxiv.org/abs/2108.11250) 과 [코드](https://github.com/hustvl/YOLOP) 가 여러분의 연구에 유용하다고 판단되면, GitHub star를 주는 것과 본 논문을 인용하는 것을 고려해 주세요: ```BibTeX From 3ae9a8b2a9eed4b667df2a63a64ef7b62285564f Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:41:03 +0900 Subject: [PATCH 07/10] =?UTF-8?q?fix:=20=EC=9B=B9=ED=8E=98=EC=9D=B4?= =?UTF-8?q?=EC=A7=80=EC=97=90=EC=84=9C=20table=EA=B0=80=20=EA=B9=A8?= =?UTF-8?q?=EC=A7=80=EB=8A=94=20=ED=98=84=EC=83=81?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- facebookresearch_pytorchvideo_resnet.md | 1 + 1 file changed, 1 insertion(+) diff --git a/facebookresearch_pytorchvideo_resnet.md b/facebookresearch_pytorchvideo_resnet.md index 46b24a2..f9d324e 100644 --- a/facebookresearch_pytorchvideo_resnet.md +++ b/facebookresearch_pytorchvideo_resnet.md @@ -159,6 +159,7 @@ print("Top 5 predicted labels: %s" % ", ".join(pred_class_names)) ### 모델 설명 모델 아키텍처는 Kinetics 데이터셋의 8x8 설정을 사용하여 사전 훈련된 가중치가 있는 참고문헌 [1]을 기반으로 합니다. + | arch | depth | frame length x sample rate | top 1 | top 5 | Flops (G) | Params (M) | | --------------- | ----------- | ----------- | ----------- | ----------- | ----------- | ----------- | | Slow | R50 | 8x8 | 74.58 | 91.63 | 54.52 | 32.45 | From 281628460bf6293432700987f1b2ba76cb4faac8 Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:45:43 +0900 Subject: [PATCH 08/10] =?UTF-8?q?fix:=20=EB=AC=B8=EC=9E=A5=EA=B0=9C?= =?UTF-8?q?=EC=84=A0?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- facebookresearch_pytorchvideo_resnet.md | 5 ++--- 1 file changed, 2 insertions(+), 3 deletions(-) diff --git a/facebookresearch_pytorchvideo_resnet.md b/facebookresearch_pytorchvideo_resnet.md index f9d324e..81b7510 100644 --- a/facebookresearch_pytorchvideo_resnet.md +++ b/facebookresearch_pytorchvideo_resnet.md @@ -18,7 +18,7 @@ demo-model-link: https://huggingface.co/spaces/pytorch/3D_ResNet ### 사용 예시 -#### Imports +#### 불러오기 모델 불러오기: @@ -58,8 +58,7 @@ model = model.eval() model = model.to(device) ``` -토치 허브 모델이 훈련된 Kinetics 400 데이터셋에 대해 ID에서의 레이블과 맞는 정보를 다운로드합니다. 이는 예측된 클래스 ID에서 카테고리 레이블 이름을 가져오는데 사용됩니다. - +토치 허브 모델이 훈련된 Kinetics 400 데이터셋을 위한 id-레이블 매핑 정보를 다운로드합니다. 이는 예측된 클래스 id에 카테고리 레이블 이름을 붙이는 데 사용됩니다. ```python json_url = "https://dl.fbaipublicfiles.com/pyslowfast/dataset/class_names/kinetics_classnames.json" json_filename = "kinetics_classnames.json" From f1f37cfcfca50a6ac532d43717dd456ba9d8abc7 Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:53:37 +0900 Subject: [PATCH 09/10] =?UTF-8?q?fix:=20=EB=8B=A4=EB=A5=B8=20facebookresea?= =?UTF-8?q?rch=20=ED=8C=8C=EC=9D=BC=EA=B3=BC=20=EC=96=91=EC=8B=9D=20?= =?UTF-8?q?=EB=8F=99=EC=9D=BC=ED=99=94?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- facebookresearch_pytorchvideo_resnet.md | 5 +++-- facebookresearch_pytorchvideo_x3d.md | 2 +- 2 files changed, 4 insertions(+), 3 deletions(-) diff --git a/facebookresearch_pytorchvideo_resnet.md b/facebookresearch_pytorchvideo_resnet.md index 81b7510..627f3d3 100644 --- a/facebookresearch_pytorchvideo_resnet.md +++ b/facebookresearch_pytorchvideo_resnet.md @@ -47,7 +47,7 @@ from pytorchvideo.transforms import ( ) ``` -#### 환경설정 +#### 셋업 모델을 평가 모드로 설정하고 원하는 디바이스 방식을 선택합니다. @@ -58,7 +58,8 @@ model = model.eval() model = model.to(device) ``` -토치 허브 모델이 훈련된 Kinetics 400 데이터셋을 위한 id-레이블 매핑 정보를 다운로드합니다. 이는 예측된 클래스 id에 카테고리 레이블 이름을 붙이는 데 사용됩니다. +토치 허브 모델이 훈련된 Kinetics 400 데이터셋에 대해 ID에서의 레이블 매핑 정보를 다운로드합니다. 이는 예측된 클래스 ID에서 카테고리 레이블 이름을 가져오는데 사용됩니다. + ```python json_url = "https://dl.fbaipublicfiles.com/pyslowfast/dataset/class_names/kinetics_classnames.json" json_filename = "kinetics_classnames.json" diff --git a/facebookresearch_pytorchvideo_x3d.md b/facebookresearch_pytorchvideo_x3d.md index cc43463..d0585ca 100644 --- a/facebookresearch_pytorchvideo_x3d.md +++ b/facebookresearch_pytorchvideo_x3d.md @@ -18,7 +18,7 @@ demo-model-link: https://huggingface.co/spaces/pytorch/X3D ### 사용 예시 -#### Imports +#### 불러오기 모델 불러오기: From c8ddd2cb34855e06cbbad7b76fb4939cb31e5909 Mon Sep 17 00:00:00 2001 From: Junwon Lee Date: Fri, 18 Aug 2023 00:55:39 +0900 Subject: [PATCH 10/10] =?UTF-8?q?fix:=20=EB=8B=A4=EB=A5=B8=20facebookresea?= =?UTF-8?q?rch=20=ED=8C=8C=EC=9D=BC=EA=B3=BC=20=EC=96=91=EC=8B=9D=20?= =?UTF-8?q?=EB=8F=99=EC=9D=BC=ED=99=94?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- facebookresearch_pytorchvideo_slowfast.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/facebookresearch_pytorchvideo_slowfast.md b/facebookresearch_pytorchvideo_slowfast.md index e971993..a51e031 100644 --- a/facebookresearch_pytorchvideo_slowfast.md +++ b/facebookresearch_pytorchvideo_slowfast.md @@ -78,7 +78,7 @@ for k, v in kinetics_classnames.items(): kinetics_id_to_classname[v] = str(k).replace('"', "") ``` -#### 입력 변환에 대한 정의 +#### 입력 형태에 대한 정의 ```python side_size = 256