From f205138219235c9e66ffe1275dc88d2e0c9d5fd5 Mon Sep 17 00:00:00 2001 From: unknown Date: Sun, 3 May 2026 15:03:39 +0900 Subject: [PATCH 1/5] =?UTF-8?q?=EC=98=A4=ED=83=80=20=EC=88=98=EC=A0=95?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../hyperparameter_tuning_tutorial.py | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/beginner_source/hyperparameter_tuning_tutorial.py b/beginner_source/hyperparameter_tuning_tutorial.py index 9bd3ab5bb..5239f65d3 100644 --- a/beginner_source/hyperparameter_tuning_tutorial.py +++ b/beginner_source/hyperparameter_tuning_tutorial.py @@ -25,7 +25,7 @@ | -이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요: +이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요. - ``ray[tune]``: 배포된 하이퍼파라미터 튜닝 라이브러리 - ``torchvision``: 데이터 변형을 위해 필요 @@ -33,7 +33,7 @@ 설정 / 불러오기 ----------------- -필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다: +필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다. """ from functools import partial import os @@ -89,7 +89,7 @@ def load_data(data_dir="./data"): # 구성 가능한 신경망 # --------------------------- # 구성 가능한 파라미터만 튜닝이 가능합니다. -# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다: +# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다. class Net(nn.Module): @@ -180,7 +180,7 @@ def forward(self, x): # Ray Tune으로 통신하기 # ~~~~~~~~~~~~~~~~~~~~~~~~~~~ # -# 가장 흥미로운 부분은 Ray Tune과의 통신입니다: +# 가장 흥미로운 부분은 Ray Tune과의 통신입니다. # # .. code-block:: python # @@ -325,7 +325,7 @@ def train_cifar(config, data_dir=None): # ------------------------------------------- # 일반적으로 머신러닝 모델의 성능은 모델 학습 시 사용하지 않은 데이터를 # 테스트셋으로 따로 떼어낸 뒤, 이를 사용하여 테스트합니다. -# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다: +# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다. def test_accuracy(net, device="cpu"): trainset, testset = load_data() @@ -353,7 +353,7 @@ def test_accuracy(net, device="cpu"): # # 검색 공간 구성 # ---------------------------- -# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다: +# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다. # # .. code-block:: python # @@ -444,12 +444,12 @@ def main(num_samples=10, max_num_epochs=10, gpus_per_trial=2): if __name__ == "__main__": - # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다: + # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다. main(num_samples=10, max_num_epochs=10, gpus_per_trial=0) ###################################################################### -# 코드를 실행하면 결과는 다음과 같이 나올 것입니다: +# 코드를 실행하면 결과는 다음과 같이 나올 것입니다. # # .. code-block:: sh # From f79bb4dc135ddbc9c33776d6d1da105cbbe3e15e Mon Sep 17 00:00:00 2001 From: unknown Date: Sun, 3 May 2026 16:22:11 +0900 Subject: [PATCH 2/5] =?UTF-8?q?=EC=9A=A9=EC=96=B4=20=EC=B6=94=EA=B0=80?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- TRANSLATION_GUIDE.md | 1 + 1 file changed, 1 insertion(+) diff --git a/TRANSLATION_GUIDE.md b/TRANSLATION_GUIDE.md index d10cb1107..89ab180d5 100644 --- a/TRANSLATION_GUIDE.md +++ b/TRANSLATION_GUIDE.md @@ -121,3 +121,4 @@ |warmstart|빠르게 시작하기|박정환|Warmstarting Model = 빠르게 모델 시작하기| |weight|가중치|박정환|| |wrapper|래퍼|박정환|음차 표기| +|training examples|학습 데이터|박태은|| From 10e2ce630bc900033e274093c4b93a91f0088829 Mon Sep 17 00:00:00 2001 From: unknown Date: Sun, 3 May 2026 16:53:47 +0900 Subject: [PATCH 3/5] =?UTF-8?q?Revert=20"=EC=98=A4=ED=83=80=20=EC=88=98?= =?UTF-8?q?=EC=A0=95"?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit This reverts commit f205138219235c9e66ffe1275dc88d2e0c9d5fd5. --- .../hyperparameter_tuning_tutorial.py | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/beginner_source/hyperparameter_tuning_tutorial.py b/beginner_source/hyperparameter_tuning_tutorial.py index 5239f65d3..9bd3ab5bb 100644 --- a/beginner_source/hyperparameter_tuning_tutorial.py +++ b/beginner_source/hyperparameter_tuning_tutorial.py @@ -25,7 +25,7 @@ | -이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요. +이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요: - ``ray[tune]``: 배포된 하이퍼파라미터 튜닝 라이브러리 - ``torchvision``: 데이터 변형을 위해 필요 @@ -33,7 +33,7 @@ 설정 / 불러오기 ----------------- -필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다. +필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다: """ from functools import partial import os @@ -89,7 +89,7 @@ def load_data(data_dir="./data"): # 구성 가능한 신경망 # --------------------------- # 구성 가능한 파라미터만 튜닝이 가능합니다. -# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다. +# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다: class Net(nn.Module): @@ -180,7 +180,7 @@ def forward(self, x): # Ray Tune으로 통신하기 # ~~~~~~~~~~~~~~~~~~~~~~~~~~~ # -# 가장 흥미로운 부분은 Ray Tune과의 통신입니다. +# 가장 흥미로운 부분은 Ray Tune과의 통신입니다: # # .. code-block:: python # @@ -325,7 +325,7 @@ def train_cifar(config, data_dir=None): # ------------------------------------------- # 일반적으로 머신러닝 모델의 성능은 모델 학습 시 사용하지 않은 데이터를 # 테스트셋으로 따로 떼어낸 뒤, 이를 사용하여 테스트합니다. -# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다. +# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다: def test_accuracy(net, device="cpu"): trainset, testset = load_data() @@ -353,7 +353,7 @@ def test_accuracy(net, device="cpu"): # # 검색 공간 구성 # ---------------------------- -# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다. +# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다: # # .. code-block:: python # @@ -444,12 +444,12 @@ def main(num_samples=10, max_num_epochs=10, gpus_per_trial=2): if __name__ == "__main__": - # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다. + # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다: main(num_samples=10, max_num_epochs=10, gpus_per_trial=0) ###################################################################### -# 코드를 실행하면 결과는 다음과 같이 나올 것입니다. +# 코드를 실행하면 결과는 다음과 같이 나올 것입니다: # # .. code-block:: sh # From fa8eedf390eecb598191c58735873e463136dd44 Mon Sep 17 00:00:00 2001 From: unknown Date: Sun, 3 May 2026 17:06:13 +0900 Subject: [PATCH 4/5] revert --- TRANSLATION_GUIDE.md | 1 - 1 file changed, 1 deletion(-) diff --git a/TRANSLATION_GUIDE.md b/TRANSLATION_GUIDE.md index 89ab180d5..d10cb1107 100644 --- a/TRANSLATION_GUIDE.md +++ b/TRANSLATION_GUIDE.md @@ -121,4 +121,3 @@ |warmstart|빠르게 시작하기|박정환|Warmstarting Model = 빠르게 모델 시작하기| |weight|가중치|박정환|| |wrapper|래퍼|박정환|음차 표기| -|training examples|학습 데이터|박태은|| From 228bee12a9b5174b8a90e70274d926ee4bf50f68 Mon Sep 17 00:00:00 2001 From: unknown Date: Sun, 3 May 2026 17:22:36 +0900 Subject: [PATCH 5/5] =?UTF-8?q?=EC=98=A4=ED=83=80=20=EC=88=98=EC=A0=95?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../hyperparameter_tuning_tutorial.py | 16 ++++++++-------- 1 file changed, 8 insertions(+), 8 deletions(-) diff --git a/beginner_source/hyperparameter_tuning_tutorial.py b/beginner_source/hyperparameter_tuning_tutorial.py index 9bd3ab5bb..5239f65d3 100644 --- a/beginner_source/hyperparameter_tuning_tutorial.py +++ b/beginner_source/hyperparameter_tuning_tutorial.py @@ -25,7 +25,7 @@ | -이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요: +이 튜토리얼을 실행하기 위해 아래의 패키지가 설치되어 있는지 확인하세요. - ``ray[tune]``: 배포된 하이퍼파라미터 튜닝 라이브러리 - ``torchvision``: 데이터 변형을 위해 필요 @@ -33,7 +33,7 @@ 설정 / 불러오기 ----------------- -필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다: +필요한 라이브러리들을 불러오는 것(import)으로 시작해보겠습니다. """ from functools import partial import os @@ -89,7 +89,7 @@ def load_data(data_dir="./data"): # 구성 가능한 신경망 # --------------------------- # 구성 가능한 파라미터만 튜닝이 가능합니다. -# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다: +# 이 예시를 통해 fully connected layer 크기를 지정할 수 있습니다. class Net(nn.Module): @@ -180,7 +180,7 @@ def forward(self, x): # Ray Tune으로 통신하기 # ~~~~~~~~~~~~~~~~~~~~~~~~~~~ # -# 가장 흥미로운 부분은 Ray Tune과의 통신입니다: +# 가장 흥미로운 부분은 Ray Tune과의 통신입니다. # # .. code-block:: python # @@ -325,7 +325,7 @@ def train_cifar(config, data_dir=None): # ------------------------------------------- # 일반적으로 머신러닝 모델의 성능은 모델 학습 시 사용하지 않은 데이터를 # 테스트셋으로 따로 떼어낸 뒤, 이를 사용하여 테스트합니다. -# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다: +# 이러한 테스트셋 또한 함수로 감싸둘 수 있습니다. def test_accuracy(net, device="cpu"): trainset, testset = load_data() @@ -353,7 +353,7 @@ def test_accuracy(net, device="cpu"): # # 검색 공간 구성 # ---------------------------- -# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다: +# 마지막으로 Ray Tune의 검색 공간을 정의해야 합니다. 예시는 다음과 같습니다. # # .. code-block:: python # @@ -444,12 +444,12 @@ def main(num_samples=10, max_num_epochs=10, gpus_per_trial=2): if __name__ == "__main__": - # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다: + # 매 실험당 사용할 GPU 수를 여기에서 변경할 수 있습니다. main(num_samples=10, max_num_epochs=10, gpus_per_trial=0) ###################################################################### -# 코드를 실행하면 결과는 다음과 같이 나올 것입니다: +# 코드를 실행하면 결과는 다음과 같이 나올 것입니다. # # .. code-block:: sh #