보상 함수 튜닝
이 장에서는 Best lap time 이 07.611
인 모델을 기준으로 설명합니다.
ch-ccw-06
주피터 노트북에서 RaceLine_ActionSpace.ipynb
노트북을 클릭합니다.
MIN_SPEED
= 1.1
, MAX_SPEED
= 3.6
을 입력합니다.
결과를 racing_track
변수에 저장합니다.
AWS Console 의 Deepracer
서비스로 이동합니다. Your models
메뉴에서 Create model
을 클릭합니다.
이전과 같은 방법으로 모델을 훈련 합니다.
보상함수: https://github.com/awskrug/deepracer-notebook/blob/main/functions/ch-ccw-06.py
ch-ccw-06-ccw
주피터 노트북에서 RaceLine_ActionSpace.ipynb
노트북을 클릭합니다.
MIN_SPEED
= 1.3
, MAX_SPEED
= 3.9
를 입력합니다.
결과를 racing_track
변수에 저장합니다.
Your models
에서 ch-ccw-06
모델을 선택합니다.
Clone
을 클릭합니다.
Hyperparameter
의 Learning rate
= 0.0002
으로 변경합니다.
모델을 훈련 합니다.
보상함수: https://github.com/awskrug/deepracer-notebook/blob/main/functions/ch-ccw-06-ccw.py
ch-ccw-06-ccw-ccw2
주피터 노트북에서 RaceLine_ActionSpace.ipynb
노트북을 클릭합니다.
MIN_SPEED
= 1.6
, MAX_SPEED
= 4.0
을 입력합니다.
결과를 racing_track
변수에 저장합니다.
Your models
에서 ch-ccw-06-ccw
모델을 선택합니다.
Clone
을 클릭합니다.
Hyperparameter
의 Learning rate
= 0.0001
으로 변경합니다.
모델을 훈련 합니다.
보상함수: https://github.com/awskrug/deepracer-notebook/blob/main/functions/ch-ccw-06-ccw-ccw2.py
ch-ccw-06-ccw-ccw2-ccw
보상함수는 이전 것을 그대로 사용 합니다.
Your models
에서 ch-ccw-06-ccw-ccw2
모델을 선택합니다.
Clone
을 클릭합니다.
Hyperparameter
의 Learning rate
= 0.00005
으로 변경합니다.
모델을 훈련 합니다.