집으로 돌아와 데스크탑으로 훈련을 돌렸다. 훈련장을 9개 복사하고, Gpu로 Burst로 돌리니 학습속도는 노트북이랑 비교도 안되게 빠르다. 학습하고 결과 보는 것 까지는 문제가 없었다.
문제는 학습된 결과물인 rollerball_config.onnx 파일을 Agent에게 넣어 결과를 확인하려고하니, "UnityAgentsException: Unknown tensorProxy expected as input : obs_0"라는 에러가 발생했다.. 구글링결과, mlagents를 최신으로 업데이트하면 해결된다고하는데..(사용 중인 버전은 mlagents release 13)
mlagents 패키지를 최신으로 바꿔주면 어디서 또 충돌이 일어나고, 다르게해도 에러가 뜨고.. example/pushblock에서 에러가 떠서 그냥 삭제시켰더니 에러가 확 줄었다. 그런식으로 에러를 없애고 결과를 확인.
학습된 결과는 처참했다.. 제공하는 환경정보가 문제인지, 액션인풋값이 문제인지 모르겠다..
mlagents는 분명 좋은 강화학습 패키지지만, 개발된 지 3년밖에 되지않아 정보가 매우 적다는 것이 단점이다.
'IT > ML-Agents' 카테고리의 다른 글
ML-Agents에서 onActionReceived()와 Heuristic()이 작동하지 않는다.. (2) | 2021.06.23 |
---|---|
강화학습에 대한 갑작스런 번뜩임 (0) | 2021.06.16 |
Unity에서 ML-Agents package Error (0) | 2021.06.11 |