-
optimizer에 input으로 loss 를 기입하지 않는 이유카테고리 없음 2023. 1. 17. 20:43
loss.backward() 할 때 모델 weight의 grad는 이미 저장됨.
해당 grad방향으로 나아가게 해주는 도구가 optimizer임. 학습 중 각 weight의 grad 만 알면 됨
(+추가로, mmdetection에서 optimizer는 어디있었을까)
MMdet는 왜 loss.backward(), optim.step()가 없는가.
-> 꽁꽁 숨겨져있다.
optimizer는
로 optimize됨.
(설명)
Training시 self.call_hook(‘after_train_iter’)는
=
mmcv.runner.hooks.optimizer.OptimizerHook 에서 .after_train_iter()하라는 뜻인데
.after_train_iter()는 곧 optimizer update (with [‘loss’] backward) 하라는 뜻임.
.train에서 output 구하고 .after_train_iter()로 optim step 하라는 코드.