ABOUT ME

notou10@yonsei.ac.kr

Today
Yesterday
Total
  • optimizer에 input으로 loss 를 기입하지 않는 이유
    카테고리 없음 2023. 1. 17. 20:43

    loss.backward() 할 때 모델 weight의 grad는 이미 저장됨.

    해당 grad방향으로 나아가게 해주는 도구가 optimizer. 학습 weight grad  알면

     

     

     

     

     

    (+추가로, mmdetection에서 optimizer는 어디있었을까)

     

     

    MMdet는 왜 loss.backward(), optim.step()가 없는가.

    -> 꽁꽁 숨겨져있다.

    optimizer

     

    로 optimize됨.

     

    (설명)

     

    Training시 self.call_hook(‘after_train_iter’)는

     = 

    mmcv.runner.hooks.optimizer.OptimizerHook 에서  .after_train_iter()하라는 뜻인데

    .after_train_iter() optimizer update (with [‘loss’] backward) 하라는 뜻임.

     

    .train에서 output 구하고 .after_train_iter()로 optim step 하라는 코드.

Designed by Tistory.