DETR's Loss


DETR's Loss

이번 글은 간단하게 최근 찾은 궁금증과 그에 관한 이유에 대해 정리합니다. 저는 최근 Deformable DETR(D-DETR)을 사용하다가 loss 부분을 건드리게 되었는데 코드를 보던 중 문득 이상한 것을 확인할 수 있었습니다. 아래와 같습니다. def forward(self, outputs, targets): """ This performs the loss computation. Parameters: outputs: dict of tensors, see the output specification of the model for the format targets: list of dicts, such that len(targets) == batch_size. The expected keys in each dict depends on the losses applied, see each loss' doc """ outputs_without_aux = {k: v for k, v in o...


#all_reduce #loss정규화 #Meta #num_boxes #ObjectDetection #분산학습 #분산학습Loss #손실 #손실정규화 #Lossnormalizaiton #LossNorm #DDETR #DDP #DETR #Distributed #Fair #instance #Instsances #Loss #총인스턴스개수예시

원문링크 : DETR's Loss