Multi-GPU 총정리 2


Multi-GPU 총정리 2

이번에는 1번 글에서 소개했던 DP의 단점을 커버하는 DDP에 대해 알아보고 어떻게 사용하는지 정리합니다. DDP도 사용방법에 따라 다양하게 이용할 수 있는데 해당 글은 2-1) mp.spawn을 사용해서 DDP 동작, DDP에서 전체적으로 사용하는 명칭들 2-2) torch.distributed.launch를 사용한 세세한 DDP 구현, torchrun이라는 stcript의 등장 정도로 글을 작성합니다. nn.DistributedDataParallel(=DDP) DDP에 총괄적으로 사용되는 명칭들을 정리합니다. 여기서는 spawn을 사용한 방식, launch를 사용하는 방식, 그냥 데이터 분산학습에서 흔히 사용되는 명칭을 정리합니다. os.environ[“CUDA__VISIBLE_DEVICES”] = 0, 1, 2, 3 : GPU 지정 —nproc_per_node = 4 : 프로세스를 할당( 해당 코드는 1개의 컴퓨터에 GPU 4개인 경우 ) // python -m torch.di...


#AI학습 #spawn #torch #다중지피유 #데이터분산학습 #데이터패러럴 #멀티쓰레드 #멀티지피유 #멀티프로세스 #분산학습 #인공지능GPU #Pytorch #MultiGPU #mpspawn #Apex #DataParallel #DDP #distributed #DistributedDataParallel #DP #GPU #GPU여러대사용하기 #jjunsss #launch #파이토치

원문링크 : Multi-GPU 총정리 2