또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need


또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need

또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need 지난주 메타(Meta)는 오픈소스 대형언어모델(LLM) ‘라마(LLaMA) 3’ 시리즈 중에서 중형과 소형 버전 2개를 우선 공개했습니다. 모델의 파라미터(매개변수)는 각각 80억 개와 700억 개로, GPT-4 및 Gemini, Claude 3와 같은 수조 개 단위의 contents.premium.naver.com 지난주 메타(Meta)는 오픈소스 대형언어모델(LLM) ‘라마(LLaMA) 3’ 시리즈 중에서 중형과 소형 버전 2개를 우선 공개했습니다. 모델의 파라미터(매개변수)는 각각 80억 개와 700억 개로, GPT-4 및 Gemini, Claude 3와 같은 수조 개 단위의 초대형 모델 대비해서는 상당히 작은 크기의 모델들입니다. 하지만 라마 3는 성능면에서 있어서 놀라운 수준을 자랑합니다. 특히 700억(70b) 파라미터 모델은 일반적인 벤치마크 테스트에서...


#Absci #메타 #미국주식 #앱사이 #오픈AI #오픈소스 #온디바이스AI #친칠라스케일링법칙 #테슬라 #매개변수 #리얼월드데이터 #GPT4 #LLaMA3 #대형언어모델 #데이터 #데이터스케일링 #데이터중심접근법 #라마 #라마3 #파라미터

원문링크 : 또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need