또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need 지난주 메타(Meta)는 오픈소스 대형언어모델(LLM) ‘라마(LLaMA) 3’ 시리즈 중에서 중형과 소형 버전 2개를 우선 공개했습니다. 모델의 파라미터(매개변수)는 각각 80억 개와 700억 개로, GPT-4 및 Gemini, Claude 3와 같은 수조 개 단위의 contents.premium.naver.com 지난주 메타(Meta)는 오픈소스 대형언어모델(LLM) ‘라마(LLaMA) 3’ 시리즈 중에서 중형과 소형 버전 2개를 우선 공개했습니다. 모델의 파라미터(매개변수)는 각각 80억 개와 700억 개로, GPT-4 및 Gemini, Claude 3와 같은 수조 개 단위의 초대형 모델 대비해서는 상당히 작은 크기의 모델들입니다. 하지만 라마 3는 성능면에서 있어서 놀라운 수준을 자랑합니다. 특히 700억(70b) 파라미터 모델은 일반적인 벤치마크 테스트에서...
#Absci
#메타
#미국주식
#앱사이
#오픈AI
#오픈소스
#온디바이스AI
#친칠라스케일링법칙
#테슬라
#매개변수
#리얼월드데이터
#GPT4
#LLaMA3
#대형언어모델
#데이터
#데이터스케일링
#데이터중심접근법
#라마
#라마3
#파라미터
원문링크 : 또 한 번 AI 업계를 뒤집은 메타(Meta)의 ‘라마(LLaMA) 3’ 모델 - Data is all you need