뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어모델 AI반도체 상보형-트랜스포머 개발


뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어모델 AI반도체 상보형-트랜스포머 개발

뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어모델 AI반도체 상보형-트랜스포머 개발 2024.03.06 과학기술정보통신부 KAIST, 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어 모델 인공지능반도체 핵심기술 ‘상보형-트랜스포머’ 개발 - 삼성 28나노공정 활용, GPT-2 거대 언어 모델을 400mW전력 소모로 성공적 구동 - GPU(엔비디아 A100) 대비 소모전력은 625배, 칩 면적 41배 작은 인공지능 반도체 핵심기술 개발 - 온디바이스AI의 핵심인 초저전력·고성능 인공지능반도체를 뉴로모픽 컴퓨팅으로 구현 과학기술정보통신부(장관 이종호, 이하 ‘과기정통부’)는 KAIST(총장 이광형) PIM반도체 연구센터와 인공지능반도체 대학원 유회준 교수 연구팀이 400밀리와트 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 인공지능 반도체인 ‘상보형-트랜스포머* (Complementary-Transformer)’를 삼성 28나노 공정을 통해 세계 최초로 개발했다고 밝...



원문링크 : 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어모델 AI반도체 상보형-트랜스포머 개발