인공지능융합세미나[1회차] - Knowledge Distillation 기술동향 소개


인공지능융합세미나[1회차] - Knowledge Distillation 기술동향 소개

인하대 인공지능융합연구센터, ABBI AI융합센터, BK21 AI교육연구단에서 공동으로 주관한 "인공지능융합세미나"에 참가했습니다. 3월 5일부터 매주 화요일마다 열리는 이 세미나는 최신 인공지능 기술의 연구 동향에 대한 다양한 분야의 높으신 분들의 인사이트를 엿볼 수 있는 좋은 기회인 것 같았습니다. 군대에 있어서 밖에 있는 분들하고 소통을 할 수 있다는 것 자체만으로도 좋았습니다. 차례를 봤는데 첫 번째 회차의 주제로 Knowledge Distillation를 아주대학교 교수님이 강의를 해주신다고 해서 관심을 가질수밖에 없었습니다. 최근에 KD 관련 분야에 공부를 시작해보기도 했고, 뉴스에서 국내 연구진이 이미지 생성 모델을 "지식 증류"(한국어로 번역하면 살짝 어렵네요)를 통해 경량화 해서 Dalle보다 더 빠르게 이미지를 생성해내는 모델을 개발했다는 소식을 접한 이후로 KD 분야에 대해 궁금해졌습니다. 이미지 생성 모델 경량화 모델을 확인할 수 있는 허깅페이스 링크입니다. ...


#1회차 #인하대학교 #인공지능융합연구센터 #인공지능융합세미나 #인공지능 #아주대학교 #세미나 #기술동향 #NVIDIA #knowledge #KD #Distillation #지식증류

원문링크 : 인공지능융합세미나[1회차] - Knowledge Distillation 기술동향 소개