본문 바로가기
Tech Inside

[알서포트 Tech Inside4호] “초거대 인공지능 기술 동향 및 개발 경쟁" 2부

🔹1부: 초거대 인공지능 정의와 해외 기술 동향

🔹2부: 국내 초거대 AI 기술 동향 및 국내외 초거대 AI 기술의 한계와 과제 ✔

 

출처: 셔터스톡

 

현재 전 세계 IT 분야의 화두는 ‘초거대 AI(Hyper-scale AI)’라고 해도 과언이 아니다. 예상보다 빠른 속도로 AI 기술이 발전하고 있는 가운데, 기존 인공지능(AI) 보다 진일보한 ‘초거대 AI’의 등장으로 글로벌 ICT 기업들의 경쟁은 더욱 과열되고 있다. 이에 국내외 초거대 AI(Hyper-scale AI) 기술 동향을 1부와 2부에 걸쳐 상세히 살펴보고자 한다.

앞서 1부를 통해 초거대 인공지능(Hyper-scale AI)의 정의와 특징을 알아보고, 해외 초거대 AI 기술 동향을 살펴봤다. 2부우리나라의 초거대 AI 기술 동향을 살펴본 후, 현재 초거대 AI의 한계와 과제에 대해 알아본다. 또한 과열된 국내외 초거대 AI 개발 경쟁의 어두운 이면을 짚어보고, 필자의 희망 섞인 제언으로 마무리하고자 한다.

 

| 국내 초거대 인공지능 기술 동향

 

1. 네이버의 초대규모 AI ‘하이퍼클로바(HyperCLOVA)’

네이버는 2021년 5월, “우리말을 가장 잘 이해하고 구사하는 최초의 초대형 한국어 인공지능”이라는 슬로건과 함께 초대규모 AI인 ‘하이퍼클로바(HyperCLOVA)’를 공개했다. 하이퍼클로바는 네이버가 국내 기업 최초로 자체 개발한 초대규모 AI로, GPT-3보다 큰 2,004억 개(204B)의 파라미터 규모를 자랑한다. 파라미터는 인간 뇌의 ‘시냅스’와 유사한 역할을 하는데, 규모가 커질수록 AI의 지능도 높아지는 것으로 알려져 있다.

 

인간과 네이버 AI 하이퍼클로바와의 대화 예시(화면캡처)

 

 

2. 카카오의 초거대 인공지능 모델 ‘KoGPT’

카카오브레인이 GPT-3 모델의 한국어 특화 AI 언어모델 ‘KoGPT’를 최대 오픈소스 커뮤니티 깃허브(gitHub)에 공개했다. KoGPT의 매개변수는 60억 개로 네이버 하이퍼클로바 2,040억개, GPT-3의 1,750억개에 비하면 훨씬 작고, 학습 데이터도 2,000억개 토큰으로 네이버 하이퍼클로바 5,600억 개 토큰 등에 비해 규모가 작다. 초기 버전이라 기존 GPT-3나 네이버 하이퍼클로바에 비해서는 모델 크기가 작은 편이나, 향후 현재 KoGPT 언어 모델의 최대 규모를 100배 이상 더 키울 예정이라고 한다. 현재 수준에서 KoGPT가 당장 수행 가능한 언어 과제는 주어진 문장의 긍정과 부정 판단, 긴 문장 한 줄 요약, 문장 추론으로 결론 예측, 질문 시 문맥 이해를 통한 답변 등으로 크게 4가지이다. 맥락에 따라 자동으로 글쓰기가 가능한 만큼 상품 소개 글 작성, 감정 분석, 기계 독해, 기계 번역 등에 활용할 수 있을 것으로 보이며, 특히 교육을 위한 초거대 AI 역할을 강조했다.

 

 

3. 카카오의 초거대 AI 이미지 생성 모델 ‘민달리(minDALL-E)’, ‘RQ-트랜스포머’

카카오브레인은 한국어 특화 AI 언어모델 ‘KoGPT’에 이어 초거대 AI 멀티모달(multimodal) ‘minDALL-E(민달리)’를 깃허브(gitHub)에 공개했다. 민달리는 이용자가 텍스트로 명령어를 입력하면 실시간으로 원하는 이미지를 만들어주는 이미지 생성 모델이다. OpenAI의 ‘DALL-E’를 누구나 접근하기 쉽게 작은 사이즈 모델로 만든 것으로, 1,400만 장의 텍스트와 이미지 세트를 사전 학습하고 13억 개의 파라미터(매개변수, 학습 데이터 저장소)를 가지고 있다. 민달리가 미국의 OpenAI가 공개한 달리(DALL-E)를 재현한 것이었다면, RQ-트랜스포머는 카카오브레인의 독자기술로 개발됐다. RQ-트랜스포머는 민달리에 비해 모델 크기가 3배, 이미지 생성 속도와 학습 데이터셋은 2배 늘어났다. 총 39억 개의 매개변수(파라미터)로 구성됐고, 3,000만 쌍 이상의 텍스트-이미지를 학습했다. 이는 현재 국내에 공개된 이미지 생성 모델 중 최고로 꼽힌다.

 

‘사막에 있는 에펠탑’이라는 텍스트에 따라 자동 생성한 이미지(출처: 카카오브레인) ​

 

4. LG의 초거대 AI ‘엑사원(EXAONE)

엑사원약 3,000억 개의 파라미터를 보유한 초거대 AI로, 세계 최대 규모의 데이터를 학습시켜 인간처럼 사고, 학습, 판단할 수 있다. 엑사원은 세계 최대 수준의 말뭉치 6,000억 개 이상, 텍스트와 결합된 고해상도 이미지 2억 5,000만 장 이상의 데이터를 학습했으며, 이 외에 전문적인 데이터도 일정 수준 이상 학습한 상태다.

엑사원은 언어와 이미지를 생성하는 멀티모달(multi-modality) 기능을 갖추었고, 텍스트와 이미지 양방향 소통이 가능하다. 이는 ‘텍스트 -> 이미지’간 단방향 소통만 가능한 카카오의 초거대 AI 모델 ‘민달리’와 차별화되는 부분이다. 또한, 초기 개발 시점부터 한국어와 영어 데이터를 함께 학습한 것도 한국어 특화 모델 개발부터 시작한 네이버의 초거대 AI ’하이퍼클로바’나 카카오의 ‘민달리’와 다른 부분이다.

 


이하 중략

자세한 내용은 기술문서 원본에서 확인하실 수 있습니다.

 

| 초거대 AI의 한계

 

1부와 2부를 통해 국내외 글로벌 ICT 기업들이 발표한 초거대 인공지능(Hyper-scale AI)의 기술 동향 및 개발 경쟁 현황에 대해 살펴보았다. 초거대 AI는 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능하도록 학습되고 판단 능력도 향상된 형태의 AI이다.

궁극적인 최종 목표로는 AGI를 표방하고 있지만 아직까지는 여러 부분에서 한계를 드러내고 있는 것도 현실이다. 물론, 앞으로의 연구개발이나 향후 기술발전을 고려하면 극복하지 못할 문제는 아니라고 생각되나 현재의 한계를 인지하고 이를 극복하기 위한 향후 발전 가능성을 모색하는 것이 현 시점에서 추구할 수 있는 방향이라 생각된다. 이제 지금까지 공개된 초거대 AI의 공통적인 한계는 어떠한 것이 있는지 몇 가지만 알아보기로 하자.

1. 학습비용, 시간 대비 효율적일까?

2. 현실 세계의 쉬운 상식을 모른다!

3. 모든 분야에서 뛰어날까?

4. 기억력이 없다!

 

출처: 게티이미지

 

| 초거대 AI의 과제와 해결 방안

 

초거대 AI의 한계에도 불구하고 전자, 교육, 금융, 유통, 의료, 플랫폼, VR 등 매우 다양한 분야에서 초거대 AI모델이 긍정적 영향을 끼칠 것은 분명하다. 초거대 AI가 미래 경쟁력을 높일 수 있는 차세대 핵심 기술로 꼽히는 것은 사실이지만, 양날의 검처럼 어두운 이면도 분명 존재한다.

1. AI 양극화

2. 전력 소모 및 환경 오염

 

출처: 게티이미지


 

초거대 AI는 인류에게 편안한 세상과 놀라운 경험을 선사할 것은 분명하다. 그렇다고 초거대 AI 개발에 따른 환경 오염 문제와 같은 과제를 간과해서는 안될 것이다. 초거대 AI가 AGI를 표방하지만, 그 자체가 인간이 될 수는 없다. 그러나 불가능을 가능으로 바꾸어 온 역사의 반복으로 미루어 먼 미래에는 특정 분야에만 특화된 AI가 아니라 인간 수준의 추론 능력을 가진 범용적 인공지능의 출현이 가능해질 날이 오지 않을까 기대해 본다.

자세한 내용은 기술문서 원본에서 확인하실 수 있습니다.

👉 기술문서 원본 다운로드

 

 


8월 Tech Inside 4호

알서포트 클라우드기술팀 박상은 팀장님의

"초거대 인공지능 기술 동향 및 개발 경쟁"

2부를 공개해 드렸습니다.

혹시 지난 1부를 놓치신 분들은

아래 링크에서 확인해 주세요!

👉1부 보러 가기

 

 

 

[알서포트 Tech Inside3호] “초거대 인공지능 기술 동향 및 개발 경쟁" 1부

🔹1부: 초거대 인공지능 정의와 해외 기술 동향 🔹2부: 국내 초거대 AI 기술 동향 및 국내외 초거대 AI 기술의 한계와 과제 최근 정보통신기술(ICT) 분야의 가장 핫한 키워드는 ‘초거대 인공지능(

blog.rsupport.com

 

그럼 다음 호로 돌아오겠습니다.

 

감사합니다.😎

 

댓글