[The SIGNAL] "인공지능 로봇, 거대 언어모델은 필수"

[The SIGNAL] "인공지능 로봇, 거대 언어모델은 필수"

한스경제 2024-10-23 22:20:29 신고

3줄요약

[한스경제=이호영 기자] "로봇 분야에서 대규모 언어모델 적용은 불가피한 추세입니다. 앞으로 인공지능 로봇은 대규모 언어모델을 통한 다양한 수준의 추론이 심리스하게 엮여 동작해야 할 것입니다. 집안, 공장 등 환경과 업무마다 로봇 형태도 다르고 각각의 학습 데이터도 필요합니다. 클라우드와 연결된다면 보안 이슈도 생길 거예요." 

코엑스 한국전자전(KES 2024, 22~25일) 이틀째인 23일 부대행사로 열린 '휴머노이드 로봇 혁명' 휴머노이드 AI 로봇 개발을 위한 요소 기술 및 산업 전망 세미나에서 임준호 튜터러스랩스 최고기술책임자(CTO)는 '대규모 언어모델(LLM) 개발과 AI 로봇 적용을 위한 해결 과제'를 주제로 강연하며 이같이 강조했다. 

대규모 언어모델은 자연어 입력 내용을 처리하고 이미 나온 것을 기반으로 다음 단어를 예측하는 컴퓨터 알고리즘의 일종이다. 생성형 인공지능 챗지피티(ChatGPT)가 바로 이 대규모 언어모델을 기반으로 한다. 

임준호 CTO는 "대규모 언어모델이라고 하면 다들 생성형 인공지능 챗지피티를 떠올릴 것"이라며 "결국 텍스트를 학습하고 출력하는 인공지능 모델인데 로봇을 움직이고 조정하려고 하는데 왜 갑자기 텍스트를 학습한 모델을 가져다 쓰려는 것인지 의아할 것"이라고 했다. 

챗지피티를 만든 오픈에이아이(OpenAI)가 세웠던 가설 중 하나로는 사람처럼 지능적으로 답변하는 게 가능해질 것이라는 가설이 있다. 오픈에이아이는 이를 주장하기 위해태스크 40여개 이상을 실험했다. 대표적인 사례가 글쓰기다. 실제 인공지능이 쓴 제목과 부제 수준은 지피티 3와 사람 중에서 누가 썼는지 구분하는 비율이 반반일 정도로 뛰어났다. 또 산수를 가르치지 않고 텍스트 위주로 암기만 시켰을 뿐인데도 이 과정에서 숫자를 연산하는 능력을 학습했다. 

임준호 CTO는 "이런 것들이 소규모 언어모델에서는 잘 안 되지만 대규모로 가면 가능해지는 것"이라고 했다. 

이어 "이 대규모 언어모델로 가면 거대한 학습량이 어느 순간 질적인 변화로 이어지는 '창발 능력(이머전트 모빌리티)'의 순간이 있다"며 "또 추론(리즈닝)도 할 수 있게 된다"고 했다. 

그는 "이런 추론 등은 기존 컴퓨터 과학의 관점에서는 불가능했던 일"이라며 "컴퓨터 과학 기저의 어떤 핵심인 부분에서 큰 변화가 일어난 것"이라고 했다. 

이어 "별도의 학습이나 프로그램 없이 이런 것들이 가능해진 것"이라며 "대규모 언어모델로 창발능력 속에 추론이라는 능력까지 생겼기 때문"이라고 덧붙였다. 

또 "이 인공지능의 추론 수준은 초기 모델들이 초등학교 수학 문제에 대해 20~30% 정도였다면 현재는 90%를 넘고 대학교나 대학원에서 푸는 수학 문제들을 다루고 있다"고 했다. 

임준호 CTO는 "이제 인공지능 다음은 휴머노이드라며 앞다퉈 이 형태로 넘어가는 연구 개발을 하고 있다"며 "로봇을 조작하거나 로봇이 지능적으로 동작하도록 할 때 등 로봇 분야에서 대규모 언어모델을 쓰는 것은 바꿀 수 없는 추세"라고 봤다.

이어 "이제 대규모 언어모델을 어떻게 인공지능 로봇에 쓸 것이냐가 관심거리가 됐다"며 "대규모 언어모델이 사람의 뇌와 같은 지능이라면 물리적인 세계의 어떤 것은 로봇이다. 이 두개를 결합하면 바디 인텔리전스나 임바디드 에이전트(로봇)가 될 것"이라고 덧붙였다. 

임준호 CTO는 대규모 언어모델이 인공지능에 적용되는 과정에서 간략히 인공지능 패러다임 변화도 짚어봤다. 1980년대, 2000년대까지 기계학습(머신러닝)이나 딥러닝 초기에는 학습 데이터 유무가 중요했고 각각의 태스크마다 별도의 머신러닝이나 딥러닝 모델을 설계해야 했다. 다시 말해 인공지능 모델은 범용성이 전혀 없었다. 

이러던 인공지능 패러다임에 큰 변화가 생긴 것은 2018년경 '사전 학습' 기술이 등장하면서다. 이때부터 버트(BERT), 지피티(GPT) 같은 것들이 생겨났다. 현재의 챗지피티는 '챗봇 생성형 '사전 학습' 변환기'의 약자다.

인공지능 1세대가 태스크마다 딥러닝 모델을 따로 설계했다면 2세대는 트랜스포머라는 하나의 모델을 사용하게 된 것이다. 결론을 일반화하는 정도도 2세대가 더 낫다. 또 이 인공지능 2세대와 지피티 3 차이는 암기하는 데이터량의 차이다. 지피티는 기본적으로 테라바이트 데이터를 학습(암기) 시킨다. 

 

 

Copyright ⓒ 한스경제 무단 전재 및 재배포 금지

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

당신을 위한 추천 콘텐츠

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기