Upstage

View Original

‘챗GPT 아버지’, 샘 알트만의 GPT-4와 AGI에 대한 대담

2023/04/20   |  4 mins

OpenAI의 CEO이자 챗GPT의 아버지인 샘 알트만(Sam Altman)이 인공지능 연구자 렉스 프리드먼(Lex Fridman)의 팟캐스트에 출연해 GPT-4와 AGI(Artificial General Intelligence)에 대한 이야기를 나누었습니다. 이번 콘텐츠에서는 AI의 발전이 가져올 미래의 모습을 상상하게 하는 샘 알트만의 대담을 정리해 봅니다.





GPT-4와 ChatGPT로 보는 AI의 미래

샘 알트만은 머지않은 미래에 사람들이 GPT-4를 아주 초기의 인공지능으로 생각하게 될 날이 올 것이라고 말합니다. GPT-4는 아직 많은 작업을 완벽하게 수행하기에 한계가 있긴 하지만, 앞으로 점차 발전한다면 우리의 삶에 중요한 역할을 하는 무언가로 자리 잡게 될 거라구요. 이는 컴퓨터가 처음 세상에 출시되었을 때도 마찬가지였습니다. 과거에 비해 오늘날의 컴퓨터 성능은 획기적으로 발전하였고, 이제 컴퓨터가 없는 일상을 상상하기 어렵게 된 것처럼 말입니다.


그렇다면 50년 뒤 인공지능의 역사를 다루는 위키피디아 페이지에 현 시점의 AI 발전의 전환점을 꼽는다면 어떤 GPT 모델이 역사에 기록될 수 있을까요? 이 질문에 샘 알트만은 ‘ChatGPT’를 꼽았습니다. 그는 AI의 발전이 마치 지수함수와 같아서 어떠한 특정 사건을 전환점으로 꼽는것보다 연속적인 곡선의 형태로 발전한다고 보는 것이 적절할 것이라고 말합니다. 다만 현재까지 출시된 모델 중에서 ChatGPT를 꼽을 수 있는 이유는 “사용성”이 중요하다 생각했기 때문이라고 덧붙였습니다. 물론 기본 모델도 중요하지만 RLHF(휴먼피드백강화학습·Reinforcement Learning with Human Feedback)와 인터페이스도 모두 중요한 요소이기 때문입니다.


ChatGPT와 RLHF

ChatGPT는 대규모 텍스트 데이터를 이용해 사전학습된 모델로, 대화형 인터페이스가 적용되어 다양한 자연어 처리 태스크에 활용할 수 있습니다. ChatGPT는 사용자가 입력한 문장을 이해 및 분석하고, 이를 기반으로 다음 단어를 예측합니다. 이렇게 다음 단어를 예측하는 과정이 모이면 문장이 완성되고 이것이 사용자에게 답변으로 전송되는데요. 따라서 언어를 표현하고 구사하는 것에 특화되어 있습니다.

이러한 원리로 작동하는 ChatGPT는 ‘RLHF(Reinforcement Learning from Human Feedback)’를 활용해 성능을 고도화했습니다.

출처: Lambert, et al., "Illustrating Reinforcement Learning from Human Feedback (RLHF)", Hugging Face Blog, 2022.


RLHF는 인간 피드백 기반 강화 학습으로, 사람의 피드백을 통해 언어 GPT-4와 같은 대규모 언어 모델의 정확도와 관련성, 공정성을 높이는 것입니다. 예를 들어 딥러닝 모델이 대규모 텍스트 데이터셋으로 학습을 하여 이를 기반으로 모델이 두 가지 결과물을 보여주면, 어떤 결과물이 더 나은지 사람이 피드백을 하는 형식입니다. Open AI는 더 나은 모델을 만들기 위해 다양한 소스에서 사전 훈련 데이터를 모으는데 큰 노력을 기울이고 있다고 합니다.


ChatGPT가 사용자의 질문을 이해하고 자연스러운 대화가 가능한 것도 RLHF가 긍정적인 역할을 했습니다. 샘 알트만은 ChatGPT와 같은 RLHF 모델을 만드는 것이 이제 시작인 단계이지만, 이러한 강화 학습을 통해 이전보다 적은 데이터로 모델을 훨씬 강력하게 만들 수 있는 것이 특징이라고 언급했습니다. 또한, 이 과정을 거치면 딥러닝 모델을 조금만 훈련시킨 상태에서도 추후 완전히 훈련 되었을 때의 특징을 미리 파악할 수 있는데, 이것은 마치 한 살 아기가 미래에 SAT 시험에서 어떤 성적을 거둘 것인지 알 수 있는 것과 같습니다. 그만큼 모델의 다양한 측면을 자세히 조사하고 분석하기 때문에 가능한 일이기도 하죠.



GPT-4와 AGI

“GPT-4는 인류가 만들어낸 가장 복잡한 소프트웨어이다.”라는 말이 있습니다. 실제로 GPT-3와 GPT-3.5는 1,750억 개의 파라미터(매개변수)를 통해 운영되고 있으며, GPT-4의 파라미터 수는 공개되지 않았지만 이보다 훨씬 많은 양을 기반으로 하고 있을 것으로 보입니다.

언어 모델의 크기 (출처: Dr Alan D. Thompson, LifeArchitect.ai (Apr/2023))


하지만 샘 알트만은 몇십 년 후에는 이런 수천억 개의 파라미터를 가진 모델이 누구나 일상에서 쉽게 만들 수 있는 사이즈가 될 수 있을 것이라고 말합니다. 물론 이것은 GPT가 학습을 통해 인터넷상에 있는 인류의 모든 것을 압축한 것과 다름없기 때문에 아직까지는 이 파라미터의 사이즈를 조정하는 것이 굉장히 복잡한 일입니다. 이처럼 방대한 양의 온라인 데이터를 통해 AI를 학습시키면 어느 정도까지 인간과 비슷하게 만들 수 있을까요? 인간이 할 수 있는 어떠한 지적인 업무도 성공적으로 해낼 수 있는, 인간의 일반적인 지능을 가진 인공지능을 ‘AGI(Artificial general intelligence)’라고 부릅니다.

샘 알트만은 앞으로 AGI를 만드는데 여러 가지가 필요하겠지만 ‘LLM(Large Language Model)’이 일부 역할을 담당하게 될 것이라고 말했습니다. GPT의 패러다임을 확장해야 과학적으로 새로운 발견이 가능하다는 것입니다. 앞으로 GPT가 더욱 발전하여 우리 사회에 깊숙이 스며들게 된다면 어떻게 될까요? 이미 GPT를 활용해 프로그래밍하는 등 우리 일상 곳곳에 AI가 들어와 있긴 하지만, 앞으로 AI는 우리의 능력을 더욱 증폭시킬 수 있는 가장 유용한 도구가 될 것이며 많은 태스크의 자동화를 이룰 것입니다.

(출처: https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html)


이로써 우리 삶의 질은 어마어마하게 향상 되겠지만, 한편 AGI에 대한 우려의 시선도 존재합니다. 미국의 인공지능 연구가인 엘리저 유드코스키(Eliezer Yudkowsky)는 AI가 초지능을 갖게 된다면 AI를 설계자의 목적이나 선호도에 맞게 조정하는 AI alignment가 거의 불가능할 것이라고 말합니다. 이에 대해 샘 알트만은 이러한 우려 상황이 발생할 수 있다는 가능성을 인정하는 것은 중요하다며, 잠재적 위협을 해결하기 위해 새로운 기술을 연구하고 개발해야 한다고 말했습니다.

AI의 빠른 발전 속도로 인해 ‘AI takeoff’라는 용어도 등장했는데요. 현재의 AI Safety는 아직 충분히 업데이트 되지 않았기에 사람들의 기술에 대한 이해도를 높이고 개선하고 시도하며 AI alignment를 대비하는 것의 중요성을 강조하기도 했습니다.

ChatGPT와 그 외 온라인 서비스가 백만 명의 사용자를 모으기까지 걸린 시간 (출처: https://www.statista.com/chart/29174/time-to-one-million-users/)

전 세계에 AI 열풍을 가져온 ChatGPT는 백만 명의 사용자를 모으기까지 단 5일이 걸렸습니다. 이는 역사상 가장 빠르게 성장한 온라인 서비스라는 대기록인데요. 하루가 다르게 발전하는 AI로 인해 우리의 일상은 앞으로 어떻게 변화하게 될까요? 우리는 이제 AGI의 구체적인 정의가 중요해지는 단계에 접어들고 있습니다. 샘 알트만이 이번 대담에서 언급하였듯이 더 나은 AI 모델을 만들어감과 동시에 급속한 발전으로 인해 일어날 수 있는 상황들에 대비할 수 있도록 안전한 AI 모델 개발 방식과 지침을 구축하는 것을 함께 고민하는 것이 필요해 보입니다.

←블로그 돌아가기