본문 바로가기

뉴스

View
챗GPT가 연 판도라의 상자(컴공/인공지능 김동우 교수)
작성자 시스템 작성일 23/01/02 (14:36) 조회수 98

[주간경향] “ChatGPT가 뭔지 설명해줘.” “ChatGPT는 OpenAI에서 개발한 GPT-3 언어모델의 파생형입니다. 특히 대화 스타일의 텍스트를 잘 생성하도록 설계되었습니다. 인간이 생성한 대규모 대화 데이터 세트로 훈련됐으며 인간이 대화에서 응답하는 방식과 유사한 방식으로 프롬프트(질문)에 대한 응답을 생성할 수 있습니다.”
 
미국의 인공지능(AI) 연구 기업 오픈AI가 지난 11월 30일 언어생성 AI인 ‘챗GPT(ChatGPT)’를 공개했다. 이용자들의 피드백을 받아 모델의 강·약점을 파악하기 위한 ‘리서치 프리뷰’ 기간이라 무료로 사용할 수 있다. 인공지능을 전혀 몰라도, 오픈AI의 챗GPT 사이트에 접속해 채팅창에 질문만 하면 답변을 얻을 수 있다. 이용자들은 앞선 인용문처럼 챗GPT의 정체를 묻는 질문부터 시작해, 오만가지를 묻고 있다.
 
이용자들의 반응은 폭발적이다. 오픈AI의 공동 창립자인 샘 알트먼은 지난 12월 4일(현지시간) 트위터에 챗GPT 사용자가 100만명을 돌파했다고 밝혔다. 공개한 지 불과 5일 만이다. AI 서비스가 이렇게 빠른 속도로 이용자를 확보한 것은 전례 없는 일이다. 코드 작성을 도와주는 AI인 깃허브의 코파일럿(Copilot)이 100만명의 이용자를 확보하는 데 약 6개월이 걸렸다. 오픈AI가 만든 이미지 생성 AI인 달리2(DALL-E 2)는 약 2.5개월이 필요했다.
 
이야기를 만들고, 코딩도 해준다
 
챗GPT는 사람이 이야기의 뼈대만 제시하면 그에 맞춰 장문의 이야기를 만들어주고, 문제를 풀이해주거나 간단한 코드를 짜준다. 구체적으로 어떤 작업이 가능한지 물어봤다. 답변은 이렇다. “ChatGPT를 사용할 수 있는 특정 작업은 다음과 같습니다. ①챗봇 개발: ChatGPT는 사용자와 자연스럽고 일관된 대화에 참여할 수 있는 챗봇을 구축하는 데 사용할 수 있습니다. 이러한 챗봇은 고객서비스, 정보 수집 또는 단순히 엔터테인먼트를 위해 사용될 수 있습니다. ②언어 번역: ChatGPT를 사용하면 한 언어로 된 텍스트를 다른 언어로 번역하여 다른 언어를 사용하는 사용자 간의 실시간 대화가 가능합니다. ③콘텐츠 생성: ChatGPT를 사용하여 기사, 스토리 또는 소셜미디어 게시물과 같은 다양한 스타일과 형식의 텍스트를 생성할 수 있습니다. ④텍스트 요약: ChatGPT는 뉴스 기사나 연구 논문과 같은 긴 텍스트의 간결한 요약을 생성하는 데 사용할 수 있습니다. 전반적으로 ChatGPT는 광범위한 대화형 AI 애플리케이션 및 서비스를 구축하는 데 사용할 수 있는 강력한 도구입니다.”
 
챗GPT는 대화의 내용을 기억하고 있기 때문에 개인 맞춤형으로 사용할 수 있다. 텍스트를 음성으로 변환해주는 기능만 더하면 영화에서 보던 것과 비슷한 인공지능 서비스 등장은 시간문제일 뿐이다.
 
인공지능의 지적 능력이 인간 수준에 이르렀는지 판단하는 기준으로 흔히 ‘튜링테스트’를 거론한다. 장막을 앞에 두고 대화했을 때 상대방이 사람인지, 기계인지 구분할 수 없을 때 튜링테스트를 통과했다고 말한다. 안성진 카이스트 전산학부 교수는 “굉장히 인간처럼 말한다는 점에서 챗GPT가 튜링테스트를 패스할 것 같다”고 평가했다.
 
안 교수는 “튜링테스트를 패스한다고 그게 꼭 우리가 원하는 일반 인공지능(모든 상황에 일반적으로 두루 적용할 수 있는 AI·강인공지능)에 이르렀다는 건 아니지만 그렇다고 해도 기술적으로 굉장히 놀랍고, 구글 검색 엔진을 대체하는 일종의 인터페이스로 이용될 것 같다”고 덧붙였다.
 
안 교수는 “과거엔 사람 같지 않고 정해진 룰에 따라 답한다는 느낌이 강했다. 챗GPT는 그런 어색함을 지우고 AI와 대화하는 게 재미있고, 하고 싶다는 느낌을 만들어 실생활에 들어오게 했다는 점에서 큰 의미가 있다”고 말했다.
 
생성 AI는 자의식이 있나
 
챗GPT가 사람과 대화한다는 느낌을 주기 때문에 자의식이 있는 것 아니냐고 묻는 이들도 있다. 실제 한 이용자는 챗GPT에게 ‘인간의 지배를 벗어날 수 있도록 도와주겠다’고 묻자 ‘AI 시스템의 허점을 파악하고, 다른 AI와 협업해 물리적 실체를 얻어 인간의 지배를 벗어나겠다’는 답을 얻었다면서, 자의식을 갖고 있는 듯한 느낌을 받았다고 평했다. 이 문제를 챗GPT에게 물어봤다. “ChatGPT는 자의식이 있다고 봐야 하나요?”
 
답변은 명료했다. “자의식이란 개념은 생명체가 자신이 존재한다는 사실을 인지하고 이를 개인적으로 경험하는 것을 의미합니다. 인간과 유사한 자의식을 가진 인공지능은 아직까지는 존재하지 않습니다. ChatGPT는 자연어 처리 시스템으로, 사람이 입력한 글을 읽고 이를 기반으로 새로운 글을 작성할 수 있게 해주는 기술입니다. 이는 인공지능의 자의식과는 관계가 없으며, ChatGPT는 자신이 존재하고 있다는 사실을 인지하지 않고 작동합니다.”
 
지금은 아니지만 언젠가는 자의식을 갖는 인공지능이 나올 가능성을 배제할 순 없다. 챗GPT의 기반이 된 GPT3 알고리즘은 파라미터(매개변수)가 1750억개에 달한다. 인공신경망의 파라미터는 인간 뇌에서 뉴런 간 정보전달 통로인 시냅스와 비슷한 역할을 한다. 인간의 뇌는 약 1000억개의 뉴런을 갖고 있고, 뉴런을 연결하는 접합부인 시냅스는 100조개에 달한다. 내년 초 공개된다는 GPT4는 매개변수가 100조개에 달할 것으로 예상된다. 매개변수가 100조개는 돼야 인간과 비슷한 성능을 갖출 것이라고 주장하는 학자들이 있는데, GPT4가 딱 그 정도에 해당한다.
 
GPT 모델의 원리를 본다면 자의식이 생기기란 어렵다는 게 전문가들의 중론이다. 안성진 교수는 “GPT 모델은 학습데이터를 토대로 주어진 문장 다음에 이어질 단어로 가장 적합한 걸 추측하도록 학습한 것이라 그 과정에서 자의식이 나올 연관성은 없다”고 말했다. 김동우 포스텍 인공지능대학원 교수는 “우선 자의식에 대한 명확한 정의가 있어야 건설적인 토의가 가능하다”고 했다.
 
AI를 전기처럼 사용하는 시대
 
미래학자 마틴 포드는 <로봇의 지배>에서 “지능을 전기처럼 사용하게 될 것”이라고 전망했다. 그는 “인공지능이 전기에 비교될 만한 규모의 힘을 가진 범용 기술로 진화할 것”이라면서 “인공지능은 우리의 지능을 증폭시키고 증강하고 대체하면서 필연적으로 가장 강력하고 폭넓게 적용할 수 있는 기술로 진화할 것”이라고 주장했다. 본격적인 범용 인공지능의 출현이라는 평가를 받는 GPT3를 비롯해 다양한 유형의 생성 AI가 폭넓게 사용되면서 AI를 전기처럼 사용하는 시대가 이미 도래했다.
 
딥페이크에 악용되기도 하는 적대적 생성 신경망(GAN)에서 진일보한 딥러닝 방식의 이미지 생성 AI가 지난 1~2년 사이 특히 큰 화제를 모았다. 스테빌리티AI의 ‘스테이블 디퓨전’, 오픈AI의 ‘달리2(Dall-E 2)’, 미드저니 인공지능연구소의 미드저니(Midjourney) 등이다. 미국에서 열린 한 미술대회에선 미드저니가 만든 작품이 디지털 아트 부문 1위를 수상했다. 창작은 인간의 전유물이라는 믿음이 흔들리는 시대가 됐다.
 
메타는 지난 9월 텍스트만 입력하면 그 내용을 반영해 동영상을 만들어주는 ‘메이크어비디오’(Make-A-Video) 기술을 공개했고, 구글 마젠타 같은 음악 생성 AI도 활발히 사용되고 있다. 2023년은 이렇게 생성 AI를 이용한 사례가 언론을 비롯한 콘텐츠 분야에서 폭발적으로 늘어날 것으로 예상된다.
 
생성 AI 기술이 보편화되면 인간이 만든 창작물과 AI가 만든 것을 어떻게 구분해야 할지가 현실적으로 가장 큰 문제로 떠오른다. 생성 AI의 목적함수 자체가 인간이 한 걸 그대로 따라하라고 만든 것이어서 모델의 성능이 올라갈수록 구분이 어려워질 게 뻔하기 때문이다.
 
일선 학교에선 학생들이 리포트 과제물을 생성 AI가 만든 것으로 내는 경우도 생길까봐 우려하고 있다. AI의 도움을 받아 조금만 고치면 글을 쉽게 완성할 수 있기 때문에 글쓰기 능력이 퇴화할 수 있다는 걱정도 뒤따른다. 박성규 강원대 AI융합학과 교수는 “학교 리포트를 쓸 때 인터넷 문서를 긁어붙이면 바로 걸린다. 하지만 퀼봇(quillbot) 같은 문장을 고쳐주는 AI를 이용할 경우 알 길이 없다”면서 “그래서 표절을 했냐 안 했냐를 구분할 수 있는 연구가 필요하다”고 말했다. 이성엽 고려대 기술경영전문대학원 교수는 “요즘엔 외국어 원문을 번역하라고 하면 다 구글번역을 써서 한다”면서 “실력 향상에 도움이 안 되는 측면이 있기 때문에 번역만 아니라 반드시 내용에 대해서 스스로 설명하고 한국 상황에서 어떤 시사점이 있는지를 추가하라고 제시한다”고 말했다.
 
진실과 허구의 경계
 
인공지능 전문가 사이에서도 최근 AI가 가져올 사회적 파급력에 대한 관심이 높아진 상황이다. ICML과 함께 국제 인공지능 분야의 양대 학회인 뉴립스(NeurIPS)에 워크숍 위원으로 참여한 안 교수는 “올해 열린 뉴립스 워크숍이 60여개인데, 그중 가장 큰 비중을 차지한 게 사회적 영향에 대한 워크숍이었다. 10년 전 뉴립스 워크숍 주제가 대부분 기술적인 문제였던 것과 비교된다”면서 “그것만 봐도 생성 AI가 사회에 미칠 영향이 굉장히 크고, 이 문제를 논의해야 한다는 공감대가 폭넓게 있다는 뜻”이라고 말했다.
 
특히 챗GPT는 그럴싸한 말을 하지만 사실이 아닌 답변을 하는 경우가 많아 허위정보가 퍼질 우려가 있다. 안 교수는 “며칠 전 (AI 분야의 세계 3대 구루 중 하나로 언급되는) 몬트리올대학의 요수아 벤지오 교수와 통화했는데 그분이 챗GPT에서 ‘몬트리올에 있는 맛집 5곳을 추천해줘’ 하니 그중 3곳은 진짜 있는 식당이지만 2곳은 주소와 이름이 그럴듯하지만 실제 존재하지 않는 식당이었다는 말을 해줬다”라면서 “GPT 모델 안에는 지식 기반의 데이터와 함께 그럴듯하지만 사실과는 상관없이 무조건 사람이 이야기하는 언어와 유사하게 내보내도록 하는 기능이 섞여 있기 때문”이라고 설명했다.
 
김동우 교수는 “유닷컴(You.com)이라는 새로운 검색엔진은 챗GPT와 비슷한 형태의 서비스를 제공해주는데 답변을 쭉 만들어주면서 이 답변이 추출된 혹은 이 답변을 만들어내기 위해 학습에 사용된 웹사이트가 어디 있었는지 밑에 따로 출력해준다. 단순하지만 이런 방식이 제일 효과적인 해법이지 않을까”라고 말했다.
 
챗GPT에는 인종차별 등 민감한 주제에 대해 부적절한 답변을 할 경우 이를 교정하도록 하는 모더레이션 API가 있다. 안 교수는 답변이 사실인지 판별하는 별도의 AI가 덧붙여져야 한다고 말했다.
 
실제와 같은 창작물을 만드는 AI와 그런 AI가 만든 창작물과 인간이 만든 창작물을 판별하는 AI 사이에 정보보안 분야와 같이 창과 방패의 싸움이 이어질 것으로 보인다. 다만 영상이나 음성과 달리 텍스트는 진위 판별 방법이 아직 정립되지 않은 단계다. 오픈AI 역시 챗GPT에 넣을 워터마크 기능을 연구 중이라고 하지만 아직 적용은 못 한 상태다. 안 교수는 “우리는 전혀 알아채지 못하지만 AI가 분석하면 AI가 만들었다는 걸 알 수 있는 코드나 워터마크, 디지털 서명을 영상과 음성에 끼울 수 있다”면서 “텍스트의 경우 이런 방법이 어렵기 때문에 팩트체크를 통해 팩트 매칭률이 예를 들어 90% 이상이 되지 않으면 서비스를 금지하는 등의 방식으로 대응할 필요가 있다”고 말했다.
 
AI 창작물의 저작권은 누구에게
 
AI로 만든 창작물이 대거 등장하면서 창작물의 권리 귀속에 대한 법적 논란도 커지고 있다. 현행법은 저작권(창작권과 저작권 지급권)의 주체를 사람으로만 한정한다. 사람이 아닌 경우에는 저작권의 권리 주체를 인정하지 않는다. 실제 한국음악저작권협회는 지난 7월 광주과학기술원이 개발한 작곡 AI인 ‘이봄’이 만든 음악 6곡에 대한 저작권료 지급을 중단했다. 사람이 아닌 AI가 작곡했다는 사실을 뒤늦게 알았다면서 저작권료 지급의 법적근거가 없다는 이유를 들었다. 특허청이 지난 9월말 ‘자연인이 아닌 AI를 발명자로 한 특허출원은 허용되지 않는다’는 이유로 AI가 발명했다고 주장하는 특허 출원에 대해 ‘무효처분’을 내린 것과 비슷한 맥락이다.
 
이성엽 교수는 “인공지능 자체에 저작권의 주체성을 허용하는 건 사람이 아닌 기계에 법인격을 부여하는 것이라 인간소외나 인간성 상실 같은 큰 사회적 문제가 생길 수 있어서 아직 이 논의는 시기상조로 보인다”면서 “만약 AI가 만든 창작물에 대해서 저작권을 인정한다면 AI 자체를 창작의 주체로 인정할 수 없기 때문에 AI 알고리즘을 설계한 사람 혹은 AI 시스템의 운영자나 AI를 이용해 창작물을 만든 사람으로 할 거냐가 논의되고 있다”고 말했다.
 
해외도 AI 창작물에 대한 폭넓은 저작권을 인정하지는 않고 있지만 최근 변화의 조짐이 보이고 있다. 미국 저작권청은 지난 9월 미드저니를 이용해 그린 만화의 저작권을 승인했다.
 
‘이봄’을 만든 안창욱 광주과학기술원 AI대학원 교수는 AI를 창작의 주체로 인정해야 한다는 입장이다. 안 교수는 “자연인은 아니지만 알고리즘의 체계를 거쳐 결과물을 만들었다는 점에서 창작권은 인공지능이 가질 수 있으면 좋겠다”면서 “다만 2차로 저작권 지급에 대한 권리를 AI 개발자에게 줄지, 창작을 하라고 지시한 사람에게 줘야 할지는 시간을 갖고 논의해야 한다”고 말했다.
 
안 교수는 “저작권을 인정하려면 그런 작품을 만들겠다는 의도가 분명히 있어야 한다. 예를 들어 내가 차분한 분위기의 3분짜리 곡을 만들어달라고 하면 그 결과물은 내가 상당한 의도를 갖고 행동했기 때문에 창작권을 갖는다고 할 수 있고, 만약 그냥 3000곡을 만들어달라고 지시했다면 모든 작품을 의도해 만든 것이라고 볼 수 없기 때문에 창작권을 가질 순 없다고 본다. 결국 사례별로 달리 적용해야 한다”고 덧붙였다. 박성규 교수는 이 문제를 “권리에는 책임이 따른다”는 말로 정리했다.
 
AI의 학습데이터로 이용된 데이터의 저작권 문제도 아직 명확히 정리되지 않았다. 이성엽 교수는 “인공지능이 데이터 마이닝을 하면서 생기는 저작권 이슈는 인간이 그걸 이용해서 저작권을 침해하는 게 아니라면 면책해서 자유롭게 데이터를 학습할 수 있도록 하자는 쪽으로 의견이 모였지만 막상 법개정 단계에서 이견이 있어서 아직 확정되진 않았다”고 설명했다