열려있는 정책플랫폼 |
국가미래연구원은 폭 넓은 주제를 깊은 통찰력으로 다룹니다

※ 여기에 실린 글은 필자 개인의 의견이며 국가미래연구원(IFS)의 공식입장과는 차이가 있을 수 있습니다.

인공지능의 한계도 알아야 본문듣기

작성시간

  • 기사입력 2017년09월27일 17시32분
  • 최종수정 2017년09월27일 19시15분

작성자

  • 김진형
  • KAIST 명예교수, 전 인공지능연구원장

메타정보

  • 47

본문

 

이세돌 기사를 물리친 1년 후, 알파고는 더욱 발전된 모습으로 돌아와서 중국의 챔피온 커세를 완파했다. 이세돌 기사와의 대국 이후 1년간 알파고는 스스로 실력을 향상시켜서 이제는 인간이 도저히 이길 수 없는 수준이 되었다. 이세돌 기사가 알파고를 이긴 유일한 인간이다. 알파고는 더 이상 사람과 대결하는 것이 의미가 없다는 듯 은퇴를 선언하고 바둑계를 떠났다.

 

알파고는 인간 고수들의 기보로부터 수를 학습시켜서 초기 버전을 만들었다. 그런 알파고를 복제하여 자기들끼리 대국을 하게 하여 거기서 수를 만들어 배우게 했다. 즉 강화학습이라는 인공지능의 기법이다. 알파고 개발자가 던진 말이 충격이다. 개발 초기에 제공된 전문가의 지식은 별로 중요하지 않았다는 것이다. 올바른 지식이 주어진다면 알파고는 조금 빠르게 배웠겠지만, 그렇지 않아도 결국 최고의 수를 배운다는 것이다. 

 

알파고에서 사용된 강화학습 기법이 과학기술의 발전에 큰 전기를 만들었다. 기계가 기계들 간의 경쟁으로 배움으로써 인간보다 더 높은 수준의 경지에 다다를 수 있다는 것이다. 이러한 능력의 인공지능에 전율을 느끼지 않는가? 지식의 축적에서 사람이 배제되는 상황이다. 이는 인류 문명사의 커다란 사건이다. 지금까지 지식이란 사람만이 만드는 것이었는데. 

 

이러한 인공지능의 능력은 인류가 쌓아 왔던 문명사회의 제도와 조직을 일 순간에 무너트릴 수 있다. 주식을 사고 파는 투자전략 수립에서 인공지능이 전문가보다 우수한 능력을 보인다. 우수한 인공지능 알고리즘의 확보가 재산의 축적과 직결되는 것이다. 이러한 상황에서 주식시장이 본래의 의도대로 작동할까? 주식시장이 우리 사회에 공헌했던 것이 있었겠지만 인공지능들 간의 각축장이 된다면 더 이상 존재 가치가 없을 것이다. 공개하지 않아서 정확히 알 수는 없지만 이 투자전략 수립에도 알파고와 유사한 강화학습 기법을 사용했을 것으로 예측된다. 이러한 인공지능을 갖춘 한 투자은행에서는 600명이었던 펀드 매니저를 지속적으로 구조 조정하니 올 초에 두 명만 남았다고 한다.

 

이제 인간이 기계로부터 배우는 것이 일상이 될 것이다. 기계가 습득한 지식을 사람이 전수 받는 것이 어색하지 않다. 최강자로 떠오른 알파고는 50개의 기보를 남기고 바둑계를 떠났다. 아마도 알파고 기보가 가장 잘 팔리는 바둑 자습서가 될 것이다. 계산 능력이 제한된 인간들이 얼마나 따라할 수 있을런지는 모르겠지만. 이제 바둑 기사의 능력이란 얼마나 알파고의 수를 따라할 수 있느냐에 달려있는 것이 아닐까? 

 

d0e4be28e252916a8b4c89fdaea8bc8e_1506494
 진료에 바쁜 의사들은 새로운 학술지에 넘쳐나는 의학지식을 다 습득할 수 없다고 한다. 인공지능이 대신 그 논문들을 읽고 정리하여 의료진단 시스템을 만든다. Watson이 바로 그 것이다. 그러면 의사들은 이 시스템을 사용하여 진료에 임한다. 이러다 보면 자연스럽게 Watson의 진료 기법을 배우게 될 것이다. 미래에는 선배 의사로부터 실무를 배우는 인턴, 레지던트의 수습 모습을 볼 수 없을런지도 모르겠다. 

 

물론 인공지능에게도 한계가 있다. 인공지능의 응용시스템들이 놀라운 성과를 보이기도 있지만 치명적인 약점도 많이 있다. 인공지능을 만드는 방법론에 따라 다른 약점을 보인다. 

지난 40년간 주로 쓰이던 지식기반형 방법론은 의사결정 과정을 투명하게 보여 줄 수는 있지만 전문가가 제공하는 지식의 한계 때문에 상대적으로 단순한 작업 밖에는 못한다. 또 전문가의 지식이 표현의 한계도 있고, 전달과정에서 왜곡 되는 경우도 빈번하다. 문제는 이러한 왜곡이 사용해 보기전에는 찾기가 어렵다는 것이다. 

 

요즘 각광을 받는 기계학습 방법론에서는 의사결정의 품질이 훈련에 사용되는 데이터의 양과 질에서 결정된다. 쓰레기 같은 엉터리 데이터로 학습을 시키면 엉터리 결론이 나올 수 밖에 없다. 이를 Garbage In, Garbage Out, 즉 GIGO라고 한다. 또한 학습 데이터 양이 적으면 일반화 능력이 떨어진다. 즉 새로운 상황에서 의도했던 결론을 내지 못한다. 데이터를 많이 모으는 것이 필여하지만 이에는 많은 비용이 든다.

 

기계학습 방법론의 더욱 치명적인 약점은 어떻게 해서 결론이 도출되었는지 설명을 못한다는 것이다. 인공지능이 어디까지 할 수 있는지 그 한계도 모른다. 알파고가 이세돌 기사에게 패배했을 때 왜 졌는지 설명할 수가 없었지 않았는가? 이런 약점을 보완하려고 전세계 학자들이 연구하고 있지만 지금은 인공지능이 “통계적으로” 잘 하더라는 것을 보여주는 것이 전부다. 

 

또 기계학습 인공지능은 개발자의 의도대로 발전하지 않을 가능성이 있다. 스스로 학습하는 기능과 배워야 할 데이터를 찾아가는 능력이 결합되니 인간이 원치 않는 것을 배울 가능성이 높아지는 것이다. 인터넷 상에서 불온한 내용을 배워 듣기 거북한 쌍소리를 내 뱉던 채팅로봇이 있었고, 중국에서 제작된 인공지능이 중국 공산당을 비하하는 발언을 하여 개발자를 당황하게 만든 사건도 있었다. 그래서 인공지능을 감시하거나 안전하다는 인증을 해야 한다는 주장도 나오는 실정이다.

 

이런 취약한 인공지능에게 전 인류의 생존을 좌지우지하는 중요한 결정을 맡길 것인가? 자동차 배기가스 검사에서의 사기행위, 자율자동차 충돌사고, 방사선의 과다노출 등은 참아 줄 만하다 하더라도 살인무기가 스스로 의사결정하는 사태는 막아야 한다. 인공위성에서 적국이 핵유도탄을 발사했다고 판단하고, 스스로 핵으로 선제 공격하는 인공지능의 발상은 절대 용납할 수 없다. 

 

어느 영역에서 어떤 업무에 활용하던지 인공지능의 능력과 한계를 정확히 이해하는 것이 중요하다. 허황한 기대도 문제이지만 기술의 가치를 이해하지 못함으로 인한 기회 상실은 더 큰 문제이다. 특히 정책을 입안하는 사람들은 인공지능에 관한 깊은 이해가 필요하다. <ifs POST>

 

이글은 저자의 9월18일자 디지털타임스의 [이슈와 전망] 기고문를 확대 보완한 것입니다.​ 

47
  • 기사입력 2017년09월27일 17시32분
  • 최종수정 2017년09월27일 19시15분

댓글목록

등록된 댓글이 없습니다.