알파고 4국 실착 되짚어보며 -‘인공지능 과적합’의 문제

  기 고    박준석 미국 오하이오주립대학 인지심리학 박사과정


00AIGO.jpg

 

000quotation1.jpg
그토록 완벽해 보이던 인공지능이 왜 인간에게 패했는가?

물론 이 9단의 초인적 인내력과 끈기가 가장 중요한 요인이었음을 부인할 수 없다.
그러나 알파고 내부에도 패인이 있다는 주장들이 제기되었다.
그 중에는 ‘과적합’(overfitting, 오버피팅)의 문제를 지적하는 목소리가 있었다.
과적합이 직접적 패인이었다고 단정하는 건 아직 어렵지만,
충분히 가능성 있는 주장으로 보인다.
과적합의 문제는 알파고뿐 아니라 인공지능을 통한 학습과정 일반에 적용되는 것이기 때문에,
이 시점에서 한 번쯤 곱씹어볼 만한 가치가 있다.

000quotation2.jpg




은 사람들이 기대했던 것이 아니었기에 더 값진 승리였다. 지난 13일, 0 대 3으로 이미 5전3선승제의 패배가 확정된 이세돌 9단이 제4국에서 드디어 알파고를 불계승으로 물리치고 값진 첫 승을 따냈다. 일각에서는 ‘인류의 승리’로 극찬했다. 이 9단의 얼굴에서 사라졌던 웃음이 드디어 돌아왔고 지켜보던 이들 가운데는 기적 같은 승리에 눈물을 흘리는 이들도 있었다.


동시에 완벽한 줄로만 알았던 알파고의 수 읽기에도 분명히 허점이 있음이 드러나는 순간이었다. 알파고는 곳곳에서 아마추어도 저지르지 않을 어이없는 실수를 저지르며 자멸하고 말았다. 돌을 던지기 전 알파고가 둔 몇 수는 애처로워 보이기까지 할 정도였다. 딥마인드 측도 깨끗하게 패배를 시인하며 이 9단의 승리를 축하했다.


첫 판에서 이 9단이 패배했을 때 사람들은 이 9단의 패배 원인에 대해 궁금해했다. 그러나 알파고의 무서운 실력이 만천하에 드러난 지금, 사람들은 오히려 알파고의 패인에 대해 궁금해하고 있다. 그토록 완벽해 보이던 인공지능이 왜 인간에게 패했는가?


물론 이 9단의 초인적 인내력과 끈기가 가장 중요한 요인이었음을 부인할 수 없다. 그것은 전에도 이미 확인된 바가 있다. 제3국의 하변에서 벌어졌던 마지막 전투는 이 9단의 포기할 줄 모르는, 강인한 정신력을 유감없이 보여주었다.



인공지능의 오랜 문제 ‘과적합’

00dot.jpg

그러나 알파고 내부에도 패인이 있다는 주장들이 제기되었다. 그리고 그 중에는 ‘과적합’(overfitting, 오버피팅)의 문제를 지적하는 목소리가 있었다. 과적합이 직접적 패인이었다고 단정하는 건 아직 불가능하지만, 충분히 가능성 있는 주장으로 보인다. 한편 과적합의 문제는 비단 알파고뿐 아니라 인공지능을 통한 학습과정 일반에 적용되는 것이기 때문에 이 시점에서 한 번쯤 곱씹어볼 만한 가치가 있다.


적합은 기본적으로 통계학 및 기계학습, 인공지능 등 분야에 적용되는 개념이지만 좀더 일반적으로 보면 ‘학습’이라는 과정 자체에 적용되는 개념이다. 사실, ‘학습’은 인공지능이 성립되기 위해 가장 기본적인 능력이다. 인공지능의 구체적인 구현 방식은 매우 복잡하지만 그것이 하는 일은 기본적으로 두 가지이다. 첫째, 데이터를 통해 대상이 되는 문제에 대해 ‘학습’한다. 둘째, 학습한 바를 바탕으로 최적의 의사결정을 내리고 그것을 실행에 옮긴다. 과적합의 문제는 이 가운데에 전자에 해당되는 근본적인 문제다.


과적합을 정의하는 것은 쉽지 않지만, 단순화를 무릅쓰고서 일상적 언어로 정의하자면 ‘학습을 통해 획득된 지식이 다른 상황에 일반화되지 못하는 것’ 정도라 할 수 있다.


정의가 다소 추상적이니, 이해를 돕기 위해 좀 더 구체적이고 일상적인 예를 생각해 보자.


어떤 사람이 길을 가다가 맞은편에서 오던 사람에게 별 이유없이 상스러운 욕을 먹었다. 애꿎게 욕을 먹은 이 사람은 자신이 왜 욕을 먹었는지 곰곰이 생각하다가, 갑자기 그 사람이 신체 일부에 피어싱을 했다는 것을 기억해낸다. 그러고는 ‘피어싱을 한 사람은 원래 예의가 없다’라는 결론을 내렸다. 이 결론은 과연 참일까? 아마 그렇지 않을 것이다. 그보다는 처음 보는 사람에게 욕을 한 그 사람의 인격 자체가 문제였을 것이다. 다시 말해 피해자가 만난 사람은 피어싱을 한 사람들 중에서도 특수한 사람이었다는 것이다. 만약 이것이 사실이라면, 피해자는 피어싱을 한 사람들을 대표할 수 없는, 특이한 사람에게서 관찰한 바를 토대로 일반적인 결론을 성급하게 내린 것이다. 이런 경우 우리는 피해자가 내린 결론이 과적합의 산물이라 이야기할 수 있다.



작은 학습 차이, 커지는 오차

00dot.jpg

과적합은 왜 일어나는가? 첫 번째 원인은 방금의 사례에서처럼, ‘학습’에 사용된 자료가 전체 집단에 대한 대표성을 갖지 못하는 것이다. 표본이 대표성이 없으면, 당연히 그런 표본들에서 획득된 법칙도 역시 전체 집단을 대표하는 법칙이 되지 못할 것이다. 이를 좀 더 잘 이해하기 위해 이번에는 좀 더 수학적이고 인공지능이 하는 일이 좀 더 가까운 예를 들어보자.


령 어떤 두 종류의 자료가 일차함수 관계임이 알려져 있다고 하자. 그러니까 x와 y라는 자료가 있을 때, y=ax+b 라는 관계가 성립한다는 것이 알려져 있다고 해보자. 이 일차함수가 완전히 결정되기 위해서는 a와 b가 결정되어야 한다(이 문제는 통계학 및 기계학습 분야에서는 ‘단순회귀’라는 이름으로 잘 알려져 있다). 이 값들은 사전에 알려져 있지 않기 때문에 자료를 사용하여 최선의 방법으로 추측하는 것이 최선이다. 이처럼 자료들을 통해서 a와 b를 결정하는 과정을 ’학습’이라 부를 수 있다.


그런데 a와 b의 참값은 애초에 정해져 있었다고 가정해 보자(물론 우리는 이를 알 수 있는 방법이 없다). 이를테면 a=1, b=0 이 참값이라고 가정해 보자. 그러면 x와 y 사이의 ‘참된’ 관계는 y=x 라는 수식으로 표현된다. 그렇다면 x=1 일 때, y=1 이 참값이고, x=2 일 때 y=2 이 참값이다.


그런데 가령 y를 측정하는 도구가 다소 정밀하지 않아서, 실제 자료에서는 y=1 대신에 y=1.1 이 관측되고, y=2 대신에 y=1.9 가 관측되었다고 해보자. 그러면 우리가 갖고 있는 자료는 x=1 일 때 y=1.1이고, x=2 일 때 y=1.9 가 된다. 이 두 자료를 가장 잘 ‘설명’하는 일차함수는 y=0.8x+0.3 이다. 이것은 일차연립방정식에 자료를 대입해 보면 쉽게 계산해낼 수 있다. 이 식을 이용하면, x=1 또는 x=2 를 대입했을 때 y가 오차 없이 계산된다. 그런데 이 식은 참값이 사용된 함수, 즉 y=x 와 다르다. 그러니까 사실은 일차함수가 잘못 추정된 것이다.


문제는 이 수식을 사용하여 x=3 일 때의 y의 참값을 추측하려 할 때 발생한다. ‘참 모형’인 y=x 에서는 x=3 일 때 y=3 이다. 하지만 우리가 갖고 있는 자료에서 추정된 식인 y=0.8x+0.3 을 이용한다면, x=3 일 때 y=0.8*3+0.3=2.7 로 추정된다. 이 값은 참값인 y=3 과 다르다. 오차가 생긴 것이다. x가 커질수록 이 오차는 점점 커지게 된다.



학습에 없던 데이터, 또는 복잡한 상황 만나면

00dot.jpg

여기서 재미있는 것은 자료들에서 추정된 관계식인 y=0.8x+0.3 은 학습 과정에 사용된 자료만은 완벽하게 예측한다는 것이다. (x=1, y=1.1) 과 (x=2, y=1.9)는 위 식에 대입하면 오차없이 완벽히 들어맞는다. y=x 를 사용하면 오히려 각각 0.1씩의 오차가 생긴다. 하지만 학습 과정에서 사용되지 않은 새로운 자료에 대해서는, 자료로부터 추정된 식인 y=0.8x+0.3 의 정밀성이 눈에 띄게 떨어짐을 알 수 있다.


기서 ‘과적합’이라는 용어의 어원을 알 수 있다. 현상에 대한 ‘과적합’ 된 모형은, 학습 과정에서 사용한 자료를 참 모형보다도 오히려 더 정확하게 설명한다. 그러나 그것은 학습 과정에서 사용되지 않은, 더 일반적인 자료에 대해서는 잘못된 예측을 낳는다. 좀 더 기술적인 용어로 재정의하자면, 과적합은 ‘학습 자료(training data)에 과도하게 편향된 나머지, 학습한 내용이 일반화되지 않는 상황’을 일컫는 말이다.


과적합 문제의 또다른 원인으로는 복잡성(complexity)을 들 수 있다. 흔히 딥러닝 네트워크와 같이 고도로 복잡하고 정교한 학습방법일수록 무조건 성능이 더 좋으리라 기대하기 쉽다. 그러나 이것은 사실과 다르다. 다시 앞에서 들었던, 오차가 있는 자료의 예를 생각해 보자. x와 y의 관계는 일차식이라는 가정 하에 a와 b를 추정했을 때, 결과로 나오는 식인 y=0.8*x+0.3 은 x=3 에 대해 y=2.7 을 예측하며, 이는 참값인 y=3 과는 0.3 의 오차가 있다.


더 나아가 좀 더 ‘복잡한’, 새로운 관계식을 생각해 보자. 이제 일차식 대신 이차식을 사용하여 x와 y 간의 관계식을 추정한다고 해보자. 그러니까 y=ax2+bx+c 에서 a,b,c 를 결정하는 것이 목표다. 그런데 이 경우 미지수가 3개인데, 식(자료)이 2개이기 때문에, a,b,c 가 결정되지 않는다. 편의상 앞서의 두 자료를 완벽히 예측하는 값들인 a=1, b=-2.2, c=2.3을 자료에서 얻었다고 해보자. 이 값들을 대입해 만든 이차식 또한 x=1일 때 y=1.1, x=2일 때 y=1.9를 완벽하게 예측한다. 그런데 마찬가지로 새로운 자료, 즉 x=3일 때의 y값을 계산해 보면 4.7 이 나온다. 이 값은 참값인 y=3과는 1.7 의 오차를 보인다. 일차함수의 경우 오차가 0.3 이었던 것을 생각해 보면 훨씬 큰 오차다.



복잡한 학습 방식일수록 과적합에 취약

00dot.jpg

사실 이와 같은 현상은 ‘학습’ 일반에 걸쳐 광범위하게 관찰할 수 있는 현상이다. 즉 복잡한 학습 방식일수록 대체로 과적합에 취약하다. 전문가들은 이를 ‘유연함’(flexibility) 이라는 개념으로 설명한다. 일차함수에 비해 이차함수는 더 ‘유연하다’. 전자가 직선의 형태만을 취할 수 있는 데 비해, 후자는 곡선의 모양을 취할 수 있다. 이차항이 0이 되는 것까지 예외로 허용한다면 이차식이 직선이 되는 것도 가능하다.


런데 이런 ‘유연성’은 학습 결과로 주어진 자료를 더 잘 설명할 수 있게 해주는 대신에 과적합에 취약하게 만든다. 복잡한 학습방식(모형)이 갖고 있는 뛰어난 학습 능력은 자료를 더 잘 학습할 수 있게 해주지만, 동시에 자료가 갖고 있는 일반적이지 않은 성향까지 학습하게 하는 원인이 되기도 한다는 것이다. 비유하자면 복잡한 모형은 자료에 내재된 질서뿐 아니라 ‘잡음’까지 학습할 위험을 갖고 있다.

 

이런 ‘높은 유연성’에 뒤따르는 ‘높은 과적합’의 위험은, 알파고의 구현 방식인 ‘딥러닝’의 전신인 인공신경망(Artificial Neural Network)의 초기 기법들에서 이미 단점으로 지적받아 왔다. 수많은 인공신경과 많은 층(layer)으로 구성된 인공신경망은 매우 유연한 학습 방식이라 할 수 있다. 그런데 이러한 유연함은 인공신경망이 쉽게 과적합 되는 원인이 되었다. 이런 문제는 딥러닝에 대해서도 원칙적으로는 마찬가지로 적용된다. 물론 인공지능 과학자들은 이 문제를 잘 알고 있으며, 과적합 문제에 대처할 다양한 대책을 마련해왔다. 그 요지는 유연한 학습 방식일수록 과적합 문제에 쉽게 노출된다는 일반적 원칙이다. 이것은 모든 ‘학습’ 에 적용되는 진술이다.

00AIGO4.jpg » 출처 / 구글 딥마인드



알파고 실착 원인이 과적합이라면

00dot.jpg

지금까지 과적합이 일어날 수 있는 원인들 중 중요한 두 가지에 대해 알아보았다. 첫째, 대표성이 없는 자료에 기반을 둔 학습은 새로운 상황에 일반화되기 어렵다. 둘째, 지나치게 복잡(유연)한 학습방식은 자료에 내재된 일반적 경향 뿐 아니라 특수한 측면까지 ‘지나치게’ 학습하여 일반화되지 못하는 학습 결과를 낳을 수 있다. 이 두 가지는 좋은 인공지능 학습이 가져야 할 두 가지 조건을 말해준다. 첫째, 학습에 사용되는 자료는 될수록 대표성이 커야 한다. 둘째, 지나치게 복잡하지 않은, 적절한 수준의 복잡성(유연성)을 지닌 학습방식을 사용해야 한다.


이에 비추어보았을 때, 만약 알파고의 제4국 패인이 과적합이었다면, 그 원인은 다음과 같이 추측될 수 있다.


째, 알파고가 학습한 기보들은 정상급 프로기사들 간의 대국을 대표하는 것들이 아니었을 수 있다. 딥마인드 측은 알파고가 바둑을 배우는 과정에서 수천만 건의 기보를 학습했다고 밝혔다. 그런데 그 중 정상급 프로기사들의 기보가 차지하는 비중은 그리 높지 않았을 것이다. 어쩌면 알파고가 둔 의문의 수들은 비교적 실력이 낮은 사람들 사이의 바둑에서 온 것일 수 있다. 비교적 하수들끼리의 대결에서는 나쁜 수가 오히려 승리를 부르는 일이 심심치 않게 일어나니 말이다. 실제로 알파고는 제1~4국의 대국 내내 프로기사들이라면 두지 않을 법한 수를 간혹 두곤 했다. 그것이 알파고의 ‘깊은 뜻’이 담겨 있는 수인지, 아니면 그냥 ‘하수의 수’인지는 아직 확실히 알기 힘들다.


둘째, 알파고의 훈련에 사용된 학습기법이 필요 이상으로 ‘유연한’ 것이었을 수 있다. 사실 이 가능성은 현 시점에서는 매우 조심스러운 것이지만, 그 가능성을 완전히 배제할 수는 없을 것이다.



인공지능 실용화의 관문 ’과적합’ 극복하기

00dot.jpg

과적합 문제는 인공지능의 학습과정 일반에 적용되는 원칙이기 때문에, 앞으로 인공지능이 실용화될 때에 중요한 고려사항이 될 수 있다.


를테면 의료 분야에 인공지능을 도입하려는 시도가 활발히 진행되고 있다. 이것이 현실화 되면 진단 및 치료법 결정 등 과정에서 인공지능이 활약하게 될 것이다. 그런데 만약 인공지능을 학습시키는 데 사용된 데이터의 대표성이 부족하다면? 문제는 심각해질 수 있다. 의료 분야는 생사에 직결되는 의사결정이 수시로 이루어지는 분야이기 때문에 잘못된 선택에 따르는 손실이 특히 크다. 이런 상황에서 만에 하나 인공지능이 오판을 내린다면 결과는 걷잡을 수 없게 될지도 모른다. 당장 거액의 의료소송의 가능성이 생긴다.


또다른 문제는 인공지능의 판단이 내재적 결함, 이를테면 과적합의 결과인지, 아니면 인공지능의 합리적 선택에 의한 것인지 알 수 없다는 것이다. 그런 상황에서는 인공지능이 알파고가 그랬던 것처럼 인간이 이해할 수 없는 선택을 할 때, 그 선택을 실행에 옮겨야 하는지의 문제가 생긴다. 인공지능이 의사결정까지 자동으로 내리는 상황이라면 문제는 더 심각해진다. 그런 상황에서는 인간이 개입할 여지가 적다.


과적합은 인공지능의 실용화 과정에서 부딪힐 문제들 중 일부에 불과하며, 그것의 완전한 실현 및 상용화를 위해서는 더 다양한 문제들이 해결되어야 할 것이다. 중요한 것은 세계 각지에서 이러한 문제들에 천문학적 비용을 들이면서 도전하고 있다는 것이다.


구글이 딥마인드의 인수에 수천억 원의 비용을 들였다는 것은 이미 널리 알려진 사실이다. 이 9단과의 대결에도 100만 달러의 거금을 투자했지만, 일각에서는 천만 달러까지 투자할 용의가 있었다는 이야기가 나올 정도다. 하지만 이 9단과의 대결을 통해 인공지능을 조금이라도 발전시킬 여지를 찾는다면, 그 100만 달러는 ‘헐값’에 불과할지도 모른다. 어쩌면 4국의 패배를 통해 딥마인드는 이미 그 단서를 찾았을지도 모른다.

00alphaGO.jpg » 이세돌 대 알파고 대국의 진행상황을 보여주는 컴퓨터 화면에 "알파고는 포기합니다. ...결과는 게임 정보에 추가되었습니다"는 대화창이 떠 있다. 출처/ 바둑TV 화면 갈무리

람 들 사이에서 화제가 되었던, 알파고의 항복선언 팝업창에는 패배한 대국에 관한 정보가 수집되었다는 메시지 또한 출력되어 있었다는 것을 떠올려보자. 진정 무서운 점은 바로 그것이 아니었을까. 인공지능에서 앞서고 있는 집단들은 끊임없이 실패로부터 배우고, 그것을 개선하려 노력하고 있다. 그를 위해서는 천문학적 비용을 지불하기를 아까워하지 않고 있다. 그런데 인공지능 후발 주자인 우리는 과연 그만큼 배움을 겸손하게 갈구하는 자세를 갖고 있는가? ‘민관 합동 인공지능(AI) 컨트롤타워’라는 것이 생긴다는 소식이 들려오는 지금, 머릿속에 떠오르는 의문이다.

 

박준석 미국 오하이오주립대학 인지심리학 박사과정 

@한겨레 과학웹진 사이언스온


00PJS.jpg



글쓴이 박준석은…,

학부와 석사과정에서 심리학을 공부했고 현재 인지심리학 박사과정에 재학중이다. 인간의 마음을 수학적으로 모형화하는 분야인 '인지모델링'을 공부하고 있다. 심리학, 뇌과학, 통계학, 기계학습 등 분야에 관심이 있으며, 과학 재현성(reproducibility) 관련 논의에도 관심이 많다.




  [사이언스온의 길목]

페이스북 페이지   https://www.facebook.com/scienceon

트위터   https://twitter.com/SciON_hani

한겨레 스페셜   http://special.hani.co.kr

  • 구글
  • 카카오
  • 싸이월드 공감
  • 인쇄
  • 메일
박준석 미국 오하이오주립대학 심리학 박사과정
학부와 석사과정에서 심리학을 공부했고 현재 인지심리학 박사과정에 재학중이다. 인간의 마음을 수학적으로 모형화하는 분야인 '인지모델링'을 공부하고 있다. 심리학, 뇌과학, 통계학, 기계학습 등 분야에 관심이 있으며, 과학 재현성(reproducibility) 관련 논의에도 관심이 많다.
이메일 : park.1952@osu.edu      

최신글




최근기사 목록

  • 미생물이 지닌 유전자가위, 생명현상 보는 또다른 ‘창’미생물이 지닌 유전자가위, 생명현상 보는 또다른 ‘창’

    뉴스오철우 | 2017. 05. 24

    ※ 이 글은 한겨레 5월24일치 ‘사이언스온’ 지면에 실렸습니다. 온라인 사이언스온에도 옮겨 싣습니다. 이 기사는 몇몇 해외매체들에 실린 자료들과 국내 연구자들의 도움말을 바탕으로 작성되었습니다. 미생물이 지닌 유전자가위생명현상 보는 ...

  • “연구현장 소수자 보호하고 사회논란 합리적 의사소통을”“연구현장 소수자 보호하고 사회논란 합리적 의사소통을”

    뉴스오철우 | 2017. 05. 11

    과학기술단체 ESC ‘새정부에 바란다’ 성명“4차 산업혁명 구호의 환상과 과장은 경계” 새 정부에서 과학기술정책의 합리적인 변화가 이뤄지길 바라는 과학기술인들의 기대도 자못 큰 듯하다.과학기술인단체인 ‘변화를 꿈꾸는 과학기술인 네트워...

  • “간은 바쁘다, 날마다 커졌다 작아졌다” -쥐에서 관찰“간은 바쁘다, 날마다 커졌다 작아졌다” -쥐에서 관찰

    뉴스오철우 | 2017. 05. 10

    스위스 제네바대학 연구진, 야행성 쥐의 하루주기 변화 관찰활동시간대 음식 먹으니 간 크기 1.5배 커져 왕성한 간 기능“우리 몸 안에서 가장 큰 장기, 바로 간입니다. 무게 약 1.2kg의 간은 커다란 생김새만큼이나 하는 일도 참 많습니다. ‘인...

  • 스스로 빛 내는 버섯의 ‘자체발광 매커니즘’ 밝혀스스로 빛 내는 버섯의 ‘자체발광 매커니즘’ 밝혀

    뉴스오철우 | 2017. 05. 02

    ‘루시퍼라제’ 효소가 생물발광 과정 출발점 역할효소 변형하면 파란색-오렌지색 등 여러 빛 발광  어둠이 깔린 숲속에서도 저홀로 빛을 내기에, 일명 ‘귀신버섯’이라는 무시무시한 대중적인 별명을 얻었을까? 어둠 속에서 연한 녹색 빛을 내는 생...

  • “면역세포는 심장박동의 숨은 도우미”“면역세포는 심장박동의 숨은 도우미”

    뉴스오철우 | 2017. 04. 28

    미국 연구진 ‘심장 수축 일으키는 전기전도에 중요역할’ 밝혀심장박동 불규칙 치료에 쓰는 ‘면역세포 조절’ 약물 등장할까  “면역세포와 심장 박동은 깊은 연관이 있다.”몸에 침입한 세균이나 손상된 세포들을 잡아먹어 몸의 건강을 지키는 ...