궁금한 인공지능과 ‘딥러닝’

  취 ·· · 첩 

00AIGO4.jpg » 인공지능 바둑 프로그램인 구글 알파고(왼쪽 로고)와 바둑 대국을 벌이며 첫 수를 놓고 있는 이세돌 9단. 사진/ 구글 제공


퓨터 바둑 프로그램이 바둑의 정상에 있는 프로기사를 5번기 제1, 2국에서 잇따라 이겼습니다.

바둑을 둘 줄 모르다가 이번 ‘이세돌 대 알파고’ 대국을 계기로 이것저것 살펴보니, 컴퓨터 바둑 프로그램은 이전에도 많이 있었더군요, 국제경연대회도 열리고 있었더군요. 일본의 한 대학에서 매년 열리는 세계 인공지능 바둑 프로그램의 경연대회를 보면, ‘크레이지 스톤’이라는 바둑 프로그램이 근래에 주목을 받고 있는 듯합니다. 일본에선 ‘젠(Zen)’이 강자이고요. 한국도 지난해 경연대회에서 준우승을 했다는 소식도 들을 수 있습니다.


상을 받은 바둑 프로그램들에 대한 설명을 조금 보면, 알파고 인공지능 프로그램을 설명할 때 종종 들을 수 있었던 용어들을 마찬가지로 볼 수 있습니다. 프로그램을 가동하는 알고리즘이 “몬테카를로 트리 서치”(Monte Carlo tree search) 기법과 패턴 인식 기법을 사용하고 있습니다. 이는 대부분 바둑 프로그램의 알고리즘 설명에서 볼 수 있습니다.


몬테카를로 트리서치, 무작위 시뮬레이션 통해 승률계산

00dot.jpg

몬테카를로 트리 서치, 이게 뭘까? 설명 자료를 찾다보면, 조금씩 이해할 수 있습니다. 엄청나게 많은 수를 일일이 다 다루지 않더라도 그 가운데에서 샘플링을 하여 확률적 연산을 수행함으로써 최선의 수를 찾아가는 기법으로 알려져 있습니다. 게임 프로그램에서는 이미 많이 사용된다고 합니다.


요즘 제가 인공지능과 관련해 궁금한 점을 자주 여쭙곤 하는 유신 교수께 물었더니 대강 이런 설명을 해주시는군요.


“둘 만한 수가 5개가 있다고 칩시다. 그러면 컴퓨터는 각각의 경우를 다 살펴보고서, 그 가운데 아주 조금이라도 승률이 높은 수를 선택합니다. 그런데 승률을 계산하는 과정에 샘플링이 들어가지요. 가능한 수 5개 가운데 제1번 수를 둘 때, 이후에도 무수한 수가 펼쳐질 겁니다. 그러니 컴퓨터는 제1번 수를 두고 이어서 이렇게 두는 방법, 저렇게 두는 방법 등등으로 많을 텐데 무작위로 100번, 1000번을 둔다고 해봅시다. 거기에서 승률을 얻습니다. 제2번 수를 둘 때도 마찬가지로 계산을 합니다. 이렇게 제3번 수, 제4번 수, 제5번 수를 두고서 얻어진 승률을 비교해, 가장 높은 수치의 수를 선택할 수 있습니다.” (전화통화 정리)


몬테카를로 방법이 확률적 연산과 관련이 있다는 것으로 이해됩니다. 무작위로 샘플링한 시뮬레이션을 해보고서 거기에서 승률을 얻으니까요. 샘플링을 10개 할 때와 100개, 1000개… 100만 개… 해서 승률을 계산할 수 있다면 훨씬 더 좋겠지요. 더욱 빠른 컴퓨터가 있다면 정해진 시간 안에 지금 두려는 수의 승률을 근사적으로 미리 파악할 수 있을 테니까요.


이런 몬테카를로 방법은 게임 프로그램의 알고리즘을 만들 때에 많이 응용되고 있는 듯합니다. 이미 시중에 나온 바둑 프로그램들이 이런 방법을 활용하니까요.


그런데, 알고리즘의 측면에서 보자면 기존 바둑 프로그램에는 없던 바둑 고수 알파고만의 비결이 따로 있습니다. 그게 이름도 생소한 “딥러닝(deep learning, 심화학습)”이라는, 최근 인공지능 분야에서 인기를 얻고 있는 알고리즘 기법이 아닌가 합니다. 그러니 알파고 바둑 프로그램에서 새롭게 탑재된 위력의 무기는 “딥러닝”이라고 말해도 지나치지 않을 듯합니다.


딥러닝, 딥페이스, 딥드림… 딥, 딥

00dot.jpg

알고리즘에 대해서도 잘 모르고 바둑도 잘 모르는 이가, “딥러닝”이 알파고 바둑 프로그램에서 어떻게 구현되었는지를 이해하는 건 정말 어려운 일 같습니다. 그렇다라도 요즘 뜨거운 관심사인 인공지능을 이해하려면 “딥러닝”의 강을 건너야 할 듯하여, 이에 관한 몇몇 설명들 가운데 일부를 담아 “딥러닝”과 “인공지능”의 관계를 어렴풋이 정리해보고자 합니다. 딥러닝과 인공지능에 관해 자세히 설명한 해외매체 <더 버지(The Verge)>, 그리고 유신 카이스트 전산학 교수의 설명과 예전에 “딥러닝” 기법을 이용해 단백질 3차원 구조 예측 연구를 수행한 조태호 박사의 설명을 주로 참조했습니다.


“딥(deep)”이라는 말은 어떤 뜻일까요? 잘 살펴보면, “딥”이라는 말이 자주 쓰입니다. 인공지능 기법을 쓰는 페이스북의 사람 얼굴 인식 시스템이 “딥페이스(DeepFace)”입니다. 시각물을 몽환적인 그림으로 바꿔주는 구글의 프로그램이 “딥드림(DeepDream)”입니다. 거장 화가의 화풍을 학습해서 평범한 사진을 그런 화풍으로 바꿔주는 실험적인 시도는 “딥스타일(DeepStyle)”입니다. 이번 알파고를 개발한 구글 자회사의 이름이 “딥마인드(DeepMind)”이지요. 그리고 페이스북이 만든 인공지능 바둑 프로그램의 이름이 “다크포레스트(DarkForest)”인데, 뭔가 그 심연(Deep)을 알 수 없거나 캄캄한 숲(Dark Forest)을 지나듯이 인공지능의 딥러닝 알고리즘은 다 파악되지 않는 무엇의 의미를 함께 담고 있는 게 아닌가 하는 생각을 어렴풋이 해봅니다.(그러나 실제  연구자들이 쓰는 “딥”의 의미가 이와는 다를 수 있습니다.)


“딥러닝”이 생소한 말이지만, 사실 이런 알고리즘이 일부 또는 많이 사용된 여러 기술들은 아마도 익숙하실 듯합니다.


일일이, 이렇게 하시오, 저렇게 하시오 식으로 프로그램에 미리 조건을 확인하고 명령을 해두는 방식이 아니라, 다종다양한 상황에 대해 프로그램이 어떤 근사적인 판단을 할 수 있도록 하는 알고리즘 개념이 이른바 “기계학습(machine learning)”인데요, “딥러닝” 개념의 알고리즘은 이런 여러 방식 가운데 최근에 가장 주목을 받는 알고리즘이라고 합니다. 그러니 딥러닝 알고리즘은 기계학습 알고리즘들의 한 종류입니다.


무인주행 자동차의 운행 프로그램에도 이렇게 응용할 수 있겠지요. 이전 방식의 알고리즘이라면 차량 앞에 횡단보고가 있는가, 횡단보도엔 사람이 있는가, 건너려고 뛰어오는 사람이 있는가, 다른 차량이있는가 등등의 정해진 물음에 컴퓨터가 확인한 뒤에 차량이 건너게 했다면, 딥러닝 알고리즘에선 이런 기본 정보처리 외에 안전하거나 위험한 횡단보도 상황을 담은 수많은 영상의 데이터베이스를 대상으로 컴퓨터가 학습하도록 할 수 있을 겁니다. 명령어로는 가르칠 수 없는 다양한 상황에서 컴퓨터가 결정을 내릴 수 있도록 한다는 겁니다.


“예컨대 컴퓨터에게 길을 어떻게 건너는 방법을 가르치킬 원한다고 합시다, 라고 뉴욕대학의 컴퓨터과학 교수 어니스트 데이비스는 말한다. 전통적인 프로그래밍에서는 컴퓨터한테 매우 정확한 규칙 집합을 주고 왼쪽과 오른쪽을 살피고 차를 기다리고 횡당보도를 사용하는 방법 등등, 그러고나서 길을 건너도 좋다고 말해줄 것이다. 기계학습에서는, 그 대신에 길을 안전하게 건너는 사람들을 담은 1만 개 비디오(그리고 차에 치인 사람들의 비디오 1만 개)를 제시하고서 컴퓨터가 일을 하도록 할 것이다.”(<더 버지>에 실린 글)


미국 온라인 매체 <더 버지>에 실린 이 글은, 이전에 기계학습에서도 컴퓨터 알고리즘에 ‘보상’ 개념을 구현하거나 ‘자연선택’ 개념을 구현하는 알고리즘도 사용되었지만 요즘에 떠오르는 딥러닝 알고리즘에서는 이와 다른 벙법들이 쓰이고 있다고 설명합니다.


“딥러닝은 기계학습의 일종으로서, (인공)신경망에 있는 많은 층들(layers)을 사용해 서로 다른 추상도(at different abstractions)에서 데이터를 분석한다. 그래서 딥러닝 시스템이 어떤 그림을 본다면, 각 층은 층마다 서로 다른 규모를 다룬다. 가장 밑바닥에 있는 층은 단지 5×5 격자픽셀을 보면서 격자 안에 무언가가 나타나는지에 관해서만 예 또는 아니오로 답한다. 그러고나서 그 위의 층은 이 격자가 좀 더 큰 패턴에 어떻게 들어맞는지를 살핀다. 예컨대, 이게 선이 시작하는 부분일까 아니며 모서리가 시작하는 부분일까? 이런 과정이 점차 쌓이면서 소프트웨어는 가장 복잡한 데이터라도 그것을 구성 부분들로 쪼개는 방식을 통해서 이해할 수 있게 된다.”(<더 버지>)


인공신경망, 딥러닝 만나 빛을 발하다

00dot.jpg

여기에서 여러 층들(layers)은 딥러닝을 이해하는 데 중요한 개념입니다. 인공신경망에 탑재되는 기계학습의 일종으로서 제시된 딥러닝에서는 기본 요소들로 분해되어 하나씩 판단되는 층들의 단계를 거쳐서 점차 높은 층에서 종합적인 그림으로 형성됩니다.


“신경망의 개념은 거슬러 가다보면 인공지능이 연구분야로서 자리를 잡기 시작한 1950년대에 다다른다. 아주 간단하게 말하자면, 연결망이란 뉴런 같은 노드가 그물망에서 서로 연결됨으로써 뇌의 그림처럼 보이게 하는 식으로 컴퓨터를 구성하는 하나의 방식이다. 각각의 노드 자체는 우둔해서(dumb) 극히 기본적인 물음에만 답하지만, 그것이 집합을 이루면 복잡한 문제도 풀 수 있다. 더욱 중요한 점은 알고리즘만 제대로 갖추면 그 신경망이 학습할 수 있다는 것이다.” (<더 버지>)


딥러닝은 이런 인공신경망이 적절히 학습할 수 있도록 돕는 새로운 알고리즘입니다. 그 역사에 관해 조태호 미국 미시건대학 연구원은 다음과 같이 설명했습니다. 그는 복잡한 단백질 3차원 구조 예측 연구에 딥러닝 기법을 이용한 연구결과를 과학저널에 발표한 적이 있습니다. 그때 사이언스온과 한 일문일답 인터뷰에서 다음과 같이 말했습니다.


“딥러닝을 쉽게 말하면, 컴퓨터로 하여금 사람처럼 생각하고 판단하게 만드는 최신 기술의 하나라고 할 수 있습니다. 사람의 인지 과정과 비슷하게 딥러닝을 이용한 컴퓨터는 뉴럴 네트워크(신경망)을 이용해 판단하고 응답하지요. 차이가 있다면 사람의 기억에는 한계가 있지만 컴퓨터는 이와 비교도 안 될 만큼 커다란 데이터를 기반으로 판단을 내릴 수 있다는 것입니다.

 딥러닝의 기원을 거슬러 올라가려면 1955년, 그러니까 60여 년 전에 뉴럴 모델링의 개념이 처음 등장했을 때로 가야 할 듯합니다. 이때 등장한 단층 퍼셉트론(single layer perceptron)이 뉴럴 모델링의 기원이라고 할 수 있지요. 원리는 간단합니다. 입력값을 내재 함수에 넣어 보고 참/거짓을 내놓는 알고리즘입니다. 그런데 이 방식은 너무 단순했습니다. 쉽게 말해 2차원 평면상에서 직선 밖에 그리지 못하는 수준의 결과였지요. 만일 주어진 과제가 직선을 가지고선 해결될 수 없는 경우에는(예컨대, 비선형 분리 문제, XOR 문제) 사용할 수 없었습니다. 따라서 이 모델링은 1976년 다중 퍼셉트론 (multi layer perceptron) 방식이 등장하고 나서야, 비로소 다시 주목을 받게 되지요.

 다중 퍼셉트론은 단층 퍼셉트론을 여러 층으로 쌓아 올린 것입니다. 여러 번 반복하면서 결과를 보완해 나가는 방식이, 직선을 여러 개 긋는 효과를 가져와 기존에 풀지 못한 문제를 해결할 수 있게 된 것이지요. 이때부터 이 방식에는 뉴럴 네트워크(Neural network) 또는 인공 신경망이라는 이름이 따라다닙니다. 사람의 인지 과정처럼 작은 신경망 단위(단층 퍼셉트론)이 복잡하게 쌓여(다중 퍼셉트론) 결정을 내기 때문에 이를 인공지능의 시발점으로 여겨 수많은 과학적 상상력의 기반이 되기도 했지요.

 그런데 인공 신경망 방식은 또 다른 한계를 만납니다. 이 방식은 기존에 미리 학습된 데이타(labeled training data)를 필요로 하고, 층이 늘어날수록 매우 느려진다는 것, 그리고 가장 중요한 것으로 진짜 값을 찾기 전에 미리 결론을 수렴하여 학습이 도중에 중단되는 지역 최적해(local minimum) 문제를 해결할 수 없었다는 것입니다. 이러한 단점으로 인해 1980년대 후반부터 2000년대 중반까지 사실상 큰 발전이 없는 상태로 차츰 관심을 잃어갑니다. 그 사이에 SVM, 랜덤 포레스트 같은 새로운 접근법이 등장하면서 인공신경망 방식은 사실상 큰 주목을 받지 못하는 “어둠의 시대”를 지나게 되지요. 그런데 이 어둠의 시대를 단번에 종식시킨 것이 바로 ‘딥러닝’입니다.

 딥러닝은 2006년 캐나다 토론토대학의 제프리 힌튼 교수가 그 개념을 발표하면서 처음 알려지기 시작했습니다. 원리를 간단히 말하면, 기존의 다층 퍼셉트론 방식이 여러 층을 다 지난 후에 역-전파(Back propagation) 방법으로 결과를 내는 방식인 데 비해, 한 층 한 층을 ‘제한된 볼츠만 기계(Restricted Boltzman Machine, RBM)’ 방식으로 따로 따로 학습하여 각 층마다 비지도 학습(Unsupervised learning)을 일으킨 후, 최종적으로 각 층의 결과를 역-전파 방법으로 도출해 내는 방식입니다.

 이 방법이 처음 나왔을 때의 문제점은 알고리즘 자체가 컴퓨터 자원을 많이 잡아먹어 현실적인 활용이 어렵다는 것이었지요. 그런데 시간이 지나면서 3차원(3D) 시뮬레이션이나 게임 등 분야에서 엄청나게 빠른 연산속도의 필요성이 대두되자 이를 해결하기 그래픽처리장치(GPU) 등 최신 하드웨어가 속속 등장합니다. 이러한 장비의 개발이 바로 딥러닝의 문제도 해결해 준 것입니다. 복잡한 알고리즘이 충분히 돌아갈 만한 하드웨어의 보급으로 딥러닝은 바야흐로 전성기를 맞이하게 되지요.

 앞서 말씀 드렸듯이, 딥러닝은 여러 입력 데이터를 통해 원하는 결과를 도출해 내는 데에 현재로선 가장 뛰어난 성과를 보이고 있습니다. 페이스북이 운영하는 딥러닝연구팀이 영상인식학회(CVPR)에서 발표한 자료를 보면, 딥러닝의 사진 얼굴 인식 성공률을 97.25%로 인간의 평균 인식 성공률 97.53%과 거의 차이가 없습니다. 딥러닝의 판단이 사람의 판단과 거의 유사할 만큼 뛰어나다는 뜻이지요. 단백질 구조 연구의 템플릿 기반 연구에도 이러한 최고의 기계학습 알고리즘이 필요합니다. 기존의 데이터베이스를 기반으로, 구조를 알고 싶은 새로운 입력 데이터에 가장 적합한 결과를 뽑아내는 부분이 바로 그것지요. 이것이 단백질 접힘 구조 예측에 딥러닝 개념을 적용/도입하게 된 기본 출발이 되었습니다.” (사이언스온 기사)


딥러닝엔 빅데이터와 연산능력 필수

00dot.jpg

하루가 다르게 변하는 기술 혁신의 시대에 1년 여 전 책이 제시한 평가가 현재에는 달라질 수 있겠지만, 2014년에 나온 책 <인공 지능, 뇌를 닮아 가는가>가 지적한 딥러닝(심화학습)의 가치와 한계는 상황이 다소 달라졌겠지만 지금도 비슷하리라 생각합니다.


“심화 학습 이론에 기반을 둔 기계 학습 알고리즘들은 지금도 각종 패턴 인식 대회에서 1위를 독차지하며 뛰어난 성능을 자랑하고 있다. 낙관적인 연구자들은 심화 학습이야말로 강한 인공 지능에 다시 한번 도전하는 것을 가능하게 해 줄 도구라고까지 말하고 있다. 하지만 심화 학습에도 약점은 있다. 그중 하나는 다양한 층위의 개념을 효과적으로 학습하려면 은닉층 및 중간 노드의 개수가 크게 증가하는데, 이를 구현하기 위해서는 엄청난 양의 연산 능력이 필요하다는 것이다. 2012년 구글은 유튜브 비디오 1000만 개와 심화 학습 기법을 이용해 컴퓨터에게 주어진 동영상이 고양이 얼굴인지 아닌지 식별하는 법을 학습시켰다. 구글의 슈퍼컴퓨터는 신명망 연결 10억 개와 CPU 1만 6000개를 사용해 약 75%의 정확도를 얻었다. 멀티코어 시대로의 전환에 속도가 붙고 있기는 하지만 아직까지는 고양이를 알아보는 정도의 학습조차 구글처럼 무한에 가까운 연산 능력을 가진 것이 아니라면 해내기 힘든 고난도의 작업인 셈이다.”(2014년, 이 책, 150쪽)


이런 설명들을 듣다보면, 딥러닝의 알고리즘이 연산속도가 빨라진 컴퓨터 하드웨어, 그리고 기계학습에 활용할 수 있는 방대한 데이터를 갖추게 되면서 비로소 날개를 달 수 있게 되었음을 이해할 수 있습니다.


다시 <더 버지>에 딥러닝 알고리즘을 이용한 컴퓨터가 고양이를 인식하는 과정에 대한 자세한 설명이 나와 있기에 여기도 소개합니다.


“답러닝 시스템에는 방대한 데이터와 많은 작업시간이 필요하다. 다음으로, 딥러닝을 사용해 고양이가 어떻게 생겼는지를 신경망에 가르치고자 한다고 생각해보자. 먼저, 우리는 인공신경망을 구축해야 한다. 그리고 고양이를 이루는 서로 다른 요소들, 예컨대 발톱, 발, 수엽 등등을 식별하는 서로 다른 층들을 프로그램해야 한다. (각 층은 특정 요소를 인식하도록 돕는 여러 층들 위에 구축된다. 이때문에 딥러닝이라고 불린다.) 그러고나서 신경망에는 많은 고양이 이미지와 다른 동물들 이미지를 제공하고서 무엇이 무엇인지 알려준다. 고양이 사진을 제공하면서 ‘이 이미지가 고양이다’, ’이것도 고양이다’, ‘이건 고양이가 아니다’라고 컴퓨터에 말한다. 신경망이 다른 이미지들을 보여줄 때, 서로 다른 층과 층 내 노드들은 발톱, 발, 수염 등등을 인식할 때 켜진다. 시간이 흐르면서 신경망은 이들 층들 가운데에서 무엇이 중요하고 무엇이 중요하지 않은지를 기억하면서 일부 연결들은 강화하고 다른 연결들은 무시한다. 신경망은 예컨대 발톱이 고양이와 강하게 상호연관되어 있음을 발견할 수도 있다. 그러나 발톱들이 고양이 아닌 다른 것에도 나타나고 그러므로 신경망은 수염과 함께 나타나는 발톱을 찾는 방법을 배울 수도 있다.”(<더 버지>)


여러 분야 확장 중…아직 응용분야 제한적

00dot.jpg

앞에서도 이미 보았듯이, 딥러닝은 여러 분야로 확장되고 있습니다. 구글과 경쟁하는 세계기업 페이스북이 알파고와 비슷한 인공지능 바둑 프로그램인 ‘다크포레스트’를 개발한 바 있습니다. 또 사람 얼굴을 인식하는 프로그램이 사람의 지각만큼이나 정확하게 얼굴을 인식하는 능력을 보여준 바 있습니다.


고흐, 뭉크, 피카소 같은 거장의 작품들에서 화풍을 익힌 딥러닝 알고리즘이 평범한 사진을 거장의 그림인 양 바꿀 수 있음을 보여준 실험적 연구도 나와 예술의 창의성에 도전하기도 했습니다. 구글은 딥러닝 알고리즘을 이용해 이용자들의 사진들을 인식하고 분류해 앨범을 만들어주는 서비스를 제공합니다.


그렇지만 딥러닝 인공지능이 어디에서나 바로 능력을 발휘하는 그런 것은 아니라고 합니다. 먼저 딥러닝 알고리즘에 기존의 데이터를 제공해 학습을 시키려면 어떻게 학습시키여 할지가 응용 목적마다 데이터 성격마다 다를 테니까요. 많은 양의 데이터가 있더라도 그것을 어떻게 기계학습에 활용할 수 있을지, 학습 효과를 높이기 위한 미세조정을 계속해나가야 하는 것은 또 다른 문제가 될 것입니다. 그렇게 구현된 인공지능이 인간이 만족할 만한 ‘수준’에 이르게 하는 데에도 많은 비용이 들어가겠지요. 인간이 원하는 그런 일반적인 지능 작업과 딥러닝이 실제로 할 수 있는 좁은 의미의 지능 작업에는 아직 격차가 크기에, 딥러닝은 규칙이 정해지고 계산이 손쉬운 그런 분야에서 두각을 나타낼 것으로 보입니다.


빅테이터, 연산속도, 알고리즘의 발전, 그리고 인공지능

00dot.jpg

알파고 인공지능은 결국에 수많은 경우의 수 가운데 샘플링을 하여 시뮬레이션하고서 승률이 높은 최선의 수를 찾아내는 몬테카를로 트리서치의 알고리즘, 그리고 방대한 빅데이터를 통해서 바둑판에서 유리한 판세를 찾아 승률 계산을 해볼 만한 수들을 찾아내는 식으로 몬테카를로 알고리즘과 협력하는 기계학습(딥러닝) 알고리즘이라는 엔진을 장착하고서 나타났다고 말할 수도 있지 않을까요. 그런 지금 인공지능(“인공지능”의 능력은 1950년대의 기대치와 현재 기대치가 다르니 “지금 인공지능”이라 표현해보았습니다)의 엔진을 최대로 가동할 수 있는 하드웨어 장치, 그리고 그 엔진의 성능을 높여주는 자원인 빅데이터가 갖춰짐으로써 알파고는 인간 최고 프로기사까지 꺾을 수 있는 바둑 프로그램의 최강자가 될 수 있었던 것은 아닐까 합니다.


알파고가 이번 승부만이 아니라 앞으로도 지속적으로 업그레이드 된다면, 더 향상된 알고리즘과 더 빨라진 연산속도 하드웨어, 더 많아진 경험적 데이터를 갖추고서, 더 많은 경우의 수를 일정한 시간 안에 계산할 수 있게 되겠지요. 단 몇 수만을 두고서도 마지막 판세까지 계산해낼 수 있을지도 모르겠습니다.


오철우 기자 cheolwoo@hani.co.kr    

@한겨레 과학웹진 사이언스온    




   [사이언스온의 길목]

페이스북 페이지   https://www.facebook.com/scienceon

트위터   https://twitter.com/SciON_hani

한겨레 스페셜   http://special.hani.co.kr


[알림] 2016 사이언스온 필자를 모십니다…3월13일까지


 
 

  • 구글
  • 카카오
  • 싸이월드 공감
  • 인쇄
  • 메일
오철우 한겨레신문사 과학담당 기자, 사이언스온 운영
1990년 한겨레신문사에 입사해 편집부, 사회부, 문화부, 생활과학부 등을 거쳤으며 주로 과학담당 기자로 일했다. <과학의 수사학>, <과학의 언어>, <온도계의 철학> 등을 번역했으며, <갈릴레오의 두 우주체제에 관한 대화>를 썼다.
이메일 : cheolwoo@hani.co.kr      

최신글




최근기사 목록

  • ‘창조과학’ 장관후보에, 과학기술계 ‘깊은 실망과 반대’‘창조과학’ 장관후보에, 과학기술계 ‘깊은 실망과 반대’

    취재수첩오철우 | 2017. 09. 05

     취재수첩 | 창조과학자 박성진 장관 후보 지명 논란  문 정부 지지층에서 비판 더 강해, ‘창조과학 비판’ 과학자들 자발적 연재뉴라이트 역사관, “창조공학 필요”, “대기업집중 불가피” 인식도 논란불씨 한 중견 과학자는 “여러 정...

  • 실험실의 지엠오, 시장에 나온 지엠오실험실의 지엠오, 시장에 나온 지엠오

    취재수첩오철우 | 2016. 07. 05

     …취 재 수 첩…  노벨상 수상 110명 “인도주의적 GMO, 반대운동 중단하라”미국과학아카데미 “지엠오와 전통작물 차이 증거 발견 못해”그린피스 “식량과 생태농업 현실적 대안 이미 있는데” 반박“표시제논란과 겹쳐 가열…과학논쟁,...

  • ‘전문연 제도’, 연구인력 정책 틀에서도 논의해야‘전문연 제도’, 연구인력 정책 틀에서도 논의해야

    취재수첩오철우 | 2016. 05. 25

    제도 시행 40여 년 거치며, 병역 정책은 이제 기초 과학기술 연구에도 영향국방 정책 울타리 넘어 연구인력 육성수급이라는 더 큰 관점에서 논의 필요 1973년 이래 시행된 ‘전문연구요원(‘전문연’)의 대체복무 제도’를 폐지할 계획이라고 밝힌 국...

  • 이런 상상: 우리가 인공지능 기자, 판사 만든다면…이런 상상: 우리가 인공지능 기자, 판사 만든다면…

    취재수첩오철우 | 2016. 03. 15

      취 · 재 · 수 · 첩   사람세상 경험의 데이터로 학습하는 인공지능어뷰징, 선정기사로 학습한 인공지능 기자는?불합리 논란 판결로 학습한 인공지능 판사는? 알파고의 학습형 인공지능이 그 어렵다는 바둑 게임에서 최고수를 5전...

  • “정부 과학자들의 연구독립성 보호해야” -미국 조사“정부 과학자들의 연구독립성 보호해야” -미국 조사

    취재수첩오철우 | 2015. 10. 05

    미국 FDA, CDC, NOAA 등 7000명 과학자 조사공공연구기관 과학진실성 보장하는 절차기준 필요정부 산하 연구기관 또는 정부 기구에서 일하는 과학과 기술 전문가들의 연구결과나 의견은 때때로 공중 보건이나 사회 안전 정책을 통해 우리 삶에...