상단여백
HOME 칼럼 좋은 동영상 감상하기
컴퓨터가 인간보다 스마트해지면 무슨 일이 일어날 것인가?[좋은 동영상 감상하기12]
이영환 동국대 경제학과 명예교수 | 승인 2019.01.15 13:36

[논객닷컴=이영환] 현재 진행 중인 4차 산업혁명의 파괴적 기술혁신의 핵심이 인공지능(AI)이라는 사실은 널리 알려졌을 뿐만 아니라 이미 우리의 일상생활 곳곳에 침투해 있다.

2016년 구글의 딥마인드(Deep Mind)가 개발한 인공지능 알파고가 한국의 프로기사 이세돌을 4대 1로 이긴 후 인공지능에 대한 일반의 관심이 높아진 것은 사실이다. 그런데 한 가지 아쉬운 것은 인공지능이 초래할 파괴적이고도 부정적인 측면에 대해서는 그다지 관심이 크지 않다는 점이다. 인공지능 관련 저서나 기사, 그리고 동영상을 보면 인공지능이 초래할 미래에 대해 전문가들의 견해가 극단적으로 대립하고 있다는 사실을 알 수 있다.

일부 전문가들은 인공지능이 발달하면 현재 인류를 괴롭히고 있는 여러 문제들, 예컨대 질병, 수명, 기후변화 등 심각한 문제들을 해결해 이른바 기술적 유토피아를 실현할 것이라고 낙관적으로 전망한다. 반면 다른 전문가들은 인공지능이 인간의 지능을 추월하면 인간이 감당하기 어려운 심각한 상황이 발생할 수 있다고 경고한다.

이런 경고 가운데 가장 두려운 것은 초인공지능(ASI)이 출현해 인류의 생존 자체를 위협할 수 있다는 존재적 위험(existential risk)에 관한 것이다.

이 동영상의 연사 닉 보스트롬(Nick Bostrom)은 존재적 위험을 경고한 대표적인 학자이다. 그는 스웨덴 출신으로 현재 옥스퍼드 대학교 철학과 교수인데 일찍이 2005년 옥스퍼드 마틴 스쿨(Martin School)에 《인류의 미래 연구소(Future of Humanity Institute)》를 설립했다. 그는 이 연구소를 통해 인공지능이 초래할 위험을 경고하고 있는데, 2015년에는 여러 전문가들과 함께 인공지능의 잠재적 위험을 경고하는 공개서한에 서명했다. 여기에는 얼마 전 작고한 스티븐 호킹도 참여했다. 실제로 호킹은 사후 출판된 『Brief Answers to the Big Questions』라는 책에서 다음과 같이 경고했다.

“인공지능을 설계하는데 있어 인공지능이 인간보다 우월해져 인간의 도움 없이 스스로 개선할 수 있게 된다면 우리는 지능폭발에 직면하게 될 것이며, 궁극적으로 인간이 달팽이를 능가하는 것보다 지능 면에서 인간을 훨씬 능가하는 기계가 출현할 것이다.”

닉 보스트롬도 이 동영상에서 호킹과 같은 맥락에서 경고 메시지를 전하고 있다. 그는 현존 인간 가운데 지능 면에서 가장 뛰어난 인물이라 할 수 있는 물리학자 에드워드 휘튼(Edward Witten)과 침팬지를 비교하면서 이 둘 간의 지능 격차보다는 인간과 인공지능의 격차가 훨씬 더 커질 것으로 예상하면서 이런 상황에서 인간의 기준으로 인공지능의 행보를 판단하는 것은 잘못임을 강조한다.

그러면서 그는 모든 면에서 인간 수준의 지능을 가진 인공지능, 즉 범용인공지능(AGI)은 2040년~2050년 사이에 출현할 것이고 전망한다. 이는 보스트롬 개인의 견해가 아니라 인공지능 전문가 다수에게 질문했을 때 50% 이상이 이와 같이 예상했다고 말한다. 실제로 범용인공지능의 출현에 대해 가장 낙관적인 미국의 레이 커즈와일(Ray Kurzweil)은 이 시기를 2029년으로 꼭 짚어 예측했다. 커즈와일이 지나칠 정도로 낙관적임을 감안해도 머지않아 범용인공지능이 출현하리라는 것은 충분히 예상할 수 있는 일이다.

문제는 범용인공지능이 개발된 이후이다. 만약 이런 인공지능이 개발되면 더 이상 인간이 통제할 수 없는 상황이 벌어질 것이기 때문이다. 범용인공지능은 인간의 도움 없이 스스로 성능을 개선해 빠른 기간에 지능폭발 현상을 일으켜 스스로 초인공지능(ASI)으로 업그레이드 될 것이다. 이 때 문제가 되는 것은 초인공지능의 속성이다. 즉 초인공지능이 어떤 선호(preference)를 갖는가 하는 문제이다. 만약 초인공지능이 인간과는 분명 다른 선호를 갖는다면 이는 인류에게 큰 위협이 될 수 있기 때문이다. 그렇다고 이 수준에 도달하면 인간이 위험한 초인지능을 제거하기도 어려울 것이기에 문제가 심각해질 수 있다. 보스트롬은 이 점을 강조하면서도 아직 시간이 있으므로 초인공지능을 통제하는 방법을 찾는데 주력해야 한다고 말한다. 그러면서 그는 이것이 매우 어려운 문제임을 인정하면서도 자신은 비교적 낙관적이라고 말하는데 그 근거가 무엇인지는 분명하지 않다. 이와 관련된 자세한 논의는 그의 저서 『슈퍼인텔리전스』를 참고하면 좋을 것이다. 이 책에서 보스트롬이 주장한 것을 모두 받아들일 수는 없지만 이 문제로 고민해야 하는 이유를 이해할 수 있을 것이다. 

 이영환

  동국대 경제학과 명예교수

  지식협동조합 <경계너머 아하!> 이사

  <시장경제의 통합적 이해> 외 다수 출간

논객닷컴은 다양한 의견과 자유로운 논쟁이 오고가는 열린 광장입니다. 본 칼럼은 필자 개인 의견으로 본지 편집방향과 일치하지 않을 수 있습니다. 반론(news34567@nongaek.com)도 보장합니다.

 

 이영환

  동국대 경제학과 명예교수

  지식협동조합 <경계너머 아하!> 이사

  <시장경제의 통합적 이해> 외 다수 출간

논객닷컴은 다양한 의견과 자유로운 논쟁이 오고가는 열린 광장입니다. 본 칼럼은 필자 개인 의견으로 본지 편집방향과 일치하지 않을 수 있습니다. 반론(news34567@nongaek.com)도 보장합니다.

이영환 동국대 경제학과 명예교수  ylee1105@naver.com

<저작권자 © 논객닷컴, 무단 전재 및 재배포 금지>

icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
매체소개기사제보광고문의불편신고개인정보취급방침청소년보호정책이메일무단수집거부
㈜논객닷컴 | (03163) 서울 종로구 인사동길 12, 대일빌딩 1405호
대표전화 : 070-7728-8569 | 팩스 : 02-722-6500 | 청소년보호책임자 : 박종국
제호: 논객닷컴 | 등록번호 : 서울, 아 01778 | 등록일 2011년 9월 27일 | 발행일: 2011년 10월 1일 | 발행ㆍ편집인 : 권혁찬
Copyright © 2019 논객닷컴. All rights reserved.
Back to Top