상단여백
HOME 칼럼 좋은 동영상 감상하기
인공지능에 압도당하지 않고 자율권을 갖는 방법[좋은 동영상 감상하기22]
이영환 동국대 경제학과 명예교수 | 승인 2019.10.25 10:01

[논객닷컴=이영환] 이 동영상의 연사 맥스 테그마크(Max Tegmark) 교수는 의식 문제와 인공지능 문제에 깊은 관심을 갖고 있는 MIT의 물리학자이자 우주론자(cosmologist)이다. 필자는 의식 문제에 대한 그의 견해에 동의하지는 않지만, 상당히 논리적으로 자신의 주장을 전개하는 데는 깊은 인상을 받았다.  그러다가 얼마 전 그가 쓴 '라이프 3.0'이라는 책을 읽었다. 테그마크 교수는 이 책에서 물리학자로는 드물게 인문학적, 사회과학적 지식을 동원해 생명의 진화라는 관점에서 인공지능(AI) 시대에 전개될 상황을 분석하고 예측했다.

그는 이 책에서 생명을 구성하는 양대 요소를 하드웨어(DNA, 세포, 신경망 등)와 소프트웨어(알고리즘, 지식 전반)로 구분한 후, 이들 요소가 “진화와 설계” 중 어떤 원리에 의해 개선되는가에 따라 생명을 다음과 같이 라이프1,0, 2.0, 및 3.0의 세 단계로 구분할 수 있다고 말했다.

라이프 1.0: 생물적 단계로서 하드웨어와 소프트웨어 모두 진화하는 단계 (박테리아를 포함한 원시적인 생명체)

라이프 2.0: 문화적 단계로서 하드웨어는 진화하지만 소프트웨어는 상당 부분 설계되는 단계(인간을 포함한 극히 일부 동물)

라이프 3.0: 기술적 단계로서 하드웨어와 소프트웨어 모두 설계되는 단계 (인간 수준의 인공지능)

테그마크 교수는 '라이프 3.0'에서 다룬 내용을 여기  첨부한 10여 분 남짓의 짧은 동영상에 담으려고 노력했다. 그가 생명을 이렇게 구분한 이유는 인공지능 알고리즘의 발달에 따른 경천동지할 변화 때문이다. 간단히 말해 지금까지 생명은 진화의 법칙에 의해 자신의 소프트웨어와 하드웨어를 업그레이드해왔다. 그런데 인공지능이 발달하면서 생명을 구성하는 소프트웨어와 하드웨어를 설계할 수 있게 되었다는 것이다. 물론 지금 수준의 인공지능, 즉 약인공지능(ANI)에 해당되는 내용은 아니고 앞으로 개발될 범용인공지능(AGI), 즉 인간 수준의 인공지능에 해당되는 내용이다. 테그마크 교수는 언젠가는 AGI가 개발될 것으로 본다는 점에서 낙관적이다. 단지 시기에 대해서는 2029년 경이면 AGI가 등장할 것으로 전망한 레이 커즈와일(Ray Kurzweil)보다는 보수적으로 전망한다. 그렇지만 앞으로 수십 년 후에는 AGI가 등장할 것이므로 인간에게 우호적으로 사용되도록 해야 한다는 점을 강조한다. 그리고 이 문제를 상당히 낙관하고 있다. 즉 인간에 우호적인 AGI를 개발하고 활용함으로써 인류가 직면한 어려운 문제들을 해결할 수 있다고 주장한다. 그는 '라이프 3.0'에서 AGI도 등장한 이후 가능한 여러 가지 시나리오를 비교 분석했다. 관심 있는 사람은 그 책을 참고하면 좋을 것이다.  

테그마크 교수는 일찍부터 AGI 문제를 고민했기에 일론 머스크와 구글 창업자 래리 페이지 등 여러 기업인들의 도움을 받아 <생명의 미래 연구소(Future of Life Institute)>를 공동 설립해 운영하고 있다. 그는 이 연구소를 축으로 해 다양한 분야의 인공지능 전문가들의 세미나와 모임을 주관하면서 인간에게 우호적인 인공지능 개발을 위한 원칙을 정립하였다. 이것이 2017년 캘리포니아 아실로마(Asiloma) 컨퍼런스에서 발표된 인공지능 관련 <아실로마 AI 원칙>이다. 그는 이 동영상에서 23개 원칙 가운데 중요한 세 가지 원칙을 강조한다.

첫째, 인공지능을 인간에 치명적인 무기로 개발하지 않는다. 둘째, 인공지능으로 얻은 풍요는 모든 사람들에게 혜택이 돌아가도록 분배한다. 셋째, 인공지능 안전에 더 많이 투자한다. 특히 세 번째 원칙은 인공지능과 인간의 욕구를 같은 방향으로 정렬하는 것이 중요하다는 점을 강조한 것이다. 이것은 옥스퍼드대의 철학자 닉 보스트롬(Nick Bostrom)이 강조했던 것으로 이른바 가치 정렬(Value Alignment) 문제로 알려져 있다.

테그마크 교수는 이 문제에 대해 상당히 낙관적이다. 아마도 <아실로마 AI 원칙>에 전 세계적으로 수천 명의 인공지능 연구자들이 서명하고 동참했기 때문이 아닌가 짐작된다. 그렇지만 개인적으로는 이 부분이 가장 우려된다. 어떤 사악한 의도를 가진 인공지능 전문가와 자본이 결탁해 이 원칙을 위반하고 자신들의 시장지배력을 극대화하기 위해 무슨 짓을 할지 아무도 모르기 때문이다. 이런 극단적인 상황이 벌어지지 않기를 바라기에는 지구 곳곳에 사악한 집단들이 너무 많다. 이럴 때마다 007 영화가 생각난다. 지구를 지배하려는 세력 스펙터와 이에 맞서는 첩보원 007 제임스 본드 이야기 말이다. 미래에는 영화 속의 제임스 본드가 활약하는 일이 없기를 바라는 마음이다. 인공지능이 아무리 발달해도 인간과 같은 가치를 추구하기 바랄 뿐이다.

 이영환

 동국대 경제학과 명예교수

 지식공유광장(www.iksa.kr) 운영

 <시장경제의 통합적 이해> 외 다수 출간

논객닷컴은 다양한 의견과 자유로운 논쟁이 오고가는 열린 광장입니다. 본 칼럼은 필자 개인 의견으로 본지 편집방향과 일치하지 않을 수 있습니다.

이영환 동국대 경제학과 명예교수  ylee1105@naver.com

<저작권자 © 논객닷컴, 무단 전재 및 재배포 금지>

icon인기기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
매체소개기사제보광고문의불편신고개인정보취급방침청소년보호정책이메일무단수집거부
㈜논객닷컴 | (03163) 서울 종로구 인사동길 12, 대일빌딩 1405호
대표전화 : 070-7728-8569 | 팩스 : 02-722-6500 | 청소년보호책임자 : 박종국
제호: 논객닷컴 | 등록번호 : 서울, 아 01778 | 등록일 2011년 9월 27일 | 발행일: 2011년 10월 1일 | 발행ㆍ편집인 : 권혁찬
Copyright © 2019 논객닷컴. All rights reserved.
Back to Top