▲ 인공지능 로봇 소피아
[김승혜 기자] '미래의 인류는 유전자 조작을 통해 만들어진 '슈퍼휴먼'이 지배하고 경쟁하게 될 것이다.'

지난 3월 타계한 '휠체어 위의 물리학자' 스티븐 호킹 박사가 '어려운 질문에 대한 간략한 답변(Brief Answer to the Big Question)'이라는 제목으로 16일 출간될 유고집에서 예언한 내용이다.

15일 연합뉴스와 이를 미리 입수해 보도한 선데이 타임스 등 영국 언론과 과학전문 매체 등에 따르면 과학 분야의 베스트셀러로 꼽혀온 '시간의 역사'의 저자이기도 한 그는 죽기 직전까지 슈퍼휴먼과 인공지능(AI), 외계인 등 다양한 주제에 관한 글과 논문을 남겼다.

이 중 슈퍼휴먼 부문에서는 유전자 가위(CRISPR) 등과 같은 유전자 편집기술로 슈퍼휴먼 종(種)이 만들어져 나머지 인류를 파괴할 것이라고 주장했다.

그는 "금세기 안에 인간은 지능과, 공격성과 같은 본능을 모두 조작할 수 있는 방법을 발견할 것"이라면서 "인간 유전자 조작을 금지하는 법이 만들어질 수도 있으나 일부는 기억력이나 질병에 대한 내성, 수명 등과 같은 인간 특성을 개선하려는 유혹을 물리칠 수 없을 것"이라고 했다.

호킹 박사는 슈퍼휴먼을 만드는 주체를 부자라고 못 박지는 않았으나, 가디언지를 비롯한 일부 언론은 이를 부자로 해석했다. 명시적이지는 않지만, 부자들이 돈으로 유전자 조작기술을 사 머리 좋고 질병에 내성이 강하며 오래 살 수 있는 슈퍼휴먼을 만들게 될 수도 있다고 시사했다고 전했다. 하지만 부자 부모들이 부작용 위험을 무릅쓰고 자식의 유전자 조작 선택을 할지에 대해서는 의문이 든다고 덧붙였다.

호킹 박사는 "슈퍼휴먼이 출현하면 이들과 경쟁할 수 없는 일반인들로 인해 심각한 정치적 문제가 생길 것"이라면서 "짐작건대 이들은 도태되거나 중요도가 떨어지고, 대신에 자기 설계된 (슈퍼휴먼 사이에서) 능력을 개선하는데 가속도가 붙으며 경쟁이 이뤄질 것"이라고 했다.

그는 "인류의 지능을 높이고 본성을 개선하는데 다윈의 자연 진화를 기다릴 시간이 없다"면서 "(슈퍼휴먼 간) 경쟁으로 인류를 재설계하면 다른 행성이나 별로 퍼져 우주식민지를 구축할 수도 있을 것"이라고 했다.

호킹 박사는 AI와 관련해서는 "미래에 인간의 의지와 충돌할 수 있는 독자적인 의지를 갖게 될 수 있다"고 경고하면서, 인공지능 무기 개발 경쟁은 아예 시작도 하지 말아야 한다고 강조했다.

그는 또 "AI의 진짜 위험은 적의가 아니라 능력"이라며 "초강력 AI는 목적을 달성하는 데 극도로 우수하며 그런 목적이 우리와 맞지 않는다면 문제에 당면할 수 있다"고 했다.

외계 생명체의 존재와 관련해서는 명확한 설명을 내놓지는 않았으나, 인류가 다양한 형태의 지적 능력을 갖춘 외계인이 존재할 수 있다는 점을 간과하고 있다고 했다.

지구가 당면한 가장 큰 위험으로는 공룡의 멸종을 가져온 것과 같은 소행성의 지구충돌과 지구온난화를 꼽았다.

소행성 충돌에 대해서는 "방어할 수 있는 방법이 없다'고 했고, 지구온난화는 "대양의 온도를 높여 빙하를 녹이고 엄청난 양의 이산화탄소를 방출해 250도에 달하는 금성과 같은 기온을 만들 수 있다"고 경고했다.

그러면서 최고의 해법은 핵융합 에너지를 통해 공해가 없고 지구온난화를 초래하지 않는 청정에너지를 얻는 것이라고 지적했다.

 

저작권자 © 시사플러스 무단전재 및 재배포 금지