"끊임없이 증가하는 속도로 자신의 DNA를 편집해 지능을 높이는 초인류(superhumans)가 등장하면 나머지 인류는 도태될 수 있다."
지난 3월 세상을 떠난 천재물리학자 스티븐 호킹이 그의 유고집 '거대한 물음에 대한 간략한 대답(Brief Answer to the Big Question)'에서 초인류 등장의 위협을 이같이 경고했다.
이 유고집은 16일(영국 현지시간) 출간될 예정인데 이 가운데 일부가 영국 일간 더타임스의 일요판인 선데이타임스에 15일 공개됐다.
이 책에서 호킹 박사는 유전자 편집을 미래에 다가올 중요한 위험으로 꼽았다. 호킹 박사는 "이번 세기 안에 인간은 유전자 편집으로 지능과 본능을 모두 조작할 수 있는 방법을 발견할 것"이라고 확신하면서 "법이 유전자 조작을 제한하는 쪽으로 만들어질 수도 있지만 사람들은 기억력, 질병에 대한 저항력, 수명과 같은 인간의 특성을 개선하려는 유혹을 이겨낼 수 없을 것"이라고 예측했다.
그는 "초인류가 등장하면 이들과 경쟁할 수 없는 나머지 사람들에게는 심각한 정치적 문제가 생길 수 있다"면서 "도태된 나머지 사람들은 결국 죽거나 더 이상 중요하지 않게 될 것"이라고 덧붙였다.
호킹 박사는 이 초인류가 부자라고 명시하지는 않았지만 영국 가디언 등은 호킹 박사가 돈이 많은 사람만이 유전자 편집 기술을 이용해 초인류로 거듭날 수 있음을 시사한 것이라고 해석했다. 그러나 영국 케임브리지 대학교의 마틴 리스 천문학 교수는 이에 대해 "돈 많은 부모들이 자녀의 유전자를 편집하는 모험을 감행할 것인지는 의문"이라고 밝혔다.
호킹은 인공지능(AI)이 인간을 능가하게 될 위험 또한 경고했다. AI가 인간의 도움 없이 스스로 지능을 끊임없이 높여 '지능 폭발'에 다다를 경우 인간과 AI의 지능 격차는 현재 달팽이와 인간 지능의 격차 만큼 벌어질 수 있다고 예측했다. 그는 "인공지능의 진짜 위험은 인공지능이 나쁜 뜻을 품게 되는 것이 아니라 그 엄청난 능력"이라면서 "인간이 건설된 댐으로 어쩔 수 없이 수몰되는 개미들과 같은 존재가 되지 않기 위해서는 앞으로 이 문제에 대한 진지한 연구가 필요하다"고 주장했다.
호킹 박사는 "지구가 당면한 가장 큰 위협으로 소행성 충돌과 기후변화를 꼽으며 장기적 관점에서 인류가 지구 밖 우주로 나아가야 한다"고 적었다. 그는 "인류를 달에 보낸 것이 호기심이었다며 호기심이라는 인류의 본능은 또다시 인류를 지구 밖으로 탐험하게 만들 것"이라고 전망했다.외신