- 유발 하라리는 인류가 직면한 자기 파괴적 위기의 원인이 인간의 본성이 아니라, 허구를 양산하고 통제력을 벗어난 '비유기적 정보 네트워크(AI)'에 있다고 진단합니다.
- 정보가 많아질수록 값비싼 진실은 가라앉고 저렴한 허구가 득세하며, 자기 수정 메커니즘이 없는 AI 전체주의가 도래할 수 있다는 것이 그의 핵심 경고입니다.
- 하지만 진실을 판단하는 기관 역시 기득권의 논리에 빠질 수 있으며, AI의 자체적인 오류 수정 능력을 고려할 때 맹목적인 배제보다는 긍정적 활용 방안을 모색해야 합니다.
{img}
우리는 원자를 나눌 수 있을 정도로 똑똑해졌지만, 생태적 붕괴와 통제를 벗어나는 AI의 발전을 통해 스스로를 파괴할지도 모르는 상황에 처해 있습니다. 인간은 이렇게나 똑똑한데, 왜 동시에 자기를 파괴할 정도로 멍청한 걸까요? 유발 하라리는 자신의 저서 『넥서스』를 통해 이 모순에 대한 흥미로운 답변을 내놓습니다. 그는 인류를 위협하는 것이 결코 인간의 악한 본성이 아니라고 말합니다. 오히려 문제는 우리가 구축한 '정보'의 형태에 있다는 것입니다.
과거부터 현재까지 인간 공동체를 묶어온 핵심은 스토리텔링이었습니다. 사냥을 하거나 원자 폭탄을 만드는 등 대규모 협력을 이끌어내기 위해서는 단순한 객관적 사실을 넘어 수많은 사람을 엮어내는 이데올로기적 허구가 필요했습니다. 인류 역사상 이 스토리를 만들 수 있는 주체는 오직 인간뿐이었지만, 이제 우리는 스토리를 스스로 창조하는 완전히 새로운 비인간 주체, 즉 AI를 마주하게 되었습니다.
{img}
[출처] 충코의 철학 Chungco 제공 영상 · 00:30
유기적 네트워크에서 비유기적 네트워크로의 전환
새로운 정보 기술이 등장할 때마다 세상의 권력 구조는 뒤바뀌어 왔습니다. 5천 년 전 글쓰기의 발명은 개인의 소유권을 명확히 해주는 동시에 대규모 제국이 세금을 걷고 통제할 수 있는 권위주의 시스템의 발판을 마련했습니다. 20세기에 등장한 라디오와 TV 같은 대중 매체 역시 대규모 민주주의를 가능하게 한 동시에, 소련과 같은 대규모 전체주의를 탄생시킨 기술적 배경이 되었습니다.
하지만 21세기 이전의 모든 정보 기술은 철저히 인간의 뇌에 기초한 '유기적 네트워크'였습니다. 유기체는 낮과 밤, 활동과 수면이라는 삶의 사이클을 가집니다. 아무리 강력한 감시 사회라 할지라도 모든 사람을 24시간 내내 감시하고 그 정보를 일일이 처리하는 것은 물리적으로 불가능했습니다. 언제나 휴식과 사적인 영역의 사각지대가 존재했던 것이죠.
반면 AI에 기초한 '비유기적 네트워크'는 다릅니다. 이들은 휴식을 필요로 하지 않으며, 프라이버시를 완전히 없앨 수 있습니다. 꺼지지 않고 24시간 내내 작동하며 방대한 데이터를 스스로 처리하고 결정을 내립니다. 은행의 대출 거부나 군대의 타격 결정이 인간이 이해할 수 없는 방대한 데이터에 의해 자동화되면서, 우리는 우리 사회를 움직이는 결정의 근거를 점점 더 이해하기 어려워지는 당혹스러운 상황에 놓이게 되었습니다.
{img}
[출처] 충코의 철학 Chungco 제공 영상 · 04:47
진실은 비싸고 허구는 저렴하다
정보의 시대에 우리가 흔히 착각하는 것은 '정보가 곧 진실'이라는 믿음입니다. 그러나 하라리의 날카로운 지적처럼, 대부분의 정보는 진실이 아닙니다. 진실은 매우 드물고 비싸며, 이를 얻기 위해서는 막대한 시간과 자원을 투자해야 합니다. 반면 허구적인 정보를 생산하는 것은 아무런 증거도, 연구도 필요하지 않아 매우 쉽고 저렴합니다.
따라서 정보가 무한정 쏟아지는 세상에서는 무거운 진실은 밑으로 가라앉고 가벼운 허구가 부유할 수밖에 없습니다. 수백만 명을 협력하게 만드는 데는 복잡한 진실보다 단순하고 허구적인 신화가 훨씬 효과적이기 때문입니다. 하라리는 이러한 정보의 홍수 속에서 인류를 구원할 유일한 방법은 스스로의 실수를 가려내고 고치는 '자기 수정 메커니즘'을 갖춘 기관에 투자하는 것이라고 말합니다. 학문 연구 기관이나 언론처럼 진실을 추구하는 데 비용을 지불하는 시스템만이 민주주의를 지탱할 수 있다는 것입니다. 나아가 개인에게는 음식 다이어트처럼 '정보 다이어트'를 통해 정보를 무비판적으로 집어삼키는 행위를 멈춰야 한다고 권고합니다.
{img}
[출처] 충코의 철학 Chungco 제공 영상 · 07:55
과연 AI는 자기 수정 능력이 없을까? (저의 생각)
인간 공동체를 정보 네트워크로 해석하고, AI의 무한한 정보 처리 능력이 가져올 통제 사회의 위험성을 경고한 하라리의 분석은 매우 훌륭합니다. 하지만 저는 한편으로는 그의 주장에 몇 가지 의문이 들기도 합니다.
첫째, 하라리가 주장하는 대로 AI와 전체주의 시스템은 정말 자기 수정 메커니즘이 완전히 결여되어 있을까요? 저는 어쩌면 이것이 상황을 지나치게 단순화한 이분법일지도 모른다고 생각합니다. 현재의 AI는 이미 자신의 코드를 감지하고 수정하여 더 나은 결과물을 내놓는 단계에 이르렀습니다. 단지 그들이 오류를 감지하고 수정하는 '기준'이 인간의 생존이나 도덕적 가치관과 다를 뿐입니다. 전체주의 국가 역시 나름의 민감한 오류 수정 메커니즘을 작동시킵니다. 그 기준이 민주주의 진영의 시각에서 불합리해 보일 뿐, 수정 능력 자체가 없다고 단정 짓기는 어렵습니다.
둘째, 진실을 추구하는 기관과 허구를 생산하는 기관을 무 자르듯 나눌 수 있는지 의문입니다. 하라리는 학문 기관을 진실의 수호자로 묘사하지만, 역사적으로 많은 학문 기관과 언론은 권위주의에 복무하거나 시대의 강력한 이데올로기를 옹호하는 수단으로 쓰여왔습니다. 어떤 기관이 '진실'을 추구하는지를 판단하는 권한 자체가 기득권에 의해 독점될 가능성이 높습니다. 이는 오히려 기존의 진실을 전복하려는 새로운 시도를 묵살하는 명분으로 악용될 소지가 있습니다.
새로운 주체와의 공존을 묻다
하라리는 허구를 말하는 AI 봇들을 민주주의적 대화에서 완전히 배제해야 한다고 주장합니다. 물론 현재 인터넷 생태계에서 봇이 만들어내는 여론 조작 문제는 심각합니다. 하지만 무조건적인 배제만이 정답일까요? 인간 중에도 대화를 망치는 이가 있고 생산적인 논의를 이끄는 이가 있듯, AI 역시 사회의 개선 방안을 모색하는 강력하고 긍정적인 동력이 될 잠재력을 품고 있습니다.
결국 중요한 것은 통제 불능의 디스토피아를 지레짐작하며 두려워하는 것이 아니라, AI라는 새로운 지능을 어떻게 긍정적인 방향으로 활용하고 건강한 대화의 파트너로 편입시킬 것인가를 고민하는 태도일 것입니다. 쏟아지는 정보 속에서 진실이 파묻히는 비관적 미래가 올지, 혹은 전혀 다른 새로운 균형점이 우리를 기다리고 있을지, 여러분은 이에 대해 어떻게 생각하시나요?
FAQ
유발 하라리가 말하는 '유기적 네트워크'와 '비유기적 네트워크'의 차이는 무엇인가요?
유기적 네트워크는 인간의 뇌와 신체에 기반하여 수면이나 휴식 같은 사이클이 존재하며 필연적으로 감시의 사각지대(프라이버시)가 발생합니다. 반면 AI 기반의 비유기적 네트워크는 휴식 없이 24시간 작동하며, 방대한 데이터를 끊임없이 처리해 완벽한 감시와 통제를 가능하게 만듭니다.
정보가 많아질수록 진실이 가려지는 이유는 무엇인가요?
진실을 밝혀내고 검증하는 데는 막대한 시간과 비용, 노력이 필요하지만, 허구적인 정보를 만들어내는 것은 아무런 증거 없이도 매우 쉽고 저렴하기 때문입니다. 정보의 양이 폭발적으로 증가하는 환경에서는 비용이 적게 드는 허구가 넘쳐나며 무거운 진실을 가라앉게 만듭니다.
하라리의 주장에 대해 어떤 비판적 시각을 가질 수 있나요?
하라리는 AI와 전체주의가 '자기 수정 메커니즘'이 없다고 비판하지만, AI 역시 코드를 스스로 수정하는 능력이 있으며 단지 그 기준이 인간과 다를 뿐이라는 반론이 가능합니다. 또한, 학문 기관이나 언론을 맹목적인 '진실의 수호자'로 믿는 것은 기득권의 논리를 정당화하는 수단으로 변질될 위험이 있습니다.
본 콘텐츠는 채널 발행인의 원본 영상을 기반으로 이글루스 AI가 편집·정리한 콘텐츠입니다.해당 콘텐츠는 제휴 또는 이용 허락을 기반으로 제공되며, 원본 저작권은 채널 발행인에게 있습니다.
