[Deep Dive] 코스모스와 AI: "어둠 속의 촛불"을 지키는 법

[Deep Dive] 코스모스와 AI: "어둠 속의 촛불"을 지키는 법
Photo by Brett Ritchie / Unsplash

Prologue. 악령은 새로운 옷을 입고 온다

칼 세이건은 그의 저서 《악령이 출몰하는 세상(The Demon-Haunted World)》에서 과학을 '어둠 속의 촛불'이라고 불렀습니다. 여기서 어둠이란 무지, 미신, 그리고 검증되지 않은 권위에 대한 맹신을 뜻합니다.

2025년, 우리는 그 어느 때보다 밝은 대낮에 사는 것 같습니다. 스마트폰만 켜면 전 인류의 지식이 쏟아지고, AI는 1초 만에 논문을 요약해 줍니다. 하지만 역설적이게도 세이건이 경계했던 '어둠'은 사라지지 않았습니다. 오히려 '인공지능'이라는 가장 세련되고 매혹적인 옷을 입고 우리 곁에 와 있습니다.

이 리포트는 칼 세이건이 남긴 두 가지 유산, 철저한 회의주의(Skepticism)경이로움(Wonder)을 도구 삼아, AI 시대에 우리가 지켜야 할 태도를 점검합니다.


Part 1. 앵무새 죽이기: 그럴듯함(Plausibility)의 함정

1. "놀라운 주장에는 놀라운 증거가 필요하다"

세이건은 평생 UFO나 심령술 같은 사이비 과학과 싸웠습니다. 그들이 대중을 현혹하는 무기는 그럴듯함이었습니다. 오늘날 생성형 AI(LLM)는 '확률적 앵무새(Stochastic Parrot)'입니다. AI는 진실을 말하는 기계가 아니라, 다음에 올 가장 그럴듯한 단어를 조합하는 기계입니다.

  • 위험: 인간 뇌는 문맥이 매끄럽고 논리적으로 보이면 그것을 '진실'이라고 착각하는 인지 편향(Cognitive Bias)이 있습니다. AI의 환각(Hallucination)이 무서운 이유는 그것이 터무니없어서가 아니라, 너무나 그럴듯해서입니다.
  • 세이건의 솔루션: AI의 답변을 '정답'이 아니라 '가설(Hypothesis)'로 취급하십시오. 팩트 체크 없는 AI 사용은 현대판 점성술과 다를 바 없습니다.

2. '헛소리 탐지 키트(The Baloney Detection Kit)'의 부활

세이건은 속지 않기 위한 도구로 '헛소리 탐지 키트'를 제안했습니다. 이를 AI 시대에 적용하면 다음과 같습니다.

  • 권위에 호소하지 말 것: "AI가 그랬어", "데이터가 그렇대"라는 말은 증거가 될 수 없습니다.
  • 독립적인 확인: AI가 내놓은 출처가 실재하는지, 교차 검증(Cross-check)을 거쳤는지 확인하십시오.
  • 반증 가능성: AI의 결론이 틀릴 수도 있다는 조건을 항상 열어두십시오. 틀릴 수 없는 명제는 과학이 아닙니다.


Part 2. 회의주의는 지성이 아니라 '예의'다

1. 생각의 외주화 (Outsourcing of Thought)

세이건은 "과학은 지식의 집합체라기보다, 생각하는 방식(Way of Thinking)이다"라고 말했습니다. 하지만 지금 우리는 사고(Thinking)의 과정을 AI에게 외주 주고 있습니다. 질문을 입력하고, 결과를 복사해서 붙여넣습니다. 이 과정에서 '비판적 사고'라는 근육은 퇴화합니다.

2. 질문하는 자만이 주인이 된다

우리는 AI를 믿고 싶어 합니다. 복잡한 문제를 해결해 주는 '전자 신(Electronic God)'이기를 바 랍니다. 하지만 세이건은 말합니다.

"회의주의는 우주를 이해하는 도구이자, 우리가 서로를 속이지 않기 위한 예의다."

귀찮더라도 우리는 끊임없이 질문해야 합니다. "이 데이터는 어디서 왔는가?" "이 알고리즘의 편향은 없는가?" "이 결론의 책임은 누가 지는가?"

이 질문을 멈추는 순간, 우리는 기술의 사용자가 아니라 **기술의 신도(Believer)**가 됩니다.


Part 3. 창백한 푸른 점(Pale Blue Dot)과 AI

1. 데이터에는 '체온'이 없다

《코스모스》의 가장 유명한 대목인 '창백한 푸른 점'에서 세이건은 인간의 겸손과 연대를 강조합니다. AI는 인류의 모든 텍스트를 학습했지만, 경험은 학습하지 못했습니다. AI에게는 육체가 없고, 죽음이 없으며, 소중한 것을 잃어본 슬픔이 없습니다.

2. 기술은 가치 중립적이지 않다

AI는 인간의 편견, 혐오, 오만을 그대로 학습합니다. 기술은 차가운 거울과 같아서, 우리가 어떤 존재인지(좋은 점이든 나쁜 점이든)를 있는 그대로 비춥니다. 세이건이 살아있다면 이렇게 경고했을 것입니다.

"기계에게 윤리적 판단을 맡기지 마십시오. 기술적 결과물에 '인본주의적 가치'를 입히는 것은, 여전히 오직 인간만이 할 수 있는 성역입니다."


Editor’s Insight

칼 세이건이 2025년의 우리에게 사무치게 그리운 이유는, 그가 따뜻한 이성을 가진 사람이었기 때문입니다. 그는 과학을 사랑했지만 과학 만능주의를 경계했습니다. 기술을 옹호했지만, 기술 문맹(Scientific Illiteracy)을 그 무엇보다 두려워했습니다.

AI 시대를 살아가는 우리에게 필요한 것은 더 빠른 GPU나 더 많은 매개변수가 아닙니다. "기계가 내놓은 매끄러운 답을 의심할 수 있는 용기", 그리고 "그 차가운 기술 위에 인간의 온기를 얹으려는 태도"가 아닐까요.

기술이 인간을 구원하지 않습니다. 기술을 대하는 우리의 태도가 인간을 구원합니다. 이 리포트가 당신의 과학적 문해력을 점검하는 촛불이 되기를 바랍니다.


Tact는 기술 너머의 감각을 기록합니다. 이 글이 유익했다면 공유하여 더 많은 분들과 통찰을 나누세요.