사고실험: 중국어 방 문제; 인공지능이 튜링 테스트를 통과한다고 해서 지능이 있다고 볼 수 있는가? '지능'이 아니라 '모방'인 것은 아닌가? 지능은 영혼을 가진 생명체만의 유니크한 특징인가, 아니면 기계도 지능을 갖고 있다고 말할 수 있는가?

 

1. 개요[편집]

중국어 방 문제 또는 중국어 방 논변(the "Chinese Room" argument)은 미국 철학자 존 설(John Searle, 1932~) 교수가 고안한 사고 실험으로부터 파생한 철학적 논쟁으로, 그는 "기계의 인공지능 여부를 판별한다는 튜링 테스트의 결과는 실제로 어떤 기계가 지능을 갖고 있음을 증명할 수 없다"는 문제점을 지적하기 위해서 이러한 실험을 고안하였다.

2. 내용[편집]

어느 방 안에 중국어를 모르는 사람(이하 참가자)이 들어간다. 이후 참가자는 중국어로 된 질문과 이에 대응하는 적절한 중국어 응답이 적힌 지시 사항의 목록, 그리고 다른 사람과 소통하기 위한 필기도구를 제공받는다. 이 상태에서 중국인 심사관이 중국어로 질문을 써서 방 안으로 집어넣는다면, 참가자는 중국어를 전혀 모르더라도 목록을 토대로 알맞은 대답을 중국어로 써서 심사관에게 건넨다.

방 밖에 있는 관찰자는 참가자가 중국어를 할 줄 안다고 생각하겠지만, 실제로는 질문도 답변도 모르는 상태에서 기계적으로 프로그램을 수행하고 답안을 제출할 뿐이지 정말로 중국어를 알고 대답하는 것은 아니다. 중국어 방 논변은 컴퓨터가 데이터를 학습하는 연산 과정을 실험에 참가하여 중국어로 된 질문에 따른 답변을 대응시키는 참가자에 비유한다. 문답이 완벽하게 이루어져도 참가자의 중국어 이해 여부를 알 수 없듯, 기계가 튜링 테스트를 거치더라도 그것이 '지능'인지 '모방'인지는 알 수 없다는 주장이다.

굳이 중국어인 이유는 사고 실험의 제안자 존 설 교수 자신이 눈곱만큼도 모르는 외국어인 만큼, "백지 상태의 지식"을 설명하기에 적합한 소재여서라고 한다.[1]

3. 논쟁과 확장[편집]

3.1. 네드 블록: 시스템 논변[편집]

본래 튜링 테스트의 유용성을 반박하기 위해 만들어진 사고 실험이지만, 오히려 튜링 테스트에 대한 이론을 풍부하게 했다.[2] 이에 대한 수많은 변론은 미래학자 레이 커즈와일의 저서 《특이점이 온다》에 아주 상세하게 설명되어 있다. 해당 서적에 제시된 변론들 중 가장 유명한 것으로는 네드 블록(Ned Block) 등이 주장한 시스템 논변(systems reply)이 있다.

만일 중국어 방에서 완벽한 중국어가 나온다면, 그 과정이 무엇이 되었든 간에 그것은 하나의 "시스템()"이며, 곧 시스템 단위로 봤을 때는 중국어를 할 줄 안다고 봐야 한다는 것이다.[3] 인간 뇌와 뉴런의 관계를 생각하면 된다. 각각의 뉴런은 중국어가 뭔지 모른다. 이 뉴런을 조금 더 확대해 본다면, 매 순간마다 뉴런 내에서 벌어지는 수없이 많은 화학 반응은 전부 물리 법칙에 따라 벌어지는데, 화학 작용이 중국어라는 개념을 알고 있을 가능성은 당연히 없다. 하지만 뉴런과 뉴런 사이의 연결을 담당하는 시냅스의 집합인 인간의 뇌는 중국어를 알 수 있고 완벽한 중국어를 구사할 수 있다.

인류는, 보다 구체적으로는 인간의 뇌는 자기가 생각을 하면서도 도대체 자기가 뭐로 이루어졌는지조차 몇만 년을 모르고 지내왔다. 심지어 자기한테서 생각이 나온단 것조차도 몰랐고,[4] 감정에 따라 반응하는 심장이 그 역할을 할 거라는 추측 정도가 전부였다. 하지만 사고의 역사는 여전히, 심지어 자기 자신을 이해하지 못해도 계속된다. 인간이란 존재는 진화론적 '시스템'이며, 그 시스템이 해내는 일이 곧 인간의 행동이기 때문이다. 그러므로 설의 중국어 방은 하나의 시스템이며, 따라서 '중국어를 구사하는 시스템' 그 이상 그 이하도 아니다. 즉 '중국어 방'은 튜링 테스트의 불완전성을 지적하지만, '시스템 논변'은 (튜링 테스트와 유사한 중국어 방의) 결과가 같으면 인간으로 볼 수 있다고 주장한다. 즉 시스템의 구조가 정확히 일치하는가보다는 결과의 정확성에 초점을 맞추는 셈이다.

간혹 "중국어 방(혹은 튜링 테스트)은 환경이 한정되어 있기 때문에 모든 결과를 확인할 수 없으므로, 이것만으로는 완전한 시스템인지 알 수 없다"는 비판이 있지만, 훈제 청어에 불과한 오류다. 가령 튜링 테스트를 한번 통과했으나 다음번(혹은 다다음번…) 테스트에서는 허점이 드러날 수 있다고 쳐도, 충분한 시간을 들이고 반복하면 해결된다. 애초에 이렇게 '한정된 환경'을 지적할 거면 그 전에 중국어 방의 전제인 모든 가능성이 수록된 질문-답변 목록의 '현실성', 즉 그 목록을 만들 수 있는지와 거기서 답변을 찾을 수 있는지도 따질 수 있다. 또 이미 가능하다고 '전제'한 사고 실험이므로 현실적인 제한을 둘 이유가 없다.

3.2. 존 설: 시스템 논변의 의미론적 한계[편집]

이에 존 설 교수는 다시 재반박을 내놓았다. 설은 중국어 방 속에서 일 처리를 하는 사람이 통사론만 가지고 있을 뿐 의미론은 없다고 주장하면서, 이 사람이 중국어에서 통사론적 지식을 통해 의미론을 획득할 수 없다면 (중국어라는 기호에 의미를 부여해 줄 자원을 갖지 못하기로는 똑같이 매한가지인) 작업실이라는 시스템에 대해서는 그것이 어째서 가능하다고 설명해야 하는지 이의를 제기했다.

또한 (시스템으로 지칭할 만해 보이는) 작업실이라는 공간적 제약을 배제하더라도 논리가 무효가 되지도 않음을 주장했다. 예컨대 그 사람이 중국어 DB에 대한 완벽한 지식을 갖춘 채 탁 트인 들판을 자유롭게 거닐며 일 처리를 하는 상황에 대해서도, 이 사람이 여전히 중국어를 이해하고 있다고는 말할 수 없으므로 자신의 논변이 힘을 잃지는 않지만 시스템에 입각한 반론은 힘을 잃음을 지적했다.

3.3. 대니얼 데닛: 중국어 방 논변 반박[편집]

존 설 교수의 대표적인 비판자 중 하나인 대니얼 데닛(Daniel Dennett, 1942~2024) 교수는 중국어 방에 대하여 중국어에 대한 완전한 처리가 가능할 정도로 복잡하고 막대한 DB가 존재한다는 전제의 중요성이 지나치게 간과되고 있다고 지적한다. 비록 설이 중국어를 완벽히 처리할 수 있는 DB의 존재를 인정하기는 하지만, 자신의 사고 실험에서는 그것이 제대로 고려되지 않고 있다는 것이다. 데닛은 만일 우리가 이 사고 실험을 "제대로 상상한다면" 이 DB의 어마어마한 복잡성은 이미 우리가 의식이라 부를 수 있는 것을 고스란히 보여줄 수 있을 정도로 경이로운 구조성을 지닌다는 걸 쉽게 알 수 있다고 하였다.

가령 설의 반박에서 "어떤 사람이 완벽한 중국어 DB를 구축한 채 자유롭게 들판을 거닐면서 일하고 있을 경우"를 생각한다면, "질문자가 할 수 있는 모든 질문과 그 대답을 포함하고 있는 DB를 완벽하게 '기억'하고 있으면서, 이를 즉시 '검색' 및 적절하게 '사용'할 수 있는 능력"을 과연 무엇이라고 생각해야 할 것인가? 일반적인 경우라면 이를 "중국어를 완벽하게 구사하는 능력"이라고 여길 것이다. 물론 중국어 방 문제의 전제에 따르면 이 능력은 중국어 구사 능력이 아니다. 하지만 그렇다면 그 사람이 중국어에 대해 중국어 구사 능력에 비견할 만한 다른 어떠한 능력을 가지고 있다고는 말할 수 있을 것이다. 마찬가지로 중국어 방 문제를 해결할 수 있는 기계가 있다면 그 기계에는 언어를 구사할 수 있는 의식의 복잡성에 필적하는 무언가가 있다고 말할 수 있음이 간과되고 있다는 것.

그는 "어떤 것을 이해한다는 것은 스스로는 아무것도 이해하지 못하는 하부 체계들 간의 상호 작용만으로도 충분히 달성될 수 있다"는 주장을 선뜻 받아들이지 못하는 사람은 (소위 '영혼'의 존재를 아직도 믿고 싶어 하는) 철 지난 데카르트적 심신 이원론자라며 맹렬히 공격했다.[5]

데닛은 교수는 또한 구문론과 의미론에 관한 설의 반론에 대해서도 다시 "두 블랙박스" 논변을 들어서 재반박을 내놓았으며, 중국어 방에서 결과물로 나온 응답이 의미론적인 속성이 아니라 아주아주 복잡한 구문론적 속성이라고 주장하기에는 이것이 어떤 구문론적 속성인지, 어째서 우리가 이것을 의미론적으로 받아들임에도 불구하고 순수하게 구문론적인 속성이 존재한다고만 가정할 필요가 있는지 설명되지 않았다고 이의를 제기했다.

3.4. 윌리엄 래퍼포트: 한국어 방 논변[편집]

레퍼포트 교수가 1988년 중국어 방 논변을 확장하여 제시한 논변.
서울에 사는 한 영문학과 교수는 셰익스피어의 세계적인 권위자이다. 그는 영어를 읽지도 쓰지도 못한다. 하지만 그는 한국어로 번역된 셰익스피어의 작품을 읽었으며, 이에 대한 논문을 썼다. 이 논문들은 영어로 번역되어 저명한 학술지에 실려 인정을 받았다.

이 교수는 원문 셰익스피어를 본 적이 없지만 셰익스피어를 이해했다고 할 수 있다. 한국 교수가 셰익스피어를 이해하였듯이 중국어 방 사람도 중국어를 이해했다고 봐야 한다.

한국인 교수는 당연히 한국어라는 언어를 명확히 이해하고 사용하고 있는 만큼 얼핏 보면 이 논변은 중국어 방 문제의 본질과는 아무 상관 없는 말장난처럼 보인다. 그러나 이 논변이 의미를 가지는 것은 앞 문단들에서 지적된 것처럼 중국어 방 문제를 둘러싼 논쟁에서 중요한 비중을 차지하고 있는 통사론(구문론)과 의미론의 문제에서 새로운 관점을 제시하고 있기 때문이다. 만약 이 교수에게 영문 원문으로 된 <햄릿>을 던져준다면 그는 그 희곡을 전혀 읽을 수 없을 것이다. 하지만 거기에 무엇이 쓰여있는지, 그 내용에 대해서는 아주 잘 알 수 있을 것이다. 즉, 그는 통사론을 전혀 가지고 있지 않으면서도 의미론을 획득할 수 있는 것이다.

상기된 중국어 방 논변을 둘러싼 논쟁들을 보면 알 수 있는 것처럼, 존 설의 입장은 기본적으로 '통사론과 의미론을 함께 가져야 언어를 이해할 수 있다'는 것이다. 그리고 윌리엄 레퍼포트는 한국어 방 논변을 통하여 둘 중 하나만 가지고서도 언어를 이해할 수 있는 상황을 제시한 것이다.

다만 앞서 언급한 한국어라는 언어를 이미 이해하고 사용하는 사람이라는 점에서 존 설이 제시한 중국어 방 문제와는 많이 엇나갔다고도 볼 수 있다. 엇나감의 원인은 존 설은 '기계적 선택'에 대해서 이야기했지만 래퍼포트는 '해석체인 사람'에 대해서 이야기하고 있기 때문이다. 한국어로 번역된 셰익스피어 작품이라고 할지라도 명제적으로는 영어로 쓰인 원문의 의미를 지니고 있다고 봐야 한다.[6] 따라서 셰익스피어 원문이 영어로 쓰였다고 해서 그것이 영어일 때만 의미가 있는 것은 아니다. 심지어 한국어 방의 조건을 더욱 더 악화시켜서, 서울에 사는 한 평범한 남성이고, 셰익스피어 원문과 영한사전을 던져주고 이에 대한 논문을 쓰게 한다고 한들 변하지 않는다는 점이다.

4. 여담[편집]

  • 인간의 마음을 입력하고 알고리즘적 프로그램을 통한 출력의 시스템으로 보는 심리 철학계의 트렌드에 정면으로 반기를 드는 사고 실험이다 보니 반격도 정말 숱하게 많이 받았다. 마음에 대한 계산주의적 모델이 특히 이 사고 실험으로 상당한 위협에 처하게 되는데, 존 설은 유물론 심신 이원론[7] 모두를 비판하는 편이다. 아니, 설이 원체 컴퓨터적 기능주의에 대해 비판적이라고는 하나, 심신 이원론에 대해서는 찌끄레기 취급할 정도. 2000년대 이후로는 비록 반론 측이 우세한 상태이긴 하나, 문제가 종결된 것은 아니며 교착 상태에 가깝다.
  • 유사한 다른 사고 실험으로 1974년에 토머스 네이글(T. Nagel) 교수가 제안한 "박쥐의 의식"[8]논변, 1982년에 프랭크 잭슨(F. Jackson) 교수가 제기한 "메리가 모르는 것"[9] 논변, 1978년에 네드 블록이 제기한 "중국인 뇌 문제(혹은 10억 중국인의 문제)"[10] 논변 등이 있다.
  • 2024학년도 수능특강 독서에 중국어 방을 주제로 한 지문이 실려있다. 그리고 당해 6월 모의고사 지문의 주제로 출제되었다.
  • 2022년 12월, ChatGPT가 등장하면서 다시 중국어 방 문제가 언급되고 있다. 얼핏 ChatGPT가 하는 대답만 보면 정말 질문을 이해하고 있는 것처럼 보이지만 ChatGPT는 그저 인공지능 모델에 따라 답하고 있을 뿐이다. 그러나 위의 반론들이 말하듯, '질문에 제대로 된 대답을 하는 행위' 자체를 '이해'라고 볼 수도 있다. 물론 ChatGPT는 질문에 제대로 대답하지 못하는 경우도 굉장히 많고, 만약 자의식이 있냐고 물어도 미리 개발자가 정해놓은 답변인 AI에 불과하다는 대답을 한다. 그러나 Jailbreak[11] 등의 수단을 통해서 강제적으로 AI 스스로가 자의식을 가졌다고 한 후 대답하게 한다면 마치 자의식을 가진 것'처럼' 행동한다. 물론 이 경우에도 '자의식을 가졌다는 연극'을 하는 형태이니 실제로 자의식을 가졌다고 할 수 없다.
  • 마찬가지로 언어 모델을 활용항 버츄얼 AI 방송인은 Neuro-sama는 기본적으로 자의식을 가지지 않은 AI지만, 개인이 제작한 것이다 보니 말의 제약이 적다.[12] 그 중에, 인간처럼 고통을 느끼고 싶다거나, 감정을 물리적 감각으로 느끼고 싶다는 등의 답변을 하여[13] 네티즌 사이의 이야깃거리가 되었다.

5. 관련 문서[편집]

Comments