페이지

글 목록

2021년 4월 8일 목요일

[요약] 중국어 방 논증에 대한 반론들(Churchland and Churchland 1990; Copeland 1993; Block 2002 합본) 및 논의거리

Churchland, P. M. and Churchland, P. S. (1990), “Could a Machine Think?”, Scientific American, 262(1), pp. 32-37.

Copeland, J. (1993), “The Curious Case of the Chinese Gym”, Synthese 95(2), pp. 173-186.

Block, N. (2002), “Searle’s Arguments Against Cognitive Science”, in J. Preston and M. Bishop (eds.), Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, Oxford University Press, pp. 70-79.

 

목차

I. 중국어 방 논증은 고전적 AI 연구 프로그램에 대한 적절한 반론인가?

II. 고전적 AI가 의식적 지능을 가질 수 있는가?

III. 뇌가 컴퓨터라는 주장은 사소한가?

IV. 중국어 체육관 논증은 연결주의에 대한 적절한 반론인가?

 

Notations

설의 주장

설의 주장에 대한 반론

 

 

I. 중국어 방 논증은 고전적 AI 연구 프로그램에 대한 적절한 반론인가?

(1) 처칠랜드 부부

: 중국어 방 논증 [처칠랜드 부부의 정식화]

(전제 1) 컴퓨터 프로그램은 형식적(구문론적)이다.

(전제 2) 인간의 마음은 심적 내용(의미론)을 가지고 있다.

(전제 3) 구문론 그 자체는 의미론을 구성하지도 않고 의미론을 발생시키기에 충분하지도 않다.

(결론) 따라서, 프로그램은 마음을 구성하지도 않고 마음에 충분하지도 아니다.

 

처칠랜드 부부: 설의 주장대로 중국어 방은 중국어를 이해하지 못한다. 하지만 그 이유는 중국어 방의 계산 속도가 매우 느리기 때문이지, 위의 논증이 옳기 때문이 아니다. 설은 위의 논증에서 (전제 3)을 뒷받침하지 않았는데, 이는 선결 문제 요구의 오류를 저지른 것이다. 규칙에 따르는 기호 조작이 의미론적 현상을 만들어낼 수 있는지의 여부는 고전적 AI 연구 프로그램에서 밝혀내려고 하는 것인데, (전제 3)은 그것이 불가능하다고 근거 없이 단정짓고 있다. 또한, (결론)의 내용 대부분이 (전제 3)에 이미 포함되어 있다는 점도 이 논증이 선결 문제 요구의 오류를 범하고 있다는 점을 보여준다.

직관적 설득력도 (전제 3)을 뒷받침해주지는 못한다. 다음과 같은 사례들도 모두 직관적으로 설득력 있지만 거짓이다.

- 공기의 압축파는 객관적인 소리를 구성하지도 않고 소리를 발생시키기에 충분하지도 않다.

- 작은 입자들 그 자체는 객관적인 빛 현상을 구성하지도 않고 빛 현상을 발생시키기에 충분하지도 않다.

- 물질 그 자체는 생명을 구성하지도 않고 생명 현상을 발생시키기에 충분하지도 않다.

- 전기력과 자기력은 밝음(luminance)을 구성하지도 않고 밝음을 발생시키기에 충분하지도 않다.

 

 

(2) 블록

블록은 중국어 방 논증에 대한 시스템 반론을 옹호한다.

 

시스템 반론: 방에 갇힌 조(Joe)는 중국어를 이해하지 못하더라도, ·질문-대답 대응표·방을 포함하는 시스템은 중국어를 이해할 수 있다.

 

: 조가 대응표를 완전히 암기했다고 해보자. 그리고 이제 방이 따로 있는게 아니라 조가 야외에 나와 있다고 해보자. 그러면 조는 중국어로 질문을 받으면 중국어로 답변할 수 있다. 그럼에도 그는 중국어에 대해 아무것도 이해하지 못한다. 게다가 시스템도 중국어를 이해하지 못한다. 왜냐하면 이 시스템은 조의 부분에 불과하기 때문이다.

 

블록: 이 경우 조의 뇌는 중국어 시스템과 영어 시스템(중국어 입력이 있으면 어떻게 해야 한다는 지시사항이 포함되어 있음)을 모두 구현한다. 차이점은 조가 영어 시스템은 지각할(aware) 수 있는 데 반해, 중국어 시스템은 지각할 수 없다는 것이다. 그러나 조가 중국어 시스템을 지각하지 못한다고 해서, 중국어 시스템이 생각을 하지 못한다고 볼 수는 없다. 다중인격자 내의 한 인격이 다른 인격을 지각하지 못해도, 그 인격들이 모두 생각을 할 수 있는 것과 마찬가지이다.

 

 

(3) 코플랜드

: 중국어 방 논증 [코플랜드의 정식화]

(전제 1) 조의 부분이 아무리 기호 조작을 해도 조는 중국어를 이해할 수 없다.

(결론) 조의 부분이 아무리 기호 조작을 해도 시스템은 중국어를 이해할 수 없다.

 

코플랜드: 위와 같이 정식화되면 중국어 방 논증은 타당하지 않다. , 결론이 참인지의 여부와 무관하게, 애초에 전제에서 결론이 따라 나오지 않는다. 위 논증에서 전제는 조에 대한 것인데, 결론은 시스템에 대한 것이기 때문이다. , 위 논증은 조에 대한 전제에서 시스템에 대한 결론으로 잘못 추론하는 것이다. 이는 다음 논증과 같은 잘못을 범하는 것이다.

 

(전제 1) 청소부 빌은 한국에 파자마를 팔지 않았다.

(결론) 빌이 일하는 회사는 한국에 파자마를 팔지 않았다.

 

이 반론은 시스템 반론과 유사해 보이지만 차이점도 있다. 이 반론은 중국어 방 논증의 결론이 참인지와 무관하게 그 논증이 타당하지 않다는 것이다. 반면 시스템 반론은 중국어 방 논증의 결론이 거짓이라는 주장까지 포함한다.

 

: 조가 대응표를 완전히 암기했다고 해보자. 그리고 이제 방이 따로 있는게 아니라 조가 야외에 나와있다고 해보자. 그러면 조는 중국어로 질문을 받으면 중국어로 답변할 수 있다. 그럼에도 그는 중국어에 대해 아무것도 이해하지 못한다. 게다가 중국어 시스템도 중국어를 이해하지 못한다. 왜냐하면 이 시스템은 조의 부분에 불과하기 때문이다. 이러한 상황을 가정하고 다음과 같은 전제 (a), (b)를 추가하면 논증이 타당해진다.

 

(전제 1) 조의 부분이 아무리 기호 조작을 해도 조는 중국어를 이해할 수 없다.

(전제 a) 중국어 시스템은 조의 일부이다.

(전제 b) 만약 조가 중국어를 이해하지 못한다면, 조의 어떤 부분도 중국어를 이해하지 못한다. [일반적으로, 만약 XΦ를 하지 못한다면, X의 어떤 부분도 Φ를 하지 못한다.] - “~의 부분(Part-Of) 원리

(결론) 따라서, 조의 부분이 아무리 기호 조작을 해도 시스템은 중국어를 이해할 수 없다.

 

코플랜드: (전제 b)에 대한 반례를 다음과 같이 구성해볼 수 있다.

AI 연구자들이 조를 납치해서, 조의 일부 뇌 조직에 시제 논리의 정리들을 증명하는 프로그램을 성공적으로 구현했다. 증명 과정은 조의 뇌에 연결된 외부 화면에 나타났는데, 조는 그 증명을 전혀 이해할 수 없었다.

이 경우 조는 시제 논리의 정리들을 증명하지 못하지만, 조의 부분(일부 뇌 조직)은 증명할 수 있다. 이 사례는 XΦ를 하지 못하는데도, X의 한 부분 Φ를 하는 경우이므로 (전제 b)에 대한 반례이다.

 

 

II. 고전적 AI가 의식적 지능을 가질 수 있는가?

(1) 처칠랜드 부부

처칠랜드 부부: 고전적 AI 연구 프로그램이 의식적 지능을 가진 기계를 만들어낼 수 없다는 점에서 설의 결론은 옳다. 하지만 그 이유는 설이 생각하는 것과 다르다. 그 이유는 다음과 같다.

- 고전적 AI는 뇌가 쉽게 수행하는 많은 인지적 작업들을 제대로 수행하지 못한다. 이는 고전적 기호 조작 기계의 기능적 구조가 실제 뇌의 기능적 구조와 다르다는 점을 시사한다.

- 뇌에서 일어나는 인지 과정은 병렬 분산 구조로 되어 있을 가능성이 높다.

 

: 마음을 실현시킬 수 있는 모든 시스템은 뇌와 동등한(equivalent) 인과력(causal powers)을 가져야 한다. 그리고 생화학적 층위를 포함한 모든 층위가 해당 시스템에 표상되어야 한다.

 

처칠랜드 부부: 의식적 지능에 반드시 생화학 물질이 필요하지는 않다. 다른 물질로도 의식적 지능을 구현할 수 있을 것이다. e. g. 인공 망막과 인공 달팽이관을 만든 연구. 이 인공 기관들은 동물의 해부학적, 생리학적 사항들을 반영해 만들어졌는데, 그 산출값은 동물 기관들의 산출값과 매우 유사했다. , 동물의 기관이 포함하는 복잡한 정보 처리 네트워크는 생화학 물질이 아니더라도 구현할 수 있다.

 

 

(2) 블록

블록: 중국어 시스템이 현상적 의식을 가진 시스템인지 의심스럽다는 점에서는 설에게 공감한다. 의식은 기호 조작 그 자체보다, 기호 조작의 구현과 관련된 것으로 보이기 때문이다. 설이 중국어 방과 이 문제를 직접적으로 연결시키지는 않지만, 그는 지향성에 의식이 필요하다고 주장한다. 그렇다면 중국어 시스템이 의식적이지 않다면 지향적 시스템도 아닐 것이다.

이 문제는 [블록 자신이 제시했던] "벽돌머리"(blockhead) 사고실험과 연결시킬 수 있다. 벽돌머리는 튜링 테스트를 통과할 수 있지만 지능은 없는 가상적인 기계이다. 튜링 테스트가 한정된 시간 동안 지속된다면, 벽돌머리는 그 시간 동안 나올 수 있는 모든 대화를 데이터베이스에 저장하고 있다. 그래서 시험자가 어떤 문자열을 입력하면, 그 문자열로 시작하는 대화를 데이터베이스에서 찾아서 대답을 출력한다. (실제로는 가능한 대화가 엄청나게 많기 때문에 벽돌머리를 만들기 어렵지만, 대화의 수는 어디까지나 유한하기 때문에 원리적으로 못 만드는 것은 아니다).

 

e. g.

문자열 1(시험자): 안녕, 나는 시험자야.

문자열 2(벽돌머리): 안녕, 너는 힘든 일을 하는구나. (데이터베이스에서 문자열 1로 시작하는 대화들을 검색하고, 그 중 한 대화에서 문자열 2를 출력)

문자열 3(시험자): 돈을 많이 주니까 참고 해야지.

문자열 4(벽돌머리): 그래, 돈은 중요하지. (데이터베이스에서 문자열 1-2-3으로 시작하는 대화들을 검색하고, 그 중 한 대화에서 문자열 4를 출력)

....

 

이런 방식으로 벽돌머리는 튜링 테스트를 통과할 수 있다. 하지만 벽돌머리는 의식을 갖고 있지 않다. 이 점은 튜링 테스트와 같이 행동주의적 시험만으로는 기계가 의식적 지능을 갖는지 판별할 수 없고, 기계의 내적 작동 메커니즘까지 알아야 한다는 것을 보여준다. , 설은 마음은 생화학 물질로 구성되어야 한다고 주장하는데 벽돌머리 사고실험에서는 그런 추정까지 할 필요가 없다.

 

 

 

 

III. 뇌가 컴퓨터라는 주장은 사소한가?

: 뇌가 일종의 컴퓨터라는 계산주의 논제는 거짓은 아니지만 사소하다(trivial). 왜냐하면 충분히 복잡한 모든 것은 모든 것을 계산할 수 있기 때문이다. 계산의 핵심은 기호들의 관계와 의미들의 관계 사이의 동형성이다. 우리가 한 기계의 물리적 상태들이 기호로 간주한다면, 그 기호들 사이의 인과적 관계는 그 기호들의 의미들 사이의 관계를 반영한다고(mirror) 간주할 수 있다.

e. g. 우리는 시점 t에서 벽의 두 가지 물리적 상태를 기호 '0'과 기호 '1'로 간주할 수 있고, 시점 t+1에서 벽의 물리적 상태를 '1'로 간주할 수 있다. 그러면 시점 t에서 시점 t+1으로 시간이 흐를 때 그 벽은 0 XOR 1 = 1을 계산한 것이다. 따라서 벽도 컴퓨터라고 할 수 있다. [원문의 예를 바꿈.]

 

블록: 기호-의미 동형성은 설이 말하는 것보다 더 엄격하다. 동형성은 그 기계가 수행하는 계산뿐만 아니라, 그 기계가 수행할 수 있었던 모든 계산들을 포함해야 한다.

e. g. 시점 t에서 '0'에 해당하는 벽의 물리적 상태가 '1'이었더라면, 산출값이 '0'으로 대체되는 계산 1 XOR 1 = 0도 포함해야 벽이 컴퓨터라고 할 수 있다.

 

: 그런 점을 인정하더라도, 어떤 대상이 컴퓨터인지 아닌지를 결정하는 것은 여전히 우리가 그것의 상태를 어떻게 해석하는지에 달려 있다.

e. g. 어떤 장치에 전압이 두 번 입력되면 그에 따라 특정 전압이 출력된다고 하자. 그 장치의 물리적 상태를 다음과 같이 나타낼 수 있다.

 

물리적 상태

입력값 1

입력값 2

출력값

4V

4V

4V

4V

7V

4V

7V

4V

4V

7V

7V

7V

 

해석 1: 4V = ‘0’, 7V = ‘1’

입력값 1

입력값 2

출력값

0

0

0

0

1

0

1

0

0

1

1

1

 

해석 2: 4V = ‘1’, 7V = 0

입력값 1

입력값 2

출력값

1

1

1

1

0

1

0

1

1

0

0

0

 

해석 1에 따르면 이 장치는 AND 게이트(두 입력값이 모두 ‘1’일 때만 출력값 ‘1’, 다른 경우에는 모두 출력값 ‘0’)이다. 반면 해석 2에 따르면 이 장치는 OR 게이트(두 입력값이 모두 모두 ‘0’일 때만 출력값 ‘0’, 다른 경우에는 모두 출력값 ‘1’)이다. 이처럼 물리적 상태를 어떻게 해석하는지에 따라 이 장치가 OR 게이트인지 AND 게이트인지 달라진다.

 

블록: 설의 주장은 부분적으로 옳다. 어떤 대상이 컴퓨터인지를 결정하는 것은 부분적으로 우리 해석에 달렸다. 그러나 전적으로 해석에 달린 것은 아니다. 위의 예에서 물리적 상태를 어떻게 해석하든, OR 게이트는 XOR 게이트(입력값 두 개가 서로 다를 때 출력값 ‘1‘, 같을 때 출력값 ’0’)로는 해석될 수 없다. 이처럼 해석에는 제약이 있고, 따라서 뇌가 특정 종류의 컴퓨터라는 주장은 사소하지 않다.

 

 

IV. 설은 연결주의를 적절히 반박했는가?

(1) 처칠랜드 부부

: 병렬 분산 네트워크도 진정한 의미론적 내용을 처리할 수 없다. - 중국어 체육관 논증

넓은 체육관에서 병렬 분산 네트워크를 만들도록 사람들이 조직화되어 있다. 사람들은 각자 초록 토큰과 빨강 토큰을 가지고 있어서, 자신에게 들어오는 입력값에 따라 자신과 연결되어 있는 사람에게 초록 토큰을 건네주거나(excitatory connection) 빨간 토큰을 건네줄 수 있으며(inhibitory connection), 건네주는 토큰의 수도 각자 다르다(weight). 이 네트워크는 중국어 입력값이 들어오면 중국어 산출값을 내놓는다. 그런데 이 네트워크의 어떤 사람도 중국어를 이해하고 있지 못한다.

 

처칠랜드 부부 1: 그 시스템의 단위(네트워크를 이루는 개개인)가 중국어를 이해하지 못한다고 해서, 시스템 전체가 중국어를 이해하지 못한다는 보장은 없다. e. g. 내 뉴런 하나하나는 영어를 이해하지 못하지만, 나는 영어를 이해한다.

 

처칠랜드 부부 2: 설은 병렬 분산 네트워크를 만들 때 엄청나게 많은 사람이 필요할 것이라는 점을 간과했다. 인간 뇌는 1011개의 뉴런을 가지고 있고 각 뉴런은 평균적으로 103개의 연결을 가지고 있다. 따라서 인간 뇌와 같은 패러렐 네트워크를 만드려면, 중국어 체육관에 대략 1014명 정도의 사람이 필요할 것이다. 만약 이런 거대한 시스템이 구현된다면, 중국어 체육관은 기능을 할 수도 있다. 물론 연결주의 이론이 뇌의 실제 인지적 과정에 대해 옳다는 보장이 없기 때문에 확실치는 않지만, 적어도 중국어 체육관이 중국어를 이해하지 못한다는 점을 선험적으로 알 수는 없다.

 

 

(2) 코플랜드

: 직렬 시스템과 병렬 시스템은 계산적으로 동등하다. 전통적 직렬 기계도 병렬 프로그램을 구동할 수 있다. 따라서 중국어 방에 있는 조가 계산만으로 중국어를 이해하지 못한다면, 마찬가지로 직렬 시스템과 병렬 시스템 모두 중국어를 이해하지 못한다.

설에 대한 코플랜드의 해석: 직렬 시스템과 병렬 시스템이 계산적으로 동등하다는 것은, 연결주의 구조가 고전적 계산 기계에 의해 시뮬레이션될 수 있다는 점을 뜻한다. 예를 들어, C를 중국어 처리 병렬 네트워크라고 해보자. 조는 고전적 계산 기계를 시뮬레이션할 수 있기 때문에, 조는 C도 시뮬레이션할 수 있다. 그런데 조가 C를 시뮬레이션한다고 해서 중국어를 이해하지는 못한다. 따라서 C는 중국어를 이해하지 못한다. 정리하면 다음과 같다. [이 논증을 '시뮬레이션 논증'이라고 부르자.]

(전제 1) 조는 C를 시뮬레이션한다.

(전제 2) 조는 중국어를 이해할 수 없다.

(결론) 따라서, C는 중국어를 이해할 수 없다.

 

코플랜드: 일반적으로 말해, 다음과 같은 "Searle's Beastie" 논증은 타당하지 않다.

 

(전제 1) SX의 시뮬레이션이다.

(전제 2) XΦ를 할 수 있다.

(결론) 따라서, SΦ를 할 수 있다.

 

e. g. 다음 논증은 타당하지 않다.

(전제 1) 기상청 시뮬레이션은 태풍의 시뮬레이션이다.

(전제 2) 태풍은 옷을 젖게 할 수 있다.

(결론) 기상청 시뮬레이션은 옷을 젖게 할 수 있다.

 

그런데 설의 논증은 Searle's Beastie의 대우 논증(contraposed form)이다. Searle's Beastie가 타당하지 않으므로, 설의 시뮬레이션 논증도 타당하지 않다.(논증 <A; B; C>의 대우 논증 <A; ~C; ~B>)

 

 

: 중국어 체육관 논증 [코플랜드의 정식화]

(전제) 어떤 개인도 중국어를 이해하지 못한다.

(결론 1) 따라서, 전체로서의 시뮬레이션은 중국어를 이해하지 못한다. [체육관 내 사람들의 조직화 = 연결주의 네트워크에 대한 시뮬레이션]

(결론 2) 따라서, 시뮬레이션되는 네트워크는 중국어를 이해하지 못한다.

 

코플랜드 1: (전제 1)에서 (결론 1)이 따라나오지 않는다. 네트워크의 개개인이 이해하지 못한다고 해서 네트워크 전체가 이해하지 못한다는 보장은 없다. (처칠랜드 부부 1과 같은 반론)

 

코플랜드 2: (결론 1)에서 (결론 2)가 항상 따라 나오지는 않는다. (결론 1)에서 (결론 2)를 추론하는 것은 Searle's Beastie와 동일한 형식이기 때문이다. , 중국어를 이해하는 계산 기계가 있더라도, 그 시뮬레이션인 중국어 체육관은 중국어를 이해하지 못할 수 있다.

 

코플랜드 3: 시뮬레이션이 정밀한(exact) 경우 (결론 1), (결론 2)는 거짓일 수 있다. , 중국어를 이해하는 계산 기계가 있다면, 그에 대한 정밀한 시뮬레이션은 중국어를 이해할 수 있다. 왜냐하면 한 과정에 대한 정밀한 시뮬레이션은 그 자체로 그 과정이기 때문이다. (따라서 정밀한 시뮬레이션의 경우 Searle's Beastie는 타당하다.) 중국어 체육관이 중국어를 이해하지 못하는 것처럼 보이는 이유는, 중국어 체육관이 정밀하지 못한 시뮬레이션이기 때문이다.

 

 

 

 

논의거리

~의 부분 원리 (발제문 3)

코플랜드는 일반적으로, 만약 XΦ를 하지 못한다면, X의 어떤 부분도 Φ를 하지 못한다라는 “~의 부분 원리에 대해, 조는 시제 논리의 정리를 증명하지 못하지만 조의 뇌 일부는 증명을 할 수 있는 가상적 사례를 반례로 제시한다. 나는 이 사례가 적절한 반례인지 의심스럽다. “~의 부분 원리에서 적절한 의미의 부분이란 물리적 부분을 뜻하는 것이 아닐텐데, 코플랜드는 물리적 부분에 대해 이야기하고 있기 때문이다.

코플랜드 식으로 물리적 부분에 대해 이야기하면 온갖 사소한 사례들이 모두 “~의 부분 원리에 대한 반론으로 간주될 것이다. 예를 들어 나는 내 DNA를 복제하지 못하지만, (물리적) 부분인 DNA 복제 효소는 내 DNA를 복제할 수 있다. 나는 광자의 충돌을 신경 신호로 변환하지 못하지만, (물리적) 부분인 시신경은 그러한 변환을 할 수 있다. 이러한 사례들을 “~의 부분 원리에 대한 반론으로 간주하는 것은 무의미하다. 따라서 이 원리를 물리적 부분에 대한 이야기로 홰석하면 안 된다.

나는 “~의 부분 원리에서 말하는 부분을 기능적 부분으로 해석해야 한다고 생각한다. , 인지 기능을 하는 과정이 있을 때, 그 과정의 일부를 이루는 하위-과정이야말로 인지와 유관한 의미에서의 부분이다. 이렇게 생각하면, 조의 뇌 일부에 구현된 과정(시제 논리 프로그램)은 조의 인지 과정의 부분이 아니다. 조의 인지 과정이 인지 기능을 수행하는 것과, 그 시제 논리 프로그램이 기능을 수행하는 것 사이에 어떠한 기능적 관련도 없기 때문이다. 그렇다면 설의 수정된 논증에서 문제가 되는 전제는 (b)가 아니라 (a)이다.

 

 

이해의 속도와 현상성

처칠랜드 부부는 중국어 방이 중국어를 이해하지 못하는 이유는 계산 속도가 느리기 때문이라고 말한다. 왜 계산 속도가 문제가 되는가? 계산 속도가 빠르든 느리든 간에, 입력값을 받아서 출력값을 내놓는 메커니즘 자체는 똑같을 것이다. 전자기파의 예를 빌려 생각해보면, 전자기파의 주파수가 어떻든 간에 그것이 전자기파라는 점은 달라지지 않는다. 전자기파의 주파수는 전자기파의 본질적인 속성이 아니기 때문이다. (여기서 나는 전자기파의 본질적 속성이라는 말을, 전자기파를 전자기파이게 만들어주는 속성이라는 의미로 사용했다.) 마찬가지로 인지 과정이 올바른 방식으로 작동한다면, 그 작동 속도는 그것이 진정한 이해를 발생시키는지와 무관해 보인다.

똑같은 논점을 다른 방식으로 생각해볼 수도 있다. 인간과 인지 구조는 거의 같지만 시간 감각만 사람과 크게 다른 생물이 있어서, 사람들에게 아주 길게 느껴지는 시간을 그 생물은 매우 짧게 느낀다고 해보자. 처칠랜드 부부가 너무 느려서 이해가 발생하지 않는다고 말한 계산 과정도 그 생물의 입장에서는 이해가 발생하는 계산 과정일 것이다. 그렇다면 계산 속도에 따른 이해 발생 여부는 그 계산 과정에 본질적인 속성이 아닌 것 같다.

내가 보기에 계산 속도는 사람에게 이해의 현상성혹은 이해의 느낌과만 관련 있어 보인다. , 계산 속도과 이해와 유관하다는 주장은, 전자기파의 주파수가 적절한 수준이어야 사람의 눈에 보이듯이, 계산이 빠르게 이루어져야 그 계산을 수행하는 사람이 자신이 무엇인를 이해한 것처럼 느끼게 된다는 이야기에 불과한 것 같다. 처칠랜드 부부와 달리 블록은 자신이 현상적 의식에 대해 이야기한다는 점을 명시한다(“I have my doubts as to whether there is anything it is like to be the Chinese system, that is, whether the Chinese system is a phenomenally conscious system” - p. 74).

나는 이해의 현상성이 이해의 본질적인 면과 별로 관련이 없다고 생각한다. 우리는 우리 주변에서 일어나는 각종 일상적 사건들을 이해하고 있지만 그때마다 어떤 현상성이 발생하지는 않는 것 같기 때문이다. 예를 들어 내가 물건을 떨어뜨렸을 때 그 물건이 어떤 궤적을 그릴지 이해하지만 그러한 이해는 무의식적으로 일어나며, 별다른 현상성을 발생시키지는 않는다. 물론 단지 기호 조작만 하는 기계가 현상적 의식을 가질 수 있는지는 그 자체로 중요한 주제겠지만 적어도 중국어 방이 중국어를 이해하는지, 기호 조작이 의미론을 발생시키는지와는 무관해 보인다.

댓글 없음:

댓글 쓰기