Китайская комната – модель системы, разработанная Джоном Серлем, в которой критикуется возможность моделирования человеческого понимания естественного языка в искусственных системах. В какой-то степени, китайская комната является критикой теста Тьюринга.
Идея китайской комнаты заключается в следующем:
Существует некоторая система. Эта система состоит из человека, который понимает только английский язык, он также снабжен книгой с правилами, написанной на английском языке, а в его распоряжении находятся разные стопки бумаг, причем некоторые из них пусты, а другие заполнены описаниями, не поддающимися расшифровке. Таким образом, человек играет роль процессора компьютера, книга правил представляет собой программу, а стопки бумаг соответствуют запоминающему устройству. Система находится в комнате с небольшим отверстием, выходящим наружу. Через отверстие появляются полоски бумаги с символами, не поддающимися расшифровке. Человек находит совпадающие с ними символы в книге правил и следует обнаруженным в ней инструкциям. Инструкции могут предусматривать задания по написанию символов на новых полосках бумаги, поиску символов в стопках, переупорядочению стопок и т.д. В конечном итоге инструкции диктуют необходимость написания одного или нескольких символов на листе бумаги, который снова передается во внешний мир.
Из внешнего мира китайская комната выглядит системой, которая принимает входные данные в форме предложений на китайском языке и формирует ответы на китайском, которые внешне кажутся интеллектуальными, как и беседа, мысленно представленная Тьюрингом. Сам Серл проводил следующие рассуждения по поводу своей китайской комнаты:
Книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие: «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы, к сожалению, мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла.
Таким образом, китайская комната не может считаться сильным искусственным интеллектом, который был бы способен понимать естественный язык, также как и человек.