May 13th, 2017

Проблема «мозг/разум» (часть 3: является ли мозг компьютером?)

Представление о том, что сознание представляет собой нечто вроде программного обеспечения, работающего на «железе» мозга, критикуется со многих сторон. Один из аргументов против этой теории, называемый «аргументом китайской комнаты», был предложен Джоном Серлем. Серль предлагает читателю представить его запертым в комнате, где находится множество карточек с китайскими иероглифами, а также справочник, описывающий комбинации, в которых должны находиться разные символы. Сам Серль не понимает ни одного слова по-китайски, но в справочнике он может прочитать, какие иероглифы должны соответствовать тем карточкам, которые он получит через прорезь в стене. Найдя соответствующую полученным карточкам комбинацию иероглифов, он просовывает их в прорезь, где их получает человек, понимающий китайский язык. Поскольку Серль хорошо овладел справочником, то человек с той стороны приходит к выводу, что находящийся внутри Серль понимает китайский, раз каждый раз отвечает на вопрос правильно.
Очевидно, что здесь Серль отвергает принцип «машины Тюринга»: ведь хотя наблюдателю снаружи кажется, что собеседник понимает, о чём идёт речь, на самом деле тот ничего не понимает, и просто собирает карточки по предзаданному алгоритму. Он не понимал смысла иероглифов, и опирался только на их внешний вид, то есть манипулировал ими на основании их физических свойств. Серль делает вывод, что работа компьютера по программе не имеет отношения ни к пониманию, ни к интеллекту.
Работающий по программе компьютер не в большей мере обладает сознанием, чем пишущая машинка. Те, кто читают считают мозг неким аналогом компьютера, в ответ на «аргументом китайской комнаты» иногда говорят, что от ИИ требуется только «рациональность», что не подразумевает «понимания», «интенциональности» или «интеллекта», но только способность переходить от одной мысли к другой при помощи законов логики.