Category: технологии

Category was added automatically. Read all entries about "технологии".

Искусственный интеллект не понимает человеческого языка


«Искусственный интеллект», мышление и шахматы

Иногда приходится слышать такой аргумент: возможность создания искусственного интеллекта подтверждается тем, что сейчас созданы компьютеры, играющие в шахматы намного сильнее любого человека. Однако, этот аргумент неявно содержит предпосылку о том, что мышление человека по преимуществу состоит в том, что средневековые схоласты называли ratio, то есть в способности к логическим и вычислительным операциям. Но эта способность относится уже к операциям с формализованным объектом, где уже чётко задан синтаксис. Шахматы, действительно, являются очень сложной искусственной моделью, но эта модель уже закрыта и синтаксис в ней уже определён. Невозможно появление в ней принципиально новых объектов с новыми свойствами, а самое главное, эта модель априорна и уже содержит в себе все возможные варианты развития событий. Она не содержит в себе столкновения с совершенно новой реальностью, не предполагает образования новых концептов, критику и замену имеющихся концептов, исключает сравнение модели-гипотезы с реальностью. То есть та часть сознания, которую Аристотель называл «нусом» и которая отвечает за понимание реальности, для неё не требуется, как и для любой априорной системы. Способность «играть в шахматы» представляет собой лишь одну из функций человеческого интеллекта, которая может быть смоделирована на компьютере. Впрочем, компьютер не играет. Для игры нужна личность, а компьютер только обрабатывает данные. 

Вопрос о нейронных сетях

Насколько я знаю, одним из главных аргументов против возможности создания искусственного интеллекта был долгое время аргумент Серля о том, что компьютер работает только в области синтаксиса, а человеческое сознание работает также и с семантикой. И вот столкнулся с утверждением одного человека, по его словам, разрабатывающим нейронные сети, о том, что осовременные нейронные сети работают с анализом семантики.
Хотелось бы знать, насколько серьёзно это утверждение. Если речь идёт о чём-то вроде программы распознавания лиц, то там по-настоящему о работе с семантикой говорить нельзя, ведь программа там, как я понимаю, просто анализирует процент совпадения пикселей. Мне кажется маловероятным то, что компьютер может как-то выйти за пределы синтаксиса программы и начать как-то работать с теми реальностиями внешнего мира, что означают в сознании программиста эти символы.

Гарри Каспаров об искусственном интеллекте



Выступление Каспарова в Оксфорде относительно проблем искусственного интеллекта и компьютерных технологий —  полагаю, достойное внимания. Как философ Каспаров, конечно, очень посредственен со своим примитивным прогрессизмом «а-ля XIX век» и отсутствием серьёзных познаний в области философии. Проблемы антропологии он не понимает толком, а как политический мыслитель крайне односторонен и самоуверен. Но как шахматист он — величайший в истории, даже Роберт Фишер и Магнус Карлсен ему не равны, на мой взгляд.
В данном случае его мнение о перспективах искусственного интеллекта всё же интересно, поскольку ему не раз приходилось сражаться против шахматных суперкомпьютеров. Его опыт указал ему на некоторые проблемы «мышления» компьютерных программ, которые, как я думаю, относятся к фундаментальным факторам. В частности, он указывает на проблему неполной индукции. Человек принимает решения в условиях неполноты информации. Как компьютер сможет решить, что собранных данных достаточно для принятия нетривиального решения, если собрана лишь незначительная часть всех возможных данных? Другая проблема компьютера — целеполагание. Компьютер не может решить, какие именно вопросы важны, он не может сам поставить задач: это вопрос воли.

Проблема «мозг/разум» (часть 2: теория идентичности и функционализм)

Материалистическая парадигма «теории идентичности» предполагает, что если ментальные состояния всё же как-то влияют на поведение человека, то они должны быть идентичными состояниям мозга и центральной нервной системы. Аргументация против «теории идентичности» основана на том, что логические отношения между ментальными состояниями как минимум отчасти определяют эти состояния. Например, гормоны оказывают каузальные воздействия на состояния мозга, но логические отношения не являются каузальными. Интересно, что популярные на сегодняшний день теории о возможно создания искусственного интеллекта несовместимы с теорией идентичности. В самом деле, если интеллект может быть реализован без участия биологического мозга, то каким образом ментальные состояния могут оказаться идентичными состоянием мозга?

Бертран Рассел предложил теорию «нейтрального монизма», которая является нематериалистической версией теории идентичности. Рассел исходил из того, что ментальный мир в действительности является для нас первичной данностью, а внешний физический мир — это то, что мы воспринимаем в терминах каузальных структур. На первый взгляд это могло бы показаться идеализмом, но Рассел, тем не менее, считал, что базовая структура мира не является ни ментальной, ни не-ментальной (отсюда термин «нейтральный монизм»). К примеру, «квалия» (чувственные восприятия) при построении одного типа каузальных структур могут пониматься как ментальные по своему характеру, а при построении иного типа каузальных структур —  как не-ментальные.

Функционализм, который наиболее последовательно отстаивает Джерри Фодор, обращает внимание не на то, как устроены те или иные вещи, а на то, как они работают, какую функцию выполняют. Таким образом, в центре внимания оказываются не ментальные состояния сами по себе, но то влияние, которое они оказывают на другие ментальные состояния. В качестве «входа» берутся чувственные восприятия, в качестве «выхода» поведение человека, а ментальные состояния — это лишь каузальные связи между входом и выходом. Понятно, что функционализм рассматривает мозг по аналогии с компьютером, а сознание видит в качестве программного обеспечения, работающего на «железе» мозга.

Против функционализма был выдвинут ряд аргументов. Так называемый «аргумент зомби» (Дэвид Чалмерс) опирается на факт наблюдения человеком «квалия», то есть ощущений вкуса, цвета или боли. Действительно, если все свойства человека относятся к числу функциональных, поведенческих либо физических свойств, а все каузальные связи объяснимы с помощью физических и функциональных характеристик, то что тогда с «квалия»? Аргумент звучит так: представьте себе (поскольку представляемое не содержит в себе противоречия, то представить это можно) существо, идентичное Вам с точностью до последней молекулы, которое действует совершенно так же как Вы, но не будет иметь «квалия», то есть чувственных восприятий. Это значит, что физические свойства и поведенческие функции не исчерпывают всего богатства ментальных состояний. Аргумент «зомби» является частным случаем аргумента от «метафизической возможности» и показывает, что материалистическое объяснение сознания игнорирует как минимум одну характеристику сознания, и потому это объяснение недостаточно.

Любопытный «аргумент о китайском народе» был предложен Недом Блоком как ещё одно возражение против функционализма. Он основан на одном из мысленных экспериментов, к которым так склонны приверженцы аналитической философии. Ход мысли таков: предположим, что для определения характера квалия достаточно одних только физических характеристик нервной системы. Согласно функционализму, мысль может реализована как возбуждениями нейронов мозга, так, например, и передачей сигнала в электрической цепи (конкретная реализация не важна, важна функция). Для этой цели должна подойти не только схема компьютера, но и какой-либо другой набор элементов. Предположим, что в качестве элементов схемы мы задействуем… китайцев, то есть всё население Китая (почему нет, важна же функция, а не материал?). Китайцы будут включены нами в такие взаимодействия, которые должны имитировать нейронную сеть мозга. Вооружим их мобильными телефонами так, чтобы они передавали сигналы своим коллегам, имитируя прохождение сигналов в нейронной сети.
Что мы должны получить на выходе? «Мозг», но реализованный не биологическим образом, а при помощи населения Китая. Он будет давать команды телу робота, который должен дублировать поведение человека при нормальных условиях. Но будут ли ментальные состояния этого мозга идентичны человеческим? Если на входе ударить электрическим разрядом, к примеру, по нерву, подключенному к коллективному мозгу, и на выходе тело робота дёрнется, то кто почувствует боль? Полтора миллиарда китайцев одновременно? Но почему бы они почувствовали боль? А если нет, то функционализм опровергается: эта «функционально идентичная система» не будет иметь квалия, то есть будет иметь как минимум одно отличие от реального человеческого сознания.