Лем Станислав
Искусственный разум
Станислав Лем
Искусственный разум?
В одной из партий, которую сыграл Каспаров с компьютером Deep Blue, компьютер, вопреки ожиданиям партнера-человека, легкую для взятия фигуру не тронул, и это привело через достаточно большое количество ходов к победе машины. Каспаров говорил о том, что он почувствовал, по крайней мере ему так показалось, что он почувствовал, в действиях машины интеллект: затаившийся замысел в сделанном стратегическом ходе.
После победы компьютера меня многократно спрашивали о том, можно ли его (компьютер) вообще подозревать в обладании "интеллектом", на что я последовательно отвечал (спрашивающим журналистам), что нет. Чтобы получить некоторую, строго говоря, "компрессию высказывания", то есть избавить его, насколько это возможно, от того, что для самой его сути является несущественным, нужно сказать, что в обсуждение нужно уже в этом месте ввести РАЗУМ или РАЗУМНОСТЬ, потому что "интеллекта" недостаточно. Но почему собственно? Он более "безличностный", чем "разум". Сохранение артефакта (каким может быть компьютер) могло бы, в самом деле, казаться "интеллектуальным", но не обязательно одновременно и "разумным". Прежде всего потому, что и нехотя можно вести себя интеллектуально, но нехотя вести себя РАЗУМНО, скорее всего, нельзя, так как импликацией разумности является ее осознание. Правда, социальное поведение насекомых, особенно живущих общественно, таких, как пчелы или муравьи, управляется "врожденными инстинктами", однако легко можно признать, что им ближе к "интеллекту", особенно к коллективному, чем к РАЗУМУ. И ведь неслучайно масса людей бьется над добыванием из нечеловеческих устройств "интеллекта", в то время как "РАЗУМ" как будто бы никем не планируется и не проектируется. Почему?
Это очень тяжелый для решения вопрос, так как речь идет о понятиях, которые имеют "размытое поле дефиниционного значения", и более того, можно сказать, употребляя современную терминологию, что это термины из такой группы, которую мы называем "FAZZY SETS" ["нечеткие множества". Математическая теория нечетких множеств, предложенная профессором Калифорнийского университета Лотфи А. Заде (Lotfi A. Zadeh) в 1965 году, позволяет описывать нечеткие понятия и знания, оперировать этими знаниями и делать нечеткие выводы. Основанные на этой теории методы построения компьютерных нечетких систем существенно расширяют области применения компьютеров - здесь и далее в квадратных скобках примечания переводчика]. Deep Blue мог произвести на человека-противника такое впечатление, будто "мерцает в нем", т. е. машине, искра интеллекта, потому что "он видел дальше", чем этот противник, то есть был способен предвидеть, какое дендрическое поле возможных в рамках правил шахматных ходов таит в себе будущее. Это существенно - обращение к будущим возможностям ЯВЛЯЕТСЯ одной из составляющих ума, но также может быть и только показателем чисто неразумного инстинкта, который действует в насекомых или других живых существах (каковым мы не можем приписывать разум). Управляемое инстинктом поведение роднит с "интеллектом" прежде всего то, что оно обращено с положительным результатом в будущее, что, короче говоря, оно обладают чертами ТЕЛЕОЛОГИЧЕСКИМИ. С определенной целью. Понятно, что такого рода целенаправленность (встроенную программистами) Deep Blue ДОЛЖЕН БЫЛ иметь, иначе он не играл бы таким образом, чтобы стремиться поставить Каспарову мат.
Здесь уже напрашивается следующее замечание. Deep Blue был, некоторым образом, как МОДУЛЬ (субагрегат), созданный механизированием, как бы вынутый из мозга выдающегося шахматиста-человека. Это не совсем правда, это, в лучшем случае, МОЖЕТ быть упрощенным приближением к правде, так как компьютер, о котором идет речь, обладал вычислительной производительностью (200 000 000 операций в секунду), которой ни один человек обладать не может, и ему эту недостающую производительность заменяет интуиция, на сколько таинственная, на столько и обманчивая. И уже чрезмерно растягивая это отступление, в скобках добавлю, что согласно мнению 99% самых выдающихся математиков так называемая Великая Теорема Ферма НЕДОКАЗУЕМА; иначе говоря, интуиция ПОДВЕЛА его, когда он написал на полях книги, что доказательство есть, но на него нет места на этих полях. Короче говоря, интуиция может быть необязательно точной, и мы только по-прежнему не знаем, "как она это делает", так как действует она вне сознания и ведет себя как отличник, который подсказывает правильные ответы своему товарищу, отвечающему экзаменатору: товарищ повторяет, но то, что он повторяет, он не должен понимать... Разумный же ответ он сам своей "разумностью" ДОЛЖЕН понимать. Хотя Deep Blue и весит около полутора тонн, мы функционально можем его признать за ОДИН модуль, так как знаем, что мозг человека состоит из огромного количества модулей, большинство которых nota bene вообще функционально не занято чем-либо, что не происходит в самом организме (в теле) и за пределами организма. Большинство модулей мозга служит телу, происходящим в нем процессам обмена и изменений (тканевых, например). Но только "меньшинство" может активно проявлять "экстериоризованную разумность" [от exterior - внешний вид]. Тогда, например, все "экспертные программы", от геологических до медицинских, - это другие модули, а загвоздка в том, что это такие вместилища выборочно сформированной информации, по существу актуальной, и в этом смысле оптимальной, что они являются как бы дистиллятами современного состояния наших лучших знаний с одним, но чрезвычайно важным недостатком: они - модули "для себя" и для нашего использования, когда они как бы "призываются" для этого, но они "не понимают друг друга", и мы пока не знаем, что сделать, чтобы они соединились бы более-менее так, как это происходит в нашем мозгу. Модули мы уже можем составлять, но дать им способность самопроизвольно влиять на себя мы не умеем, и В ЭТОМ СЕЙЧАС ГЛАВНАЯ БЕДА "Artificial Intelligence" ["Искусственный интеллект"]. Люди, увлеченные AI, как Марвин Мински [Marvin Minsky], по-прежнему уверены, что МОЖНО сконструировать искусственный интеллект, а также философы, как, например, Даниэл Деннет [Daniel Dennet], который, пожалуй, раз сто объяснил ("выяснил"), на чем основывается сознание и "окончательно сорвал маску и решил" загадку сознания. Такие люди живут с ощущением, что от работающего Artificial Intelligence нас отделяет шаг или пара шагов. Однако, я опасаюсь, что это не так просто. То, что целостную работу мозга составляет общая деятельность отдельных модулей, мы сегодня знаем уже наверняка (если мы вообще что-то знаем наверняка).
Вопрос, который мы должны поставить сейчас, звучит так: ЧТО еще мы знаем, а чего НЕ ЗНАЕМ? Так, например, известно, что мы видим то, что является видимым ДЛЯ НАС, но это в значительной мере следует из ОБУЧЕНИЯ и ТРЕНИРОВКИ. Люди, слепые от рождения, которым удается через несколько лет восстановить зрение, "видят" хаос цветных пятен в движении и ничего больше, но, например, "просмотр самых лучших фотографий" людьми, которые никогда никаких изображений не видели, показывает, что и они не в состоянии автоматически преобразовывать в своем мозгу проекцию на плоскости в трехмерную стерео-проекцию. А, например, для собаки самый отчетливый и красочный образ на экране телевизора ничего не являет собой и "ничего не значит". То есть, "обработка" данных является делом особым информационно и функционально: на самом деле, уже появляются компьютерные системы, которым можно голосом диктовать на том языке, на который система запрограммирована, и даже после подготовки система может научиться писать или выстукивать, как стенотипистка, произносимый текст, что является очень хорошим достижением конструкторов, но и такая система "ничего не понимает". В последнее время появились (параллельно с шахматными матчами компьютеров и людей) очередные попытки разыграть "ТЕСТ ТЬЮРИНГА", то есть такие, чтобы компьютер имитировал в разговоре обычного человека. ["Тьюринг в своей работе "Может ли машина думать?" предлагает в качестве определяющего критерия "игру в имитацию", которая заключается в том, что задаем Кому-либо произвольные вопросы и на основе ответов должны сделать вывод, является ли этот Кто-то человеком или машиной. Если не можем отличить машину от человека, следует признать, что машина ведет себя как человек, то есть имеет сознание" это и есть тест Тьюринга. Цитата взята из эссе С. Лема "Душа в машине" из сборника "Мегабитовая бомба"]. Окончились они жалким поражением: просто компьютеры, как ничего не понимали 50 лет назад, так по-прежнему ничего не понимают.