- Человека.

- Любого человека? Как ты можешь судить о человеке, чтобы знать, подчиняться ему или нет? "Что есть человек, яко помниши его"1, Джордж?

Джордж заколебался.

- Цитата из Библии, - поспешно проговорил Харриман. - Это неважно. Я имею в виду: должен ли робот повиноваться приказам ребенка; или идиота; или преступника; или вполне порядочного человека, но недостаточно компетентного, чтобы предвидеть, к каким прискорбным последствиям приведет его желание? А если два человека дадут роботу противоречащие друг другу приказы - какой выполнять?

- Разве за двести лет эти проблемы не возникали и не были решены? поинтересовался Джордж.

- Нет, - энергично помотал головой Харриман. - Наши роботы использовались только в космосе, в особой среде, где с ними общались высококвалифицированные специалисты. Там не было ни детей, ни идиотов, ни преступников, ни невежд с благими намерениями. И тем не менее случалось, что глупые или попросту непродуманные приказы наносили определенный ущерб, но его размеры были ограничены тем, что роботов применяли в очень узкой сфере. Однако на Земле роботы должны уметь принимать решения. На этом спекулируют противники роботехники, и, черт бы их побрал, тут они совершенно правы.

- Тогда необходимо внедрить в позитронный мозг способность к взвешенному суждению.

- Вот именно. Мы начали производство модели ДжР, которая сможет судить о человеке, принимая во внимание пол, возраст, социальную и профессиональную принадлежность, ум, зрелость, общественную значимость и так далее.

- И как это повлияет на Три Закона?

- На Третий Закон - вообще никак. Даже самый ценный робот обязан разрушить себя ради самого ничтожного человека. Здесь ничего не изменится. Первого Закона это коснется, только если альтернативные действия в любом случае причинят вред. Тогда решение будет приниматься не только в зависимости от количества людей, но и, так сказать, их качества, при условии, конечно, что на это хватит времени, а основания для суждения будут достаточно вескими. Впрочем, такие ситуации довольно редки. Самым сильным изменениям подвергнется Второй Закон, поскольку любое потенциальное подчинение приказу будет включать в себя суждение о нем. Реакция робота замедлится, за исключением тех случаев, когда в силу вступит Первый Закон, зато исполнение приказа будет более осмысленным.

- Но способность судить о людях - вещь непростая.

- Вернее, крайне сложная. Необходимость сделать выбор замедляла реакцию наших первых двух моделей до полного паралича. В следующих моделях мы пытались исправить положение за счет увеличения мозговых связей - но при этом мозг становился слишком громоздким. Однако в нашей последней паре моделей, на мой взгляд, мы добились, чего хотели. Роботам теперь не обязательно сразу судить о достоинствах человека или оценивать его приказы. Вначале новые модели ведут себя как обычные роботы, то есть подчиняются любому приказанию, но одновременно они обучаются. Робот развивается, учится и взрослеет, совсем как ребенок, и поэтому сначала за ним необходим постоянный присмотр. Но по мере развития он станет все более и более достойным того, чтобы человеческое общество на Земле приняло его в свои ряды как полноправного члена.

- Это, несомненно, снимает возражения противников роботов.

- Нет, - сердито возразил Харриман. - Теперь они выдвигают новые претензии: им не нравится, что роботы способны к суждениям. Робот, говорят они, не имеет права классифицировать того или иного человека как личность низшего сорта. Отдавая предпочтение приказам некоего А перед приказами некоего Б, они тем самым считают Б менее ценным по сравнению с А и нарушают основные права человека.

- И как вы ответите на это?

- Никак. Я сдаюсь.

- Понимаю.

- Но это касается только меня лично. Потому-то я и обращаюсь к тебе, Джордж.

- Ко мне? - Голос Джорджа остался таким же ровным, лишь мягкое удивление прозвучало в нем. - Почему ко мне?

- Потому что ты не человек, - с нажимом произнес Харриман. - Я уже говорил тебе, что хочу видеть роботов партнерами людей, - вот и стань моим партнером.

Джордж Десять беспомощно, странно человеческим жестом развел руками.

- Что я могу сделать?

- Тебе, конечно, кажется, что ты ничего не можешь, Джордж. Ты создан совсем недавно, в сущности, ты еще дитя. Тебя специально не перегружали информацией - поэтому мне и приходится объяснять все так подробно, - чтобы оставить место для развития. Но твой интеллект будет развиваться и позволит тебе взглянуть на проблему с иной, не человеческой точки зрения. Там, где я не вижу выхода, ты можешь найти его.

- Мой мозг сконструирован людьми. Как он может быть нечеловеческим?

- Джордж, ты последняя модель серии ДжР. Твой мозг - наиболее сложный из всех, которые мы создавали когда-либо, в чем-то он устроен даже более тонко, чем у прежних огромных Машин. Он представляет собой открытую систему, и, несмотря на изначальное человекоподобие, эта система может развиваться - будет развиваться - в любом неожиданном направлении. Оставаясь в непреложных границах Трех Законов, ты можешь обрести тем не менее совершенно нечеловеческий образ мышления.

- Но хватит ли у меня знаний о людях, чтобы правильно подойти к проблеме? Об их истории? Психике?

- Конечно, нет. Но ты будешь обучаться настолько быстро, насколько это возможно.

- Мне будет кто-нибудь помогать, мистер Харриман?

- Нет. Все это строго между нами. Никто ни о чем не должен знать, и ты не должен говорить об этом проекте ни одному человеку, ни в "Ю. С. Роботс", ни за пределами фирмы.

- Мы совершаем нечто предосудительное, мистер Харриман, если вы так настаиваете на сохранении тайны? - спросил Джордж.

- Нет. Но решение, предложенное роботом, не будет принято именно потому, что оно исходит от робота. Как только ты что-нибудь придумаешь, сразу дай мне знать, и, если твое решение покажется мне верным, я представлю его как свое. Никто не узнает, что ты его автор.

- В свете того, что вы говорили раньше, - спокойно проговорил Джордж Десять, - это кажется мне вполне разумным. Когда приступать?

- Прямо сейчас. Я позабочусь о том, чтобы у тебя были все необходимые пленки.


Перейти на страницу:
Изменить размер шрифта: