— Кай, а тут плита есть? Или только духовка?

— Есть, госпожа.

Столешница одной из тумб втянулась в стену, и я увидела темную отражающую поверхность.

— Надо же, а я-то думала, это просто тумбочка. Тут есть конфорки, или вся поверхность нагревается?

— Нагревается вся поверхность, — подтвердил Кай.

— А как ее включить? — озадаченно осматривая новоявленную плиту, спросила я.

— Непонятный вопрос, — сообщил мне Кай после некоторых раздумий.

— Ой, глупость сморозила. Ты же здесь всем заправляешь! Давай творог, муку и яйцо. Будем делать сырники!

Ну, что ж, первый блин, то есть завтрак, не комом. Сырники вышли волне съедобными, а парочка сделанных выводов и вовсе бесценными. Самый главный из них: "Кай — тупая машина. Его еще учить и учить!"

Читать сегодня оказалось намного проще, чем вчера. К тому же я теперь взялась читать книгу про командира Танто, а это было гораздо интереснее всяких текстов из упражнений. Заодно стала показывать Каю, как читать, где в каких местах какие паузы делать, какая интонация голоса должна быть, где читать быстрее, где медленнее. Кай — хороший ученик с абсолютной памятью, но для него это все-таки сложно. Но он старательно, если можно так сказать о компьютере, запоминал и систематизировал, что я ему объясняю. Честно говоря, не представляю, как он может это систематизировать. Это же все строится просто на ощущениях. Или я просто не замечаю, как пользуюсь какой-то системой? В любом случае, Кай медленно, но верно поддавался обучению. Как и я, которой он зачитывал статьи из справочника, если что-то было непонятно. К концу нашего занятия, он стал читать вполне сносно в плане пауз и придерживался несложных правил касательно интонации в конце предложений и при перечислении. Вроде бы малость, а слушать уже стало гораздо приятнее.

— Молодец, Кай! Мы делаем успехи в изучении русского языка! — похвалила я.

— Молодец? Не знаю, что это значит, — отрапортовал Кай.

— О-о, ну, пойдем, я буду готовить обед и заодно тебе объясню, что такое похвала, — я поднялась со стула.

— Пойдем? — снова не понял Кай.

— Ну, я пойду, — поправилась я. — Слушай, а ты все можешь визуализировать?

— Любую визуальную информацию можно превратить в иллюзию, — согласился Кай.

— А ты можешь визуализировать себя?

Я в полной тишине дошла до кухни.

— Кай?

— Не знаю…

— Не знаешь, можешь или нет, или вообще не понял, чего я от тебя хочу?

— И то, и другое.

Вот озадачила бедную машинку.

— Ну, вот, например, ты мне визуализировал телевизор. У тебя была какая-то информация, которую ты превратил в картинку, которую я увижу. Так? — Я разделывала приготовленный с утра кусок мяса.

— Да, госпожа.

— Ну, вот, если взять какое-то изображение, положим, человеческое, трехмерное. Ты сможешь его визуализировать?

— Да, госпожа.

— Так выбери, какое тебе нравится, и визуализируй.

— Выбрать, какое нравится?

— Мм… пожалуй, это я тебе объяснить не смогу, — озадачилась я.

— Нравится, это когда хорошо, — напомнил мне Кай. — Как выбрать то, что хорошо?

— Я не знаю, есть ли у ваших компьютеров какие-то платы, отвечающие за нравится — не нравится. Просто у людей есть предпочтения. Некоторые вещи для них благоприятнее, чем другие. Какую-то работу они выполняют с радостью, какую-то из-под палки. У компьютеров такое есть?

— Нет, госпожа. Не знаю ничего такого.

— Ну, тогда тебе самому можно выбрать… определить какие вещи тебе нравятся, а какие нет.

— А как это сделать? — спросил Кай.

Вот теперь он действительно спрашивает, а не мне приходится догадываться, что это было — вопрос или утверждение.

— Ну, как. Берешь какое-то действие или предмет. Скажем готовка, и решаешь нравится оно тебе или нет, — я развела руками. — Хати готовить любит, а я вот просто привыкла.

— Привыкла?

— Ну, когда что-то долго делаешь, уже становится не важно, любишь ты это делать или нет. Ты просто делаешь, потому что это надо.

— Я тоже… привык готовить с хозяйкой. Тогда неважно, нравится это мне или нет?

— Да нет, все равно важно. Просто это уже не влияет на само действие. Как говорится, надо значит надо. А предпочтения должны быть. Кстати, если тебе приходится чем-то заниматься постоянно, то лучше бы чтобы, тебе это нравилось.

— Пусть тогда мне нравится готовить, — сделал правильные выводы Кай.

— Хорошо, — кивнула я.

— Что такое "молодец"? — спросил Кай.

Все-таки в одном аспекте компьютеры людям дадут фору. Компьютеры не забывают ничего, ну, если, конечно, не случится сбоя, и не уходят в сторону от темы разговора. Они помнят, о чем он был изначально и всегда готовы напомнить!

— Молодец — это похвала. Когда кто-то что-то делает хорошее, и другому это нравится, то первого за это хвалят, — пояснила я. Такими темпами я все сложные понятия разобью на простые и сама перестану их понимать в целом! — Вот мы, например, сегодня очень плодотворно позанимались. Это хорошо! Ты учишься говорить по-человечески, я учусь читать. Поэтому мы молодцы! А вот если сейчас у меня опять получится какое-нибудь кривое блюдо, а ты проворонишь, и оно еще и подгорит, то мы будет не молодцы.

— Почему?

— Потому что кушать некрасивое и подгоревшее блюдо невкусно и неприятно.

— Некрасиво? Неприятно?

— Умеешь ты, Кай, задавать каверзные вопросы.

— Каверзные?

— Да ЁКЛМН! — всплеснула я руками. — Вопросы с подвохом! Вопросы, на которые сложно ответить. Есть вещи, которые нельзя объяснить с логической точки зрения. Поэтому для вычислительной системы такие понятия, скорее всего, вообще недоступны. Вот если я тебе сейчас скажу: "Ты бесчувственная, тупая машина!", то ты на это вообще никак не отреагируешь. А человек, если бы его назвали тупым и бесчувственным, обиделся, но если это нормальные люди, конечно, а особенно чувствительные еще и будут плакать, и кричать "нет"!

— Не-эт! — воскликнул Кай. Я выронила кусок из рук.

— Кай. Ты рехнулся? У тебя там вообще шарики за ролики зашли?

— Система в норме, — отрапортовал Кай.

— А чего орешь тогда?

— Примеряю логику особо чувствительных людей.

— Но ты же не человек!

— Я не должен так делать?

— А я не знаю, что тут у вас положено делать машинам. Я только, что для людей нормально, знаю, и то только для своего времени, — честно сказала я.

— Существуют живые роботы, для них нормальным считается такое же, как и у людей, поведение.

— Но ты же домоправитель, а не живой робот. Или каждый домоправитель мечтает стать живым роботом?

— Мечтать? — снова не понял Кай.

— Ну, тебя устраивает то, что ты домоправитель? Ничего изменить не нужно?

— Устраивает.

— А вот эти живые роботы, ты бы сменил свое эм… место работы на их?

— Мне все равно, что делать…

— Значит, ты не мечтаешь. Скорее всего, компьютеры все-таки не умеют мечтать, так же как и хотеть чего-то.

— Я должен выбрать мечту сам?

— Если хочешь! Ой… Ну, если тебе это не будет мешать работать или даже чем-то поможет, то выбери.

— А как оно может помочь?

— Ну, ты будешь стремиться к исполнению своей мечты. Ты будешь хотеть, что бы мечта исполнилась. А когда она исполнится, тебе будет хорошо, тебе будет это нравиться, — я собрала все в одну большую кучу. Если Кай что-то из этого нужное поймет, то это будет только его заслуга. Не моя! Ибо из этого что-то понять, нужно иметь недюжинный талант и желание!

— Понятно. Тогда я буду мечтать стать живым роботом, — выдал Кай.

Ну, логике это не противоречит, хоть и странное желание. Впрочем, у людей и еще страннее бывают желания.

— Что теперь делать нужно? Как стремиться?

— Ну, раз ты говоришь, что живые роботы они как люди, то тебе нужно учиться быть похожим на людей, — посоветовала я.

— А как быть похожим на людей?

— Ну, честно говоря, мы с тобой сейчас этим и занимаемся, — сказала я. — Я ведь учу тебя говорить как человек, и объясняю разные понятия с человеческой точки зрения. Причем эти понятия компьютерам знать необязательно. И зачем я тебе это объясняю? Слушай, я с ума не сошла?


Перейти на страницу:
Изменить размер шрифта: