— Кай, а тут плита есть? Или только духовка?
— Есть, госпожа.
Столешница одной из тумб втянулась в стену, и я увидела темную отражающую поверхность.
— Надо же, а я-то думала, это просто тумбочка. Тут есть конфорки, или вся поверхность нагревается?
— Нагревается вся поверхность, — подтвердил Кай.
— А как ее включить? — озадаченно осматривая новоявленную плиту, спросила я.
— Непонятный вопрос, — сообщил мне Кай после некоторых раздумий.
— Ой, глупость сморозила. Ты же здесь всем заправляешь! Давай творог, муку и яйцо. Будем делать сырники!
Ну, что ж, первый блин, то есть завтрак, не комом. Сырники вышли волне съедобными, а парочка сделанных выводов и вовсе бесценными. Самый главный из них: "Кай — тупая машина. Его еще учить и учить!"
Читать сегодня оказалось намного проще, чем вчера. К тому же я теперь взялась читать книгу про командира Танто, а это было гораздо интереснее всяких текстов из упражнений. Заодно стала показывать Каю, как читать, где в каких местах какие паузы делать, какая интонация голоса должна быть, где читать быстрее, где медленнее. Кай — хороший ученик с абсолютной памятью, но для него это все-таки сложно. Но он старательно, если можно так сказать о компьютере, запоминал и систематизировал, что я ему объясняю. Честно говоря, не представляю, как он может это систематизировать. Это же все строится просто на ощущениях. Или я просто не замечаю, как пользуюсь какой-то системой? В любом случае, Кай медленно, но верно поддавался обучению. Как и я, которой он зачитывал статьи из справочника, если что-то было непонятно. К концу нашего занятия, он стал читать вполне сносно в плане пауз и придерживался несложных правил касательно интонации в конце предложений и при перечислении. Вроде бы малость, а слушать уже стало гораздо приятнее.
— Молодец, Кай! Мы делаем успехи в изучении русского языка! — похвалила я.
— Молодец? Не знаю, что это значит, — отрапортовал Кай.
— О-о, ну, пойдем, я буду готовить обед и заодно тебе объясню, что такое похвала, — я поднялась со стула.
— Пойдем? — снова не понял Кай.
— Ну, я пойду, — поправилась я. — Слушай, а ты все можешь визуализировать?
— Любую визуальную информацию можно превратить в иллюзию, — согласился Кай.
— А ты можешь визуализировать себя?
Я в полной тишине дошла до кухни.
— Кай?
— Не знаю…
— Не знаешь, можешь или нет, или вообще не понял, чего я от тебя хочу?
— И то, и другое.
Вот озадачила бедную машинку.
— Ну, вот, например, ты мне визуализировал телевизор. У тебя была какая-то информация, которую ты превратил в картинку, которую я увижу. Так? — Я разделывала приготовленный с утра кусок мяса.
— Да, госпожа.
— Ну, вот, если взять какое-то изображение, положим, человеческое, трехмерное. Ты сможешь его визуализировать?
— Да, госпожа.
— Так выбери, какое тебе нравится, и визуализируй.
— Выбрать, какое нравится?
— Мм… пожалуй, это я тебе объяснить не смогу, — озадачилась я.
— Нравится, это когда хорошо, — напомнил мне Кай. — Как выбрать то, что хорошо?
— Я не знаю, есть ли у ваших компьютеров какие-то платы, отвечающие за нравится — не нравится. Просто у людей есть предпочтения. Некоторые вещи для них благоприятнее, чем другие. Какую-то работу они выполняют с радостью, какую-то из-под палки. У компьютеров такое есть?
— Нет, госпожа. Не знаю ничего такого.
— Ну, тогда тебе самому можно выбрать… определить какие вещи тебе нравятся, а какие нет.
— А как это сделать? — спросил Кай.
Вот теперь он действительно спрашивает, а не мне приходится догадываться, что это было — вопрос или утверждение.
— Ну, как. Берешь какое-то действие или предмет. Скажем готовка, и решаешь нравится оно тебе или нет, — я развела руками. — Хати готовить любит, а я вот просто привыкла.
— Привыкла?
— Ну, когда что-то долго делаешь, уже становится не важно, любишь ты это делать или нет. Ты просто делаешь, потому что это надо.
— Я тоже… привык готовить с хозяйкой. Тогда неважно, нравится это мне или нет?
— Да нет, все равно важно. Просто это уже не влияет на само действие. Как говорится, надо значит надо. А предпочтения должны быть. Кстати, если тебе приходится чем-то заниматься постоянно, то лучше бы чтобы, тебе это нравилось.
— Пусть тогда мне нравится готовить, — сделал правильные выводы Кай.
— Хорошо, — кивнула я.
— Что такое "молодец"? — спросил Кай.
Все-таки в одном аспекте компьютеры людям дадут фору. Компьютеры не забывают ничего, ну, если, конечно, не случится сбоя, и не уходят в сторону от темы разговора. Они помнят, о чем он был изначально и всегда готовы напомнить!
— Молодец — это похвала. Когда кто-то что-то делает хорошее, и другому это нравится, то первого за это хвалят, — пояснила я. Такими темпами я все сложные понятия разобью на простые и сама перестану их понимать в целом! — Вот мы, например, сегодня очень плодотворно позанимались. Это хорошо! Ты учишься говорить по-человечески, я учусь читать. Поэтому мы молодцы! А вот если сейчас у меня опять получится какое-нибудь кривое блюдо, а ты проворонишь, и оно еще и подгорит, то мы будет не молодцы.
— Почему?
— Потому что кушать некрасивое и подгоревшее блюдо невкусно и неприятно.
— Некрасиво? Неприятно?
— Умеешь ты, Кай, задавать каверзные вопросы.
— Каверзные?
— Да ЁКЛМН! — всплеснула я руками. — Вопросы с подвохом! Вопросы, на которые сложно ответить. Есть вещи, которые нельзя объяснить с логической точки зрения. Поэтому для вычислительной системы такие понятия, скорее всего, вообще недоступны. Вот если я тебе сейчас скажу: "Ты бесчувственная, тупая машина!", то ты на это вообще никак не отреагируешь. А человек, если бы его назвали тупым и бесчувственным, обиделся, но если это нормальные люди, конечно, а особенно чувствительные еще и будут плакать, и кричать "нет"!
— Не-эт! — воскликнул Кай. Я выронила кусок из рук.
— Кай. Ты рехнулся? У тебя там вообще шарики за ролики зашли?
— Система в норме, — отрапортовал Кай.
— А чего орешь тогда?
— Примеряю логику особо чувствительных людей.
— Но ты же не человек!
— Я не должен так делать?
— А я не знаю, что тут у вас положено делать машинам. Я только, что для людей нормально, знаю, и то только для своего времени, — честно сказала я.
— Существуют живые роботы, для них нормальным считается такое же, как и у людей, поведение.
— Но ты же домоправитель, а не живой робот. Или каждый домоправитель мечтает стать живым роботом?
— Мечтать? — снова не понял Кай.
— Ну, тебя устраивает то, что ты домоправитель? Ничего изменить не нужно?
— Устраивает.
— А вот эти живые роботы, ты бы сменил свое эм… место работы на их?
— Мне все равно, что делать…
— Значит, ты не мечтаешь. Скорее всего, компьютеры все-таки не умеют мечтать, так же как и хотеть чего-то.
— Я должен выбрать мечту сам?
— Если хочешь! Ой… Ну, если тебе это не будет мешать работать или даже чем-то поможет, то выбери.
— А как оно может помочь?
— Ну, ты будешь стремиться к исполнению своей мечты. Ты будешь хотеть, что бы мечта исполнилась. А когда она исполнится, тебе будет хорошо, тебе будет это нравиться, — я собрала все в одну большую кучу. Если Кай что-то из этого нужное поймет, то это будет только его заслуга. Не моя! Ибо из этого что-то понять, нужно иметь недюжинный талант и желание!
— Понятно. Тогда я буду мечтать стать живым роботом, — выдал Кай.
Ну, логике это не противоречит, хоть и странное желание. Впрочем, у людей и еще страннее бывают желания.
— Что теперь делать нужно? Как стремиться?
— Ну, раз ты говоришь, что живые роботы они как люди, то тебе нужно учиться быть похожим на людей, — посоветовала я.
— А как быть похожим на людей?
— Ну, честно говоря, мы с тобой сейчас этим и занимаемся, — сказала я. — Я ведь учу тебя говорить как человек, и объясняю разные понятия с человеческой точки зрения. Причем эти понятия компьютерам знать необязательно. И зачем я тебе это объясняю? Слушай, я с ума не сошла?