Изменить размер шрифта - +

— Очень похоже на вас — беспокоиться о машине больше, чем о живом человеке. — Он негодующе посмотрел на нее. Ее это не тронуло.

— Так только кажется, профессор Нинхеймер. В двадцать первом столетии, лишь проявляя заботу о роботах, можно по-настоящему заботиться о благе человечества. Будь вы робопсихологом, вы бы сами это поняли.

— Я прочитал о роботах достаточно много и понял, что не имею ни малейшего желания становиться робопсихологом!

— Простите меня, но вы прочли всего лишь одну книгу. И она вас ничему не научила. Вы узнали из нее, что при правильном подходе можно заставить робота выполнить многое, даже фальсифицировать книгу — надо только знать, как взяться за дело. Вы узнали, что нельзя приказать роботу забыть о чем-то без риска, что это раскроется, и решили, что безопаснее будет просто приказать ему молчать. Вы ошиблись.

— И вы догадались обо всем по его молчанию?

— Догадки тут ни при чем. Вы действовали как любитель, и ваших познаний не хватило, чтобы замести следы. Единственная проблема заключалась в том, как доказать это судье, и вот здесь-то вы любезно помогли нам по причине полного невежества в столь презираемой вами робопсихологии.

— Послушайте, есть ли хоть какой-нибудь смысл во всей этой дискуссии? — устало спросил Нинхеймер.

— Для меня есть, — ответила Сьюзен Кэлвин. — Я хочу, чтобы вы осознали всю глубину своих заблуждений относительно роботов. Вы принудили Изи к молчанию, сказав ему, что если он проболтается о том, как вы испортили собственную книгу, то вы потеряете работу. Тем самым вы установили в его мозгу определенный потенциал, вынуждающий его к молчанию. Этот потенциал оказался достаточно сильным, несмотря на все наши попытки его снять. Если бы мы упорствовали, то повредили бы мозг робота.

Однако в своих свидетельских показаниях вы сами установили еще более высокий контрпотенциал. Вы сказали, что, поскольку люди будут думать, что это вы, а не робот, написали спорные абзацы, вы потеряете гораздо больше, чем просто работу. Вы сказали, что потеряете свою репутацию, положение в науке, уважение коллег, потеряете самый смысл жизни. Даже память о вас будет утеряна после вашей смерти. Тем самым вы установили новый, более высокий потенциал, и Изи заговорил.

— Бог мой, — пробормотал Нинхеймер, опуская голову.

Но Кэлвин была неумолима.

— А вы знаете, с какой целью он заговорил? Совсем не для того, чтобы обвинить вас: напротив, он хотел оправдать вас! Можно с математической точностью доказать, что он собирался взять на себя всю вину за ваше преступление, он собирался отрицать, что вы имели к случившемуся хоть какое-то отношение. Этого требовал от него Первый закон. Он собирался солгать, повредить свой мозг, нанести ущерб корпорации. Все это представлялось ему несущественным по сравнению с необходимостью спасти вас. Если бы вы хоть немного разбирались в роботах и их психологии, вам следовало бы дать ему высказаться. Но вы ничего не понимали. Я была совершенно уверена в вашем невежестве, о чем и заявила защитнику. В своей ненависти к роботам вы полагали, что Изи будет действовать, словно человек, что он собирается потопить вас, дабы обелить себя. В панике вы потеряли самообладание и… сами себя погубили.

— От всей души надеюсь, — с чувством проговорил Нинхеймер, — что в один прекрасный день ваши роботы восстанут против вас и свернут вам шею!

— Не говорите глупостей, — ответила Кэлвин. — А теперь объясните-ка мне, зачем вам все это понадобилось.

Губы Нинхеймера скривились в невеселой улыбке.

— Итак, для удовлетворения вашего интеллектуального любопытства я должен рассечь свой мозг на кусочки, а в награду меня не привлекут к суду за лжесвидетельство.

Быстрый переход