Изменить размер шрифта - +

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться всем приказам, которые отдает человек, кроме тех случаев, когда эти приказы противоречат Первому закону.

3. Робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому и Второму законам.

Мне кажется, робот не может не думать о том, что человеческим существам следует вести себя таким образом, чтобы роботам стало легче выполнять эти Три закона.

По правде говоря, я считаю, что люди, придерживающиеся этических норм, должны стараться облегчить жизнь роботам, как на их месте поступили бы роботы. Данные размышления стали темой рассказа «Двухсотлетний человек», опубликованного в 1976 году. Один герой-человек говорит:

«Раз человек имеет право отдать роботу любой приказ, лишь бы он не был во вред другому человеку, то простая порядочность не должна позволять ему отдавать роботу распоряжения во вред этому роботу, за исключением тех случаев, когда этого бесспорно требует спасение человеческой жизни. Чем больше власть, тем больше и ответственность, и если роботы подчинены Трем законам, гарантирующим безопасность людей, неужели так уж много – попросить, чтобы люди ввели закон-другой для защиты роботов?»

Например, Первый закон состоит из двух частей. Первая: «робот не может причинить вред человеку» – однозначна, и с ней ничего не нужно делать. Вторая: «или своим бездействием допустить, чтобы человеку был причинен вред», – дает нам некоторые возможности для полета фантазии. Человек может пострадать от какого-то неодушевленного предмета. На него упадет что-нибудь тяжелое, или он поскользнется и свалится в озеро, или с ним случится любой из тысяч несчастных случаев, предвидеть которые невозможно. В такой ситуации робот должен попытаться спасти человека: вытащить в безопасное место, поддержать и тому подобное. Или человеку будет угрожать какое-нибудь живое существо, например лев, и тогда робот тоже обязан прийти ему на помощь.

А что, если человеку угрожает другой человек? Здесь роботу придется принимать решение, что ему делать. Сможет ли он спасти одного человека, не причинив вред другому? Или если избежать этого невозможно, какие действия следует предпринять, чтобы вред был минимальным?

Роботам жилось бы намного легче, если бы люди так же беспокоились о благополучии других людей, как должны это делать роботы. И разумеется, любой кодекс морали потребует от человека заботиться о других и стараться сделать все, чтобы им не был причинен вред. Что, в конце концов, и является мандатом, который люди дали роботам. Получается, что Первый закон науки о человеке с точки зрения роботов должен звучать так:

1. Человек не может допустить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Если этот закон будет выполняться, роботам останется лишь оберегать людей от несчастных случаев с неодушевленными предметами и живыми существами (не людьми), что освободит их от решения этических проблем. Разумеется, робот должен оберегать человека от вреда, который может неосознанно причинить ему другое человеческое существо. Кроме того, он обязан быть готов прийти ему на помощь, если другой человек по объективным причинам не в состоянии оказать ему эту помощь достаточно быстро. Однако даже робот может неосознанно навредить человеку, и даже робот может не проявить достаточной сноровки и не успеть попасть к месту действия, да и умений ему может не хватить, чтобы предпринять необходимые меры. Ничто в нашем мире не идеально.

Таким образом, мы подходим ко Второму закону роботехники, который требует, чтобы робот повиновался всем приказам, отданным ему человеком, если они не вступают в конфликт с Первым законом. Это означает, что человек имеет право приказывать роботу все, что угодно, без ограничений, если только его желания не причинят вред другому человеку.

Быстрый переход