Общее описание исследуемого круга проблем
По словам Т.Я. Хабриевой и Н.Н. Черногора, «новая цифровая реальность предъявляет новые требования к правовой науке и юридической практике, касающиеся в том числе разработки эффективных инструментов и моделей правового регулирования различных областей общественной жизни.
Задача юристов - придать этой реальности правовую форму»[414].В настоящее время всё более актуальной становится тема возможного юридического конструирования и признания определённой специфической правосубъектности юнитов искусственного интеллекта[415].
Развитие искусственного интеллекта, по словам О.А. Ястребова, стало одной из предпосылок возникновения в перспективе принципиально
416
новых подходов и инструментов правового регулирования .
Однако вопрос особой правосубъектности искусственного интеллекта в настоящее время, главным образом, является предметом осмысления много более научным сообществом, нежели законодателями.
Маршал Уиллик указывал в своем исследовании, проведённом в 1983 году, что по мере развития технологий, позволяющих более полно взаимодействовать человеку и компьютеру, возможно размытие границ между инструментом (в качестве которого выступает как раз компьютер) и
417
оператором, управляющим таковым .
Ныне, по прошествии 35 лет, нельзя говорить о хоть сколько- нибудь значимом размытии этих границ, однако вопрос правосубъектности юнита искусственного интеллекта (или, как ещё его называют, «цифрового существа») приобретает актуальность в силу иных причин и факторов, в числе которых то, что современные технологии позволяют добиваться всё более независимого поведения юнитов искусственного интеллекта.
И если юнит искусственного интеллекта является по-настоящему автономным и способен к самообучению, становится всё более сложно приписывать последствия его поведения (действий) его создателю . [416] [417] [418] В 2017 году Европейский Парламент в своей резолюции вместе с рекомендациями Комиссии «Нормы гражданского права о робототехнике»[419] обозначил необходимость определения особого правового статуса для роботов в долгосрочной перспективе таким образом, чтобы хотя бы наиболее сложные автономные роботы могли быть наделены статусом электронных лиц, которые несут ответственность за свои действия и могут принимать независимые решения или иным образом независимо взаимодействовать с третьими лицами. При этом исследователи отмечают, что характер предлагаемой правосубъектности электронного лица, предложенного Европейским Парламентом, не был разъяснён в названном документе и пока не ясен; возможно, будет определён в будущем[420]. Речь идёт о потенциально возможном наделении робототехники некоторой определённой правосубъектностью. Соответственно, возникает обоснованная и выраженная необходимость научного осмысления данного круга вопросов. Необходимо исследовать юридические и фактические возможности применения концептов правосубъектности к юнитам искусственного интеллекта, глубоко осмыслить и оценить вопросы и задачи, которые, действительно, могут быть релевантно решены только именно посредством введения нового правового субинститута электронных лиц, а также проблемы и риски, которые может повлечь воплощение данного концепта в жизнь, проанализировать тенденции, модели и проблемы правосубъектности искусственного интеллекта. Тема нормативного правового регулирования разработки, производства, программирования, оборота, применения (задействования), функционирования, самообучения и саморазвития, прекращения жизнедеятельности (разрушения) и утилизации юнитов искусственного интеллекта, правосубъектности юнитов искусственного интеллекта, ответственности за действия и последствия действий юнитов искусственного интеллекта, за ущерб, вызванный юнитом искусственного интеллекта, иных аспектов искусственного интеллекта детерминирует научные дискуссии относительно правового статуса юнитов искусственного интеллекта. В рамках одного из существующих подходов предлагается наделять юниты искусственного интеллекта определённой специфической правосубъектностью - для того чтобы эти юниты несли (были способны нести) ответственность за свои действия. Однако такой подход кажется наименее корректным и наиболее слабым в части обоснования такой правосубъектности. Так, Джеймс Гэрфорт выделяет следующие случаи противоправных действий юнита искусственного интеллекта: - использование юнитом искусственного интеллекта, осуществляющим сбор и хранение информации о людях, такой информации в ненадлежащих целях, передача её сторонам, которые не имеют доступа к такой информации, а также сбор такой информации без наделения его правами на доступ к ней; - нарушение юнитом искусственного интеллекта прав человека неправомерным публичным раскрытием персональной или иной частной информации о нём; - нарушение юнитом искусственного интеллекта прав человека взаимодействием с ним в выраженно оскорбительной манере; - принятие юнитом искусственного интеллекта дискриминирующих человека или группу лиц решений; - нарушение юнитом искусственного интеллекта, создающим результаты интеллектуальной деятельности, законодательства о праве интеллектуальной собственности[421]. Однако подобного рода ситуации могут произойти лишь в случае некорректного программирования юнита искусственного интеллекта человеком, намеренного или в результате ошибки. В будущем же, указанные вероятные ситуации могут произойти абсолютно непредсказуемо, в частности - в результате сложных процессов самообучения юнитом искусственного интеллекта. Однако и тогда весьма затруднительно будет говорить о намеренном причинении юнитом искусственного интеллекта вреда человеку, во всяком случае - в устоявшемся понимании понятия намеренности. А объективное вменение возможно лишь за ограниченные виды деяний, и его цели не будут достигаться в этом случае. При этом наделение юнита искусственного интеллекта правосубъектностью всё же может способствовать решению вопроса о том, кто именно несёт ответственность за его неправомерные действия или бездействие, в частности - для решения проблемы определения надлежащего ответчика. Поэтому ключевой правовой проблемой использования юнитов искусственного интеллекта на современном этапе уже является проблема определения юридической ответственности за наступление вредных последствий в результате действий (или бездействия) юнита искусственного интеллекта. Причём если ошибка юнита искусственного интеллекта, используемого при управлении коммерческой организацией либо при оказании информационных услуг, может быть сравнительно легко отслежена и исправлена и может не иметь глобальных негативных последствий, то, например, совершение ошибки таким юнитом при принятии решения в рамках государственного управления может нанести очень значительный вред публичным интересам, правам и законным интересам граждан. В силу того что юниты искусственного интеллекта по мере развития технологий становятся всё более сложными и получают всё большее распространение, всё менее однозначной становится одна из фундаментальных концепций, согласно которой конечным субъектом принятия любого решения является человек, что, в свою очередь, поднимает проблему определения юридической ответственности[422] [423]. Джон Байерс отмечает, что до относительно недавнего времени проблема определения ответственности за действия машины разрешалась однозначно и традиционно: такая машина должна была рассматриваться исключительно как инструмент лица, обладающего или управляющего ей. Не возникало вопроса о личной ответственности такой машины или её правосубъектности, поскольку машины не были способны осуществлять 423 автономную или полуавтономную деятельность . Так, в Пояснительной записке Секретариата Комиссии ООН по праву международной торговли об использовании электронных средств связи в международных соглашениях отмечалось, что лицо (как физическое, так и юридическое), от имени которого компьютер был запрограммирован, должно нести ответственность за любое сообщение (коммуникативный сигнал), сгенерированное машиной (статья 12)[424] [425]. В настоящее же время следующие ключевые характеристики юнитов искусственного интеллекта актуализируют проблему определения их правосубъектности и способности нести юридическую ответственность за свои действия: 425 - автономность и самоорганизация; - способность к обучению и самообучению; - способность к разумному мышлению и поведению. Сочетание названных параметров приводит к вероятности совершения действий, не предусмотренных производителем или программистом изначально. При этом также имеет значение возможный диапазон таких непредвиденных действий. Риски, касающиеся безопасности роботов нового поколения, ряд авторов обоснованно подразделяют на 2 категории: - риски, проистекающие из стандартов производства таких роботов (такие риски поддаются управлению посредством нормативно-правового и нормативного технического регулирования, посредством процессов оценки и планирования); - риски, проистекающие из автономной деятельности роботов (автономная деятельность роботов нового поколения делает связанные с их деятельностью риски сложными, изменчивыми и непредсказуемыми и, следовательно, требует совершенно иного подхода к оценке рисков)[426]. Возрастающее использование юнитов искусственного интеллекта переносит ответственность за их безопасное функционирование с оператора на разработчика, со всеми вытекающими из этого нравственно - этическими и юридическими последствиями. Поэтому, по мнению Королевской инженерной академии наук Великобритании, возможно, необходимо установление требований к своего рода лицензированию осуществления деятельности в этой сфере, в частности - требований, касающихся изучения и учёта нравственно-этических принципов в этой области[427]. Для подобных целей Королевская инженерная академия наук Великобритании выпустила руководство «Инженерная этика на практике: руководство для инженеров»[428]. В случае если презюмировать, что юнит (агент, система) искусственного интеллекта не в состоянии непосредственно самостоятельно нести ответственность за свои действия, что такой юнит не может обладать правосубъектностью, то возникает иная проблема. Эта проблема связана с определением надлежащего субъекта ответственности, поскольку круг лиц, участвующих в регулировании и администрировании поведения юнита искусственного интеллекта, в действительности, чрезмерно широк. К этому кругу могут быть отнесены владельцы, операторы, проектировщики и программисты. Если же предполагать возможность разделения ответственности между ними, то возникает проблема определения и распределения степени вины таких лиц, в особенности - если говорить не о тех ситуациях, когда кто-либо из них намеренно программирует робота на причинение смерти человеку, а о тех ситуациях, когда затруднительно доказать намерение конкретного лица причинить вред, доказать, что это лицо знало о том, что вред может быть .. 429 причинен . Традиционным решением может стать так называемый институт строгой ответственности, предполагающий привлечение к ответственности без вины, но, как отмечает Джек Балкин, это, во-первых, может существенно ограничить, «задушить» инновации в этой сфере, а во-вторых - может быть не вполне корректным с точки зрения уголовного права[429] [430]. Некоторые сбои в работе юнитов искусственного интеллекта могут быть опасными для отдельных человеческих индивидов и общества, могут приводить к причинению ущерба. Габриэль Халлеви приводит в качестве примера следующую ситуацию: на программный комплекс, оснащенный искусственным интеллектом, предназначенный для тюремной охраны, возложены функции по предотвращению побегов из тюрьмы с минимизацией применения силы, которая может нанести вред здоровью и жизни беглых заключенных. Для выполнения названной задачи такой программный комплекс может использовать силу с помощью киберфизических систем (с актуаторами). В какой-то момент заключенный предпринимает попытку побега. Программный комплекс эту попытку обнаруживает и отправляет киберфизическую систему (физически осязаемого робота) для решения проблемы. В данном случае не имеет значения, является ли этот робот частью программного комплекса с искусственным интеллектом или же он обладает собственным автономным искусственным интеллектом. Отправленный для решения проблемы робот предотвращает попытку побега, крепко схватив (удерживая) заключённого. В результате этот заключённый пострадал и заявляет о злоупотреблении физической силой. Анализ действий робота показывает, что, хоть он и мог выбрать более мягкую меру воздействия, он всё же выбрал определённое пагубное действие. Причиной этому служило то, что робот значительно переоценил риски. Следовательно, правовой вопрос в такой ситуации заключается в определении того, кто именно несёт юридическую ответственность за причинение вреда здоровью 431 заключённого . На настоящем этапе развития технологий неизвестно, насколько простым будет разрешение споров, касающихся привлечения третьих лиц к ответственности за действия юнита искусственного интеллекта (или привлечения самого такого юнита), в досудебном порядке, в сравнении со спорами, связанными с другими технологиями. В частности, сложность этих новых технологий и некоторых типов взаимодействия между человеком и машиной может негативно влиять на шансы сторон достигнуть компромисса[431] [432]. Согласно нашему подходу, обоснованно выделять следующие основные модели определения ответственности за действия юнита искусственного интеллекта, повлёкшие за собой наступление вредных последствий (в том числе в сфере права интеллектуальной собственности): - модель инструмента реального актора, в рамках которой юнит искусственного интеллекта презюмируется как принципиально невиновный («безвинный») агент, инструмент действительного исполнителя правонарушения; - модель естественных вероятных последствий, в рамках которой презюмируется, что юнит искусственного интеллекта реализует действия, являющиеся естественным, логически закономерным и вероятным следствием (производным) его производства / программирования, а лицо, создавшее и/или запрограммировавшее машину, презюмируется проявившим преступную небрежность; - модель прямой ответственности непосредственно юнита искусственного интеллекта за его действия (или бездействие); - модель квази-субститутивной ответственности (ответственность за небрежность других лиц) владельца и/или эксплуатанта юнита искусственного интеллекта за неспособность надлежащим образом истолковать намерения и действия этого юнита и предупредить эти действия. Очевидно, что принятие каждой из этих моделей и воплощение таковой в жизнь потребует в каждом из этих вариантов применения различных наборов законодательных подходов и мер. 3.1.2.