<<
>>

Основные существующие правовые подходы в обозначенной области

Использование автономных юнитов искусственного интеллекта поднимает вопрос о том, как именно такие системы должны проектироваться и создаваться, чтобы их деятельность могла

451

неукоснительно соответствовать законодательству .

Институт инженеров электротехники и электроники (международная общественная организация) предлагает следующие принципы применения и разработки юнитов искусственного интеллекта:

- обеспечение идентификации всех искусственных агентов (юнитов искусственного интеллекта) для обеспечения юридической подотчётности и подконтрольности их деятельности;

- законодателям и правоохранительным органам необходимо обеспечить, чтобы использование юнитов искусственного интеллекта не было сопряжено со злоупотреблениями для избежания ответственности; [450]

- установление обязанности компаний, использующих и производящих юниты искусственного интеллекта, устанавливать письменные формализованные правила (и добиваться их соблюдения), чётко регулирующие использование таких систем, в частности - относительно того, кто именно (и каким образом) вправе их использовать, определять требования к квалификации таких лиц .

Эти принципы могут применяться с учётом сложностей определения надлежащего субъекта юридической ответственности.

В Рекомендации Парламентской Ассамблеи Совета Европы № 2102 (2017) от 28.04.2017 «Слияние с технологиями, искусственный

453

интеллект и права человека» отмечалось, что ответственность за деяние лежит на человеке независимо от обстоятельств; ссылки на независимые решения юнитов искусственного интеллекта не могут освобождать их создателей, владельцев и операторов от ответственности за нарушение прав человека, совершённое с использованием таких систем, даже в тех ситуациях, когда само действие не было совершено по прямому указанию человека (пункт 9.1.1).

Модель естественных вероятных последствий и модель непосредственной ответственности юнита искусственного интеллекта предполагают, в числе прочего, реализацию мер превентивного характера, направленных на минимизацию негативных последствий возможных действий искусственного интеллекта.

[451] [452]

По мнению Г енри Праккена, одной из подобного рода мер является обеспечение проектирования юнитов искусственного интеллекта таким образом, чтобы гарантировать отсутствие возможности (невозможность) нежелательных (недопустимых) действий машины. Однако данный метод больше подходит юнитам искусственного интеллекта ограниченной

454

автономности .

Аида Понсе дель Кастильо отмечает, что применительно к ситуациям, когда юнит искусственного интеллекта способен самообучаться и осуществлять действия, приводящие к непредвиденным результатам, обязательно должны быть разработаны минимальные нормативные стандарты, касающиеся определения ответственности за нежелательные (недопустимые) последствия деятельности (функционирования) таких систем, обеспечивающие, во-первых, устранение или сведение к минимуму таких нежелательных последствий, а также решение проблемы подотчётности, которая делает возможным такое поведение юнита искусственного интеллекта[453] [454].

Согласно позиции Рональда Линеса и Федерики Люсиверо, проектирование юнитов искусственного интеллекта должно регулироваться посредством принятия норм и стандартов безопасности, которые должны соблюдаться, чтобы гарантировать исключение (невозможность) нанесения юнитами искусственного интеллекта вреда их пользователям или третьим лицам[455].

Представляет существенный интерес позиция Европейского Парламента на этот счёт.

Комиссия по гражданско-правовому регулированию в сфере робототехники Европейского Парламента считает, что какое бы юридическое решение ни было применено к ответственности роботов (в иных случаях, нежели права на имущество), будущий законодательный документ никоим образом не должен ограничивать вид или степень ущерба, который может быть возмещён, а также не должен ограничивать формы компенсации, которые могут быть предложены потерпевшей стороне, на том единственном основании, что ущерб причинён

457

негуманоидным агентом .

Согласно пунктам 49-50 и 52-58 Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданскоправовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике» (считаем обоснованным привести здесь развёрнутые извлечения), гражданская ответственность за ущерб, причинённый роботами, является важной проблемой, которая подлежит внимательному исследованию и рассмотрению, с тем чтобы обеспечить необходимую степень эффективности, транспарентности и последовательности в осуществлении правовой определённости во всём Европейском Союзе в [456] [457] интересах граждан, потребителей и предприятий. Разработка технологий робототехники требует более глубокого понимания консолидированной точки зрения, необходимой для совместной деятельности человека и робота, которая должна основываться на двух основных взаимозависимых отношениях, а именно - на предсказуемости и директивности; эти два взаимозависимых отношения имеют решающее значение для определения того, какая информация должна быть разделена между людьми и роботами и как возможно достичь общей основы между людьми и роботами, чтобы обеспечить нормальное совместное действие человека и робота. Любое юридическое решение, применимое к гражданской ответственности за ущерб, причинённый роботами в случаях, отличных от ущерба, причиняемого имуществу, отражённое в будущем законодательном акте, никоим образом не должно ограничивать тип или степень возмещения убытков, которые могут быть возмещены, а также не должно ограничивать формы компенсации, которые могут быть предложены потерпевшей стороне, на том единственном основании, что ущерб причинён негуманоидным агентом. Будущий законодательный документ должен основываться на углублённой оценке, определяющей, следует ли применять подход строгой юридической ответственности или же подход управления рисками. Строгая ответственность требует только доказательств того, что был нанесен ущерб, и установления причинноследственной связи между ненадлежащими действиями робота и ущербом, понесённым вследствие таковых потерпевшей стороной. Подход к управлению рисками должен фокусироваться не на привлечении к ответственности лиц, действовавших небрежно, а на лицах, которые в определённых обстоятельствах могут редуцировать до минимума риски и негативные последствия.

В принципе, когда стороны, несущие основную ответственность, были определены, их ответственность должна быть пропорциональна фактическому уровню инструкций, данных роботу, и степени его автономности, с тем чтобы увеличить возможности обучения робота. И чем дольше время обучения робота, тем больше должна быть ответственность его «тренера». Навыки, возникающие в результате «обучения», предоставляемого роботу, не следует путать с навыками, строго зависящими от его способностей к самообучению, при поиске личности человека, которому на самом деле может быть нанесён вред вследствие поведения робота; по крайней мере, на данном этапе ответственность лежит на человеке, а не на роботе. Возможным решением проблемы сложности распределения ответственности за ущерб, причинённый становящимися всё более и более автономными роботами, может явиться введение обязательной схемы страхования, как это уже происходит, например, с автомобильным транспортом. Тем не менее, в отличие от системы страхования в сфере дорожного движения, когда страхование охватывает человеческие действия и сбои, система страхования робототехники должна учитывать все потенциальные обязанности в цепочке. Как и в случае страхования автотранспортных средств, такая система страхования может быть сопряжена со специально создаваемым страховым фондом, чтобы обеспечить возмещение ущерба в случаях, когда страховое покрытие отсутствует. Страховщикам следует разрабатывать новые продукты и типы предложений, которые будут соответствовать достижениям в области робототехники.

Согласно пункту 59 Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от

16.02.2017 «Нормы гражданского права о робототехнике»459, при проведении оценки воздействия проектируемого законодательного инструмента следует исследовать, проанализировать и рассмотреть последствия всех возможных правовых решений, таких, как: [458]

a) установление схемы обязательного страхования, когда это необходимо и обоснованно для конкретных категорий роботов-юнитов искусственного интеллекта, в соответствии с которыми (подобно тому, как это уже происходит с автомобилями) производителям или владельцам роботов потребуется взять на себя обязанности по страхованию от ущерба, который может быть причинён их роботами;

b) обеспечение того, чтобы подлежащий созданию компенсационный страховой фонд служил цели гарантирования выплаты компенсации, если ущерб, причинённый роботом, не был покрыт страхованием;

c) допущение (дозволение) ограниченной ответственности производителя, программиста, владельца или пользователя в случае, если они вносят взносы в названный компенсационный страховой фонд, а также если они совместно заключают договор страхования, чтобы гарантировать выплату возмещения за ущерб, причинённый роботом;

d) решение вопроса о том, создавать ли общий страховой фонд вообще для всех автономных юнитов искусственного интеллекта или создавать индивидуальные фонды по каждой категории роботов, а также вопроса о том, следует ли определять взнос в виде разовой платы при размещении робота на рынке или в виде периодических взносов в течение всего срока службы робота;

e) связь между роботом и соответствующим фондом должна быть прослеживаема из уникального регистрационного номера, указываемого в специальном реестре, который позволит каждому, кто взаимодействует с роботом, быть проинформированным о характере фонда, лимитах его ответственности на случай повреждения имущества, о фамилиях-именах и функциях вкладчиков и обо всех других референтных данных;

f) создание особого правового статуса для роботов в долгосрочной перспективе; по крайней мере, самые сложные автономные роботы могут быть определены как обладающие специфической правосубъектностью электронных лиц, ответственных за нанесение любого ущерба, который

они могут причинить, и, возможно, применение электронной личности («electronic personality») в случаях, когда роботы принимают автономные решения или иным образом взаимодействуют с третьими лицами самостоятельно.

Заслуживают внимания содержащиеся в проекте Федерального закона «О внесении изменений в Гражданский кодекс Российской Федерации в части совершенствования правового регулирования отношений в области робототехники» (авторства Д.С. Гришина (Grishin Robotics) и международной юридической фирмы Dentons)460 предложения дополнить Часть первую Гражданского кодекса Российской Федерации новой главой, и в частности статьёй 127.4 «Ответственность за действия робота-агента» следующего содержания:

«1. Собственник и владелец робота-агента несут ответственность за действия робота-агента в пределах находящегося в их собственности имущества, переданного во владение и (или) пользование робота-агента.

2. В случаях, когда ответственность робота-агента связана с его правовой природой как имущества (в том числе в случае причинения вреда деятельностью, создающей повышенную опасность для окружающих), ответственность за действие робота-агента несёт его владелец в соответствии со статьёй 1079 настоящего Кодекса.

3. В любом из случаев, указанных в настоящей статье, соответствующее лицо - собственник и (или) владелец робота-агента - несут ответственность за действия робота-агента, если не докажут, что основания для ответственности возникли в результате действий лица, осуществлявшего разработку, производство и (или) техническое обслуживание робота-агента.

4. Если иное не предусмотрено законом или договором, лицо, осуществлявшее разработку, производство и (или) техническое обслуживание робота-агента, несёт ответственность в соответствии с настоящей статьёй независимо от наличия вины».

Однако, на наш взгляд, эти законодательные предложения не содержат релевантного решения исследуемых нами проблем.

<< | >>
Источник: МОРХАТ Петр Мечиславович. ПРАВОСУБЪЕКТНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ПРАВА ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ: ГРАЖДАНСКО-ПРАВОВЫЕ ПРОБЛЕМЫ. ДИССЕРТАЦИЯ на соискание учёной степени доктора юридических наук Москва 2018. 2018

Еще по теме Основные существующие правовые подходы в обозначенной области:

- Авторское право - Аграрное право - Адвокатура - Административное право - Административный процесс - Антимонопольно-конкурентное право - Арбитражный (хозяйственный) процесс - Аудит - Банковская система - Банковское право - Бизнес - Бухгалтерский учет - Вещное право - Государственное право и управление - Гражданское право и процесс - Денежное обращение, финансы и кредит - Деньги - Дипломатическое и консульское право - Договорное право - Жилищное право - Земельное право - Избирательное право - Инвестиционное право - Информационное право - Исполнительное производство - История - История государства и права - История политических и правовых учений - Конкурсное право - Конституционное право - Корпоративное право - Криминалистика - Криминология - Маркетинг - Медицинское право - Международное право - Менеджмент - Муниципальное право - Налоговое право - Наследственное право - Нотариат - Обязательственное право - Оперативно-розыскная деятельность - Права человека - Право зарубежных стран - Право социального обеспечения - Правоведение - Правоохранительная деятельность - Предпринимательское право - Семейное право - Страховое право - Судопроизводство - Таможенное право - Теория государства и права - Трудовое право - Уголовно-исполнительное право - Уголовное право - Уголовный процесс - Философия - Финансовое право - Хозяйственное право - Хозяйственный процесс - Экологическое право - Экономика - Ювенальное право - Юридическая деятельность - Юридическая техника - Юридические лица -