<<
>>

Проблема определения ответственности третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий

Использование автономных юнитов искусственного интеллекта детерминирует возникновение новых проблем и сложностей в рамках существующих моделей ответственности, которые, главным образом, основаны на концепции причинно-следственной связи между действием (или бездействием) и его последствиями.

В случае когда использование подобных машин привело к совершению серьёзного сбоя, ошибки, возникает вопрос: что именно стало причиной случившегося: изначальные дефекты сложного оборудования или некорректное его программирование и обучение?[444]

В большинстве случаев разумно и обоснованно привлечение к ответственности за ошибки, совершённые юнитом искусственного интеллекта, разработчиков, создателей и программистов такого юнита. Но не в ситуациях, когда юнит искусственного интеллекта начинает функционировать таким образом, как невозможно было предсказать ранее, в особенности - если такой юнит взаимодействует с другими агентами в т.н. Интернете вещей[445], самообучается и за счёт этого тоже.

При ограничении возможности потребителей (эксплуатантов юнита искусственного интеллекта) принимать меры предосторожности, вероятно, бремя ответственности перейдёт (должно быть перенесено) на плечи производителей, особенно - в ситуациях, когда, с точки зрения управления рисками, производители находятся в более благоприятном положении, чем потребители. Во многих подобных ситуациях наблюдение за всеми пользователями и, в случае необходимости, вмешательство могут оказаться неосуществимыми или чрезмерно затратными для производителей. Следовательно, важно обеспечение того, чтобы сами пользователи технологий и юнитов искусственного интеллекта были в достаточной мере заинтересованы принимать меры предосторожности и вкладываться в собственное обучение в этой области. В ситуациях, когда внешние факторы оказывают значительное влияние, регулирующие органы могут посчитать необходимым потребовать прохождение такого обучения пользователями технологий и юнитов искусственного интеллекта.

К примеру, может потребоваться получение специального водительского удостоверения для управления беспилотным автомобилем. Или же, например, врачам может потребоваться прослушать минимальное количество уроков по работе с робототехнической системой, прежде чем они будут допущены к проведению некоторых типов процедур для

447

пациентов .

Сущность автономности юнита искусственного интеллекта как раз означает, что введение каких-то определённых данных и программирование такого юнита определённым образом не обязательно приводит к конкретному результату в ответ на заданные обстоятельства (введённые команды)[446] [447].

В пункте «Z» Введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»[448] подчёркивается, что роботы сейчас способны не просто выполнять определённый круг действий, которые обычно присущи и типичны для человека, но и учиться на собственном опыте и принимать квазинезависимые решения, что делает их всё более похожими на агентов, взаимодействующих с окружающей средой и способных значительно её изменять, и в таком контексте проблема определения юридической ответственности за вредные действия робота становится решающей.

Сложный и полиморфный характер таких систем не позволяет чётко определять ответственность за сбои таких программ. Кроме того, если говорить, к примеру, о сложном оборудовании, оснащённом искусственным интеллектом и используемом в военных целях, то принятие решений таким оборудованием, вероятно, будет распределено между несколькими разными программами (разрабатываемыми, возможно, разными незнакомыми друг с другом программистами) и процессорами на основании данных, получаемых от датчиков различных типов. Принятие решений таким оборудованием будет зависеть от обстановки, в которой оно используется, от контекста, а также от возлагаемых на него задач.

И в таком случае нецелесообразно и некорректно возлагать ответственность на проектировщиков и разработчиков[449].

Кроме того, существует и подлежит принятию во внимание очень серьёзная проблема, связанная с существенной уязвимостью юнитов искусственного интеллекта от взлома (несанкционированного вскрытия) и перепрограммирования злоумышленниками. Такое обстоятельство весьма усложняет установление лица, ответственного за вредные действия такой системы.

Помимо всего прочего, на сегодня нет внятных (законодательно урегулированных или даже просто научно обоснованных - на уровне правопонимания) ответов на вопрос о том, кто, на каких основаниях, при каких условиях, в какой мере и в каком порядке должен нести ответственность за ущерб (и возмещать ущерб), причинённый или спровоцированный:

- ошибкой (невиновным деянием), совершённой юнитом искусственного интеллекта, например, если робот-диагност поставил неверный диагноз, в результате чего пострадал человек-пациент, или иным дефектом его функционирования;

- производственными дефектами юнита искусственного интеллекта или его актуаторов (физически осязаемых исполнительных механизмов);

- взломом и/или несанкционированным перепрограммированием программной составляющей юнита искусственного интеллекта;

- поведением юнита искусственного интеллекта, аналогичным человеческому сумасшествию;

- непринятием юнитом искусственного интеллекта мер по предотвращению самоубийства человека, которые потенциально могли быть реализованы (если на месте этого юнита был бы другой человек);

- действиями двух юнитов искусственного интеллекта, которым их статус позволяет выступать истцами в суде и которые встретились как разные стороны дела, по совместному злоупотреблению правом в судебном процессе, что парализовало деятельность судебной инстанции; аналогичными ситуациями в других сферах;

- самостоятельным отключением себе юнитом искусственного интеллекта части своих программных и аппаратных функций, блокирующих возможность причинения вреда человеку;

- произвольным созданием юнитом искусственного интеллекта по своему усмотрению робота, способного причинить вред человеку и предназначенного для этой цели;

- несанкционированным самопроизвольным образованием несколькими юнитами искусственного интеллекта коллективного (интегрального) сетевого искусственного суперразума с полным или существенно значимым выходом из-под контроля человека.

Таким образом, применительно к юнитам искусственного интеллекта объективно очень много вопросов, требующих незамедлительного урегулирования.

3.1.5.

<< | >>
Источник: МОРХАТ Петр Мечиславович. ПРАВОСУБЪЕКТНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ПРАВА ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ: ГРАЖДАНСКО-ПРАВОВЫЕ ПРОБЛЕМЫ. ДИССЕРТАЦИЯ на соискание учёной степени доктора юридических наук Москва 2018. 2018

Еще по теме Проблема определения ответственности третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий:

- Авторское право - Аграрное право - Адвокатура - Административное право - Административный процесс - Антимонопольно-конкурентное право - Арбитражный (хозяйственный) процесс - Аудит - Банковская система - Банковское право - Бизнес - Бухгалтерский учет - Вещное право - Государственное право и управление - Гражданское право и процесс - Денежное обращение, финансы и кредит - Деньги - Дипломатическое и консульское право - Договорное право - Жилищное право - Земельное право - Избирательное право - Инвестиционное право - Информационное право - Исполнительное производство - История - История государства и права - История политических и правовых учений - Конкурсное право - Конституционное право - Корпоративное право - Криминалистика - Криминология - Маркетинг - Медицинское право - Международное право - Менеджмент - Муниципальное право - Налоговое право - Наследственное право - Нотариат - Обязательственное право - Оперативно-розыскная деятельность - Права человека - Право зарубежных стран - Право социального обеспечения - Правоведение - Правоохранительная деятельность - Предпринимательское право - Семейное право - Страховое право - Судопроизводство - Таможенное право - Теория государства и права - Трудовое право - Уголовно-исполнительное право - Уголовное право - Уголовный процесс - Философия - Финансовое право - Хозяйственное право - Хозяйственный процесс - Экологическое право - Экономика - Ювенальное право - Юридическая деятельность - Юридическая техника - Юридические лица -