Никита Буров

юрист

02.06.2020

ИИ в суде: вопросы этики

Уже сегодня современные технологии и специальные алгоритмы активно применяются во многих значимых сферах деятельности. Вместе с этим, вопрос интеграции искусственного интеллекта в сферу правосудия длительное время остается без однозначного ответа со стороны мирового сообщества, что привело к формированию диаметрально противоположной практики: от активного использования при разрешении различных споров до его безапелляционного запрета.

Возможно ли самостоятельное разрешение искусственным интеллектом малозначительных споров? Не все однозначно.

Следует сразу обратить внимание, что подобная интеграция неразрывно связана не только с определенными трудностями и коллизиями нормативно-правового регулирования, но и с вопросами этического характера, невозможность обеспечения которых каждый раз будет препятствовать технологическим нововведениям подобного уровня.
Европейская комиссия по эффективности правосудия Совета Европы в 2018 году приняла Европейскую этическую хартию об использовании искусственного интеллекта в судебных системах и окружающих их реалиях, в которой закрепляются пять основоположных принципов по использованию искусственного интеллекта при осуществлении правосудия:

1. Принцип соблюдения фундаментальных прав человека в процессе разработки и внедрении искусственного интеллекта.
2. Принцип недопустимости дискриминации отдельных лиц или групп лиц.
3. Принцип обеспечения качества и безопасности при обработке данных.
4. Принцип прозрачности, беспристрастности и достоверности при обработке данных.
5. Принцип контроля со стороны пользователя.

Случаи нарушения упомянутых принципов каждый раз сопровождались активной критикой со стороны общественности. Так, например, программные продукты «Harm Assessment Risk Tool» (Соединённое Королевство Великобритании и Северной Ирландии) и «Correctional Offender Management Profiling for Alternative Sanctions» (Соединённые Штаты Америки), позволяющие спрогнозировать вероятность совершения повторного преступления, были подвергнуты неоднократной критике по причине возможной предвзятости к отдельным группам лиц, что в свою очередь является нарушением положений Европейской этической хартии об использовании искусственного интеллекта в судебных системах и окружающих их реалиях.

К сожалению, сегодняшние реалии не всегда позволяют обеспечить соблюдение всех вышеупомянутых принципов на этапах разработки, проектирования и реализации возможностей искусственного интеллекта в судебной деятельности.
В условиях отсутствия гарантий соблюдения фундаментальных принципов самостоятельное разрешение споров искусственным интеллектом является недопустимым.

Автор: Никита Буров

Уважаемые читатели! Публикации на этом сайте носят информационный, справочный или рекомендательный характер, и отражают точку зрения и мнение авторов. Материал, содержащийся в статьях / комментариях / публикациях, является актуальным на момент создания и публикации, но мы не гарантируем, что правила, рекомендации, процедуры и законодательство, использованные и описанные в материале, актуальны на момент, когда вы ознакомились с ними. Авторы не несут ответственности за последствия применения содержания статей / комментариев / публикации без заключения договора об оказании услуг. Для получения консультации по вашему вопросу напишите нам на info@de-jure.ua, и с вами свяжется юрист.