Perspectives of the application of artificial intelligence in civil legal proceedings: risk assessment and the method of their mitigation

Capa

Citar

Texto integral

Resumo

The goal of this study is to explore the current state and prospects for the use of artificial intelligence (Artificial intelligence, AI) in the framework of the administration of justice, in particular, in civil proceedings. In light of constantly changing social relations and the growing need to use modern technologies in various areas of life, including legal ones, it is important to understand what opportunities artificial intelligence can provide to improve legal proceedings and ensure the protection of citizens’ rights. The use of an artificial intelligence system in legal activities
has a number of advantages, such as speeding up the decision-making process, increasing the accuracy and objectivity of decisions made, and improving the accessibility of justice. However, it is also necessary to take into account possible disadvantages, for example, the risk of data privacy violations and the possibility of errors in the algorithms, which can lead to an unfair decision. The final conclusion of the study is that the use of information technology and
artificial intelligence systems should not be considered an end in itself but should be introduced as part of a strategy
to improve the legal system and increase the effectiveness of the protection and restoration of the rights of subjects
of legal relations. In addition, it is necessary to take into account the social and ethical aspects of legal proceedings.

Texto integral

Решения с использованием искусственного интеллекта становятся все совершеннее и используются все чаще, проникая в том числе и в судопроизводство. Подобные системы используются для протоколирования хода судебного разбирательства, систематизации процессуальных документов и анализа судебной практики. Основные причины использования данных систем: сокращение расходов и времени на судопроизводство, а также устранение субъективных факторов при принятии судебного решения или, иными словами, содействие в эффективной реализации принципов судопроизводства, в частности принципа процессуальной экономии и принципа законности.

В контексте гражданского судопроизводства ИИ как интеллектуальная система способен содействовать участникам судебного разбирательства систематизировать информацию по делу в заданных критериях, а также может вносить предложения или советы на основе имеющихся данных. В связи с этим судьям необходимо понимать, как работают системы с поддержкой ИИ, чтобы адекватно применять данные системы для повышения эффективности работы судов 1.

Обсуждается, что во многих отраслях компьютерные системы, особенно системы ИИ, шаг за шагом замещают людей на рабочих местах. Однако есть и другое мнение, что ни одна автоматизированная система не способна функционировать при отсутствии человеческого сопровождения – «ИИ никогда не будет разумным без продуктов человеческого интеллекта, которые служат ему источником знаний» 2. Несмотря на дискуссионность этого мнения, считаем, что в настоящий момент компьютерные системы и системы ИИ преимущественно дополняют людей на рабочих местах, упрощая выполнение отдельных, часто рутинных операций и существенно сокращая время на выполнение других. И это вариант этичного применения ИИ на рабочем месте, который следует поощрять 3.

Вот несколько возможных способов использования системы ИИ в гражданско-процессуальной сфере.

1. Организация информации о судебных делах. Систему ИИ можно использовать для распознавания шаблонов в текстовых документах и файлах при сортировке большого количества дел или в сложных делах, содержащих большой объем информации. Например, система искусственного интеллекта с машинным обучением под названием e-Discovery используется в США для обнаружения электронной информации по делу с целью использования ее в качестве доказательств в ходе судебного разбирательства.

2. Консультативный ИИ. Система с поддержкой ИИ может анализировать информацию, функционировать в режиме «вопрос-ответ» в контексте принятия решения, оставляя «последнее слово» за пользователем. Это может быть полезно судьям и потенциальным сторонам судебного дела, которые ищут решение своего спора. Таким образом, система может предотвратить споры или судебные дела, помогая сторонам решать проблемы между собой.

3. Юридическая аналитика. Системы с поддержкой ИИ могут предоставлять данные из судебной практики, которые юристы могут использовать при подготовке к текущим судебным процессам.

4. Автоматизация документооборота. Аппаратно-программные решения на базе ИИ могут служить инструментом при составлении и подаче юридических документов, в т. ч. процессуального характера (искового заявления, возражения, жалоб, ходатайств и др.).

5. Интеллектуальная собственность. Инструменты или решения на основе ИИ могут оказывать содействие в предоставлении информации о портфелях интеллектуальной собственности, т. е. осуществлять поиск и регистрацию товарных знаков, патентов, авторских прав и т. д.

Следует отметить, что за прошедшие 10 лет многие государства применяли искусственный интеллект при осуществлении судопроизводства 4. Так, например разработка умного суда в КНР идет с 2014 года. Верховный народный суд КНР составил «дорожную карту», согласно которой к 2025 году применение искусственного интеллекта в судебной системе расширится. Главные цели – ускорить рассмотрение дел, повысить доверие к судам, сделать процессы более удобными, устранить потенциальные возможности коррупции и злоупотреблений. Например, в 2017 г. в городе Ханчжоу заработал первый интернет-суд – он разбирает дела, связанные с интернет-сделками, интернет-платежами, авторскими правами в сети Интернет, а также апелляции по ним 5.

Если говорить о российской судебной системе, то полномасштабное применение ИИ планируется посредством введения суперсервиса «Правосудие онлайн». По замечанию председателя Совета судей РФ В. В. Момотова, основной задачей искусственного интеллекта в сервисе «Правосудие онлайн» станет автоматизированное составление проектов судебных актов на основе анализа текста процессуального обращения и материалов судебного дела, а также его использования для расшифровки аудиопротоколов, создания интеллектуальной поисковой системы с возможностью анализа и систематизации судебной практики 6.

В целом использование искусственного интеллекта в организационной деятельности суда возможно без существенных ограничений, единственный значимый риск – безопасность персональных данных, материалов и сведений, поступающих и аккумулирующихся в электронных системах.

Применение технологии слабого искусственного интеллекта в организационной деятельности суда позволит уменьшить рутинную работу судей и работников аппарата суда 7.

Так, судья в Колумбии использовал нейросеть ChatGPT для консультации перед вынесением приговора. Журналисты отметили, что решение полностью принимал судья, а чат-бот нужен был только для ускорения процесса 8. Консультация с нейросетью помогла ускорить процесс.

Схожего подхода к потенциальному применению искусственного интеллекта придерживаются и официальные представители российского судейского сообщества 9. Искусственный интеллект не может стать гарантом защиты прав и свобод человека и обеспечить справедливое и гуманное правосудие. Поэтому его применение возможно только в ограниченном виде, с четко определенными рамками и правилами. Такая технология может быть использована для рассмотрения гражданских и административных дел по бесспорным требованиям, т. е. там, где принятие решения не связано с анализом правоотношений сторон и в большей степени имеет технический характер. Правоведами отмечается, что «необходимо проделать дополнительную работу как в доктринальной, так и в технической областях, для нахождения способов имитации юридического мышления с помощью ИИ, а также правовой адаптации математических расчетов» 10.

Бразильскими учеными было опубликовано обширное исследование о трудностях обеспечения справедливости и отсутствия предубеждений при принятии решений моделями искусственного интеллекта 11. В исследовании были использованы различные методы, техники и инструменты для обнаружения и устранения алгоритмической несправедливости и предубеждений.

Для устранения основных форм предвзятостей в обучающих данных, в алгоритмах, и во взаимодействии с пользователями, авторами были рассмотрены процессы предобработки, «внутренней» обработки и постобработки. Было обнаружено, что большинство рассмотренных обучающих выборок включают чувствительные атрибуты 12.

Авторы отмечают, что текущие исследования имеют ограничения в виде отсутствия многоклассовых и многометрических исследований, а также неоднородности результатов различных метрик критерия справедливости для конкретного случая. Выявлено, что необходимо проводить широкие исследования с использованием различных архитектур моделей и различных метрик, чтобы стандартизировать подходы и определить, какие метрики являются более подходящими в конкретных контекстах.

Внедрение решений на основе ИИ в судопроизводство может существенно сэкономить время и средства на рассмотрение и разрешение дела. Однако, внедрение таких решений несет с собой существенные риски.

Риски внедрения решений на основе ИИ. Как показывают опубликованные исследования, человек склонен доверять компьютеру и принимаемым им решениям больше, чем другим людям 13. Люди также реже оспаривают решения, если знают, что их приняла автоматизированная система (эффект объективности). Это является большой проблемой в контексте того факта, что многие системы на основе ИИ усиливают стереотипы и паттерны, присутствующие в обучающих данных, что создает проблемы при внедрении подобных решений в судопроизводстве.

Типичную модель машинного обучения можно образно представить в виде «плохого отличника» – заучивает то, что ей демонстрируют в источнике информации (обучающие данные) и при этом ничего не понимает.

Так, например, в США правоохранительные органы все чаще используют системы для прогнозирования преступной деятельности и распределения собственных ресурсов. Тем не менее во многих юрисдикциях эти системы построены на данных, полученных в течение периодов расовой предвзятости и стереотипов, а порой и на основе противозаконных традиций и политики (т. н. нечистоплотный общественный порядок 14). Складывающаяся политика контроля формирует среду и методологию создания данных, что повышает риск формирования неточных, искаженных или систематически предвзятых сведений (dirty date) 15.

Примером данной проблемы является расовая предвзятость данных систем. Проблема заключается в данных, на которых обучаются алгоритмы. В частности, алгоритмы прогнозирования легко искажаются частотой арестов. Согласно данным Министерства юстиции США, у чернокожего человека вероятность быть арестованным более чем в два раза выше, чем у белого. Чернокожего человека в пять раз чаще останавливают без уважительной причины, чем белого человека 16. Исходя из этого, на основе обработки загруженных в систему данных, программой будет перенят идентичный паттерн расового критерия, т. е. «машина» смоделирует системную априорность виновности чернокожих граждан из-за их цвета кожи, так как если не все люди расисты и иногда задумываются и переоценивают свои решения, то модель, которая выучила, что так «правильно», – всегда будет так себя вести.

В настоящее время имеется несколько технических подходов к обнаружению предвзятостей в обучающих данных. Так, Чжэ Юй и Сяоцзинь Сяо проанализировали перспективу применения разницы средних коэффициентов и разницы в равных возможностях для обнаружения несправедливости в человеческих решениях 17. Однако, по их утверждению, использование этих метрик сильно полагается на корректность тестовых данных, тогда как в случае внедрения моделей ИИ в судопроизводство, ошибки могут присутствовать как в обучающих, так и в тестовых данных.

Еще один перспективный инструмент совершенствования моделей машинного обучения в контексте гражданского судопроизводства – метод предсказания следующего действия 18. Суть данного подхода вкратце сводится к анализу потока событий в режиме реального времени для выявления аномалий в данных, с которыми система работает. В рамках гражданского судопроизводства такими данными могут быть различные процессуальные документы, поступающие от участников судебного разбирательства (исковые заявления, возражения, ходатайства, жалобы, встречный иск и т. д.). Например, система предсказывает какие документы должны прийти следующими и если приходят не те, то она отмечает их как требующие дополнительного внимания. Или «аномалии» в действиях судей и работников аппарата суда, если кто-то принимает нестандартное решение, то оно отмечается как требующие внимание (хотя нельзя не отметить спорность возможности выявления «аномалии поведения» в контексте реализации принципа независимости судей).

Помимо этого для минимизации ранее описанных проблем предлагается применять концепцию «групповой справедливости», которая учитывает статистические данные и позволяет корректировать прогнозирование, делая его более точным и объективным. Кроме того, важно уделять внимание этическим аспектам использования машинного обучения, таким как прозрачность, объективность, защищенность персональных данных и отслеживаемость принимаемых алгоритмом решений 19.

В контексте гражданского судопроизводства эти проблемы могут быть особенно актуальными, так как правильность и справедливость принимаемых судом решений зависят от того, какие данные используются для принятия этих решений и как они интерпретируются алгоритмами машинного обучения. Поэтому важно обеспечить прозрачность и объективность принимаемых алгоритмом решений, а также учитывать факторы «групповой справедливости» при работе с данными и принятии решений.

По итогам исследования были сформированы методологические принципы для внедрения решений на основе искусственного интеллекта в практической плоскости и минимизации рисков его использования. В рамках этих принципов необходимо осуществлять внедрение решения в три этапа.

Этап 1. Ручной процесс, т. е. внедрение в отдельных судах разработанного ИИ решения в судебный процесс. Данный этап сводится к записи решения модели и решения участников судебного процесса, их сопоставления и отправки модели на доработку (при наличии существенных расхождений). Первый этап считается завершенным, когда расхождения между решениями системы и участников судебного процесса минимальны.

Этап 2. Ограниченное развертывание. На этом этапе мы позволяем автоматизированной системе принимать решения самостоятельно, однако участники судебного разбирательства должны периодически анализировать принимаемые автоматизированной системой решения и, в случае обнаружения существенных расхождений с оптимальными решениями, возвращаться к первому этапу. На втором этапе имеет смысл ограничить масштаб внедрения автоматизированной системы для того, чтобы сократить риски, которые могут возникнуть в случае ошибок автоматизированной системы (например, внедрить ее только в некоторых судах). Если анализ системы не выявляет существенных ошибок, то следует перейти к следующему этапу.

Этап 3. Постепенное расширение. На этом этапе мы постепенно увеличиваем количество судов, в которых мы используем разработанную систему для автоматизированного принятия решений. Обычно на этом этапе не представляется практичным продолжать проверять решения автоматизированной системы вручную, но, так как ошибки в решениях автоматизированной системы могут возникнуть, необходимо всем участникам судебного процесса, на которых эти решения влияют, предоставить простой и удобный способ оспорить эти решения. В случае выявления ошибок в работе системы на данном этапе имеет смысл остановить развертывание и в зависимости от важности и количества выявленных ошибок вернуться ко второму или даже к первому этапу 20.

Данные принципы универсальны и позволяют успешно и безопасно внедрить различные решения на основе искусственного интеллекта в деятельность по отправлению правосудия, в том числе в рамках гражданского судопроизводства.

 

1 См.: Reiling A. D. Courts and Artificial Intelligence // International Journal for Court Administration. 2020. Vol. 11. No. 2. P. 8.

2 Godwin J. Position of Artificial Intelligence in Justice System: Justice of the Future. URL: https://nji.gov.ng/wp-content/uploads/2021/12/Position-of-Artificial-Intelligence-in-Justice-System-Justice-of-the-Future-by-Joel-Gogwim.pdf

3 См.: Jones N. AI science search engines expand their reach // Nature News. 2016. No. 11.

4 См.: Бирюков П. Н. Искусственный интеллект и «предсказанное правосудие»: зарубежный опыт // Lex russica. 2019. № 11. С. 79–87; Его же. Цифровизация правосудия по гражданским делам: опыт ЕС // Арбитражный и гражданский процесс. 2022. № 2. С. 3–7; Чудиновская Н. А. Некоторые направления цифровизации правосудия в России и странах Евросоюза // Арбитражный и гражданский процесс. 2022. № 7. С. 7–9.

5 См.: Интернет-суд: новый проект в действии [Электронный ресурс]. – Режим доступа: URL: https://www.obwbip.com/04D540/assets/files/News/Internet-Court-On-the-Fly-RU.pdf (дата обращения: 25.03.2023).

6 См.: Момотов В. В. Искусственный интеллект в судопроизводстве: состояние, перспективы использования // Вестник Университета им. О. Е. Кутафина (МГЮА). 2021. № 5. С. 188–191.

7 См.: Крисько В. С. К вопросу о реализации принципа доступности правосудия и создания единого информационного пространства судебной системы // Администратор суда. 2019. № 1. С. 54–56.

8 См.: Судья в Колумбии использовал ChatGPT для вынесения приговора [Электронный ресурс]. – Режим доступа: URL: https://habr.com/en/news/t/714982/ (дата обращения: 25.03.2023); Colombian judge says he used ChatGPT in ruling [Электронный ресурс]. – Режим доступа: URL: https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling (дата обращения: 25.03.2023).

9 См.: Интервью председателя Совета судей Российской Федерации В. В. Момотова на Х Всероссийском съезде судей [Электронный ресурс]. – Режим доступа: URL: https://www.youtube.com/watch?v=VDbxY6OHSsk&feature=youtu.be (дата обращения: 25.03.2023).

10 Lim S. Judicial Decision-Making and Explainable Artificial Intelligence // Singapore Academy of Law Journal. 2021. No. 33. P. 313.

11 См.: Pagano T. P., Loureiro R., Lisboa F. et al. Bias and Unfairness in Machine Learning Models: A Systematic Review on Datasets, Tools, Fairness Metrics, and Identification and Mitigation Methods // Big Data and Cognitive Computing. 2023. Vol. 7. No. 1. P. 15.

12 Под чувствительными атрибутами понимаются характеристики (элементов в обучающих данных), которые во многих случаях не должны включаться в обучающую выборку, так как могут внести нежеланную предвзятость в модель ИИ (например, возраст, пол, рост, вес и т. д.).

13 См.: Bogert E., Schecter A., Watson R. T. Humans rely more on algorithms than social influence as a task becomes more difficult // Science Reports. 2021. No. 11. P. 8028.

14 Dirty policing (англ.).

15 См.: Richardson R., Schultz J., Crawford K. Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice // New York University Law Review. 2019. Vol. 94. Pp. 192–233.

16 См.: Yu Z., Xi X. A Pilot Study on Detecting Unfairness in Human Decisions with Machine Learning Algorithmic Bias Detection // arXiv. 2021. No. 12. Pp. 1–9.

17 См.: Heaven W. D. Predictive policing algorithms are racist. They need to be dismantled // MIT Technology Review. 2020. No. 3.

18 См.: Lee S., Lu X., Reijers Hajo A. The Analysis of Online Event Streams: Predicting the Next Activity for Anomaly Detection // arXiv. 2022. No. 3. Pp. 1–10.

19 См.: Pagano T. P., Loureiro R., Lisboa F., Araujo M. Op. cit. P. 15.

20 См.: Ховард Д., Гуггер С. Глубокое обучение с fastai и PyTorch: минимум формул, минимум кода, максимум эффективности. СПб., 2022.

×

Sobre autores

Armen Danielyan

Kuban State University

Autor responsável pela correspondência
Email: armen1992@mail.ru

PhD in Law, Associate Professor of the Department
of Civil Procedure and International Law at Kuban State University

Rússia, 149 Stavropolskaya str., 350040 Krasnodar

Bibliografia

  1. Biryukov P. N. Artificial intelligence and “predicted justice”: foreign experience // Lex russica. 2019. No. 11. Pp. 79–87 (in Russ.).
  2. Biryukov P. N. Digitalization of justice in civil cases: EU experience // Arbitration and Civil Procedure. 2022. No. 2. Pp. 3–7 (in Russ.).
  3. Krisko V. S. On the issue of the implementation of the principle of accessibility of justice and the creation of a unified information space of the judicial system // Court Administrator. 2019. No. 1. Pp. 54–56 (in Russ.).
  4. Momotov V. V. Artificial intelligence in legal proceedings: state, prospects of use // Herald of Kutafin University (MSLA). 2021. No. 5. Pp. 188– 191 (in Russ.).
  5. Howard D., Guger S. Deep learning with fast ai and PyTorch: minimum formulas, minimum code, maximum efficiency. SPb., 2022 (in Russ.).
  6. Chudinovskaya N. A. Some directions of digitalization of justice in Russia and the EU countries // Arbitration and Civil Procedure. 2022. No. 7. Pp. 7–9 (in Russ.).
  7. Bogert E., Schecter A., Watson R. T. Humans rely more on algorithms than social influence as a task becomes more difficult // Science Reports. 2021. No. 11. P. 8028.
  8. Heaven W. D. Predictive policing algorithms are racist. They need to be dismantled // MIT Technology Review. 2020. No. 3.
  9. Godwin J. Position of Artificial Intelligence in Justice System: Justice of the Future. URL: https://nji.gov.ng/wp-content/uploads/2021/12/Position-of-Artificial-Intelligence-in-Justice-System-Justice-of-the-Future-by-Joel-Gogwim.pdf
  10. Jones N. AI science search engines expand their reach // Nature News. 2016. No. 11.
  11. Lee S., Lu X., Reijers Hajo A. The Analysis of Online Event Streams: Predicting the Next Activity for Anomaly Detection // arXiv. 2022. No. 3. Pp. 1–10.
  12. Lim S. Judicial Decision-Making and Explainable Artificial Intelligence // Singapore Academy of Law Journal. 2021. No. 33. P. 313.
  13. Pagano T. P., Loureiro R., Lisboa F., et al. Bias and Unfairness in Machine Learning Models: A Systematic Review on Datasets, Tools, Fairness Metrics, and Identification and Mitigation Methods // Big Data and Cognitive Computing. 2023. Vol. 7. No. 1. P. 15.
  14. Reiling A. D. Courts and Artificial Intelligence // International Journal for Court Administration. 2020. Vol. 11. No. 2. P. 8.
  15. Richardson R., Schultz J., Crawford K. Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice // New York University Law Review. 2019. Vol. 94. Pp. 192–233.
  16. Yu Z., Xi X. A Pilot Study on Detecting Unfairness in Human Decisions with Machine Learning Algorithmic Bias Detection // arXiv. 2021. No. 12. Pp. 1–9.

Arquivos suplementares

Arquivos suplementares
Ação
1. JATS XML

Declaração de direitos autorais © Russian Academy of Sciences, 2024

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».