Бот судья: чем грозит применение искусственного интеллекта в судах

0 34

Бот судья: чем грозит применение искусственного интеллекта в судах

Фото DPA / TASS Созданный в Колумбии судебный прецедент использования чат-бота ChatGPT заставляет задуматься о новых рисках для правосудия. Конечно, остановить развитие технологий нельзя, но, по мнению адвоката и автора Телеграм-канала «Законы города Китежа» Александра Пиховкина, важно сформулировать условия, направления и границы применения ИИ в судопроизводстве

Популярный чат-бот ChatGPT впервые был использован при вынесении судебного решения. В конце января 2023 года в колумбийском городе Картахена судья обратился к искусственному интеллекту (ИИ) при вынесении решения о компенсации выплат по страховке. Семья страдающего аутизмом ребенка обратилась в суд с требованием признать, что медицинская страховка покрывает ее расходы на лечение мальчика. Чат-бот сформулировал для судьи решение, снабдив его ссылками на практику и разъяснения местного Верховного суда. Иск семьи был удовлетворен.

Судья Хуан Мануэль Падилья Гарсия заявил, что в конце концов решение принимал он сам. Но только сам судья знает точный ответ на вопрос о том, кто раньше, он или ИИ, принял решение по делу. И перспектива того, что внутреннее убеждение судьи может формироваться машиной, не вызывает энтузиазма. Этим ставятся под угрозу базовые принципы судопроизводства. 

Содержание:

Безотказный помощник

Из комментариев судьи следует, что он задал боту ряд вопросов, и ChatGPT выполнил работу, которую раньше делал секретарь суда. Падилья похвалил нового помощника за составление простого и хорошо структурированного текста, что может сэкономить «время реагирования» в системе правосудия.

 

Случайно или нет, колумбийский судья выбрал подходящий пример, чтобы анонсировать приход ИИ в правосудие. Иск об оплате лечения ребенка обращается к нашей человечности, способность к критическому мышлению при этом снижается. Судебное решение в пользу семьи в таком случае кажется справедливым, независимо от действительных обстоятельств дела, которые остаются нам неизвестны. Ведь судья не просто так обратился за помощью к чат-боту. Значит, у него самого были сомнения или, как минимум, вопросы относительно правильного разрешения спора. 

То, что судья вступил в непредусмотренное нормами закона и этики взаимодействие с ИИ, составляет одну проблему. Другая проблема заключается в том, что судья сделал это посредством неверифицированного, неюридического, проприетарного (принадлежащего частной компании) продукта. Наконец, очевидно, что судья своими действиями послал сигнал своим коллегам во всем мире о том, что такое в принципе возможно. Он и сам не скрывает этого. По мнению Падильи, другие судьи последуют его примеру.

Вопрос, однако, в том, что, вероятно, далеко не все коллеги Падильи публично признают свое обращение к ИИ при отправлении правосудия. Сможет ли общество  застраховаться от бесконтрольного вмешательства технологий в правосудие? 

Созданный калифорнийской компанией OpenAI, ChatGPT стал одним из самых быстрорастущих потребительских приложений в истории. С момента своего запуска в ноябре 2022 года бот захватил мир благодаря своей способности писать профессиональные эссе, статьи, стихи и компьютерные коды. Бесплатный, нетребовательный к «железу» и аутентификации, он распространился по миру как вирус, многих привел в восторг и ввел в искушение. 

Критики бота опасаются, что он может быть использован для массового мошенничества, например, в школах и университетах. ChatGPT уже вызвал ряд скандалов в сфере образования, в том числе и в России. Сами создатели чат-бота предупреждали, что, хотя продукт «впечатляет», он может допускать «чудовищные ошибки» 

 

Падилья уверен, что, «задавая вопросы в заявке, мы не перестаем быть судьями, мыслящими существами». Но так ли это?

Система систем

«Казус Падильи» стал первым известным случаем использования ChatGPT для подготовки судебного решения. Но само использование ИИ на судебной и досудебной стадиях давно уже не новость в мире. Многие страны активно внедряют ИИ в досудебные и судебные стадии производства по гражданским, уголовным и административным делам.

Едва ли не самое смелое использование ИИ в судопроизводстве демонстрирует Китай. «Судебный ИИ Китая достигает каждого уголка системы правосудия», — сообщает издание South China Morning Post. По словам директора информационного центра Верховного суда Китая Сюй Цзян Фэна, «умный суд SoS (System of Systems, система систем) теперь подключается к столу каждого работающего судьи по всей стране». Система, основанная на технологии машинного обучения, рекомендует применимое в данном случае законодательство, разрабатывает юридическую аргументацию и исправляет предполагаемые человеческие ошибки в судебном акте. В случае несогласия с ИИ судьи обязаны представлять письменные возражения. 

Китай работает над технологическим обновлением своей судебной системы с 2016 года. Правительство принудило суды оцифровать и объединить свои архивы в централизованную сеть, предоставив ИИ возможность анализировать порядка 100 000 судебных дел в день. Критики утверждают, что судьи вынужденно полагаются на ИИ, предпочитая соглашаться с ним даже если его рекомендации основаны на неподходящей судебной практике и неубедительных выводах — просто чтобы избежать хлопот с внутрикорпоративным оспариванием решения машинного разума.

В России официальная позиция судебной власти пока исключает использование ИИ при отправлении правосудия. Еще в 2019 году председатель Совета судей России Виктор Момотов говорил, что искусственному интеллекту неведомы принципы справедливости и гуманизма при назначении наказания, а смысл законодательства, то есть его дух, не может быть выявлен компьютером, но только человеком, и к тому же обладающим высоким уровнем правовой культуры. Такая позиция представляется здравой. Но, если задуматься, ситуация не так проста. 

Во-первых, мир не застрахован от использования ИИ способом, предложенным судьей Падильей, который сам обратился к чат-боту. Во-вторых, возможно незаметное проникновение ИИ в суд через досудебные стадии производства по уголовным делам и делам об административных правонарушениях. Вхождение ИИ в правосудие уже происходит путем сбора и аппаратного анализа доказательств вины на стадии предварительного расследования и дознания или подготовки для суда оснований избрания меры пресечения подозреваемым и обвиняемым. В таких случаях судьям не предлагаются готовые приговоры, но ИИ, хотя и опосредованно, влияет на внутреннее убеждение судьи.

Правовая сингулярность

Неопределенность по вопросу о допустимости доказательств, собранных и обработанных, а фактически созданных ИИ на досудебных стадиях судопроизводства, создает немалые риски. Вне фокуса нашего внимания остаются вопросы авторства машинных алгоритмов, их корректности, полноты, объективности, достоверности результатов работы ИИ. Со времен появления калькуляторов мы склонны слепо доверять результатам машинной активности и поэтому тема использования ИИ в правосудии пока не вызывает больших дискуссий в обществе и власти. 

Конечно, нельзя остановить развитие технологий, в том числе и в судопроизводстве. Но прежде, чем делегировать ИИ какие-либо полномочия во всем, что касается правосудия, следует найти ответы на многие вопросы. Например, можно ли вычислить правопонимание? Как ИИ повлияет на базовые правовые понятия, составляющие суть цивилизованного судебного процесса — независимость суда, свободу оценки доказательств, гласность и непосредственность судебного разбирательства, состязательность и равноправие сторон? Как трансформируется презумпция невиновности? Как цифровая среда изменит наше понимание справедливости? Как ИИ в правосудии повлияет на права человека? Что в целом может означать вычислимое право для автономии, авторитета и легитимности права как социального феномена? 

Это вполне актуальные вопросы, учитывая вероятность наступления «правовой сингулярности» — так правовед Кристофер Маркоу из Кембриджа называет гипотетический момент в будущем, когда функциональные возможности ИИ превзойдут возможности судей, прокуроров и адвокатов. В таком мире закон перейдет в состояние равновесия между фактами и нормами. Это грозит отмиранием системы юридической аргументации, которая в настоящее время составляет основу судебного доказывания. 

На фоне изменения климата, эпидемий и войн опасности, связанные с применением ИИ в судах, могут показаться надуманными. По оценке World Justice Project, в мире более пяти миллиардов человек так или иначе испытывают трудности с доступом к нормальному правосудию. Высокие технологии могут помочь решению этой проблемы. Существует большой соблазн сначала поправить ситуацию с помощью ИИ, а уж затем разбираться с рисками. Но так это не работает. Если мы хотим сохранить за собой способность к человеческому пониманию справедливости, мы должны контролировать охват искусственным интеллектом любых действий, связанных с обеспечением, охраной и применением права.

 

Мнение редакции может не совпадать с точкой зрения автора

 

Источник

Оставьте ответ

Ваш электронный адрес не будет опубликован.