Китайцы разработали ИИ, который полностью заменяет прокурора в уголовных процессах
Исследователи Китайской академии наук по заказу прокуратуры Шанхая создали «первую в мире» систему искусственного интеллекта, которая способна изучать уголовное дело вместо прокурора-человека и самостоятельно формирует обвинение на естественном языке, рассказывают The Korean Times и South China Morning Post.
Прокуратура в Китае с 2016 года активно использует технологии на базе ИИ для повышения эффективности и продуктивности труда за счет автоматизации рутинных процессов и задач. Сейчас многие китайские прокуроры используют ПО, известное как System 206. Инструмент оценивает убедительность доказательств вины, условия правомерности задержания и степень опасности предполагаемого преступника для общества, и дает рекомендации по избранию меры пресечения. Важно отметить, что окончательное решение принимает ответственный за конкретное дело сотрудник прокуратуры с учетом предварительного анализа, выполненного ИИ.
Новая и пока безымянная разработка — полностью автономная. То есть, в отличие от нынешней System 206, новая программа может разбираться в тот или ином процессе полностью без участия человека. К тому же, она нетребовательна к аппаратным средствам и способна работать на обычном настольном ПК.
Разработчики заверяют, что робот-обвинитель принимает верные решения в 97% случаев на основании материалов дела, анализируя их примерно по тысяче параметров. Задействованная для работы системы нейросеть в процессе собственного обучения юридическому ремеслу изучила 17 тыс. дел, рассматривавшихся с 2015 по 2020 год.
На текущем этапе развития программа работает с восемью наиболее распространенными в Шанхае типами преступлений. Это мошенничество с кредитными картами, гэмблинг, опасное вождение, умышленное нанесение травм, воровство, мошенничество, препятствование выполнению служебных обязанностей, а также «завязывание ссор и провоцирование неприятностей» (расплывчатое обвинение, часто используемое властями для подавления инакомыслия).
В перспективе разработчики рассчитывают улучшить ПО — расширить список обвинений, с которыми может работать система, и реализовать возможность предъявлять больше одного обвинения подозреваемому. По задумке, программа возьмет на себя часть рутинной работы, а сотрудники прокуратуры смогут заниматься более серьезными делами. Но сроки запуска улучшенной версии пока неизвестны.
Прокурор Гуанчжоу (город в Южном Китае), пожелавший сохранить анонимность, раскритиковал идею использования искусственного интеллекта для предъявлений обвинений. По его словам, вероятность ошибки слишком высока и непонятно, кто должен нести ответственность в каждом конкретном случае — прокурор или разработчик ПО. Вторая претензия заключается в том, что искусственный интеллект при принятии решения исходит сугубо из прецедентов и в принципе не способен адаптироваться под меняющиеся социальные условия.
Как бы там ни было, сейчас Китай активно использует ИИ почти во всех правительственных структурах в стремлении повысить эффективность, снизить коррупцию и усилить контроль. Некоторые китайские города использовали машины для отслеживания социальных контактов государственных служащих и их деятельности с целью выявления коррупции. Многие китайские суды используют интеллектуальные алгоритмы для автоматизации обработки дел и принятия решений, в том числе — для принятия и отклонения апелляций. В большинстве китайских тюрем также внедрена технология искусственного интеллекта для отслеживания физического и психического состояния заключенных с целью снижения уровня насилия.
Безусловно, появление такой системы ИИ для составления обвинительного заключения интригует и пугает одновременно. Не секрет, что нейросеть полностью определяет обучающая выборка. С одной стороны, ИИ, обученный на справедливых и корректно сформулированных обвинительных актах, может оказаться намного лучше человека прокурора: как минимум, робот не подвержен эмоциональным потрясениям, предрассудкам и прочим слабостям (той же коррупции). Но с другой — существуют весьма обоснованные опасения насчет возможного злоупотребления авторитарными правительствами властью и обращения передового технологического решения в идеальный инструмент репрессий и подавления неугодных мнений. Любой высокотехнологический инструмент может быть использован как во благо, так и во зло — все зависит от того, какие цели преследует его обладатель.
P.S. В 2020 году схожий проект под названием «Касандра» анонсировал Минюст Украины — концепция предусматривала создание «революционной системы на базе ИИ» для оценки вероятности повторного совершения преступления.