С подачи цифровизаторов искусственный интеллект продолжает постепенно проникать в самые разные сферы нашей жизни. На фоне неутихающих разговоров о побочном эффекте этой интеграции в медицине и образовании, чиновники всерьез задумались о внедрении машинных технологий в правоохранительную систему – использовать роботов предлагают при расследовании уголовных преступлений. Подробности в материале FederalCity.
Реформа правоохранительной системы, как и попытки использования искусственного интеллекта для борьбы с преступностью в России, продолжаются уже не первый год. Ещё в 2020 году Министерство внутренних дел озвучивало планы по созданию смарт-системы для поиска серийных убийц и составления фотороботов преступников по ДНК. По причине отсутствия открытой информации о создании, внедрении или эксплуатации этой системы напрашивается вывод, что проект пока так и остаётся проектом.
Одновременно с этим в нашей стране предпринимались и предпринимаются попытки цифровизации судебной системы. Несколько лет назад вдохновленные опытом Китая по использованию ИИ при вынесении судебных решений члены Общественной палаты РФ и Совета по развитию цифровой экономики предложили передать от человека к роботу функции вынесения приговоров.
Мнения экспертов по поводу данной идеи разделились, многие усомнились в способности робота правильно выносить приговор по делу, обратив внимание на возможности обмануть машину и недостаточное развитие нейросетей в сравнении с человеческим интеллектом.
«Для качества правосудия цифровые технологии несут существенные риски. В частности, фундаментальное значение имеет вопрос об обеспечении информационной безопасности. Для значительного числа IT-специалистов не составляет труда подменить вложения, направляемые по обычным незащищенным каналам связи. Подделать электронный документ и направить его в суд не представляет сложности. В такой ситуации быстрое «шаблонное» правосудие повышает вероятность вынесения неправосудного решения», - отмечал адвокат Павел Гейко.
Несмотря на все возможные этические проблемы применения искусственного интеллекта в уголовной отрасли, сегодня эта тема продолжает занимать умы отечественных оптимизаторов. В конце мая Уполномоченный по правам человека Татьяна Москалькова для ускорения процесса ликвидация кадровых проблем в правоохранительных органах предложила оцифровать процесс возбуждения и расследования уголовных дел.
«Заявители указывают на волокиту при расследовании, неоднократное приостановление следствия, непроведение всех необходимых следственных действий, а также непринятие эффективных мер по установлению лиц, совершивших преступления, и возмещению причиненного ущерба… Одним из средств борьбы с волокитой при возбуждении и расследовании уголовных дел могла бы стать цифровизация», - считает федеральный омбудсмен.
После высказываний Москальковой пользователи Telegram предложили переименовать ее должность в «уполномоченного по правам роботов» и напомнили о случаях, когда из-за ошибок искусственного интеллекта страдали невиновные.
Так, в 2023 году широкий общественный резонанс вызвала история с арестом Александра Цветкова. Нейросеть приняла московского ученого за преступника, подозреваемого в убийствах четырех человек, совершенных с особой жестокостью двадцать лет назад. Прежде чем ошибка ИИ была доказана и Цветкова освободили из СИЗО, человек провел в заключении десять месяцев.
После этого случая эксперты выделили сферы с недопустимым риском применения ИИ – искусственный интеллект не должен ставить окончательные медицинские диагнозы или выносить судебные решения. К сферам с высоким риском отнесли образование, инфраструктуру и транспорт. Именно в этих отраслях цифровизация в последнее время набирает обороты, а люди продолжают указывать на «побочные эффекты» принимаемых чиновниками «цифровых» решений.
Робокошки. Источник фото: mos.ru (по лицензии Creative Commons Attribution 4.0)
По мнению рядовых посетителей государственных медучреждений, цифровизация в медицине привела не к облегчению положения пациентов, а, наоборот, к усилению волокиты и бездушному отношению к больным, в образовании внедрение цифровых технологий негативно влияет на качество и эффективность учебного процесса и не гарантирует безопасность размещенных в электронных базах персональных данных.
К каким последствиям может привести цифровизация расследования преступлений, смогут ли роботы когда-нибудь заменить реальных следователей и дознавателей и, наконец, кто будет нести ответственность за промахи, допущенные ИИ - пока люди не получат подробные ответы на эти вопросы, в цифровизации они будут видеть только зло, аргументов у них для этого сейчас более чем достаточно.
По мнению экспертов в ситуации, когда речь идет об обеспечении безопасности государства и общества, эксперименты не допустимы, к тому же злоупотребление технологиями не исключает возможность самоуправства, дискриминации и вторжения в частную жизнь граждан и нарушение их конституционных прав. В процессе цифровизации перед чиновниками с их робокошками, робокурьерами и теперь уже реальными робокопами стоят серьезные задачи помочь, улучшить и при этом никому не навредить, получится ли – другой вопрос.