ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ТЮРЬМАХ
Искусственный интеллект (ИИ) – это теория и разработка компьютерных систем, способных выполнять задачи, которые исторически требовали человеческого интеллекта, такие как распознавание речи, принятие решений и выявление закономерностей.
ИИ – это общий термин, который охватывает широкий спектр технологий, включая машинное обучение. Хотя термин часто используется для описания различных технологий, используемых в настоящее время, многие не согласны с тем, что они действительно составляют искусственный интеллект. Вместо этого некоторые утверждают, что большая часть технологий, используемых в реальном мире, на самом деле представляет собой высокоэффективное машинное обучение, которое является первым шагом к настоящему искусственному интеллекту или «общему искусственному интеллекту» (GAI). Несмотря на множество философских разногласий относительно того, существуют ли на самом деле «настоящие» интеллектуальные машины, когда большинство людей использует термин ИИ сегодня, они обычно имеют в виду набор технологий, работающих на основе машинного обучения, таких как знаменитый Chat GPT или компьютерное зрение, которые позволяют машинам выполнять задачи, которые раньше могли выполнять только люди, например, генерировать письменный контент, управлять автомобилем или анализировать данные.
Искусственный интеллект может быть полезен в тюрьмах в различных областях. Например, он может помочь в управлении пенитенциарными учреждениями, в борьбе с переполнением, а также в обеспечении безопасности и контроле за заключенными. Однако, как и любая другая технология, ИИ, по мнению многих экспертов, также может представлять угрозу для прав человека, если его использование не будет регулироваться должным образом.
Каким же образом ИИ может использоваться в тюрьмах, а также в системе уголовного правосудия на этапе изучения уголовных дел и принятия решений о наказании, либо на применении условно-досрочного освобождения, замены наказания на менее жесткий вид наказания и т. д.?
Ранее, к примеру, сообщалось, что ФСИН России направила заявку в правительство с просьбой одобрить АО «Объединенная приборостроительная корпорация» в качестве единственного поставщика IT-решений в российские исправительные учреждения. Что имеется в виду? Предполагается обеспечение пенитенциарных учреждений системой распознавания лиц заключенных и сотрудников учреждения (в ряде российских тюрем это уже используется), поведенческого анализа и пост-анализа собранных данных в рамках цифрового профиля осужденного для корректировки программы ресоциализации, построенной на базе искусственного интеллекта, а также выявления нетипичного поведения, к примеру, возникшей драки или пыток.
Адвокат, эксперт «Moscow Digital School» Алексей Истомин полагает, что высокие технологии позволят кардинально снизить уровень коррупции в пенитенциарных учреждениях, а также парализуют незаконную деятельность заключенных.
В своем интервью «Российской газете» он заявил, в частности, что внедрение искусственного интеллекта может распределять заключенных по камерам, рассчитывать сроки отбытия наказания и предупреждать о наступлении срока УДО. Благодаря внедрению ИИ, по мнению А. Истомина, у заключенных могут появиться новые профессии, например, классификация данных для обучения ИИ. Короче, по мнению специалиста, ИИ в тюрьмах может использоваться достаточно широко и продуктивно.
А как обстоят дела с применением ИИ в пенитенциарных учреждениях за рубежом?
В Германии искусственный интеллект используется для предотвращения в тюрьмах самоубийств. Установленные умные системы слежения способны определять состояние человека, фиксировать наличие подозрительных предметов типа веревки или ножа, а при возникновении критической ситуации подавать сигнал тревоги.
А в Финляндии власти пошли по другому пути. Заключенные помогают создавать искусственный интеллект! Они обучают нейросети, которые затем используются для распознавания рукописного текста и других задач.
Во Франции специальные программы используются для определения уровня радикализации заключенных и составления индивидуальных программ для их дерадикализации.
В некоторых странах искусственный интеллект используется для предотвращения самоубийств не только в тюрьмах, но и вне их. Например, в Южной Корее. Система анализирует данные, собранные с помощью мобильных приложений, и определяет людей, которые могут быть в опасности. После этого система отправляет сообщения на телефоны этих лиц, предлагая им помощь.
Заменит ли ИИ судей? Страх перед автоматической и дегуманизированной системой правосудия часто всплывает в критике искусственного интеллекта. Зарубежные эксперименты уже используют программное обеспечение для отправления правосудия, тем самым разгружая суды и снижая затраты. В провинции Онтарио (Канада) «виртуальный суд» отвечает за урегулирование споров между соседями или между работниками и работодателями. В Квебеке программное обеспечение также используется для урегулирования небольших коммерческих споров. В Эстонии ИИ в скором времени должен будет устанавливать вину человека по «мелким» спорам (менее 7 000 евро).
Китай и Гонконг недавно объявили о том, что их правительства внедряют новую технологию искусственного интеллекта, направленную на постоянный мониторинг заключенных в ряде тюрем. В Гонконге правительство тестирует устройства для постоянного мониторинга местоположения и активности людей, включая частоту сердечных сокращений. Некоторые тюрьмы в ближайшее время также начнут использовать сетевые системы видеонаблюдения, запрограммированные на выявление аномального поведения, такого как членовредительство или насилие в отношении других. Некоторые учреждения уже начали использовать роботов, которым поручено искать следы наркотиков в фекалиях заключенных.
В материковом Китае правительство завершает строительство новой «умной» системы наблюдения в тюрьме Яньчэн, в которой содержатся бывшие высокопоставленные чиновники, целью которой является наблюдение за каждым из них в режиме реального времени с помощью сетевых скрытых камер и датчиков, размещенных в каждой камере. Согласно сообщению, опубликованному в газете «South China Morning Post»», сеть будет передавать собранные данные на «быстрый компьютер с искусственным интеллектом, который способен распознавать, отслеживать и контролировать каждого заключенного круглосуточно» и «в конце каждого дня генерировать всеобъемлющий отчет, включая поведенческий анализ, о каждом заключенном, используя различные функции ИИ, такие как идентификация лиц и анализ движений». Как и в Гонконге, эти системы также предназначены для того, чтобы помечать подозрительное поведение и предупреждать охранников, когда обнаруживается любая активность, которую ИИ регистрирует как ненормальную. Сотрудник компании «Tiandy Technologies», которая помогала разрабатывать систему наблюдения, заявил, что с новой технологией «побеги из тюрьмы станут историей», и предположил, что неэтичное поведение охранников, такое как получение взяток, может уйти в прошлое.
Когда идет речь об использовании ИИ в тюрьмах, замена пенитенциарного персонала искусственным интеллектом вовсе не должна быть целью, особенно когда речь идет о правах и достоинстве заключенных, а также о человеческом факторе, необходимом для успешной реабилитации (то, что ИИ, каким бы умным он ни был, никогда не сможет заменить). Вместо этого необходимо рассмотреть затраты и выгоды от разработки определенных видов технологий «умных» тюрем, которые могли бы облегчить определенную нагрузку на человеческий персонал и расширить его способность обеспечивать безопасность, поддержку и образование заключенных.
ИИ также можно использовать для наблюдения и за самим персоналом. Например, в США исследователи уже начали изучать способы использования машинного обучения для выявления и снижения уровня насилия со стороны полиции, обучая системы просматривать записи сотрудников и учиться выявлять и отмечать признаки того, что офицер может быть подвержен высокому риску инициирования «неблагоприятного события». Это может включать в себя выявление должностных лиц, которые ранее совершали определенные виды неправомерных действий или могут находиться в состоянии сильного стресса. «Умная» тюрьма могла бы использовать данные, которые она собирает об охранниках, для предоставления аналогичной услуги. Кроме того, система, предназначенная для выявления ненормального поведения заключенных, также может быть запрограммирована на выявление и сообщение о потенциально оскорбительном поведении со стороны охранников.
В статье «Искусственный интеллект для федеральных тюрем?» автор Грегори Ремке рассматривает вопрос о том, как ИИ может помочь в реформе федеральных пенитенциарных учреждений. Искусственный интеллект, считает автор статьи, может играть важную роль в улучшении условий содержания заключенных и повышении безопасности тюремных служащих. Например, системы искусственного интеллекта могут помочь в предотвращении насилия между заключенными и между заключенными и тюремными служащими. Также искусственный интеллект может помочь в улучшении программ реабилитации заключенных и определении тех заключенных, которые могут быть освобождены раньше срока. Однако автор также отмечает, что использование искусственного интеллекта в системе правосудия может иметь негативные последствия, такие как возможность ошибок в прогнозировании рецидива. Например, алгоритмы могут допустить ошибки, если используются неправильные данные или неправильные методы для обучения. Также алгоритмы могут допустить ошибки, если они основаны на предвзятых данных, что может привести к дискриминации.
В чем же может проявляться дискриминация со стороны ИИ? В зависимости от цвета кожи. Например, в 2019 году исследователи обнаружили, что алгоритм, используемый в больницах США для прогнозирования необходимости дополнительной медицинской помощи, сильно предпочитал белых пациентов перед черными. Кроме того, исследование, проведенное в рамках проекта «Gender Shades», показало, что программное обеспечение распознавания лиц, используемое в службах безопасности в аэропортах, работает лучше в отношении белых людей, а хуже всего – в отношении темнокожих женщин. Также исследование, проведенное Bloomberg, показало, что системы генеративного искусственного интеллекта могут усиливать стереотипы о расе и поле человека, что может привести к дискриминации. Все эти опасения, безусловно, имеют место. Но означает ли это, что необходимо отказаться от использования ИИ в пенитенциарных учреждениях? Вовсе нет, просто необходимо его совершенствовать.
Все вышесказанное говорит о том, что необходимо действовать с крайней осторожностью. Эти технологии (включая ИИ) по своей сути не являются ни хорошими, ни плохими. Все зависит от того, какая в них заложена программа и как она реализуется на практике.
19.01.2025
Александр ПАРХОМЕНКО
Комментарии