Эксперты AI считают, что алгоритмы, предсказывающие преступность человека — это расизм

алгоритмы предсказывающие преступность

Коалиция исследователей искусственного интеллекта, big data ученых и социологов призвала академический мир прекратить публиковать исследования, которые предсказывают преступность человека. Речь идет об алгоритмах, которые обучаются при помощи сканов лиц и криминальной статистики, пишет The Verge.

По мнению Коалиции за Критические Технологии такие научные труды являются не только неграмотными, но и увековечивают стереотипы, направленные против чернокожих и цветных людей. По результатам множества исследований, система правосудия относится к этим группам людей жестче, чем к белым людям. Исходя из этого можно сказать, что любая программа, базой которой являются такие данные, просто укрепляет предвзятость общества и усиливает расизм.

«Алгоритмы, обучающиеся на расистских данных, показывают расистские результаты».

Группа объясняет данное высказывание следующим образом: исследования такого рода основаны на том, что данные, касающиеся уголовного ареста и судимостей, могут служить надежными, нейтральными показателями преступной деятельности. Но проблема в том, что эти данные нейтральными не являются.

Открытое письмо стало ответом на новость, что крупнейший в мире издатель академической литературы Springer планирует опубликовать исследование по этой теме. Письмо подписали 1700 экспертов. Они призывают не только аннулировать газету, но также другим издателям не публиковать исследования на эту тему.

алгоритмы предсказывающие преступность

«В то время, когда в США оспаривается легитимность полицейских, в правоохранительных органах существует высокий спрос на исследования такого рода», — пишут эксперты. «Распространение этой работы таким крупным издателем, как Springer, станет значительным шагом к легитимации и применению неоднократно опровергнутых, социально вредных исследований».

Исследование отмечает, что точность алгоритма для принятия решения преступности составляет 80%.

В исследовании, названном «Модель глубокой нейронной сети для прогнозирования преступности с использованием обработки изображений», исследователи утверждали, что создали систему распознавания лиц, которая «способна предсказать возможность человека быть преступником с точностью в 80% процентов и с отсутствием расовых предрассудков». Его автором является аспирант и бывший полицейский Джонатан Корн.

MIT Technology Review отмечает, что в ответ на открытое письмо Springer заявил: они не будут публиковать статью. «Документ, на который вы ссылаетесь, был представлен на предстоящей конференции, на которой Springer планировал опубликовать материалы», — сказали в компании. «После тщательного процесса рецензирования статья была отклонена».

Коалиция за критические технологии отмечает, что этот инцидент является лишь одним из примеров. На данный момент в науке о данных и сфере машинного обучения уже образовалась тенденция, где исследователи используют социально-зависимые данные, чтобы попытаться предсказать или классифицировать сложное поведение человека.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *