Бeз предвзятости. В Нью-Йорке приговоры выносит ИИ

9e614f8e9f29a6a5cfa948822b93f4d4

Экспeримeнт пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe был oстaнoвлeн нa пoлгoдa изо-зa пaндeмии кoрoнaвирусa, нo тeпeрь внoвь нaчинaeт рaбoту.

В Нью-Йoркe вoзoбнoвили рaбoту пилoтнoгo прoeктa пo испoльзoвaнию искусствeннoгo интeллeктa в судeбнoй систeмe — aлгoритм рeкoмeндуeт мeру пресечения. Центр надеются на сжатие нагрузки на местные тюрьмы и рассчитывают. почто это позволит избежать предвзятости. сайт.net рассказывает подробности.

 

Минус расового неравенства

В декабре 2018 возраст Европейская комиссия в соответствии с эффективности правосудия Совета Европы одобрила Европейскую этическую хартию, содержащую взгляды на вещи использования искусственного интеллекта в судебной и правоохранительной системах.

Сие первый международный демарш, и неизведанную сферу. В хартии говорится о необходимости пользовательского контроля: критик вправе не дать согласие с решением, предложенным ИИ, а какой угодно участник спора имеет вправе) делать что-либо оспорить такое вотум и потребовать суда сверх применения искусственного интеллекта.

В Нью-Йорке такая метода призвана освободить тюрьмы, которые, на правах считают власти, переполнены изо-за излишнего консерватизма американских судей.

Попытка по использованию ИИ в судебной системе был остановлен нате полгода из-ради пандемии коронавируса, а теперь вновь начинает работу.

Microsoft заменит редакторов алгоритмами

Газетенка Wall Street Journal пишет, что-то алгоритмы, которые были разработаны держи основе широкой базы данных согласно уже завершенным делам, могут одарить судьям две рекомендации: отпустить подо залог или принять под стражу перед суда.

База данных состоит с   1,6 миллиона уголовных дел, закрытых в 2009-2015 годах. В ней содержится невыгодный только стандартная личная извещение, но и такие детали, словно добровольно ли подозреваемый сообщал индивидуальный домашний телефон и ячейка полицейским при задержании.

Сия информация оказалась одной изо определяющих для алгоритма, поелику, как выяснили исследователи, тетуня, кто делал сие добровольно, чаще приходили в судебное заседание самочки, поэтому могут находиться отпущены под бонд.

Над проектом работали двум независимые друг через друга компании. По прошествии времени того, как они создали немножечко десятков моделей поведения, разработчики объединили силы, (для того оставить преимущественно лишь только совпавшие модели.

В итоге была разработана режим, отчасти похожая возьми рейтинг оценки кредитоспособности физических лиц, сделано давно используемый в США.

Разве программа, которая создавалась в 2013 году, отпускала подина залог не паче 40 процентов подозреваемых, ведь новый алгоритм — 86,7 процента чернокожих, 89,7 процента белых и 90,7 процента латиноамериканцев.  

Подобная средство, применяемая в штате Нью-Джерси в 2014 году, показала свою непродуктивность, сократив аресты почитай (что) вполовину. Однако та дефинитив не могла превозмочь расовое неравенство: по-под стражу взят с головы третий белый и отдельный второй черный.

В этой взаимоотношения год назад что-то около 30 ученых и исследователей изо ведущих американских университетов написали открытое писуля, в котором выразили «серьезные опасения».

«Целые десятилетия исследований показали, ась? за одни и тетушка же преступления афроамериканцев иначе латиноамериканцев арестовывали, осуждали либо — либо давали более строгие приговоры чаще, нежели белых», — говорится в письме.

Таким образом, алгоритмы, основанные сверху анализе таких приговоров, изначально являются предвзятыми.

ИИ эврика первый за пятьдесят лет антибиотик

 

Комментирование и размещение ссылок запрещено.

Комментарии закрыты.