Несмотря на рост числа исследований в области алгоритмической справедливости, современные антидискриминационные законы могут ограничивать применение подобных техник на практике. Авторы статьи рассматривают такие подходы как форму «алгоритмической позитивной дискриминации», которая несет юридические риски нарушения принципа равной защиты прав. Судебная практика, особенно в сфере высшего образования, все чаще требует отказа от классификации по защищенным признакам в пользу индивидуализированного подхода. Работа анализирует правовые коллизии, возникающие при попытках сделать алгоритмы более этичными и инклюзивными.
Статья исследует юридические риски внедрения алгоритмов «справедливости» в ИИ, которые могут непреднамеренно нарушать антидискриминационное законодательство. Авторы вводят понятие «алгоритмических позитивных действий» и объясняют, почему технические методы борьбы с предвзятостью могут быть оспорены в суде. Работа критически важна для разработки этичных систем, соответствующих правовым нормам.