С развитием искусственного интеллекта вопросы этики становятся всё более актуальными, особенно в контексте беспилотного транспорта. В сценариях неизбежных аварий автономные системы сталкиваются с дилеммами, требующими выбора между безопасностью пешеходов и пассажиров. Для решения таких задач используются методы агрегации предпочтений, где участники выражают свое мнение о правильном выборе в сложных ситуациях. В работе рассматривается способ сбора таких мнений, гарантирующий защиту персональных данных голосующих.
Статья рассматривает решение этических дилемм в ИИ, например, выбор беспилотного автомобиля между безопасностью пассажиров и пешеходов в критической ситуации. Исследователи разработали систему принятия решений, которая опирается на коллективное мнение людей, при этом строго соблюдая конфиденциальность данных участников. Предложенный подход позволяет обучать ИИ моральным нормам, агрегируя предпочтения толпы без риска утечки личной информации.