Агентные модели (ABM) являются ценным инструментом для анализа политик, позволяя изучать эмерджентные последствия управленческих решений в многоагентных средах. Однако точность выводов, полученных с помощью ABM, напрямую зависит от качества поведенческих моделей самих агентов. Традиционные подходы опираются либо на эвристические правила, либо на регрессионные модели, обученные на исторических данных, что накладывает ряд ограничений. В данной статье предлагается использовать обучение с подкреплением (RL) для создания более адаптивных и реалистичных моделей поведения агентов.
Работа направлена на улучшение агентного моделирования (ABM) для анализа политических и экономических решений. Вместо стандартных эвристических правил авторы предлагают использовать модели поведения, основанные на обучении с подкреплением (RL). Такой подход делает прогнозы более точными, позволяя лучше предсказывать последствия управленческих вмешательств в сложных многоагентных средах.