МЕТОД ОБУЧЕНИЯ ИНТЕЛЛЕКТУАЛЬНОГО АГЕНТА С ПОМОЩЬЮ СЕТЕЙ DOUBLE DQN, ПУТЕВЫХ ТОЧЕК И ФУНКЦИИ ВОЗНАГРАЖДЕНИЯ
Рассмотрены задачи повышения эффективности управления автономных транспортных средств. Выделена проблема снижения требуемых вычислительных ресурсов для интеллектуального модуля управления автомобилем. Предложен алгоритм обучения нейронной сети для архитектуры Double DQN с модифицированной функций вознаграждения. Основой предлагаемого решения является использование сегментации полосы движения, функции вознаграждения и использования дополнительных путевых точек при обучении. Разработана программная модель и выполнено моделирование процесса обучения. Полученные результаты сравнительного анализа с известными решениями показывают стабильное повышение длительности эпизода, и эффективное обучение в реалистичной городской симуляции. Исследование указывает на возможность уменьшения необходимости в высокой вычислительной мощности, что даст возможность использовать центральные процессоры (CPU) для основных функций беспилотных автомобилей вместо графических процессоров (GPU).
Тихонов М.К., Непомнящий Д.О., Хайдукова В.Н. Метод обучения интеллектуального агента с помощью сетей Double DQN, путевых точек и функции вознаграждения // Научный результат. Информационные технологии. – Т.9, №3, 2024. – С. 63-72. DOI: 10.18413/2518-1092-2024-9-3-0-7
Пока никто не оставил комментариев к этой публикации.
Вы можете быть первым.