Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал:
https://ea.donntu.edu.ua/jspui/handle/123456789/15551
Повний запис метаданих
Поле DC | Значення | Мова |
---|---|---|
dc.contributor.author | Поспелов, С.М. | - |
dc.contributor.author | Бондаренко, И.Ю. | - |
dc.date.accessioned | 2012-10-16T19:20:31Z | - |
dc.date.available | 2012-10-16T19:20:31Z | - |
dc.date.issued | 2012-09-19 | - |
dc.identifier.uri | http://ea.donntu.edu.ua/handle/123456789/15551 | - |
dc.description.abstract | В статье рассмотрена задача автоматического управления автономным агентом в анимат-подобной среде. Для обучения оптимальному управлению применялся классический и нейросетевой алгоритм Q-обучения с обратным переигрыванием. Были проведены экспериментальные исследования обоих алгоритмов в анимат-подобной среде и сделаны выводы об их эффективности. | en_US |
dc.publisher | Донецкий национальный технический университет | en_US |
dc.relation.ispartofseries | Информатика и компьютерные технологии;VIII | - |
dc.title | СРАВНИТЕЛЬНОЕ ИССЛЕДОВАНИЕ АЛГОРИТМОВ КЛАССИЧЕСКОГО Q-ОБУЧЕНИЯ И НЕЙРОСЕТЕВОГО Q-ОБУЧЕНИЯ ДЛЯ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ АВТОНОМНЫМ АГЕНТОМ В АНИМАТ-ПОДОБНОЙ СРЕДЕ | en_US |
dc.type | Article | en_US |
Розташовується у зібраннях: | Наукові публікації кафедри комп'ютерної інженерії |
Файли цього матеріалу:
Файл | Опис | Розмір | Формат | |
---|---|---|---|---|
4_Поспелов.pdf | 490,35 kB | Adobe PDF | Переглянути/Відкрити |
Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.