Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: https://ea.donntu.edu.ua/jspui/handle/123456789/15551
Повний запис метаданих
Поле DCЗначенняМова
dc.contributor.authorПоспелов, С.М.-
dc.contributor.authorБондаренко, И.Ю.-
dc.date.accessioned2012-10-16T19:20:31Z-
dc.date.available2012-10-16T19:20:31Z-
dc.date.issued2012-09-19-
dc.identifier.urihttp://ea.donntu.edu.ua/handle/123456789/15551-
dc.description.abstractВ статье рассмотрена задача автоматического управления автономным агентом в анимат-подобной среде. Для обучения оптимальному управлению применялся классический и нейросетевой алгоритм Q-обучения с обратным переигрыванием. Были проведены экспериментальные исследования обоих алгоритмов в анимат-подобной среде и сделаны выводы об их эффективности.en_US
dc.publisherДонецкий национальный технический университетen_US
dc.relation.ispartofseriesИнформатика и компьютерные технологии;VIII-
dc.titleСРАВНИТЕЛЬНОЕ ИССЛЕДОВАНИЕ АЛГОРИТМОВ КЛАССИЧЕСКОГО Q-ОБУЧЕНИЯ И НЕЙРОСЕТЕВОГО Q-ОБУЧЕНИЯ ДЛЯ ОПТИМИЗАЦИИ УПРАВЛЕНИЯ АВТОНОМНЫМ АГЕНТОМ В АНИМАТ-ПОДОБНОЙ СРЕДЕen_US
dc.typeArticleen_US
Розташовується у зібраннях:Наукові публікації кафедри комп'ютерної інженерії

Файли цього матеріалу:
Файл Опис РозмірФормат 
4_Поспелов.pdf490,35 kBAdobe PDFПереглянути/Відкрити


Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.