§ 4.2.2. Принцип решения задач динамического программирования
Любую многошаговую задачу можно решать по разному:
либо искать сразу все элементы решения на всех шагах, либо же строить
оптимальное управление шаг за шагом, на каждом этапе расчета оптимизируя лишь
один шаг. Обычно второй способ оказывается проще, чем первый, особенно при
большом числе шагов.
Такая идея постепенной, пошаговой оптимизации и лежит в основе метода динамического программирования. Оптимизация одного шага, как правило, проще оптимизации всего процесса: лучше, оказывается, много раз решить сравнительно простую задачу, чем один раз – сложную.
С первого взгляда идея может показаться довольно тривиальной. В самом деле, чего казалось бы проще: если трудно оптимизировать операцию в целом, разбить ее на ряд шагов. Каждый шаг будет отдельной, маленькой операцией, оптимизировать которую уже не трудно. Надо выбрать на этом шаге такое управление, чтобы эффективность этого шага была максимальна. Не так ли?
Нет! Принцип динамического программирования отнюдь не предполагает, что каждый шаг оптимизируется отдельно, независимо от других. Напротив, шаговое управление должно выбираться дальновидно, ч учетом всех его последствий в будущем. Что толку, если мы выберем на данном шаге управление, при котором эффективность этого шага максимальна, если этот шаг лишит нас возможности хорошо выиграть на последующих шагах?
Пусть, например, планируется работа группы
промышленных предприятий, из которых часть занята выпуском предметов
потребления, а остальные производят для них машины. Задача операции – получить
за лет максимальный объем
выпуска предметов потребления. Допустим, планируются капиталовложения на первый
год. Исходя из узких интересов этого шага, мы должны были бы все наличные
средства вложить в производство предметов потребления. Но правильно ли будет
такое решение с точки зрения эффективности операции в целом? Очевидно, нет. Это
решение – недальновидное. Имея в виду будущее, надо выделить какую-то часть
средств и на производство машин. От этого объем продукции за первый год,
конечно, снизится, зато будут созданы условия для его увеличения в последующие
годы.
Планируя многошаговую операцию, надо выбирать
управление на каждом шаге с учетом всех его будущих последствий на еще
предстоящих шагах. Управление на ом шаге выбирается не так, чтобы выигрыш именно на данном
шаге был максимален, а так, чтобы была максимальна сумма выигрышей на всех
оставшихся до конца шагах плюс данный.
Принцип динамического программирования не предполагает, что каждый шаг оптимизируется отдельно, независимо от других. Напротив, шаговое управление должно выбираться дальновидно, с учетом всех его последствий в будущем.
Однако из этого правила есть исключение. Среди всех шагов есть один, который может планироваться попросту, без оглядки на будущее. Какой это шаг? Очевидно, последний! Этот шаг, единственный из всех, можно планировать так, чтобы он сам, как таковой, принес наибольшую выгоду.
Поэтому процесс динамического программирования обычно
разворачивается от конца к началу: прежде всего планируется последний, ый шаг. А как его спланировать если мы не знаем, чем
закончился предпоследний?
Планируя последний шаг, нужно сделать разные
предположения о том, чем кончился предпоследний, -ый шаг, и для каждого из этих предположений найти условное
оптимальное управление на
м шаге. "Условное" потому, что оно выбирается
исходя из условия, что предпоследний шаг кончился определенным образом.
Предположим, что мы это сделали, и для каждого их
возможных исходов предпоследнего шага знаем условное оптимальное управление и
соответствующий ему условный оптимальный выигрыш на м шаге. Теперь мы можем оптимизировать управление на
предпоследнем,
-шаге. Снова сделаем все возможные предположения о том, чем
кончился предыдущий,
-ой шаг, и для каждого из этих предположений найдем такое
управление на
-шаге, при котором выигрыш за последние два шага максимален.
Так мы найдем для каждого исхода
-го шага условное оптимальное управление на
-м шаге и условный оптимальный выигрыш на двух последних
шагах. Далее, «пятясь» назад, оптимизируем управление на
-м шаге и т.д., пока не дойдем да первого.
Предположим, что все условные оптимальные управления и
условные оптимальные выигрыши за весь «хвост» процесса нам известны. Это
значит: мы знаем, что надо делать, как управлять на данном шаге и что мы за это
получим на «хвосте», в каком бы состоянии ни был процесс к началу шага. Теперь
мы можем построить уже не условно оптимальное, а просто оптимальное управление и найти не условно
оптимальный, а просто оптимальный выигрыш
.
В самом деле, пусть мы знаем, в каком состоянии была управляемая
система в начале первого шага. Тогда мы можем выбрать оптимальное управление
на первом шаге.
Применив его, мы изменим состояние системы на некоторое новое
; в этом состоянии мы подошли ко второму шагу. Тогда нам тоже
известно уловное оптимальное управление
, которое к концу второго шага переводит систему в состояние
, и т.д. Что касается оптимального выигрыша
за всю операцию, то он
нам уже известен: ведь именно на основе его максимальности мы выбирали
управление на первом шаге.
Таким образом, в процессе оптимизации управления
методом динамического программирования многошаговый процесс «проходится»
дважды: первый раз – от конца к началу, в результате чего находятся условные
оптимальные управления и условные оптимальные выигрыши за оставшийся «хвост»
процесса; второй раз – от начала к концу, когда нам остается только «прочитать»
уже готовое управления , состоящее из оптимальных шаговых управлений
.
Первый этап - условная оптимизации - несравненно сложнее второго. Второй этап почти не требует дополнительных вычислений.
Назад к разделу "§ 4.2. Динамическое программирование"
Вперед к разделу "§ 4.2.3. Принцип оптимальности Беллмана. Уравнения Беллмана"