Evaluare:
Cartea „Stochastic Control” de Yong și Zhou oferă o introducere completă în teoria controlului optim stochastic, punând în mod eficient în legătură diverse concepte cheie, cu accent atât pe aplicațiile teoretice, cât și pe cele practice. Cartea este lăudată pentru lizibilitatea sa și exemplele extinse, dar este remarcată pentru o anumită complexitate a notației și pentru prezența greșelilor de scriere.
Avantaje:Acoperire cuprinzătoare a teoriei controlului optim stohastic, multe exemple lucrate, prezentare lizibilă, ritm adecvat pentru cititorii cu unele cunoștințe anterioare.
Dezavantaje:Notația grea poate fi împovărătoare, prezența greșelilor de scriere, presupune familiarizarea cu concepte matematice avansate.
(pe baza a 4 recenzii ale cititorilor)
Stochastic Controls: Hamiltonian Systems and Hjb Equations
După cum se știe, principiul maxim al lui Pontryagin și programarea dinamică a lui Bellman sunt cele două abordări principale și cele mai frecvent utilizate în rezolvarea problemelor de control optim stohastic.
* Un fenomen interesant care se poate observa din literatura de specialitate este că aceste două abordări au fost dezvoltate separat și independent. Având în vedere că ambele metode sunt utilizate pentru a investiga aceleași probleme, o întrebare firească care se va pune este următoarea (Q) Care este relația dintre principiul maximului și programarea dinamică în controalele optime stochastice? Au existat unele cercetări (înainte de anii 1980) privind relația dintre cele două.
Cu toate acestea, rezultatele erau, de obicei, prezentate în termeni euristici și demonstrate în baza unor ipoteze destul de restrictive, care nu erau îndeplinite în majoritatea cazurilor. În enunțarea unui principiu maxim de tip Pontryagin există o ecuație adjunctă, care este o ecuație diferențială ordinară (ODE) în cazul determinist (finit-dimensional) și o ecuație diferențială stocastică (SDE) în cazul stocastic. Sistemul format din ecuația adjunctă, ecuația de stare inițială și condiția maximă este denumit sistem hamiltonian (extins).
Pe de altă parte, în programarea dinamică Bellman, există o ecuație cu derivate parțiale (EDP), de ordinul întâi în cazul determinist (finit-dimensional) și de ordinul al doilea în cazul stocastic. Aceasta este cunoscută sub numele de ecuația Hamilton-Jacobi-Bellman (HJB).
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)