Evaluare:
Cartea este un ghid practic foarte apreciat privind învățarea prin consolidare profundă, îmbinând teoria cu exemple de cod practice. Mulți cititori îi apreciază claritatea, organizarea și capacitatea autorului de a face accesibile concepte complexe. Cu toate acestea, unele critici menționează o lipsă de profunzime în explicațiile teoretice și unele inexactități în definiții.
Avantaje:⬤ Ușor accesibil și bine scris, adresându-se atât începătorilor, cât și celor cu cunoștințe anterioare în domeniu.
⬤ Exemple de cod detaliate care sporesc înțelegerea conceptelor.
⬤ Excelentă pentru aplicații practice cu biblioteci și tehnici recente.
⬤ Oferă explicații clare ale conceptelor teoretice.
⬤ Foarte recomandat pentru oricine este interesat de Reinforcement Learning.
⬤ Unii cititori notează inexactități, cum ar fi definiția tensorilor.
⬤ Nu este suficient de profund în teoria matematică pentru cei care caută prezentări aprofundate.
⬤ Necesită resurse suplimentare pentru a înțelege pe deplin anumite concepte.
⬤ Unele exemple pot duce la confuzie și necesită cercetări suplimentare.
(pe baza a 44 recenzii ale cititorilor)
Deep Reinforcement Learning Hands-On: Apply modern RL methods, with deep Q-networks, value iteration, policy gradients, TRPO, AlphaGo Zero and more
Nota editorului: Această ediție din 2018 este învechită și nu este compatibilă cu niciuna dintre cele mai recente actualizări ale bibliotecilor Python. O nouă ediție a treia, actualizată pentru 2020 cu șase capitole noi care includ metode multi-agent, optimizare discretă, RL în robotică și tehnici avansate de explorare este acum disponibilă.
Acest ghid practic vă va învăța cum poate fi utilizată învățarea profundă (DL) pentru a rezolva probleme complexe din lumea reală.
Caracteristici principale
⬤ Explorați deep reinforcement learning (RL), de la primele principii la cei mai noi algoritmi.
⬤ Evaluați metodele RL de profil înalt, inclusiv iterația valorii, rețelele Q profunde, gradienții de politică, TRPO, PPO, DDPG, D4PG, strategiile de evoluție și algoritmii genetici.
⬤ Să fiți la curent cu cele mai recente evoluții din industrie, inclusiv chatbots conduse de AI.
Descrierea cărții
Deep Reinforcement Learning Hands-On este un ghid cuprinzător pentru cele mai recente instrumente DL și limitările lor. Veți evalua metode, inclusiv Cross-entropy și gradienți de politică, înainte de a le aplica în medii din lumea reală. Abordați atât setul Atari de jocuri virtuale, cât și jocurile preferate de familie, cum ar fi Connect4.
Cartea oferă o introducere la elementele de bază ale RL, oferindu-vă cunoștințele necesare pentru a codifica agenți inteligenți de învățare care să se ocupe de o gamă formidabilă de sarcini practice. Descoperiți cum să implementați învățarea Q în medii de tip "grid world", să vă învățați agentul să cumpere și să tranzacționeze acțiuni și să aflați cum modelele de limbaj natural conduc la boom-ul chatbots.
Ce veți învăța
⬤ Înțelegeți contextul DL al RL și implementați modele DL complexe.
⬤ Învățați fundamentul RL: procesele decizionale Markov.
⬤ Evaluați metodele RL, inclusiv Cross-entropy, DQN, Actor-Critic, TRPO, PPO, DDPG, D4PG și altele.
⬤ Descoperiți cum să vă ocupați de spațiile de acțiune discrete și continue în diverse medii.
⬤ Învingeți jocurile arcade Atari folosind metoda iterației valorii.
⬤ Crearea propriului mediu OpenAI Gym pentru a antrena un agent de tranzacționare a acțiunilor.
⬤ Învățați-vă agentul să joace Connect4 folosind AlphaGo Zero.
⬤ Explorați cele mai recente cercetări deep RL pe teme care includ chatbots AI-driven.
Pentru cine este această carte
Se presupune o anumită fluență în Python. Abordările de bază ale învățării profunde (DL) ar trebui să fie familiare cititorilor și o anumită experiență practică în DL va fi utilă. Această carte este o introducere în învățarea profundă de întărire (RL) și nu necesită cunoștințe de bază în RL.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)