Evaluare:
Cartea se adresează celor interesați de știința datelor și învățarea automată, oferind o introducere bine structurată la conceptele matematice necesare. Deși atrage în mod eficient cititorii și conectează matematica la aplicațiile de învățare automată, unii recenzenți consideră că îi lipsește profunzimea în anumite domenii și ar putea beneficia de exerciții practice. În general, este văzută ca o resursă bună pentru cursanții motivați cu unele cunoștințe anterioare de matematică.
Avantaje:⬤ Oferă o defalcare clară a rețelelor neuronale și a cadrelor statistice.
⬤ Potrivit pentru cei care doresc să intre în știința datelor, în special cu un anumit bagaj tehnic.
⬤ Scriere captivantă care conectează conceptele matematice la învățarea automată.
⬤ Formatare bună pentru Kindle.
⬤ Acoperă matematica de nivel universitar până la unele de nivel postuniversitar în contextul aplicațiilor Python.
⬤ Necesită cunoștințe solide de matematică, ceea ce poate fi un obstacol pentru unii cititori.
⬤ Lipsește un set de exerciții pentru aplicarea practică a conceptelor.
⬤ Unii recenzenți au considerat că accentul pus pe subiecte irelevante, cum ar fi problema Monty Hall, deturnează din aplicațiile practice de învățare profundă.
⬤ Descris de unii ca fiind prea superficial pentru un progres serios în învățarea profundă.
(pe baza a 7 recenzii ale cititorilor)
Math for Deep Learning: What You Need to Know to Understand Neural Networks
Math for Deep Learning oferă matematica esențială de care aveți nevoie pentru a înțelege discuțiile despre învățarea profundă, pentru a explora implementări mai complexe și pentru a utiliza mai bine seturile de instrumente de învățare profundă.
Cu Math for Deep Learning, veți învăța matematica esențială utilizată de și ca fundal pentru deep learning.
Veți lucra prin exemple Python pentru a învăța subiecte cheie legate de învățarea profundă în probabilitate, statistică, algebră liniară, calcul diferențial și calcul matricial, precum și modul de implementare a fluxului de date într-o rețea neuronală, backpropagation și gradient descent. Veți utiliza, de asemenea, Python pentru a lucra prin matematica care stă la baza acestor algoritmi și chiar pentru a construi o rețea neuronală complet funcțională.
În plus, veți găsi o acoperire a coborârii gradientului, inclusiv variațiile utilizate în mod obișnuit de comunitatea de învățare profundă: SGD, Adam, RMSprop și Adagrad/Adadelta.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)