Evaluare:
Cartea se prezintă ca o resursă introductivă pentru înțelegerea învățării profunde, cu accent pe accesibilizarea conceptelor complexe pentru începători. Cu toate acestea, a primit recenzii mixte în ceea ce privește claritatea sa, erorile din exemplele de codare și organizarea generală.
Avantaje:⬤ Explicații clare și ușor de înțeles ale conceptelor de învățare profundă.
⬤ Abordare practică a implementării rețelelor neuronale.
⬤ Accesibilă începătorilor fără o pregătire matematică solidă.
⬤ Bune cunoștințe de bază despre învățarea profundă într-un stil gradual.
⬤ Narațiuni și analogii captivante care ajută la demistificarea ideilor complexe.
⬤ Erori semnificative de codare care ar putea deruta cursanții începători.
⬤ Unele capitole sunt considerate confuze sau prost structurate.
⬤ Conține erori tipografice și exemple care par nerealiste sau inventate, conducând la o potențială neconcordanță cu aplicațiile practice.
⬤ Anumite secțiuni critice sunt lipsite de elaborare, lăsând cititorii să caute resurse suplimentare pentru clarificare.
(pe baza a 35 recenzii ale cititorilor)
Grokking Deep Learning
Rezumat
Grokking Deep Learning vă învață să construiți rețele neuronale de învățare profundă de la zero În stilul său captivant, expertul experimentat în învățare profundă Andrew Trask vă arată știința de sub capotă, astfel încât să grok pentru tine fiecare detaliu al formării rețelelor neuronale.
Achiziționarea cărții tipărite include o carte electronică gratuită în format PDF, Kindle și ePub de la Manning Publications.
Despre tehnologie
Învățarea profundă, o ramură a inteligenței artificiale, învață computerele să învețe prin utilizarea rețelelor neuronale, tehnologie inspirată de creierul uman. Traducerea textului online, mașinile care se conduc singure, recomandările personalizate de produse și asistenții vocali virtuali sunt doar câteva dintre progresele moderne interesante posibile datorită învățării profunde.
Despre carte
Grokking Deep Learning vă învață să construiți rețele neuronale de învățare profundă de la zero În stilul său captivant, expertul experimentat în învățare profundă Andrew Trask vă arată știința de sub capotă, astfel încât să vă familiarizați cu fiecare detaliu al formării rețelelor neuronale. Folosind doar Python și biblioteca sa de suport matematic, NumPy, vă veți antrena propriile rețele neuronale pentru a vedea și înțelege imagini, pentru a traduce text în diferite limbi și chiar pentru a scrie ca Shakespeare Când veți termina, veți fi complet pregătit să treceți la stăpânirea cadrelor de învățare profundă.
Ce este în interior
⬤ Știința din spatele învățării profunde.
⬤ Construirea și antrenarea propriilor rețele neuronale.
⬤ Concepte de confidențialitate, inclusiv învățarea federată.
⬤ Sfaturi pentru a continua căutarea învățării profunde.
Despre cititor
Pentru cititori cu cunoștințe de matematică de nivel liceal și abilități de programare intermediare.
Despre autor
Andrew Trask este doctorand la Universitatea Oxford și cercetător științific la DeepMind. Anterior, Andrew a fost cercetător și manager de produse analitice la Digital Reasoning, unde a antrenat cea mai mare rețea neuronală artificială din lume și a contribuit la ghidarea foii de parcurs analitice pentru platforma de calcul cognitiv Synthesys.
Table of Contents
⬤ Introducând învățarea profundă: de ce ar trebui să o învățați.
⬤ Concepte fundamentale: cum învață mașinile?
⬤ Introducere la predicția neuronală: propagarea înainte.
⬤ Introducere la învățarea neuronală: coborârea gradientului.
⬤ Învățarea simultană a mai multor ponderi: generalizarea coborârii gradientului.
⬤ Construirea primei rețele neuronale profunde: introducere în retropropagare.
⬤ Cum să vă imaginați rețelele neuronale: în mintea dumneavoastră și pe hârtie.
⬤ Învățarea semnalului și ignorarea zgomotului: introducere în regularizare și batching.
⬤ Modelarea probabilităților și a neliniarităților: funcții de activare.
⬤ Învățarea neuronală despre margini și colțuri: introducere în rețelele neuronale convoluționale.
⬤ Rețele neuronale care înțeleg limbajul: rege - bărbat + femeie ==?
⬤ Rețele neuronale care scriu ca Shakespeare: straturi recurente pentru date de lungime variabilă.
⬤ Introducerea optimizării automate: să construim un cadru de învățare profundă.
⬤ Învățarea de a scrie ca Shakespeare: memoria pe termen scurt.
⬤ Învățarea profundă pe date nevăzute: introducerea învățării federative.
⬤ Unde să mergem de aici: un scurt ghid.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)