Evaluare:
În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 2 voturi.
Descoperiți elementele de bază esențiale ale unei forme comune și puternice de rețea de credință profundă: autoencoderul. Veți duce acest subiect dincolo de utilizarea curentă, extinzându-l la domeniul complex pentru aplicații de procesare a semnalelor și imaginilor. Deep Belief Nets in C++ and CUDA C: Volume 2 acoperă, de asemenea, mai mulți algoritmi pentru preprocesarea seriilor de timp și a datelor de imagine. Acești algoritmi se concentrează pe crearea de predictori din domeniul complex care sunt potriviți pentru intrarea într-un autoencoder din domeniul complex. În cele din urmă, veți învăța o metodă de încorporare a informațiilor de clasă în stratul de intrare al unei mașini Boltzmann restrânse. Acest lucru facilitează afișarea generativă a eșantioanelor din clase individuale, mai degrabă decât a întregii distribuții a datelor. Posibilitatea de a vedea caracteristicile pe care modelul le-a învățat pentru fiecare clasă în parte poate fi neprețuită.
La fiecare pas, această carte vă oferă o motivație intuitivă, un rezumat al celor mai importante ecuații relevante pentru subiect și un cod extrem de comentat pentru calculul threaded pe procesoare moderne, precum și pentru procesarea paralelă masivă pe calculatoare cu plăci de afișare video compatibile CUDA.
Ce veți învăța
⬤ Cod pentru deep learning, rețele neuronale și inteligență artificială utilizând C++ și CUDA C.
⬤ Executați preprocesarea semnalelor utilizând transformări simple, transformări Fourier, undele Morlet și altele.
⬤ Utilizați transformata Fourier pentru preprocesarea imaginilor.
⬤ Implementarea autocodificării prin activare în domeniul complex.
⬤ Lucrați cu algoritmi pentru calculul gradientului CUDA.
⬤ Utilizați manualul de operare DEEP.
Pentru cine este această carte
Cei care au cel puțin cunoștințe de bază despre rețelele neuronale și o anumită experiență anterioară de programare, deși se recomandă unele cunoștințe de C++ și CUDA C.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)