Evaluare:
Cartea oferă o prezentare generală ușor de citit a atacurilor adversare și a învățării profunde, făcând-o accesibilă cititorilor non-tehnici, conținând în același timp un anumit conținut tehnic pentru codificatorii profesioniști. Cu toate acestea, a fost criticată pentru lipsa sa de profunzime, exemplele de codare insuficiente și materialul introductiv inutil.
Avantaje:⬤ Excelentă pentru programatori și entuziaști ai inteligenței artificiale
⬤ foarte ușor de citit
⬤ explică bine învățarea profundă și amenințările adversare
⬤ viziune optimistă asupra inteligenței artificiale
⬤ potrivită pentru cei care caută o înțelegere de bază.
⬤ Prea elementară pentru cititorii cunoscători
⬤ lipsită de profunzime și detalii tehnice
⬤ exemple de codare rare
⬤ materialul introductiv lung este inutil
⬤ poate să nu răspundă nevoilor celor care caută o explorare mai riguroasă a subiectului.
(pe baza a 3 recenzii ale cititorilor)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
Pe măsură ce rețelele neuronale profunde (DNN) devin din ce în ce mai comune în aplicațiile din lumea reală, potențialul de a le păcăli în mod deliberat cu date care nu ar păcăli un om reprezintă un nou vector de atac. Această carte practică examinează scenarii reale în care DNN-urile - algoritmii intrinseci unei mari părți din inteligența artificială - sunt utilizate zilnic pentru a procesa date imagistice, audio și video.
Autoarea Katy Warr ia în considerare motivațiile atacurilor, riscurile prezentate de această intrare adversă și metodele de creștere a rezistenței AI la aceste atacuri. Dacă sunteți un om de știință de date care dezvoltă algoritmi DNN, un arhitect de securitate interesat de modul de a face sistemele AI mai rezistente la atacuri sau cineva fascinat de diferențele dintre percepția artificială și cea biologică, această carte este pentru dumneavoastră.
⬤ Explorați DNN-urile și descoperiți cum ar putea fi înșelate de o intrare adversă.
⬤ Investigați metodele utilizate pentru a genera date de intrare contradictorii capabile să păcălească DNN-urile.
⬤ Explorați scenarii din lumea reală și modelați amenințarea adversă.
⬤ Evaluați robustețea rețelelor neuronale; învățați metode de creștere a rezilienței sistemelor de inteligență artificială la datele adversarilor.
⬤ Examinați unele modalități prin care inteligența artificială ar putea deveni mai bună în imitarea percepției umane în anii următori.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)