Transparency and Interpretability for Learned Representations of Artificial Neural Networks
Inteligența artificială (AI) este un concept al cărui sens și percepție s-au schimbat considerabil în ultimele decenii. Pornind de la eforturi de cercetare individuale și pur teoretice în anii 1950, inteligența artificială a devenit un domeniu de cercetare complet dezvoltat în epoca modernă și, fără îndoială, poate apărea ca unul dintre cele mai importante progrese tehnologice ale omenirii.
În ciuda acestor progrese tehnologice rapide, unele întrebări-cheie legate de transparența, interpretabilitatea și explicabilitatea procesului decizional al unei AI rămân fără răspuns. Astfel, un domeniu de cercetare tânăr, denumit în general IA explicabilă (XAI), a apărut ca urmare a cerințelor din ce în ce mai stricte pentru utilizarea IA în domenii critice din punct de vedere al siguranței sau sensibile din punct de vedere etic.
O ramură de cercetare importantă a XAI este dezvoltarea de metode care să faciliteze o înțelegere mai profundă a cunoștințelor învățate de sistemele neuronale artificiale. În această carte sunt prezentate o serie de studii științifice care pun în lumină modul de adoptare a unei abordări empirice inspirate din neuroștiințe pentru a investiga reprezentarea învățată a unei rețele neuronale în același spirit ca și studiile neuroștiințifice asupra creierului.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)