Evaluare:
În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 13 voturi.
Practical Fairness: Achieving Fair and Secure Data Models
Echitatea devine un aspect primordial pentru cercetătorii în domeniul datelor. Din ce în ce mai multe dovezi indică faptul că implementarea pe scară largă a învățării automate și a IA în mediul de afaceri și în administrația publică reproduce aceleași prejudecăți pe care încercăm să le combatem în lumea reală. Dar ce înseamnă corectitudinea atunci când vine vorba de cod? Această carte practică abordează preocupările de bază legate de securitatea și confidențialitatea datelor pentru a ajuta profesioniștii din domeniul datelor și al IA să utilizeze un cod corect și lipsit de prejudecăți.
Multe bune practici realiste apar în prezent la toate etapele de-a lungul conductei de date, de la selectarea și preprocesarea datelor până la auditurile de modele închise. Autoarea Aileen Nielsen vă ghidează prin aspectele tehnice, juridice și etice de a face codul corect și sigur, subliniind în același timp cercetările academice actualizate și evoluțiile juridice în curs legate de corectitudine și algoritmi.
⬤ Identificați potențialele prejudecăți și discriminări în modelele din știința datelor.
⬤ Utilizați măsuri preventive pentru a minimiza prejudecățile atunci când dezvoltați conducte de modelare a datelor.
⬤ Să înțeleagă ce componente ale conductelor de date implică probleme de securitate și confidențialitate.
⬤ Scrieți coduri de procesare și modelare a datelor care pun în aplicare cele mai bune practici pentru corectitudine.
⬤ Recunoașterea interrelațiilor complexe dintre corectitudine, confidențialitate și securitatea datelor create de utilizarea modelelor de învățare automată.
⬤ Aplicați concepte normative și juridice relevante pentru evaluarea corectitudinii modelelor de învățare automată.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)