Evaluare:
În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 6 voturi.
Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient
⬤ .
Capitolul 1: Hiperparametri.
Scopul capitolului: Să prezinte ce sunt hiperparametrii și cum pot afecta ei formarea modelului. De asemenea, oferă o intuiție a modului în care hiperparametrul afectează algoritmii generali de învățare automată și ce valoare ar trebui să alegem în funcție de setul de date de instruire. Sub - Subiecte1. Introducere în hiperparametri. 2. De ce trebuie să ajustăm hiperparametrii3. Algoritmi specifici și hiperparametrii lor4. Trucuri pentru a decide hiperparametrul unor algoritmi specifici.
Capitolul 2: Brute Force Hyperparameter TuningObiectivul capitolului: Să înțelegem metodele clasice de ajustare a hiperparametrilor utilizate în mod obișnuit și să le implementăm de la zero, precum și să utilizăm biblioteca Scikit-Learn pentru a face acest lucru. Sub - subiecte: 1. Acordarea hiperparametrilor2. Metode exhaustive de reglare a hiperparametrilor3. Căutarea în rețea4. Căutare aleatorie5. Evaluarea modelelor în timpul reglării hiperparametrilor.
Capitolul 3: Optimizarea distribuită a hiperparametrilorObiectivul capitolului: Gestionarea unor seturi de date mai mari și a unui număr mare de hiperparametri cu spații de căutare continuă utilizând algoritmi distribuiți și metode distribuite de optimizare a hiperparametrilor, utilizând biblioteca Dask. Sub - subiecte: 1. De ce avem nevoie de tuning distribuit2. Cadrele de date Dask3. IncrementalSearchCV.
Capitolul 4: Optimizarea globală bazată pe modele secvențiale și metodele sale ierarhice Scopul capitolului: Un capitol teoretic detaliat despre metodele SMBO, care utilizează tehnici bayesiene pentru optimizarea hiperparametrului. Acestea învață din iterația anterioară, spre deosebire de căutarea în grilă sau căutarea aleatorie. Sub - subiecte: 1. Optimizarea globală bazată pe modele secvențiale2. Abordarea procesului Gaussian3. Estimator Parzen structurat pe arbori (TPE)
Capitolul 5: Utilizarea HyperOptObiectivul capitolului: Un capitol axat pe o bibliotecă hyperopt care implementeazăalgoritmul TPE discutat în ultimul capitol. Scopul este de a utiliza algoritmul TPE pentru a optimizahiperparametrul și de a face cititorul conștient de modul în care acesta este mai bun decât alte metode. MongoDB va fi utilizat pentru a paraleliza evaluările. Discutați Hyperopt Scikit-Learn și Hyperas cu exemple. 1. Definirea unei funcții obiectiv. 2. Crearea spațiului de căutare. 3. Rularea HyperOpt. 4. Utilizarea MongoDB Trials pentru a face evaluări paralele. 5. HyperOpt SkLearn6. Hyperas.
Capitolul 6: Hyperparameter Generating Condition Generative Adversarial NeuralNetworks(HG-cGANs) and So Forth. Scopul capitolului: Se bazează pe o ipoteză a modului în care, pe baza anumitor proprietăți ale setului de date, se pot antrena rețele neuronale pe metadate și se pot genera hiperparametri pentru noi seturi de date. De asemenea, rezumă modul în care aceste metode mai noi de reglare a hiperparametrilor pot ajuta IA să se dezvolte în continuare. Sub - subiecte: 1. Generarea metadatelor2. Formarea HG-cGAN-urilor3. AI și reglarea hiperparametrilor.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)