Optimizarea hiperparametrilor în învățarea automată: Faceți modelele dvs. de învățare automată și de învățare profundă mai eficiente

Evaluare:   (3.3 din 5)

Optimizarea hiperparametrilor în învățarea automată: Faceți modelele dvs. de învățare automată și de învățare profundă mai eficiente (Tanay Agrawal)

Recenzii ale cititorilor

În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 6 voturi.

Titlul original:

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Conținutul cărții:

⬤ ​.

Capitolul 1: Hiperparametri.

Scopul capitolului: Să prezinte ce sunt hiperparametrii și cum pot afecta ei formarea modelului. De asemenea, oferă o intuiție a modului în care hiperparametrul afectează algoritmii generali de învățare automată și ce valoare ar trebui să alegem în funcție de setul de date de instruire. Sub - Subiecte1. Introducere în hiperparametri. 2. De ce trebuie să ajustăm hiperparametrii3. Algoritmi specifici și hiperparametrii lor4. Trucuri pentru a decide hiperparametrul unor algoritmi specifici.

Capitolul 2: Brute Force Hyperparameter TuningObiectivul capitolului: Să înțelegem metodele clasice de ajustare a hiperparametrilor utilizate în mod obișnuit și să le implementăm de la zero, precum și să utilizăm biblioteca Scikit-Learn pentru a face acest lucru. Sub - subiecte: 1. Acordarea hiperparametrilor2. Metode exhaustive de reglare a hiperparametrilor3. Căutarea în rețea4. Căutare aleatorie5. Evaluarea modelelor în timpul reglării hiperparametrilor.

Capitolul 3: Optimizarea distribuită a hiperparametrilorObiectivul capitolului: Gestionarea unor seturi de date mai mari și a unui număr mare de hiperparametri cu spații de căutare continuă utilizând algoritmi distribuiți și metode distribuite de optimizare a hiperparametrilor, utilizând biblioteca Dask. Sub - subiecte: 1. De ce avem nevoie de tuning distribuit2. Cadrele de date Dask3. IncrementalSearchCV.

Capitolul 4: Optimizarea globală bazată pe modele secvențiale și metodele sale ierarhice Scopul capitolului: Un capitol teoretic detaliat despre metodele SMBO, care utilizează tehnici bayesiene pentru optimizarea hiperparametrului. Acestea învață din iterația anterioară, spre deosebire de căutarea în grilă sau căutarea aleatorie. Sub - subiecte: 1. Optimizarea globală bazată pe modele secvențiale2. Abordarea procesului Gaussian3. Estimator Parzen structurat pe arbori (TPE)

Capitolul 5: Utilizarea HyperOptObiectivul capitolului: Un capitol axat pe o bibliotecă hyperopt care implementeazăalgoritmul TPE discutat în ultimul capitol. Scopul este de a utiliza algoritmul TPE pentru a optimizahiperparametrul și de a face cititorul conștient de modul în care acesta este mai bun decât alte metode. MongoDB va fi utilizat pentru a paraleliza evaluările. Discutați Hyperopt Scikit-Learn și Hyperas cu exemple. 1. Definirea unei funcții obiectiv. 2. Crearea spațiului de căutare. 3. Rularea HyperOpt. 4. Utilizarea MongoDB Trials pentru a face evaluări paralele. 5. HyperOpt SkLearn6. Hyperas.

Capitolul 6: Hyperparameter Generating Condition Generative Adversarial NeuralNetworks(HG-cGANs) and So Forth. Scopul capitolului: Se bazează pe o ipoteză a modului în care, pe baza anumitor proprietăți ale setului de date, se pot antrena rețele neuronale pe metadate și se pot genera hiperparametri pentru noi seturi de date. De asemenea, rezumă modul în care aceste metode mai noi de reglare a hiperparametrilor pot ajuta IA să se dezvolte în continuare. Sub - subiecte: 1. Generarea metadatelor2. Formarea HG-cGAN-urilor3. AI și reglarea hiperparametrilor.

Alte date despre carte:

ISBN:9781484265789
Autor:
Editura:
Legare:Copertă moale
Anul publicării:2020
Numărul de pagini:166

Cumpărare:

Disponibil în prezent, pe stoc.

Alte cărți ale autorului:

Optimizarea hiperparametrilor în învățarea automată: Faceți modelele dvs. de învățare automată și de...
**​.Capitolul 1: Hiperparametri.Scopul...
Optimizarea hiperparametrilor în învățarea automată: Faceți modelele dvs. de învățare automată și de învățare profundă mai eficiente - Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient

Lucrările autorului au fost publicate de următorii editori:

© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)