Evaluare:
În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 51 voturi.
Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C
Ghidul definitiv pentru LLM-uri, de la arhitecturi, preformare și reglaj fin la Retrieval Augmented Generation (RAG), inteligență artificială generativă multimodală, riscuri și implementări cu ChatGPT Plus cu GPT-4, Hugging Face și Vertex AI
Caracteristici cheie:
- Comparați și contrastați peste 20 de modele (inclusiv GPT-4, BERT și Llama 2) și mai multe platforme și biblioteci pentru a găsi soluția potrivită pentru proiectul dvs.
- Aplicați RAG cu LLM-uri utilizând texte și încorporări personalizate
- Atenuați riscurile LLM, cum ar fi halucinațiile, utilizând modele de moderare și baze de cunoștințe
- Achiziționarea cărții tipărite sau Kindle include o carte electronică gratuită în format PDF
Descrierea cărții:
Transformers for Natural Language Processing and Computer Vision, ediția a treia, explorează arhitecturile Large Language Model (LLM), aplicațiile și diferitele platforme (Hugging Face, OpenAI și Google Vertex AI) utilizate pentru procesarea limbajului natural și viziunea computerizată. Cartea vă ghidează prin diferite arhitecturi de transformare până la cele mai recente modele Foundation și Generative AI. Veți preinstrui și regla fin LLM-urile și veți lucra prin diferite cazuri de utilizare, de la rezumare la implementarea sistemelor de răspuns la întrebări cu tehnici de căutare bazate pe încorporare. Veți învăța, de asemenea, riscurile LLM-urilor, de la halucinații și memorare la confidențialitate, și cum să atenuați aceste riscuri utilizând modele de moderare cu baze de reguli și cunoștințe. Veți implementa Retrieval Augmented Generation cu LLM-uri pentru a îmbunătăți precizia modelelor dvs. și pentru a obține un control mai mare asupra rezultatelor LLM-urilor. Scufundați-vă în transformatoare generative de viziune și arhitecturi de modele multimodale și construiți aplicații, cum ar fi clasificatoare de imagini și video în text. Mergeți mai departe prin combinarea diferitelor modele, platforme și învățarea despre replicarea agenților AI. Această carte vă oferă o înțelegere a arhitecturilor de transformare, a preformării, a ajustării fine, a cazurilor de utilizare LLM și a celor mai bune practici.
Ce veți învăța:
- Descompuneți și înțelegeți arhitecturile modelelor Original Transformer, BERT, GPT, T5, PaLM, ViT, CLIP și DALL-E
- Ajustarea modelelor BERT, GPT și PaLM 2
- Aflați despre diferitele tokenizere și cele mai bune practici pentru preprocesarea datelor lingvistice
- Preinstruirea unui model RoBERTa de la zero
- Implementarea bazelor de reguli și a bazelor de generare augmentate de regăsire pentru a atenua halucinațiile
- Vizualizați activitatea modelului de transformare pentru o înțelegere mai profundă utilizând BertViz, LIME și SHAP
- Mergeți în profunzime în transformatoarele de viziune cu CLIP, DALL-E 2, DALL-E 3 și GPT-4V
Pentru cine este această carte:
Această carte este ideală pentru inginerii NLP și CV, dezvoltatorii de software, oamenii de știință de date, inginerii de învățare automată și liderii tehnici care doresc să avanseze abilitățile lor LLM și AI generative sau să exploreze cele mai recente tendințe din domeniu. Cunoașterea Python și a conceptelor de învățare automată este necesară pentru a înțelege pe deplin cazurile de utilizare și exemplele de cod. Cu toate acestea, cu exemple care utilizează interfețe de utilizator LLM, inginerie promptă, construirea de modele fără cod, această carte este excelentă pentru oricine este curios cu privire la revoluția AI.
© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)