Introducere în transformatoare pentru Nlp: Cu biblioteca Hugging Face și modele pentru rezolvarea problemelor

Evaluare:   (3.9 din 5)

Introducere în transformatoare pentru Nlp: Cu biblioteca Hugging Face și modele pentru rezolvarea problemelor (Mohan Jain Shashank)

Recenzii ale cititorilor

În prezent, nu există recenzii ale cititorilor. Evaluarea se bazează pe 7 voturi.

Titlul original:

Introduction to Transformers for Nlp: With the Hugging Face Library and Models to Solve Problems

Conținutul cărții:

Obțineți o introducere practică în arhitectura Transformer folosind biblioteca Hugging Face. Această carte explică modul în care Transformers schimbă domeniul AI, în special în domeniul procesării limbajului natural.

Această carte acoperă arhitectura Transformer și relevanța acesteia în procesarea limbajului natural (NLP). Începe cu o introducere în NLP și o progresie a modelelor de limbaj de la n-grame la o arhitectură bazată pe Transformer. În continuare, sunt oferite câteva exemple de bază de Transformers utilizând motorul Google colab. Apoi, se prezintă ecosistemul Hugging Face și diferitele biblioteci și modele oferite de acesta. În continuare, explică modelele de limbaj, cum ar fi Google BERT, cu câteva exemple, înainte de a oferi o aprofundare a API-ului Hugging Face folosind diferite modele de limbaj pentru a aborda sarcini precum clasificarea propozițiilor, analiza sentimentelor, rezumarea și generarea de text.

După finalizarea Introducere în transformatoare pentru NLP, veți înțelege conceptele Transformer și veți putea rezolva probleme utilizând biblioteca Hugging Face.

Ce veți învăța

⬤ Înțelegeți modelele de limbaj și importanța lor în NLP și NLU (Natural Language Understanding)

⬤ Master arhitectura Transformer prin exemple practice.

⬤ Utilizați biblioteca Hugging Face în modelele de limbaj bazate pe Transformer.

⬤ Creați un generator de cod simplu în Python bazat pe arhitectura Transformer.

Cui se adresează această carte Cercetători de date și dezvoltatori de software interesați să își dezvolte abilitățile în NLP și NLU (Natural Language Understanding)

Alte date despre carte:

ISBN:9781484288436
Autor:
Editura:
Limbă:engleză
Legare:Copertă moale

Cumpărare:

Disponibil în prezent, pe stoc.

Alte cărți ale autorului:

Containere și virtualizare Linux: O perspectivă Kernel - Linux Containers and Virtualization: A...
Obțineți o perspectivă nouă asupra containerelor...
Containere și virtualizare Linux: O perspectivă Kernel - Linux Containers and Virtualization: A Kernel Perspective
WebAssembly pentru Cloud: Un ghid de bază pentru aplicații cloud bazate pe Wasm - WebAssembly for...
Călătoriți în lumea uimitoare a WebAssembly (Wasm)...
WebAssembly pentru Cloud: Un ghid de bază pentru aplicații cloud bazate pe Wasm - WebAssembly for Cloud: A Basic Guide for Wasm-Based Cloud Apps
Introducere în transformatoare pentru Nlp: Cu biblioteca Hugging Face și modele pentru rezolvarea...
Obțineți o introducere practică în arhitectura...
Introducere în transformatoare pentru Nlp: Cu biblioteca Hugging Face și modele pentru rezolvarea problemelor - Introduction to Transformers for Nlp: With the Hugging Face Library and Models to Solve Problems
Containere și virtualizare Linux: Utilizarea Rust pentru containerele Linux - Linux Containers and...
Această carte este un ghid practic și cuprinzător...
Containere și virtualizare Linux: Utilizarea Rust pentru containerele Linux - Linux Containers and Virtualization: Utilizing Rust for Linux Containers
O scurtă introducere în Web3: Fundamente web descentralizate pentru dezvoltarea de aplicații - A...
Călătorie în lumea dezvoltării de aplicații bazate...
O scurtă introducere în Web3: Fundamente web descentralizate pentru dezvoltarea de aplicații - A Brief Introduction to Web3: Decentralized Web Fundamentals for App Development

Lucrările autorului au fost publicate de următorii editori:

© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)