Transformatoare pentru procesarea limbajului natural: Construiți arhitecturi inovatoare de rețele neuronale profunde pentru NLP cu Python, PyTorch, TensorFlow, BERT, RoBER

Evaluare:   (4.2 din 5)

Transformatoare pentru procesarea limbajului natural: Construiți arhitecturi inovatoare de rețele neuronale profunde pentru NLP cu Python, PyTorch, TensorFlow, BERT, RoBER (Denis Rothman)

Recenzii ale cititorilor

Rezumat:

Cartea este un ghid cuprinzător al transformatorilor în procesarea limbajului natural (NLP), lăudat pentru explicațiile sale detaliate, exemplele practice și conținutul actualizat privind diverse modele precum BERT și GPT. În timp ce cartea servește ca o resursă excelentă pentru cei care au o înțelegere fundamentală a învățării profunde și a NLP, poate fi insuficientă pentru începătorii absoluți din cauza cunoștințelor anterioare presupuse.

Avantaje:

Explicații detaliate ale transformatoarelor și ale modelelor precum BERT și GPT.
Abordare practică puternică cu exemple de cod și tutoriale practice.
Acoperire cuprinzătoare a aplicațiilor și sarcinilor NLP.
Bine structurat pentru cursanți intermediari și practicieni.
Conținut actualizat privind metodele NLP de ultimă generație.

Dezavantaje:

Presupune cunoștințe prealabile considerabile de NLP, ceea ce o poate face inaccesibilă pentru începători.
Unele exemple de cod nu funcționează sau necesită modificări.
Lipsește o introducere teoretică puternică în Transformers, ceea ce poate lăsa unele concepte neclare.
Unii cititori au considerat că este o colecție de materiale existente, mai degrabă decât o perspectivă nouă.
Mai multe recenzii au menționat greșeli în formule și erori de cod.

(pe baza a 32 recenzii ale cititorilor)

Titlul original:

Transformers for Natural Language Processing: Build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBER

Conținutul cărții:

Deveniți un expert în înțelegerea limbajului AI prin stăpânirea saltului cuantic al modelelor rețelei neuronale Transformer

Caracteristici principale

⬤ Construiți și implementați modele lingvistice de ultimă generație, cum ar fi Transformer original, BERT, T5 și GPT-2, utilizând concepte care depășesc modelele clasice de învățare profundă.

⬤  Parcurgeți aplicații practice în Python utilizând Google Colaboratory Notebooks fără a instala nimic pe o mașină locală.

⬤  Aflați sfaturi de instruire și metode alternative de înțelegere a limbajului pentru a ilustra concepte cheie importante.

Descrierea cărții

Arhitectura Transformator s-a dovedit a fi revoluționară în depășirea modelelor clasice RNN și CNN utilizate în prezent. Cu o abordare de tip aplicați după cum învățați, Transformers for Natural Language Processing investighează în detaliu vast învățarea profundă pentru traduceri automate, vorbire în text, text în vorbire, modelarea limbajului, răspunsul la întrebări și multe alte domenii NLP cu transformatoare.

Cartea vă poartă prin NLP cu Python și examinează diverse modele eminente și seturi de date în cadrul arhitecturii transformatoare create de pionieri precum Google, Facebook, Microsoft, OpenAI și Hugging Face.

Cartea vă instruiește în trei etape. Prima etapă vă introduce în arhitecturile transformatoarelor, începând cu transformatorul original, înainte de a trece la modelele RoBERTa, BERT și DistilBERT. Veți descoperi metode de formare pentru transformatoare mai mici care pot depăși GPT-3 în unele cazuri. În a doua etapă, veți aplica transformatoare pentru înțelegerea limbajului natural (NLU) și generarea limbajului natural (NLG). În cele din urmă, a treia etapă vă va ajuta să înțelegeți tehnici avansate de înțelegere a limbajului, cum ar fi optimizarea seturilor de date din rețelele sociale și identificarea știrilor false.

Până la sfârșitul acestei cărți NLP, veți înțelege transformatorii din perspectiva științelor cognitive și veți fi competenți în aplicarea modelelor de transformatori preinstruiți de giganți tehnologici la diverse seturi de date.

Ce veți învăța

⬤ Utilizați cele mai recente modele de transformatoare preinstruite.

⬤ Înțelegeți funcționarea modelelor originale Transformer, GPT-2, BERT, T5 și a altor modele de transformare.

⬤ Creați programe Python de înțelegere a limbajului folosind concepte care depășesc modelele clasice de învățare profundă.

⬤ Utilizați o varietate de platforme NLP, inclusiv Hugging Face, Trax și AllenNLP.

⬤ Aplicați programe Python, TensorFlow și Keras pentru analiza sentimentelor, rezumarea textelor, recunoașterea vorbirii, traduceri automate și multe altele.

⬤ Măsurați productivitatea transformatoarelor cheie pentru a defini domeniul de aplicare, potențialul și limitele acestora, în producție.

Pentru cine este această carte

Deoarece cartea nu predă programarea de bază, trebuie să fiți familiarizați cu rețelele neuronale, Python, PyTorch și TensorFlow pentru a învăța implementarea lor cu Transformers.

Printre cititorii care pot beneficia cel mai mult de această carte se numără practicienii deep learning & NLP, analiștii de date și oamenii de știință de date care doresc o introducere în înțelegerea limbajului AI pentru a procesa cantitățile tot mai mari de funcții bazate pe limbaj.

Alte date despre carte:

ISBN:9781800565791
Autor:
Editura:
Legare:Copertă moale

Cumpărare:

Disponibil în prezent, pe stoc.

Alte cărți ale autorului:

Transformatoare pentru procesarea limbajului natural: Construiți arhitecturi inovatoare de rețele...
Deveniți un expert în înțelegerea limbajului AI...
Transformatoare pentru procesarea limbajului natural: Construiți arhitecturi inovatoare de rețele neuronale profunde pentru NLP cu Python, PyTorch, TensorFlow, BERT, RoBER - Transformers for Natural Language Processing: Build innovative deep neural network architectures for NLP with Python, PyTorch, TensorFlow, BERT, RoBER
Inteligența artificială prin exemplu - Ediția a doua - Artificial Intelligence By Example - Second...
Înțelegeți elementele fundamentale și dezvoltați...
Inteligența artificială prin exemplu - Ediția a doua - Artificial Intelligence By Example - Second Edition
Hands-On Explainable AI (XAI) cu Python: Interpretați, vizualizați, explicați și integrați AI de...
Rezolvați modelele cutiei negre din aplicațiile...
Hands-On Explainable AI (XAI) cu Python: Interpretați, vizualizați, explicați și integrați AI de încredere pentru aplicații AI corecte, sigure și demne de încredere - Hands-On Explainable AI (XAI) with Python: Interpret, visualize, explain, and integrate reliable AI for fair, secure, and trustworthy AI apps
Inteligența artificială prin exemplu: Dezvoltarea inteligenței automate de la zero folosind cazuri...
Nota editorului: Această ediție din 2018 este...
Inteligența artificială prin exemplu: Dezvoltarea inteligenței automate de la zero folosind cazuri reale de utilizare a inteligenței artificiale - Artificial Intelligence By Example: Develop machine intelligence from scratch using real artificial intelligence use cases
Transformatoare pentru procesarea limbajului natural - Ediția a doua: Construiți, antrenați și...
Transformatoarele GPT-3, ChatGPT, GPT-4 și Hugging...
Transformatoare pentru procesarea limbajului natural - Ediția a doua: Construiți, antrenați și puneți la punct arhitecturi de rețele neuronale profunde pentru NLP cu Python, PyTo - Transformers for Natural Language Processing - Second Edition: Build, train, and fine-tune deep neural network architectures for NLP with Python, PyTo
Transformers for Natural Language Processing and Computer Vision - Ediția a treia: Explorați...
Ghidul definitiv pentru LLM-uri, de la arhitecturi,...
Transformers for Natural Language Processing and Computer Vision - Ediția a treia: Explorați inteligența artificială generativă și modelele lingvistice mari cu Hugging Face, C - Transformers for Natural Language Processing and Computer Vision - Third Edition: Explore Generative AI and Large Language Models with Hugging Face, C

Lucrările autorului au fost publicate de următorii editori:

© Book1 Group - toate drepturile rezervate.
Conținutul acestui site nu poate fi copiat sau utilizat, nici parțial, nici integral, fără permisiunea scrisă a proprietarului.
Ultima modificare: 2024.11.08 07:02 (GMT)