Kezdő lépések a Google BERT-tel: A legkorszerűbb természetes nyelvfeldolgozó modellek létrehozása és betanítása a BERT segítségével

Értékelés:   (4.1 az 5-ből)

Kezdő lépések a Google BERT-tel: A legkorszerűbb természetes nyelvfeldolgozó modellek létrehozása és betanítása a BERT segítségével (Sudharsan Ravichandiran)

Olvasói vélemények

Összegzés:

A könyv a BERT és az alapjául szolgáló transzformátor-architektúra átfogó bevezetéseként szolgál, egyensúlyt teremtve az elméleti magyarázatok és a gyakorlati kódolási példák között. Különösen alkalmas azok számára, akik alapfokú ismeretekkel rendelkeznek az NLP és a mélytanulás terén, részletesen bemutatva a különböző BERT-változatokat és alkalmazásokat. Néhány olvasó azonban kritizálta a könyvet a redundáns nyelvezet, az összetett témák felületes kezelése és a nyomtatás minőségével kapcsolatos problémák miatt.

Előnyök:

A BERT és a transzformátorok architektúrájának világos és tömör bemutatása
az elméletet gyakorlati alkalmazásokkal és kódolási példákkal kombinálja
a PhD-fokozat nélküli olvasók számára is elérhető
gyakorlati laboratóriumok és GitHub-források fokozzák a tanulási élményt
több BERT-változat és felhasználási eset megvitatása.

Hátrányok:

Redundáns nyelvezet és ismétlődés a magyarázatokban
összetett témák felületes lefedése
problémák a nyomtatás minőségével
több olvasó hibákról számolt be a kódban
néhányan túl alapszintűnek találták a tartalmat, illetve a haladó gyakorlók számára nem elég mélyrehatónak.

(38 olvasói vélemény alapján)

Eredeti címe:

Getting Started with Google BERT: Build and train state-of-the-art natural language processing models using BERT

Könyv tartalma:

Kezdd el az NLP utazást a BERT és változatainak, mint például az ALBERT, RoBERTa, DistilBERT, VideoBERT, és még sok más, felfedezésével a Hugging Face transzformátor könyvtárával

Főbb jellemzők

⬤ Tárja fel a transzformátor modell kódolóját és dekódolóját.

⬤ Jártas legyen a BERT-ben az ALBERT, RoBERTa és DistilBERT mellett.

⬤ Találja meg, hogyan lehet a BERT-modelleket előzetesen betanítani és finomhangolni számos NLP-feladathoz.

Könyv leírása

A BERT (bidirectional encoder representations from transformer) ígéretes eredményekkel forradalmasította a természetes nyelvi feldolgozás (NLP) világát. Ez a könyv egy bevezető útmutató, amely segít eligazodni a Google BERT-architektúrájában. A transzformátor architektúra részletes magyarázatával ez a könyv segít megérteni, hogyan működik a transzformátor kódolója és dekódolója.

A BERT architektúráját úgy fedezheti fel, hogy megtanulja, hogyan történik a BERT modell előzetes képzése, és hogyan használhatja az előre képzett BERT-et a későbbi feladatokhoz azáltal, hogy finomhangolja azt NLP-feladatokhoz, például hangulatelemzéshez és szöveges összefoglalóhoz az Hugging Face transzformátorok könyvtárával. A továbblépés során megismerkedhet a BERT különböző változataival, például az ALBERT, a RoBERTa és az ELECTRA változataival, és megnézheti a SpanBERT-et, amelyet olyan NLP-feladatokhoz használnak, mint a kérdésválaszolás. Az egyszerűbb és gyorsabb BERT-változatokkal is foglalkozunk, amelyek a tudás desztillációján alapulnak, mint például a DistilBERT és a TinyBERT. A könyv részletesen végigveszi az MBERT-et, az XLM-et és az XLM-R-t, majd bemutatja a mondat-BERT-et, amelyet a mondatreprezentáció megszerzésére használnak. Végezetül felfedezhetünk olyan tartományspecifikus BERT-modelleket, mint a BioBERT és a ClinicalBERT, és felfedezhetünk egy érdekes változatot, a VideoBERT-et.

E BERT-könyv végére már jól ismeri majd a BERT és változatai használatát gyakorlati NLP-feladatok elvégzéséhez.

Mit fogsz tanulni

⬤ A transzformátor modell megértése az alapoktól kezdve.

⬤ Megtudja, hogyan működik a BERT, és előzetesen betanítja a maszkolt nyelvi modell (MLM) és a következő mondat előrejelzése (NSP) feladatok segítségével.

⬤ A BERT gyakorlati alkalmazása a kontextuális szó- és mondatbeágyazások létrehozásának megtanulásával.

⬤ A BERT finomhangolása a későbbi feladatokhoz.

⬤ Kezdje meg az ALBERT, RoBERTa, ELECTRA és SpanBERT modelleket.

⬤ A tudásdesztilláción alapuló BERT-modellek megismerése.

⬤ Tanulja meg az olyan többnyelvű modelleket, mint az XLM és az XLM-R.

⬤ Tanulmányozza a Sentence-BERT, a VideoBERT és a BART modelleket.

Kinek szól ez a könyv

Ez a könyv NLP-szakembereknek és adattudósoknak szól, akik egyszerűsíteni szeretnék az NLP-feladatokat, hogy a BERT segítségével hatékony nyelvi megértést tegyenek lehetővé. Az NLP fogalmak és a mélytanulás alapvető ismerete szükséges ahhoz, hogy a lehető legtöbbet hozza ki ebből a könyvből.

A könyv egyéb adatai:

ISBN:9781838821593
Szerző:
Kiadó:
Kötés:Puha kötés

Vásárlás:

Jelenleg kapható, készleten van.

A szerző további könyvei:

Mély megerősítéses tanulás Python nyelvvel - Második kiadás - Deep Reinforcement Learning with...
Egy példákban gazdag útmutató kezdőknek, hogy...
Mély megerősítéses tanulás Python nyelvvel - Második kiadás - Deep Reinforcement Learning with Python - Second Edition
Kezdő lépések a Google BERT-tel: A legkorszerűbb természetes nyelvfeldolgozó modellek létrehozása és...
Kezdd el az NLP utazást a BERT és változatainak,...
Kezdő lépések a Google BERT-tel: A legkorszerűbb természetes nyelvfeldolgozó modellek létrehozása és betanítása a BERT segítségével - Getting Started with Google BERT: Build and train state-of-the-art natural language processing models using BERT
Kézzelfogható mélytanulási algoritmusok Python segítségével - Hands-On Deep Learning Algorithms with...
Ez a könyv bemutatja a mesterséges intelligencia...
Kézzelfogható mélytanulási algoritmusok Python segítségével - Hands-On Deep Learning Algorithms with Python

A szerző munkáit az alábbi kiadók adták ki:

© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)