Értékelés:
A könyv átfogó és gyakorlatias megközelítést kínál a mélytanuláshoz a TensorFlow 2.x használatával, mind a kezdők, mind a tapasztalt adattudósok számára. Bár a könyv a témák széles körét öleli fel alkalmazható példákkal, néhány olvasó a forráskód hibáiról és az elavult információkról számolt be. Összességében a könyvet dicsérik az áttekinthetőségéért és relevanciájáért, bár néhányan hiányolták a mélyebb témák mélységét.
Előnyök:⬤ A mélytanulás témáinak átfogó lefedettsége.
⬤ Világos és gyakorlatias példák a gyakorlati tanuláshoz.
⬤ Kezdőknek és tapasztalt szakembereknek egyaránt jó.
⬤ Jól strukturált, könnyen követhető magyarázatokkal.
⬤ A szerzők a terület elismert szakértői.
⬤ A felhasználók által bejelentett forráskód hibák és hiányzó fájlok.
⬤ Néhány tartalom túl gyorsan van elmagyarázva, így az olvasónak kérdései maradnak.
⬤ Bizonyos haladó témák nem elég mélyek.
⬤ Egyes felhasználók szerint inkább a gépi tanulással kapcsolatos előismeretekkel rendelkezők számára alkalmas.
(25 olvasói vélemény alapján)
Deep Learning with TensorFlow 2 and Keras - Second Edition: Regression, ConvNets, GANs, RNNs, NLP, and more with TensorFlow 2 and the Keras API
Építsen gépi és mélytanulási rendszereket az újonnan megjelent TensorFlow 2 és Keras segítségével laboratóriumi, termelési és mobil eszközökre
Főbb jellemzők
⬤ Bemutatja, majd használja a TensorFlow 2-t és a Kerast már az elejétől kezdve.
⬤ Tanítja a legfontosabb gépi és mélytanulási technikákat.
⬤ Megtanulja a mélytanulás és a gépi tanulás alapjait világos magyarázatokon és kiterjedt kódmintákon keresztül.
Könyv leírása
A Deep Learning with TensorFlow 2 and Keras, Second Edition a TensorFlow (TF) és a Keras mellett neurális hálózatokat és mélytanulási technikákat tanít. Megtanulhatja, hogyan írhat mélytanulási alkalmazásokat a jelenleg elérhető legerősebb, legnépszerűbb és legjobban skálázható gépi tanulási stackben.
A TensorFlow a professzionális alkalmazásokhoz választott gépi tanulási könyvtár, míg a Keras egyszerű és hatékony Python API-t kínál a TensorFlow eléréséhez. A TensorFlow 2 teljes Keras-integrációt biztosít, így a fejlett gépi tanulás minden eddiginél egyszerűbbé és kényelmesebbé válik.
Ez a könyv bemutatja a neurális hálózatokat is a TensorFlow-val, végigfut a főbb alkalmazásokon (regresszió, ConvNets (CNN-ek), GAN-ek, RNN-ek, NLP), két működő példaalkalmazással foglalkozik, majd belemerül a TF termelésben, a TF mobilban és a TensorFlow használatában az AutoML-lel.
Mit fogsz tanulni
⬤ Gépi tanulási és mélytanulási rendszerek építése a TensorFlow 2 és a Keras API segítségével.
⬤ Használja a regresszióelemzést, a gépi tanulás legnépszerűbb megközelítését.
⬤ Megérted a ConvNets (konvolúciós neurális hálók) működését és azt, hogy hogyan nélkülözhetetlenek a mélytanulási rendszerekhez, például a képosztályozókhoz.
⬤ Használja a GAN-okat (generatív adverzális hálózatok) a meglévő mintákhoz illeszkedő új adatok létrehozására.
⬤ Fedezze fel az RNN-eket (rekurrens neurális hálózatok), amelyek képesek intelligens módon feldolgozni a bemeneti szekvenciákat, felhasználva a szekvencia egyik részét egy másik rész helyes értelmezésére.
⬤ Alkalmazza a mély tanulást a természetes emberi nyelvre, és értelmezze a természetes nyelvű szövegeket a megfelelő válasz előállítása érdekében.
⬤ Tréningelje modelljeit a felhőben, és helyezze a TF-et valós környezetben munkába.
⬤ Tapasztalja meg, hogy a Google eszközeivel hogyan automatizálhatja az egyszerű ML munkafolyamatokat anélkül, hogy bonyolult modellezésre lenne szükség.
Kinek szól ez a könyv
Ez a könyv Python fejlesztőknek és adattudósoknak szól, akik gépi tanulási és mélytanulási rendszereket szeretnének építeni a TensorFlow segítségével. Akár foglalkozott már gépi tanulással korábban, akár nem, ez a könyv megadja a Keras, a TensorFlow 2 és az AutoML használatához szükséges elméletet és gyakorlatot gépi tanulási rendszerek építéséhez.
© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)