A mély megerősítéses tanulás alapjai: Pythonban

Értékelés:   (4.3 az 5-ből)

A mély megerősítéses tanulás alapjai: Pythonban (Laura Graesser)

Olvasói vélemények

Összegzés:

A könyvet a mély megerősítéses tanulás (DRL) világos magyarázatai és gyakorlati megközelítése miatt dicsérik, és megbízható forrást kínál az algoritmusokat megvalósítani kívánó olvasóknak. A kritikák azonban kiemelik a gyenge papírminőséget, a Kindle kiadással kapcsolatos problémákat, valamint az egyéni keretrendszerre való támaszkodást, ami néhány olvasót elriaszthat.

Előnyök:

A DRL fogalmak és algoritmusok világos és jól strukturált magyarázata.
Gyakorlati források, beleértve a példakódot és a GitHub repót a megvalósításhoz.
Jó a különböző szintű tapasztalattal rendelkező olvasók számára.
A témák tömör lefedettsége, így a tanulás könnyen kezelhető.
Segít az elmélet és a gyakorlat összekapcsolásában, megkönnyítve a gyakorlati tanulást.

Hátrányok:

Gyenge papírminőség és nyomtatási problémák, többek között rossz szag és vékony oldalak.
A Kindle kiadásban formázási problémák vannak a képletekkel, amelyek befolyásolják a használhatóságot.
Nagymértékben támaszkodik a szerzők saját keretrendszerére (SLM Lab), ami nem biztos, hogy tetszeni fog azoknak, akik univerzálisabb kódolási példákat szeretnének.
Néhány példa elavult, így az olvasóknak át kell alakítaniuk a kódot, hogy frissített könyvtárakkal működjön.

(27 olvasói vélemény alapján)

Eredeti címe:

Foundations of Deep Reinforcement Learning: Theory and Practice in Python

Könyv tartalma:

Az elméletet és a gyakorlatot ötvöző kortárs bevezetés a mély megerősítéses tanulásba

A mély megerősítéses tanulás (deep reinforcement learning, deep RL) ötvözi a mély tanulást és a megerősítéses tanulást, amelyben mesterséges ágensek tanulnak szekvenciális döntési problémák megoldására. Az elmúlt évtizedben a mély RL figyelemre méltó eredményeket ért el számos problémán, az egy- és többjátékos játékoktól - mint például a Go, az Atari játékok és a DotA 2 - a robotikáig.

A Foundations of Deep Reinforcement Learning egy olyan bevezetés a mély RL-be, amely egyedülálló módon ötvözi az elméletet és a megvalósítást. Az intuícióval kezdődik, majd alaposan elmagyarázza a mély RL algoritmusok elméletét, tárgyalja a társ szoftverkönyvtár SLM Lab implementációit, és a mély RL működésbe hozásának gyakorlati részleteivel fejezi be.

Ez az útmutató ideális mind az informatikus hallgatók, mind a szoftvermérnökök számára, akik ismerik az alapvető gépi tanulási fogalmakat, és jól értenek a Python nyelvhez.

⬤ Megérti a mély RL-probléma minden egyes kulcsfontosságú aspektusát.

⬤ Tanulmányozza a szabályzatokon és értékeken alapuló algoritmusokat, beleértve a REINFORCE, SARSA, DQN, Double DQN és a Prioritized Experience Replay (PER) algoritmusokat.

⬤ Mélyüljön el a kombinált algoritmusokban, beleértve az Actor-Critic és a Proximal Policy Optimization (PPO) algoritmusokat.

⬤ Tudja, hogyan lehet az algoritmusokat szinkron és aszinkron módon párhuzamosítani.

⬤ Futtasson algoritmusokat az SLM Labban, és ismerje meg a mély RL működésének gyakorlati megvalósítási részleteit.

⬤ Tanulmányozza az algoritmusok benchmark eredményeit hangolt hiperparaméterekkel.

⬤ Megtanulja, hogyan tervezik a mély RL környezeteket.

Regisztrálja a könyvet, hogy kényelmesen hozzáférhessen a letöltésekhez, frissítésekhez és/vagy javításokhoz, amint azok elérhetővé válnak. A részleteket lásd a könyv belsejében.

A könyv egyéb adatai:

ISBN:9780135172384
Szerző:
Kiadó:
Kötés:Puha kötés
A kiadás éve:2020
Oldalak száma:416

Vásárlás:

Jelenleg kapható, készleten van.

A szerző további könyvei:

A mély megerősítéses tanulás alapjai: Pythonban - Foundations of Deep Reinforcement Learning: Theory...
Az elméletet és a gyakorlatot ötvöző kortárs...
A mély megerősítéses tanulás alapjai: Pythonban - Foundations of Deep Reinforcement Learning: Theory and Practice in Python

A szerző munkáit az alábbi kiadók adták ki:

© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)