Értékelés:
A könyvet a mély megerősítéses tanulás (DRL) világos magyarázatai és gyakorlati megközelítése miatt dicsérik, és megbízható forrást kínál az algoritmusokat megvalósítani kívánó olvasóknak. A kritikák azonban kiemelik a gyenge papírminőséget, a Kindle kiadással kapcsolatos problémákat, valamint az egyéni keretrendszerre való támaszkodást, ami néhány olvasót elriaszthat.
Előnyök:⬤ A DRL fogalmak és algoritmusok világos és jól strukturált magyarázata.
⬤ Gyakorlati források, beleértve a példakódot és a GitHub repót a megvalósításhoz.
⬤ Jó a különböző szintű tapasztalattal rendelkező olvasók számára.
⬤ A témák tömör lefedettsége, így a tanulás könnyen kezelhető.
⬤ Segít az elmélet és a gyakorlat összekapcsolásában, megkönnyítve a gyakorlati tanulást.
⬤ Gyenge papírminőség és nyomtatási problémák, többek között rossz szag és vékony oldalak.
⬤ A Kindle kiadásban formázási problémák vannak a képletekkel, amelyek befolyásolják a használhatóságot.
⬤ Nagymértékben támaszkodik a szerzők saját keretrendszerére (SLM Lab), ami nem biztos, hogy tetszeni fog azoknak, akik univerzálisabb kódolási példákat szeretnének.
⬤ Néhány példa elavult, így az olvasóknak át kell alakítaniuk a kódot, hogy frissített könyvtárakkal működjön.
(27 olvasói vélemény alapján)
Foundations of Deep Reinforcement Learning: Theory and Practice in Python
Az elméletet és a gyakorlatot ötvöző kortárs bevezetés a mély megerősítéses tanulásba
A mély megerősítéses tanulás (deep reinforcement learning, deep RL) ötvözi a mély tanulást és a megerősítéses tanulást, amelyben mesterséges ágensek tanulnak szekvenciális döntési problémák megoldására. Az elmúlt évtizedben a mély RL figyelemre méltó eredményeket ért el számos problémán, az egy- és többjátékos játékoktól - mint például a Go, az Atari játékok és a DotA 2 - a robotikáig.
A Foundations of Deep Reinforcement Learning egy olyan bevezetés a mély RL-be, amely egyedülálló módon ötvözi az elméletet és a megvalósítást. Az intuícióval kezdődik, majd alaposan elmagyarázza a mély RL algoritmusok elméletét, tárgyalja a társ szoftverkönyvtár SLM Lab implementációit, és a mély RL működésbe hozásának gyakorlati részleteivel fejezi be.
Ez az útmutató ideális mind az informatikus hallgatók, mind a szoftvermérnökök számára, akik ismerik az alapvető gépi tanulási fogalmakat, és jól értenek a Python nyelvhez.
⬤ Megérti a mély RL-probléma minden egyes kulcsfontosságú aspektusát.
⬤ Tanulmányozza a szabályzatokon és értékeken alapuló algoritmusokat, beleértve a REINFORCE, SARSA, DQN, Double DQN és a Prioritized Experience Replay (PER) algoritmusokat.
⬤ Mélyüljön el a kombinált algoritmusokban, beleértve az Actor-Critic és a Proximal Policy Optimization (PPO) algoritmusokat.
⬤ Tudja, hogyan lehet az algoritmusokat szinkron és aszinkron módon párhuzamosítani.
⬤ Futtasson algoritmusokat az SLM Labban, és ismerje meg a mély RL működésének gyakorlati megvalósítási részleteit.
⬤ Tanulmányozza az algoritmusok benchmark eredményeit hangolt hiperparaméterekkel.
⬤ Megtanulja, hogyan tervezik a mély RL környezeteket.
Regisztrálja a könyvet, hogy kényelmesen hozzáférhessen a letöltésekhez, frissítésekhez és/vagy javításokhoz, amint azok elérhetővé válnak. A részleteket lásd a könyv belsejében.
© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)