Multi-Armed Bandits - Theory and Applications to Online Learning in Networks
A többkarú bandita problémák az optimális szekvenciális döntéshozatalra és az ismeretlen környezetben történő tanulásra vonatkoznak. A Thompson által 1933-ban a klinikai vizsgálatok alkalmazásával kapcsolatban felvetett első bandit-probléma óta a bandit-problémák több kutatóközösség tartós figyelmét élvezik, és a legkülönfélébb területeken széleskörű alkalmazásokat találtak.
Ez a könyv mind a bayesi, mind a frequentista banditproblémákkal kapcsolatos klasszikus eredményeket és legújabb fejlesztéseket tárgyalja. Az 1. fejezetben a bandit-problémák történetének rövid áttekintésével kezdünk, szembeállítjuk a két iskolát - a bayesi és a frequentista megközelítést -, és kiemeljük az alapvető eredményeket és a legfontosabb alkalmazásokat.
A 2. és 4. fejezet a Bayes-féle kanonikus és a frequentista bandit-modelleket tárgyalja.
A 3. és 5. fejezetben a kanonikus bandit-modellek főbb változatait tárgyaljuk, amelyek új irányokba vezetnek, új technikákat hoznak be, és kiszélesítik e klasszikus probléma alkalmazásait.
A 6. fejezetben számos reprezentatív alkalmazási példát mutatunk be a kommunikációs hálózatokra és a társadalmi-gazdasági rendszerekre vonatkozóan, azzal a céllal, hogy megvilágítsuk a banditproblémák bayesi és frequentista megfogalmazásai közötti kapcsolatokat, és hogy az egyikre vonatkozó strukturális eredmények hogyan használhatók fel a másik szerinti megoldások eléréséhez.
© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)