Értékelés:
A könyv olvasmányos áttekintést nyújt a támadásokról és a mélytanulásról, így a nem műszaki olvasók számára is elérhetővé teszi, ugyanakkor a professzionális programozók számára is tartalmaz némi technikai tartalmat. Ugyanakkor kritika érte a könyv mélységének hiánya, az elégtelen kódolási példák és a felesleges bevezető anyag miatt.
Előnyök:⬤ Nagyszerű programozóknak és a mesterséges intelligencia szerelmeseinek
⬤ nagyon olvasmányos
⬤ jól elmagyarázza a mélytanulást és az ellenséges fenyegetéseket
⬤ optimista nézet a mesterséges intelligenciáról
⬤ alkalmas azok számára, akik alapszintű megértést keresnek.
⬤ Túlságosan alapszintű a hozzáértő olvasók számára
⬤ hiányzik a mélység és a technikai részletesség
⬤ gyér kódolási példák
⬤ a hosszadalmas bevezető anyag felesleges
⬤ nem biztos, hogy megfelel azoknak, akik a téma alaposabb feltárására vágynak.
(3 olvasói vélemény alapján)
Strengthening Deep Neural Networks: Making AI Less Susceptible to Adversarial Trickery
Ahogy a mély neurális hálózatok (DNN-ek) egyre elterjedtebbé válnak a valós alkalmazásokban, új támadási vektort jelent az a lehetőség, hogy szándékosan becsapják őket olyan adatokkal, amelyek egy embert nem tudnának becsapni. Ez a gyakorlatias könyv olyan valós forgatókönyveket vizsgál, amelyekben a DNN-eket - a mesterséges intelligencia nagy részének szerves részét képező algoritmusokat - naponta használják kép-, hang- és videóadatok feldolgozására.
A szerző, Katy Warr megvizsgálja a támadások motivációit, az ilyen támadói bemenet által jelentett kockázatokat, valamint a mesterséges intelligencia robusztusságának növelésére szolgáló módszereket. Ha Ön DNN-algoritmusokat fejlesztő adattudós, biztonsági építész, akit érdekel, hogyan lehet az AI-rendszereket ellenállóbbá tenni a támadásokkal szemben, vagy akit lenyűgöznek a mesterséges és a biológiai érzékelés közötti különbségek, ez a könyv Önnek szól.
⬤ Mélyedjen bele a DNN-ekbe, és fedezze fel, hogyan lehet őket becsapni a támadói bemenettel.
⬤ Vizsgálja meg a DNN-ek megtévesztésére alkalmas ellenséges bemenet létrehozására használt módszereket.
⬤ Felfedezzen valós forgatókönyveket és modellezze az ellenséges fenyegetést.
⬤ A neurális hálózatok robusztusságának értékelése; módszerek megismerése a mesterséges intelligencia rendszerek ellenálló képességének növelésére a támadó adatokkal szemben.
⬤ Vizsgáljuk meg, hogy a mesterséges intelligencia az elkövetkezendő években hogyan tudná jobban utánozni az emberi észlelést.
© Book1 Group - minden jog fenntartva.
Az oldal tartalma sem részben, sem egészben nem másolható és nem használható fel a tulajdonos írásos engedélye nélkül.
Utolsó módosítás időpontja: 2024.11.13 21:05 (GMT)