
Transparency and Interpretability for Learned Representations of Artificial Neural Networks
A mesterséges intelligencia (AI) egy olyan fogalom, amelynek jelentése és megítélése jelentősen megváltozott az elmúlt évtizedekben. A mesterséges intelligencia az 1950-es években egyéni és tisztán elméleti kutatási erőfeszítésekkel kezdődött, mára azonban a modern kor teljesen kiforrott kutatási területévé nőtte ki magát, és vitathatatlanul az emberiség egyik legfontosabb technológiai vívmányává válhat.
E gyors technológiai fejlődés ellenére néhány kulcsfontosságú kérdés, amely az AI döntéshozatalának átláthatósága, értelmezhetősége és megmagyarázhatósága körül forog, továbbra is megválaszolatlan. Így a biztonság szempontjából kritikus vagy etikailag érzékeny területeken alkalmazandó mesterséges intelligenciával szemben támasztott egyre szigorúbb követelményekből egy fiatal kutatási terület alakult ki, amelyet a megmagyarázható mesterséges intelligencia (Explainable AI, XAI) általános kifejezéssel illetnek.
Az XAI egyik fontos kutatási ága olyan módszerek kifejlesztése, amelyek elősegítik a mesterséges neurális rendszerek megtanult tudásának mélyebb megértését. Ebben a könyvben egy sor olyan tudományos tanulmányt mutatunk be, amelyek megvilágítják, hogyan lehet empirikus, idegtudományi ihletésű megközelítést alkalmazni egy neurális hálózat megtanult reprezentációjának vizsgálatára az agy idegtudományi vizsgálatok szellemében.