
Common Information, Noise Stability, and Their Extensions
A közös információ a két vagy több információforrásban található változók egyezésének mértékét méri. Mindenütt jelen van az információelméletben és a kapcsolódó területeken, például az elméleti informatikában és a diszkrét valószínűségszámításban.
Mivel azonban a közös információnak többféle fogalma létezik, hiányzik a köztük lévő mély összefüggések egységes megértése. Ebben a monográfiában a szerzők ezt a hiányt töltik be, kihasználva a látszólag különböző problémákra alkalmazható matematikai technikák egy kis csoportját. Az olvasó az I.
részben megismerkedik a közös információ két fő mértékével, nevezetesen a Wyner- és a Gács-Körner-Witsenhausen- (GKW-) mértékkel kapcsolatos műveleti feladatokkal és tulajdonságokkal. A következő két részben a szerzők mélyebben megvizsgálják mindkettőt. A II.
részben a Wyner-féle közös információ kiterjesztéseit tárgyalják az elosztott forrásszimuláció szempontjából, beleértve a Rényi-féle közös információt. A III. részben a GKW közös információ kerül reflektorfénybe.
Miután a szerzők lefektették az alapokat, zökkenőmentesen áttérnek az információelmélet és a diszkrét valószínűségtan különböző feltevéseivel való kapcsolatuk tárgyalására. Ez a monográfia az információelmélet hallgatóinak és kutatóinak átfogó forrást nyújt a közös információ megértéséhez, és utat mutat a problémák széles körében alkalmazható egységes technikák megalkotásához.