Így rohasztja szét a Facebook szép lassan a demokráciát

INTERNET

Óriási felháborodást váltott ki szakmai körökben egy friss tanulmány, amit a Facebook kutatói tettek közzé a héten az egyik legfontosabb amerikai tudományos folyóiratban, a Science-ben. A cég házi tudósai a cikkben azt vizsgálják, milyen módon szembesülnek a felhasználók a különböző politikai-ideológiai töltetű hírekkel a Facebookon, és arra a következtetésre jutnak, hogy a facebookozók egyéni döntései inkább korlátozzák a hozzáférést az saját nézeteikkel nem egyező hírekhez és véleményekhez, mint a Facebook saját, titkos algoritmusa. Ami szintén eldugja a szerinte nem megfelelő híreket.

Magyarul a Facebook amiatt mosakszik, hogy a felhasználói maguktól is azt lájkolnák, amit az algoritmus eléjük rak.

És hogy mit rak eléjük az algoritmus? Sokan még mindig azt hiszik, hogy ha a Facebookon a Hírfolyamot (News Feed) a Legfrissebb eseményekre (Most recent) állítják, akkor minden posztot látnak, pedig a Facebook könyörtelenül szűri a híreket, ráadásul politikai-ideológiai szempontok alapján: liberálisoknak például a liberális Huffington Post híreit, konzervatívoknak a konzervatív Fox News híreit mutatja.

És ha egy liberálisként azonosított felhasználó hírfolyamába neadjisten konzervatív lap híre kerülne (ezt nevezik szaknyelven cross-cutting, keresztbe vágó hírnek), azt a Facebook algoritmusa automatikusan eltávolítja. Azon az alapon, hogy azt egy liberális úgysem akarja látni.

A gyakorlatot mosdató tanulmányt ízekre szedő kutatók, köztük a Michigani Egyetem tanára, Christian Sandvig szerint viszont a Facebook azzal, hogy a felhasználók pártállásához, politikai és ideológiai nézeteihez igazítva jeleníti meg a híreket, ha csak kis mértékben is, de hozzájárul a már eleve példátlan mértékben megosztott társadalom további polarizációjához, ami a szociológusok, politológusok csaknem egyöntetű véleménye szerint

a demokrácia romlásához vezet.

A demokrácia alapja ugyanis, hogy az emberek mindenféle véleményt megismerhessenek, és azok ismeretében alakítsák ki a sajátjukat. Ha nem jutnak hozzá az ellenvéleményhez, az komoly társadalmi problémákhoz vezethet, és persze vezet is.

Az USA-ban az elmúlt két évben egészen drámai méreteket öltött a politikai polarizáció: a Pew kutatóintézet egy éven át végzett tavalyi megafelmérése szerint a liberálisok minden eddiginél liberálisabbak, a konzervatívok pedig tovább konzervatívulnak, és abban szinte az összes szociológus egyetért, hogy a társadalom ilyesfajta megosztottsága nem tesz jót a demokratikus folyamatoknak. Nálunk is hasonló a helyzet: különböző hazai kutatások szerint Magyarország 2010-ben 22 európai ország közül politikai értelemben a negyedik legpolarizáltabb ország volt.

A Facebook elemi gazdasági érdeke, hogy olyan reklámbarát kommunikációs felületet alakítson ki, ami a boldog egyetértést, lájkolgatást bátorítja, és minden erejével igyekszik megakadályozni az összetűzést, a vitát. Csakhogy a Facebook nem egy weboldal a sok közül, hanem egy havonta másfél milliárd ember által látogatott univerzális intézmény, egyre többeknek az első számú hírforrás, sőt a Fülöp-szigeteken meg Mianmarban azt hiszik, hogy a Facebook maga az internet. Egyáltalán nem mindegy, mit jelenít meg, és egyáltalán nem mindegy, hogyan magyarázza azt, amit csinál.

A szénbányászok a szénbányában dohányoznak

„Feltehető, hogy a dohányipar annak idején egy olyan tanulmányt pénzelt, amely szerint a dohányzás kevésbé veszélyes a szénbányászatnál. Csakhogy itt egy olyan tanulmányról van szó, amiben szénbányászok dohányoznak. Valószínűleg a szénbányában” – írja Sandvik a arról, hogyan mossák össze a Facebook kutatói a felhasználók preferenciáit a cég által erőltetett hírválogató algoritmus működésével.

Az írás konklúziójának érvényességét erősen megkérdőjelezi, hogy a házi tudósok egészen elképesztő mintavételezési technikával dolgoztak: azt, hogy ki számít liberálisnak és ki konzervatívnak, annak alapján határozták meg, hogy ki minek vallja magát az önkéntesen kitölthető mezőben, ahol a Facebook a felhasználók politikai nézeteiről érdeklődik.

0fb_nezet

Mint arra Eszter Hargittai, a Northwestern Egyetem szociológusa felhívja a figyelmet, egy kutatási minta kiválasztásánál mindennél fontosabb, hogy a mintavétel módszerének ne legyen köze a vizsgálat tárgyához, vagyis alap, hogy ha az emberek politikai nézeteit akarjuk vizsgálni, a világért se az általuk vallott politikai nézetek alapján válogassuk össze őket, mert úgy az egész nem ér semmit.

Ehhez képest a facebookos tudósok az önbevallásokat vették alapul, amit a felhasználóknak eleve mindössze 9 százaléka tölt ki, ráadásul a szabad szavas öndefiníciók fele értékelhetetlen, úgyhogy a minta eleve torz, a tanulmány pedig legfeljebb a facebookozók 4 százalékára vonatkozik.

És ami a legijesztőbb: a Science által közölt cikk egy olyan hírosztályozó algoritmus hatásairól értekezik, aminek egyetlen betűjét sem lehet megismerni, merthogy ugye titkos. Úgy meg mindenki azt beszél, amit akar.

Kapcsolódó cikkek