Nem függetlenül a közelmúlt botrányaitól és a vállalat körül kialakult bizalmi válságtól, a Facebook először árulta el, hogy milyen mennyiségben akadtak gyűlölködő, félelemkeltő tartalmakra a közösségi oldalon, illetve milyen mennyiségben távolítottak el nem megfelelőnek ítélt tartalmakat.
Azt viszont, hogy pontosan mennyi zaklató poszt került fel az oldalra, a Facebook nem tudja pontosan, helyette belső becslésekkel dolgoznak. Azt sem árulta el a vállalat, hogy hányszor távolítottak el tartalmat tévedésből.
A közzétett adatok két, három hónapos időszakot fednek le: 2017 utolsó és 2018 első negyedévét. A Facebook kategóriák szerint osztotta fel a nem megfelelő tartalmakat: erőszakot, szexualitást, a kéretlen tartalmakat, a gyűlöletbeszédet és a hamis fiókokat vették külön.
A hamis fiókokkal kapcsolatban a Facebook becslése szerint az összes felhasználói fiók 3-4 százaléka lehet kamu, és idén január és március között jelentős tisztítást hajtottak végre, 583 millió fiókot töröltek.
A két időszak között jelentősen megugrott az erőszakos tartalmak száma, 183 százalékkal, a Facebook szerint a szíriai konfliktus kiéleződése mellett az is számíthatott, hogy finomodott az ellenőrző rendszerük, és több mindent ki tudtak szúrni: idén január és március között 3,4 millió posztot töröltek erőszakos tartalma miatt, és ennek 86 százalékát a Facebook automatikus rendszere detektálta.
Az automatikus rendszer különösen sokat finomodott a terrorista tartalmak kiszűrése terén a vállalat szerint: 1,9 millió ilyen tartalmú posztot töröltek a három hónap során, és ennek 99,5 százalékát azelőtt kiszúrta a rendszer, hogy terjedni kezdeni tudtak volna. A nyugati kormányoknak épp ez volt az egyik első számú elvárása a vállalat felé.
A terrorista tartalmakhoz képest viszont jóval nehezebb megállapítani, hogy egy tartalom a gyűlöletbeszéd kategóriájába esik-e: jól jelzi ezt, hogy a 2,5 millió ilyen címen leszedett tartalomnak csupán 38 százalékát szúrta ki a rendszer, a többit a felhasználók jelentették és embermoderátorok döntöttek a sorsukról.
A Facebook is elismeri, hogy ez meglehetősen ingoványos terület, és nem is mindig hoznak jó döntést, ugyanakkor folyamatosan próbálnak tanulni ezen a téren.
Mivel a Facebook pontosan nem tudja, mennyire sok a zaklató-sértő poszt az oldalon, nagymintás kísérletekből próbálnak meg következtetni: tízezer profilos mintákon nézték meg, hány alkalommal jön szembe olyan tartalom, ami nem fér már bele az oldal szabályzatába.
Az eredmények nem voltak megnyugtatóak: tízezerből 27 poszt tartalmazott vizuális erőszakot, kilenc pedig szexuális tartalmat vagy meztelenséget.
A Facebook jelenleg amúgy 17 ezer moderátort alkalmaz, de a vállalat nagyon keveset árul el arról, hogy kik ezek az emberek. A Facebook annyit állít csak, hogy igyekeznek törekedni arra, hogy a feljelentett amerikai posztokat olyan emberek bírálják el, akik ismerik az amerikai kultúrát, ahogy ez más országok esetében is cél. Hogy ez aztán milyen mértékben valósul meg, azt nem tudni. (BBC)