društvo
vijest

Algoritmi nisu nevini

Foto: AFP

Da nešto ozbiljno ne valja s YouTubeovim algoritmima poznato je već odavno. Dokazi su se iznosili višekratno, a uvriježio se i termin “algoritamska radikalizacija”. Naprosto su algoritmi tako “podešeni” da korisnicima sugeriraju ekstremne sadržaje: od teorija zavjere preko rasne supremacije do “šokantnih” snimaka. Ili nešto konkretnije: ako iz nekog razloga gledate snimku televizijskog gostovanja nekog umjereno konzervativnog političara, postoji velika vjerojatnost da će vam algoritmi sugerirati klip u kojem ekstremno desni ideolog otkriva “što zapravo stoji” iza teme o kojoj je pričao taj umjereno konzervativni političar.

Bez obzira na prepoznat i prilično dokazan problem s algoritmima, nikad naodmet nisu nova i još pouzdanija istraživanja. Pogotovo nakon što su iz YouTubea na brojne kritike odgovorili obećanjem o “popravku” algoritama. Istraživanje je obavila Fondacija Mozilla, neprofitna organizacija koja se bavi pitanjima privatnosti i zaštite osobnih podataka. Ono se zasnivalo na metodi crowdsourcinga: 37.000 korisnika YouTubea iz 91 zemlje odlučilo je donirati podatke o svom vremenu provedenom na platformi u proteklih deset mjeseci. Iz Mozille ističu da se radilo o najvećem istraživanju algoritama YouTubea na takav način.

Rezultati istraživanja kažu da se YouTube i nije baš “popravio” kako je obećao. Istraživanje je otkrilo da je 71% videa koje su korisnici prijavili kao uznemirujuće sugerirao algoritam platforme. Ti uznemirujući videi su sadržavali, između ostalog, zavjere o napadu 11. rujna 2001., bizarne teorije o koronavirusu i rasističke poruke. No, valja primijetiti da je istraživanje otkrilo kako se YouTube ipak malo “popravio”, ali selektivno i neujednačeno: i to prilično indikativno. Naime, uznemirujući sadržaji su bili prisutniji u zemljama ne-engleskog govornog područja. To nam sugerira da su algoritme “podesili” u zemljama iz kojih je dolazila najvidljivija i najznačajnija kritika. Kao i da je ozbiljniji “popravak” algoritama itekako moguć.

Ali ti “popravci” koštaju. Ne zbog povećanih radnih sati inžinjera i programera, već zbog toga što će u konačnici rezultirati slabijim prihodima. YouTubeu osnovne prihode čine reklame, a što više korisnici borave na platformi to su prihodi veći jer je veća mogućnost da se reklama vidi. A kako “prisiliti” korisnike na dugotrajniji boravak? Tako što im nudiš ekstremniji sadržaj, navodno otkrivanje tajni i šokantne snimke koje nigdje drugdje neće vidjeti. Vlasnici YouTubea i tabloida će, naravno, odgovoriti: ali to ljude zanima. To je točno, ali kako je istaknula Zeynep Tufekci, profesorica sa Sveučilišta North Carolina, u sad već i pomalo kanonskom članku na temu algoritama, radi se o manipulaciji prirodnim ljudskim željama. Naravno da nas zanima što se događa “iza zavjese”, da želimo saznavati “dublje istine”. Međutim, naša prirodna znatiželja ne podrazumijeva išta prirodno u sugeriranju ekstremnih sadržaja, lažnih vijesti i izmišljotina.

Prvi razlog je taj što sama izloženost tim sadržajima oblikuje naše “prirodne” interese. A drugi je taj da pored prirodne znatiželje posjedujemo i prirodnu refleksiju o korisnosti i šteti određenih sadržaja za društvo u cjelini. Naša znatiželja jednako je prirodna kao refleksija o toj znatiželji. Što znači da nema ništa neprirodno u regulaciju sadržaja bez obzira na to koliko to ljudi “stvarno željeli”. Kao što nema ništa prirodno ni u YouTubeovim algoritmima ni u poslovnom modelu koji ovisi o reklamama. Ali to su već teme za ozbiljniji društveno-politički iskorak.