„Naravno, algoritmi su izuzetno korisni, ali treba da pazimo da ne postanemo samozadovoljni i nesposobni da ih dovedemo u pitanje“, upozorava dr Hana Fraj, sa Londonskog univerziteta.
Dr Fraj predaje matematiku gradova u Centru za naprednu prostornu analizu na Londonskom univerzitetu, a njeno istraživanje se „vrti oko proučavanja složenih društvenih i ekonomskih sistema različitih razmera, od individualnih do urbanih, regionalnih i globalnih, a naročito onih sa prostornim elementom“.
Međutim, iako nije uključena u istraživanje, dr Fraj brzo postaje jedna od omiljenih britanskih matematičara, poznata po svom dokumentarcu „The Joy of Data“ na BBC 4, kao i po svom popularnom TED govoru „
Matematika ljubavi“, gde su statistički i naučno-informacioni modeli primenjeni na veze, seks i brak.
„Nauka o podacima je eksplodirala u proteklih pet godina“, zato što su „podaci danas pristupačniji“, rekla je dr Fraj, „zbog senzora, interneta stvari i tenedencije da nam život bude onlajn“ sada je mnogo toga dostupno u vidu podataka koji se potom podrobno analiziraju.
Mi smo „još pre nekoliko godina uvideli koliko podataka postoji“, rekla je dr Fraj, „i sve je to veoma uzbudljivo. Imamo izvanredne mogućnosti da iznova objektivno sagledamo kako planiramo naša društva, naše poslove, skoro sve sa čime se susrećemo na dnevnom nivou.“
Uprkos tome, još uvek je potrebno da ljudi „obrate pažnju kako podaci o njima samima mogu biti analizirani u različite svrhe“.
Algoritmi skriveni od javnosti
Ovo može biti privremena poteškoća ili ozbiljan problem, zato što se analizirani podaci mogu upotrebiti za različite algoritme: od reklama koje ohrabruju potrošače da kupe određene proizvode, preko ponuda za kredite ili privlačne stope osiguranja, do podataka o tome ko se sve ima krivični dosije pravnom sistemu SAD.
„Algoritme koji su skriveni za javnost, naravno, nije lako otkriti“, rekla je dr Fraj. Problem je što, bez pristupa i uvida u to kako oni rade, „ne možete da im se protivite. Ako njihove pretpostavke i sklonosti nisu pod nadzorom, onda se čitav sistem stavlja u ruke nekoliko programera koji nemaju odgovornost za odluke koje prave.“
„U nekim situacijama ovo nije bitno“, rekla je Frajeva, „Netfliks nije od ključne važnosti za strukturu društva; ali opet, neki algoritmi za predviđanje stope recidivizma u Americi se koriste u osuđivanju, a analiza podataka tu može da ima ozbiljne posledice“.
„Često navodim primer mladića koji je osuđen za silovanje maloletnice – čin se desio uz pristanak, ali je i dalje zakonski krivično delo – a njegovi podaci su stavljeni u algoritam o mogućnosti recidivizma i to je upotrebljeno prilikom izricanja kazne. Pošto je mlad, i u pitanju je krivično delo seksualne prirode, smatralo se da postoji veća šansa za recidivizam, i zato je osuđen na zatvorsku kaznu. Ali da je imao 36 godina, a ne 19, dobio bi blažu kaznu, iako bi prema nekom razumnom merilu, svako očekivao da tridesetšestogodišnjak dobije oštriju kaznu.“
Saradnja i zanimanje
Dr Fraj kaže da teži da „sagleda stvari iz perspektive pojedinca u društvu, a ne potrošača. Kada osmišljavate algoritme, vas zanima profit, a ne boljitak društva, odnosno individualnog života. Ako se te dve stvari poklope, onda je to sjajno, ali ako ćemo pravo, vas najviše zanima dobra zarada.“
„Problem je kada se ove dve stvari razilaze, kada algoritmi štite posao pre pojedinaca“, dodala je ona. „Klasični primeri su stope osiguranja ili krediti koje nude banke, gde su ljudi iz različitih sredina nepravedno u lošijem položaju zbog kategorije podataka u kojoj se nalaze. Moglo bi da se argumentuje da se nepravda širi i na druge vrste komercijalnog softvera – LinkedIn je bolje plaćene poslove češće prikazivao muškarcima nego ženama“, što je takođe bazirano na nepoštenoj analizi.
„I svaki put kada programer odluči kako će koristiti podatke, kako da im izračuna prosečnu vrednost ili da ih očisti, prenosi svoje sklonosti na njih. Ponekad te pretpostavke i sklonosti mogu da budu dobro skrivene, i to može da bude opasno“, dodala je, „ali čak i u sistemima bez algoritama i podataka postoji subjektivni element“, ukazujući na istraživanja koja su pokazala da sudije izriču teže kazne neposredno pre ručka.
Moglo bi da bude dobro
Postoji mogućnost – kao sa radom startapa „Numerai“ – da se algoritmi koriste u društvenom sistemu koji bi bio „mnogo otvoreniji i bolji za saradnju“, rekla je dr Fraj. „To je jedan od načina da se zaštitimo od neželjenih posledica koje naposletku mogu da nanesu veliku štetu."
„Radim u međudisciplinarnom odeljenju. Kada ispitujete podatke društvenih sistema ili društvenih struktura, nedostatak komunikacije među odeljenjima ne sme da važi. To mora da bude zajednički napor.“
„Zamislite život bez algoritama. Ne biste mogli ništa da uradite. Oni su već sveobuhvatni. Skloni smo da verujemo onome što nam matematika ili naučnici govore, bez pogovora, previše vere polažemo u magičnu moć analize.
Volela bih da je javnost svesna da postoje ograničenja. Algoritmi i podaci treba da podrže ljudsku odluku, a ne da je zamene.“
Izvor: theregister.co.uk
Prevod: Đorđe Radusin