Perché l’algoritmo di Facebook dovrebbe essere pubblico?

E perché dovrebbe interessare a tutti noi.
A cominciare dai Millennials, la generazione digitale cresciuta con il web e i social network

Enrico Bergamini
23 min readApr 3, 2015

di Enrico Bergamini

Con questo post voglio spiegare perché nelle piattaforme Web che più utilizziamo (Facebook e Google principalmente), si nascondono lati estremamente inquietanti. E soprattutto perché queste cose dovrebbero preoccuparci tutti. Anche chi dice: “Facebook non lo uso tanto”, chi “di computer non ci capisco niente”. E chi usa il Web, come la maggior parte della gente, ma non ha la più pallida idea di cosa sia un algoritmo.

Di alcune cose ci si accorge spesso ma non vi si dà peso. Vi siete mai chiesti come funziona Facebook? Vi siete mai chiesti cosa succede quando googlate una parola e magicamente vi appaiono i risultati?

Se vi dicessi che Facebook fa esperimenti su di voi, vi interesserebbe sapere cosa sta facendo e come? Ma soprattutto perché?

Queste sono domande che mi sto facendo da un po’ di tempo, e dato che ho trovato delle risposte tanto interessanti quanto preoccupanti, ho pensato di scriverci un pezzo, che è stato un po’ come collegare i puntini, come sulla Settimana Enigmistica. Questo post a dire la verità doveva essere molto più corto, ma dopo un po’ ci ho preso gusto a unire questi puntini. (Se non hai tempo, salva il link e fermati qui)

Capendo (e parzialmente essendo) il punto di vista di un profano dell’informatica ho cercato di non dare niente per scontato, fatemi sapere se non è così.

[Durante l’articolo linko, cito e metto le fonti se a qualcuno interessa approfondire]

Ma intanto andiamo per ordine.

Opera di Pawel Kuczynski

Premessa: cos’è un algoritmo
e cosa c’entra con Facebook?

Tutti voi, se utilizzate Facebook, avrete sicuramente notato come le cose nella vostra bacheca principale (News Feed) non avvengano casualmente. Anzi chissà quante volte vi sarà capitato qualche fatto “strano”, scorrendola.

Perché vedo certi post e non altri? Perché sembra che Facebook sappia chi sono i miei amici più stretti? Che sappia che luoghi frequenti di più? Come fa a sapere che pagine potrebbero piacermi?

Solo quattro su dieci di voi (poi lo spiego) sono, più o meno, consapevoli che la loro News Feed (la bacheca principale che scorriamo quando entriamo nel Social Network) è regolata e filtrata da un qualche meccanismo. E sì, questo meccanismo è un algoritmo.

Un algoritmo è una sequenza di istruzioni eseguite a partire da una condizione iniziale per dare un risultato finale.

Il modo più semplice per capirlo è pensarlo come ad una ricetta. Dati gli ingredienti (input), devi compiere determinate azioni per cucinare una torta. Chiaramente, se per cucinare un dolce ti possono bastare sei o sette passi, in informatica la cosa si complica (soprattutto in presenza di piattaforme estremamente complesse come Facebook e Google).

L’algoritmo detta una sorta di gerarchia tra post, che non è ordinata solo in modo cronologico. Quindi esiste un criterio secondo cui alcuni post vengono anticipati, altri posticipati, altri addirittura non compaiono. Esempio: i post prodotti dai profili che ci interessano di più, generalmente, appariranno prima di quelli dello sconosciuto di cui non ci può fregar di meno (o almeno così si spera).

La tendenza di Facebook è appunto quella di raffinare questi filtri in modo da mostrarci solo le cose che catturano di più la nostra attenzione. E quando entreremo su Facebook per prima cosa vedremo l’amico che si è fidanzato, la foto del bambino appena nato, fino ad incontrare, prima o poi, i video dei gattini che fanno cose buffe. Inevitabilmente. Inesorabilmente.

L’algoritmo di Facebook (ovvero il modo con cui viene curata la nostra bacheca) non è lo stesso dalla sua nascita, si è evoluto nel tempo. Anzi continua ad evolversi.

Un concetto fondamentale da capire è che Facebook non è mai statico. Cambia continuamente. I suoi ingegneri ne cambiano e testano le funzionalità quotidianamente. Al di là di quelli che sono i cambiamenti osservabili direttamente dall’utente, per così dire gli “aggiornamenti” (ad esempio il passaggio da bacheca a diario, l’introduzione della timeline, fino ai cambiamenti puramente grafici, come l’immagine di copertina). Ci sono continui cambi di funzionalità che non possiamo percepire (se non vagamente), con il semplice utilizzo.

Un passaggio fondamentale di questa storia si chiama EdgeRank. EdgeRank è il nome della versione dell’algoritmo utilizzato da Facebook e da molti altri Social Network fino al 2011. Consisteva in una formula relativamente semplice:

Dove:

  • Ue è l’affinità con l’utente
  • We è come il contenuto è pesato
  • de è un parametro di decadimento temporale

I post quindi venivano “pesati” e filtrati in base a questi tre principali fattori, in modo da creare una gerarchia nel loro enorme flusso. E attraverso questi fattori Facebook decideva quali contenuti erano più importanti degli altri. Pensate invece che l’attuale versione calcola più di 100mila fattori per raffinare questo filtro. (Ti interessa? Questa infografica spiega molto bene i cambiamenti da EdgeRank all’attuale algoritmo)

Alcuni di voi avranno anche notato come anche le pubblicità sponsorizzate sembrino fatte apposta per noi. Proprio perché è così. E la pubblicità mirata su Facebook non sfrutta solo le informazioni che noi affidiamo direttamente al Social Network. E ma i dati derivati dai nostri comportamenti anche al di fuori di esso: i siti che visitiamo, le ricerche che facciamo su Google, i libri che compriamo su Amazon.

E una volta raccolti i dati sui nostri interessi, Facebook li vende agli inserzionisti (E’ giusto? No? Bella domanda! Alla fine metto qualche link). Il meccanismo è: ti piacciono pagine di sport estremi e National Geographic? Be’ io ti piazzo la pubblicità di una GoPro.

E fin qui probabilmente niente di sconvolgente per nessuno.

Ora vi chiederete: qual è la logica dietro tutto questo? Come «ragiona» Facebook? Cosa utilizza come input (ingredienti) per definire cosa per noi sia più importante? E come stabilisce quindi una gerarchia?

Immaginate se poteste vedere, in ordine alfabetico magari, tutto quello che pubblicano tutti. Ma proprio tutti. Come se ogni stato di ogni pagina e di ogni amico entrasse nella nostra News Feed. Al dì là del fatto che l’ordine alfabetico sarebbe davvero poco interessante (per una banale ragione statistca), immaginate tutte queste informazioni prodotte come un flusso.

Una massa gigantesca di post che potenzialmente potremmo vedere. Pensate, se potessimo vedere tutto quello che viene prodotto, mediamente ci sarebbero 1500 post da vedere ogni volta che entriamo su FB durante la giornata.

L’azienda di Zuckerberg, consapevole di questo enorme caos, negli anni ha cercato di creare un servizio migliore per i suoi utenti, raffinando l’ordine di apparizione delle notizie, facendo in modo che le più interessanti finiscano in cima. Ovvero manipolando le nostre News Feed per fare in modo che Facebook sia più interessante da visitare. Che ce ne fosse bisogno è chiaro, ma vien da chiedersi: come fa Facebook a decidere al mio posto cosa è interessante e cosa no? In che modo esattamente agisce sull’algoritmo? Qual è la sua definizione di “interessante”?

Ecco il problema è che queste cose non si sanno. O almeno, non con esattezza. E lo scopo di questo post è provare più o meno a spiegare perché questa cosa dovrebbe interessarci, preoccuparci, e perché dovremmo discuterne: noi «millennials» (nati dagli anni ’90 in poi) più di tutti.

Ma per rispondere alla domanda del titolo occorre partire da due esperimenti.

«Contagi emozionali»

Nel luglio del 2014 su PNAS, sito che raccoglie pubblicazioni scientifiche e ricerche accademiche, è comparsa una ricerca fatta da un team di scienziati e analisti del team di Facebook intitolata «Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks» [Prove sperimentali di contagio emozionale su grande scala attraverso i Social Network].

Il «Core Data Science Team» di Facebook nel MARZO del 2012 ha pensato e progettato l’esperimento, che è stato poi condotto da Adam Kramer (Data Scientist di Menlo Park). Qui puoi scaricare il report completo.

Cos’hanno fatto questi ricercatori?

  1. Hanno selezionato un campione casuale di 689.003 utenti americani di Facebook
  2. Li hanno divisi in due gruppi e hanno manipolato in maniera differente le loro News Feed
  3. Nel primo gruppo è aumentato il numero di post «positivi» (ovvero contenenti parole tipo «amore», «felicità», o commenti come «congratulazioni»). Nel secondo gruppo invece questo tipo di post sono stati diminuiti o fatti quasi scomparire
  4. Hanno analizzato i post prodotti dai soggetti dell’esperimento

Risultato? Appunto un «contagio emozionale»: il gruppo «felice» tendeva a produrre stati e post contenenti più parole felici, mentre succedeva il contrario nel gruppo infelice.

Dalla pubblicazione di Kramer su PNAS

In blu scuro il comportamento del gruppo di controllo (News Feed inalterate quindi comportamento “normale”). In azzurro chiaro il comportamento alterato dalla riduzione della negatività o della positività.

Quale era lo scopo dell’esperimento per Kramer?
Sfatare scientificamente la comune teoria che interagire su Facebook
con persone più felici di noi ci renda più tristi.

Due esempi di questa teoria

La pubblicazione su PNAS di questo esperimento su larga scala ha però scandalizzato il mondo scientifico (che ha ancora una forte componente etica) e parte dell’opinione pubblica americana (ma non quella italiana, che è un po’ il motivo per cui sto scrivendo).

La prima preoccupazione che salta agli occhi leggendo il report dell’esperimento è: già manipolare le emozioni di persone sane è inquietante, ma se qualcuno che soffre di depressione fosse finito nel gruppo «infelice»?

Ma vorrei porre qualche dubbio in più riguardo a questo esperimento che ci deve turbare. Non lo so se noimillennials saremo costretti ad usare Facebook per sempre. Di servizi web ne abbiamo visti nascere e morire tanti (tipo MSN messenger). Però è chiaro che in questo momento siamo legati alla nostra News Feed e a Facebook in una maniera che non possiamo permetterci di sottovalutare.

Mi spiego. Facebook (e i Social in generale) si sono frapposti nei nostri rapporti (anche) quotidiani in un modo che non ha precedenti nella storia. Le nostre interazioni sociali sono mediate dalla tecnologia, e mica è sempre uno svantaggio (chiaramente non voglio negare quanto sia utile la comunicazione istantanea).

Non si può però nemmeno negare che il nostro rapporto con i Social non sia solo quello di utente/piattaforma. Facebook è diventato, volenti o nolenti, una forma di socialità parallela, diversa da quella che conoscevamo prima. Ha inciso nel nostro modo di conoscerci, parlare, discutere, ridere. Facebook è (in parte) una lente attraverso cui la nostra generazione osserva se stessa. E ripeto, che noi lo accettiamo o no, influisce sul nostro modo di percepire la realtà, anche la più vicina, quella delle persone e dei luoghi che ci circondano (metafora che per me Pawel Kuckzynski nella prima immagine, geniaccio, ha colto benissimo).

L’esperimento pubblicato da Kramer ha dimostrato in maniera indelebile l’influenza che potenzialmente Facebook può esercitare su di noi. Le vite virtuali degli altri (specchio deforme di quelle vere), che pure sappiamo essere spesso fittizie, hanno il potere di influire su di noi al livello così profondo da manipolare le emozioni che proviamo.

A questo punto credo che valga la pena di fare un ragionamento.

Siamo la generazione, noi Millennials, che ha il rapporto più stretto con Facebook, per il semplice motivo che ci siamo cresciuti dentro. Ce l’avevamo per primi, l’abbiamo visto evolversi, e ci siamo adattati ad esso.

“Tutto ciò ci rende più protetti o più esposti?”. “Più o meno manipolabili?”. “Il rapporto più stretto e duraturo ci rende più o meno consapevoli?.

Domande da farsi, tra un gattino e l’altro.

Le obiezioni sollevate riguardo all’esperimento di Kramer dal mondo scientifico e dai media (in particolare la bravissima Kashmir Hill su Forbes), riguardano anche un discorso di consapevolezza. Nessuno ha avvisato l’utente soggetto ad esperimento che il suo Facebook sarebbe variato. Il che nell’ottica scientifica ci può anche stare perché avrebbe inficiato i risultati stessi.

Il consenso non informato è un tema cardine che la comunità scientifica affronta quando si tratta di esperimenti sulle persone. Facebook si è difeso sostenendo che nei Terms of Service (sì, proprio quella roba che tutti accettiamo e nessuno legge, anche perché sono … pagine) una clausola consentiva l’utilizzo dei dati personali a scopo di ricerca.

Ancora una volta, però, è Kashmir Hill a cogliere in fallo Kramer, scoprendo che, all’epoca dell’esperimento quella clausola non c’era, rendendo l’esperimento formalmente illegale. E dico formalmente perché, se anche ci fosse stata, si potrebbe comunque obiettare che un pippone accettato senza leggere non si possa decisamente definire consenso informato.

“Conduciamo sondaggi e ricerche, testiamo le funzioni in fase di sviluppo e analizziamo le informazioni in nostro possesso per sviluppare e migliorare i prodotti e servizi, sviluppare nuovi prodotti o funzioni ed eseguire controlli e attività di risoluzione dei problemi.”

dalla Data Policy di Facebook

Facebook ha un problema con la privacy dei suoi utenti, come Twitter lo ha coi troll. E questo è tallone d’Achille di Zuckerberg che i media criticano di più. Tant’è che nel luglio dello scorso anno, dopo la rivelazione del «contagio emozionale» e la conseguente pressione dei media, lo stesso Adam Kramer interviene, sulla sua pagina.

E’ costretta ad intervenire anche Sheryil Sanberg (numero due di Facebook dopo Zuckerberg), che non si dice dispiaciuta per l’esperimento in sè, quanto perché è stato “comunicato molto male”, aggiungendo che Facebook non aveva intenzione di turbare nessuno. Risponde ancora una volta Kashmir Hill dalle pagine di Forbes, parafrasando la difesa della Sandberg ironicamente:

“Facebook non è dispiaciuto per aver condotto l’esperimento sul contagio emozionale. E’ una cosa normale per l’azienda. E’ dispiaciuto del fatto che tutti siano arrabbiati perché ha turbato un po’ di utenti un paio d’anni fa.”

Due o tre cose su Facebook, Google, informazione
e democrazia

Un altro esperimento di cui voglio parlare riguarda il ruolo di Facebook nell’affluenza alle urne. Qui riassumo molto, ma questo articolo su MotherJones va molto nello specifico.

Facebook ha inserito delle opzioni per spingere la gente ad andare a votare (in America hanno percentuali di affluenza costantemente spaventose). Forse alcuni di voi lo ricorderanno, in Italia è stato fatto anche per le Elezioni Europee dello scorso maggio.

C’era un pulsantino «Io ho votato!» che suggeriva agli amici di fare lo stesso. Facebook ha manipolato cercando di capire se potesse influenzare gli utenti e appassionarli di più all’attività politica: per farlo ha aumentato i post contenenti stringente attualità e dibattiti riguardo alle elezioni nelle News Feed degli utenti soggetti all’esperimento.

Sempre utilizzando due gruppi di circa 700.000 persone: uno con politica sparata all’inizio della News Feed e pulsantino, l’altro inalterato (gruppo di controllo).

Ecco, il risultato di questo esperimento (che se volessimo ironicamente paragonare chiameremmo «contagio di passione civile») è stato un incremento stimato del 3% (da 64% a 67%) di affluenza alle urne.

Credo che già questi due esperimenti dimostrino quale potere di manipolazione ha il Social Network (ne parlo dopo) ma, vien da chiedersi, si può fare un’analogia con un altro gigante come Google? Si può fare una similitudine con Facebook a livello di funzione?

Sì, ovviamente anche l’ordine di apparizione dei risultati di Google è curato da un algoritmo estremamente complesso ed evoluto (che merita una discussione più ampia).

Parlando di manipolazione Google usa meccanismi simili a quelli di Facebook, molto sottili, impercettibili. Sapevate che la stessa ricerca produce risultati diversi se fatta con diversi account (quindi identità digitali) o diversi dispositivi? Provate. La personalizzazione avviene anche lì. Il motore di ricerca osserva fattori estremamente diversi per arrivare a stilare una lista di risultati della ricerca.

E questi fattori non dipendono solo dall’ordine delle parole chiave, ma da quello che Google sa su di noi. Dai filtri personalissimi che applica, che sono estremamente complessi. Non esiste un Google standard.

Immaginate quanto facilmente può nascondere siti, aziende, prodotti, argomenti, notizie, persone. O promuoverli. Su milioni e milioni di risultati prodotti ne scorriamo una dozzina, se va bene (“se dovessi nascondere un cadavere lo metterei nella seconda pagina di Google”). E se a Google non piacesse quello che scrivo? Quanto poco gli basterebbe per relegarmi all’oscurità di pagina 9? O a mettere qualcuno che dice cose opposte alle mie in bella vista?

Quant’è importante questo discorso per l’informazione (quindi per noi)

Teniamo ben presente l’esperimento dell’affluenza alle urne e quello del “contagio emozionale” di cui parlavo nel primo post.

La critica che segue chiaramente non è nel merito dell’esperimento (che appare nobilissimo, poi anche qui si può discutere) ma nel metodo. O meglio nei metodi, se consideriamo anche Google.

Ora partiamo da questo presupposto: nell’Era di Internet l’accesso a gran parte delle informazioni è sempre più mediato da un Social Network (millennials, chi li compra i giornali?!). Il che significa, però, che stiamo trasformando Facebook (che in questo post per semplicità prendo ad esempio, ma si potrebbe parlare anche di Google) nel nostro canale di accesso alle informazioni. Che è un canale privilegiato. E quando scrivo Facebook, intendo Facebook, non Internet.

Infatti che stia avvenendo uno shift del mondo dell’informazione nel mondo digitale è ovvio, ma dire «mi informo grazie al Web» o «mi informo grazie a Facebook» non sono per niente la stessa cosa. I Social Network non sono il Web (anche se vorrebbero). La crisi dei modelli dell’editoria è arrivata insieme ad Internet, e si è moltiplicata con i Social Network.

Non voglio parlare della centralizzazione della Rete (fenomeno interessante, sempre un altro post).

Voglio solo banalmente riassumere che sta succedendo questo:

  • I modelli editoriali sono in crisi, i flussi di notizie e opinioni cambiano corso
  • Il bisogno di informazioni è “soddisfatto” sempre più grazie ai Social
  • I Social funzionano sulla base di algoritmi opachi sui quali non abbiamo né conoscenza né controllo

I flussi di notizie sono sempre stati regolati dai giornali e dai giornalisti, che distinguono tra ciò che bisogna e non bisogna far vedere. Oggi invece passano attraverso i filtri informatici degli algoritmi.

Ragionamento semplice: un algoritmo media le informazioni che ci arrivano sul mondo, può però allo stesso tempo essere utilizzato per manipolare le nostre opinioni (ed emozioni) e di conseguenza azioni (come dimostrato dall’esperimento elettorale). Direte: anche i giornalisti hanno/avevano questo potere, in quanto gatekeepers delle informazioni. La differenza grossa, però, è che i giornalisti hanno anche un’etica, gli algoritmi no.

Un giornalista distingue tra ciò che l’opinione pubblica ha bisogno di sentire
e ciò che deve sentire.

Un post è un post, ed è del tutto “logico” che, se mi piacciono di più ci siano prima i gattini di un attentato. E in questa sottigliezza ci sta un mondo.

Poi che anche il modello dei giornalisti come custodi e sorgenti dell’informazione non sia perfetto è ovvio, ma ci ha comunque portati fin qui. E in ogni caso, la pericolosità è che di questo cambiamento non ci stiamo rendendo conto. Non si può fermare quest’onda, ma bisogna riconoscerla.

Aggiungo un fattore.

La manipolazione può essere estremamente personale (il che la rende ancora più efficace, in quanto più specifica); perché ci conosce benissimo (anzi, pare meglio di nostra madre) dato che gli affidiamo una mole spaventosa di dati personali. Pensate a quello che potenzialmente Google e Facebook possono sapere di noi: età, sesso, dispositivi utilizzati, dove ci troviamo, le varie localizzazioni, con chi parliamo (interagiamo), di cosa parliamo, la musica che ascoltiamo, cosa compriamo, cosa leggiamo. O qualcosa di meno scontato come i nostri gusti sessuali, le persone che ci interessano, la nostra idea politica. Tutti dati analizzabili per tracciare un profilo abbastanza completo.

Dubiti che l’analisi dei dati sia poi così potente? Andrew Pole, manager del supermercato Target e statistico, analizzò le combinazioni di consumi delle clienti per poi spedire coupon personalizzati e offerte. Il padre di una ragazza si infuriò vedendo nella mail di sua figlia email con offerte di pannolini e culle, e chiese al manager se stesse cercando di incoraggiarla a rimanere incinta, ricevendo le sue scuse. Salvo poi scoprire che la ragazza lo era veramente e doversi scusare a sua volta.

La personalizzazione, se parliamo di notizie, opinioni e informazione, però, ha un difetto alla base, nel modo stesso in cui è concepita dall’algoritmo: più mi piace (o meglio, più interagisco) più vedo. Facciamo un esempio: se interagisco solo con pagine che hanno opinionisti di sinistra, diciamo, vedrò sempre di più questo tipo di contenuti.

Qui il meccanismo si ripiega su se stesso, e quindi la mia News Feed sarà sempre più tendente a farmi vedere solo opinioni e contenuti “di sinistra”, mentre quelli “di destra” scompariranno, perché secondo l’algoritmo per me sono meno interessanti. Questo fenomeno lo ha descritto molto bene il già citato Eli Pariserin questo TED Talk del 2011, con la teoria dei “Bubble Filteres”: a causa di questi algoritmi ti crei una bolla, un web tutto tuo in cui sei rinchiuso (che è contrario alla natura stessa di Internet). E questo chiaramente ci preclude dall’arricchirci, assumento che la ricchezza intellettuale stia nella diversità.

Tornando all’esperimento, ci sono già tanti analisti che parlano della portata sulla democrazia: manipolare elezioni, cambiare l’orientamento dell’opinione pubblica su temi precisi, distorcere e nascondere notizie, favorire aziende e prodotti rispetto ad altre, canali di informazione.

E non dite che esagerano, perché un buona democrazia arriva solo se i cittadini hanno accesso ad un flusso di informazioni incontaminato, libero.

Ora, ovviamente non sto dicendo che Mark Zuckerberg e Sheryl Sandberg siano dei geni del male che in questo momento stanno plasmando le nostre menti per oscure ragioni. Tanto meno sto dicendo che Google sia un terribile strumento in mano alle lobbies. Non sto scrivendo per denunciare un “gombolddo (!!1!1!)“.

Io sto parlando di un potere sostanziale ma ancora in forma di potenziale, che queste aziende hanno in mano, e che per ora si è espresso solo parzialmente nelle sue nature più inquietanti. E ciò si accresce inevitabilmente, man mano che i numeri di Facebook crescono.

E non possiamo permetterci la buona fede, proprio perché parliamo di aziende. Che traggono profitto dandoti un servizio gratuito (che è una figata) ma trattandoti (il te digitale) come un prodotto (o meglio, un produttore di dati e un consumatore di click e views, ma anche questo è un altro post).

Il punto è che ci sono delle concezioni sbagliate alla base, di cui solo in pochi si rendono conto, perché non c’è discussione.

Nel caso specifico dell’informazione, dare la buona fede ad algoritmi opachi potrebbe anche funzionare in un mondo bello e buono. Un mondo in cui il motto originale di Google «don’t be evil», non fosse mai stato tradito.

Ma il mondo bello e buono non è. Nell’Era post-Snowden, dubitare non solo è lecito, è doveroso.

A differenza di Internet, Facebook è un’azienda. E’ una natura differente. E stiamo affidando una funzione centrale per la democrazia a qualcosa su cui non abbiamo conoscenza. Che oggi può influenzarci, domani magari controllarci.

1984 ce lo ricordiamo tutti, vero?

sempre Kuckzynski

E adesso?

Chiudo la doverosa parentesi catastrofista per arrivare al punto del discorso. Alla luce di tutto questo l’opacità degli algoritmi ci deve inquietare ancora di più. Bisogna creare una discussione, avere consapevolezza.

Questi esperimenti hanno esposto alla luce del sole ciò che era già lì. Facebook ha sempre manipolato l’esperienza dell’utilizzatore, nonostante esso non ne fosse comunque consapevole.

Gli effetti di questa manipolazione, a questo punto dovrebbe essere chiaro, non sono così banali. E probabilmente lo saranno sempre meno.

Il lato essenziale è quello della consapevolezza. Molte implicazioni (per ora) sono evitabili con la sola consapevolezza!

Scienziati «contro» scienziati

C’è chi scrive che i vari esperimenti di cui abbiamo parlato non sono un problema, sono solo ordinaria amministrazione per un’azienda che vuole «migliorare il suo servizio» (poi migliorarlo rispetto a chi? Gli utenti? Gli amministratori? Gli inserzionisti?).

Ma qualcuno si è mosso per provare a capire qualcosa in più? Sì. Altri data scientists! Credo che una delle cose più interessanti da vedere per chi fosse interessato al tema invece sia questa:

Al Berkman Center for Internet and Society di Harvard, un gruppo di ricercatori formato da Christian Sandvig, Karrie Karahalios, e Cedric Langbort ha portato avanti un esperimento di auditing (ci diamo un obiettivo chiaro, raccogliamo i dati, confrontiamo empiricamente i dati).

Hanno cercato di risalire a diversi output, dando input fittizi. Analizzando come cambiavano i risultati finali, vedendo quindi come rispondeva diversamente Facebook, a seconda di determinati stimoli, hanno cercato di capire quali fossero i diversi passaggi dell’algoritmo.

I ricercatori di Harvard hanno chiesto ai volontari di utilizzare una applicazione appositamente creata su Facebook che desse loro accesso a tutte le liste di amici e ai loro post.

In questo modo hanno potuto creare una sorta di News Feed grezza, formata dalla totalità dei post di amici e pagine, che poteva essere paragonata alla News Feed reale. In questo modo, confrontando i dati, è possibile risalire al criterio di discriminazione che l’algoritmo usa. Cioè: questo post non c’era ma avrei dovuto vederlo, questo invece avrei dovuto vederlo prima… E così via, fino a sbozzare sempre di più le idee su come ragiona Facebook.

Un po’ come cercare di fare una torta senza avere la ricetta, andando a tentativi e confrontando i risultati con quella comprata in pasticceria.

I sondaggi preparatori e i dati raccolti da questi ricercatori per me sono davvero molto curiosi. Inoltre, dopo l’esperimento molti dei partecipanti hanno cambiato il loro modo di utilizzare Facebook grazie ad una nuova consapevolezza.

Vale davvero la pena di ascoltarsi la conferenza o di leggere l’intero report.

Il gruppo di persone su cui hanno lavorato ad Harvard era molto vario. Inizialmente, una volta spiegato a chi partecipava (volontariamente), cos’era un algoritmo il dato raccolto ha evidenziato che solo il 40% aveva una percezione che Facebook fosse in qualche modo “curato”, mentre il restante 60% lo ignorava completamente.

Durante la conferenza gli scienziati hanno anche parlato delle “folk theories”, ovvero le teorie comuni su come ragiona l’algoritmo, che otteniamo dal semplice uso consapevole di Facebook. Cioè quello che citavo all’inizio: se ho più interazioni con una persona ci sarà più possibilità che io veda i suoi post, oppure che video e foto hanno più “peso”, o ancora (questa per me è molto curiosa) che post contenenti parole come “congratulazioni”, “complimenti” o che comunque sembravano indicare momenti molto importanti avessero più probabilità di finire in alto.

Vi è mai capitato che nascesse il bambino di qualcuno che non conoscete neanche così bene, e rimanesse sulla bacheca per giorni? A me sì.

Questi tentativi, che non possiamo definire ingegneria inversa, ma ci si avvicinano molto, non cercano di prendere di petto Facebook e sfidarlo. Cercano di aiutarlo a migliorarsi, di evidenziare un problema.

(Se ti interessa e vuoi leggere qualche altra ricerca di Sandvig per me c’è roba interessante qui e qui)

L’immagine di copertina di Facebook di Mark Zuckerberg

Cosa vuol dire algoritmo trasparente,
e perché ci aiuta

Torno su un lato più «tecnico» (se qualche hackerone stesse leggendo, chiedo umilmente venia).

Uno degli articoli più ricchi e stimolanti che si trovano in giro su questo argomento viene dal blog AkashicLabs.com, ad opera di Rachel Shadoan, data scientist, “design etnographer” e scrittrice. Il titolo è Why the transparency of algorithms is vital for the future of thinking. Perché la trasparenza degli algoritmi è vitale per il futuro del pensiero.

Questo pezzo contiene alcune tesi e preoccupazioni che ho già espresso qui, analizzando anche il problema della manipolazione non solo dal punto sociale e dell’informazione, ma anche pensando a come sia, appunto vitale, la trasparenza degli algoritmi per il nostro stesso modo di ragionare. Che è una tesi fortissima, spaventosa.

Ho contattato Rachel, che gentilmente mi ha concesso di tradurre e citare parte del suo articolo.

Usare algoritmi opachi per accedere alle informazioni interferisce con la nostra abilità di valutare la qualità di quelle informazioni come input. Gli algoritmi opachi decontestualizzano le informazioni; senza quel contesto, abbiamo difficoltà a sviluppare dei modelli di cosa sappiamo e cosa non sappiamo. Senza quel contesto, non sappiamo quali informazioni erano accessibili, e perché una particolare parte di esse sia stata selezionata rispetto alle altre. Senza quel contesto, non siamo capaci di mappare le lacune della nostra conoscenza. Filtrando gli input che riceviamo — scegliendo le informazioni per noi — questi algoritmi danno forma ai nostri pensieri. Dobbiamo capire il cosa e il come di questo dar forma, per essere in grado di ragionare su cosa sappiamo e cosa non sappiamo

E ancora:

Gli algoritmi opachi non sono solo dannosi per il loro potenziale abuso e per la nostra abilità di pensare. Sono dannosi per l’uguaglianza.

Di quale uguaglianza parla?

La scienziata si preoccupa della potenziale formazione di un’élite di persone che, per privilegio sociale ed educazione, possono comprendere meglio i meccanismi degli algoritmi, e quindi avere accesso ad informazioni meglio contestualizzate, che creano modelli di pensiero stessi più chiari e definiti (e quindi maggiormente capaci anche di ridefinirsi).

Gli individui che non possono permettersi il privilegio di una solida comprensione degli algoritmi opachi sono meno abili di far leva su quegli algoritmi per avere accesso alle informazioni o di capire il contesto nel quale quelle informazioni sono accessibili.

Questo, al contrario, indebolisce la loro capacità di ragionare riguardo la qualità delle informazioni che stanno ricevendo, e i risultanti pensieri che il loro cervello genera. Il ciclo si rinforza da solo, e così nasce una tecno-élite; siamo separati in coloro che comprendono gli algoritmi, e quelli che non li comprendono. In nessun modo questa può essere una via d’accesso sicura ad una risorsa comune importante come Internet.

Arrivando alla pratica cosa significa quindi che un algoritmo dev’essere trasparente? Traduco sempre da Akashiclab (leggendo tenete presente il paragone algoritmo-torta):

  1. Inputs. Se qualcuno mette dell’olio per motori nella nostra torta, vogliamo esserne consapevoli. Un algoritmo trasparente permette all’utente di investigare tutti gli input
  2. Superfici di controllo. Se ci sono impostazioni per controllare il modo in cui gli algoritmi eseguono i loro step, queste impostazioni dovrebbero essere chiare e l’impatto che risulta sull’output chiaramente descritto.
  3. Gli step dell’algoritmo e lo stato interno. Il processo eseguito dall’algoritmo e il suo stato interno deve essere aperto per l’utente. Se il nostro miscelatore fosse un algoritmo opaco che usa il lavoro minorile per farci le torte, dovremmo saperlo.
  4. Ipotesi e modelli utilizzati dall’algoritmo. Gli algoritmi fanno certe ipotesi riguardo agli input che ricevono, come quello che vuole l’utente. [ad esempio, dicevamo, come fa Facebook a dirci cosa è più importante e cosa meno? Che definizione ha l’algoritmo di Facebook di “importanza”?]. Queste ipotesi devono essere descritte nel dettaglio, così che gli utenti possano valutare se l’algoritmo stia producendo risultati in linea con le loro esigenze.
  5. Giustificazione per gli output prodotti. Per ogni output dato, l’utente deve essere in grado di rispondere alla domanda, «Perché è stato prodotto questo output dati gli input che ho inserito?». Se, ad esempio, scoprissimo che il nostro algoritmo produce torte piene di pezzetti di legno, dovremmo essere in grado di capire perché.

Adesso parliamone e scrivetemi, soprattuto noi Millennials: cresciuti
con il web e i social network

Le conclusioni non le posso tirare, ma mi piacerebbe creare una discussione e sentire le opinioni di chi sta leggendo, raccogliere e confrontare idee (soprattutto se critiche).

Per cui vi prego di scrivermi, ovunque, critiche, idee, roba da aggiungere, anche semplici commenti (non pensate di essere banali, perché su questo argomento ognuno ha qualcosa da dire).

Più parlo con la gente di queste cose, soprattutto con chi ha più o meno la mia età (i millennials) più capisco quanto sia importante stimolare una discussione su un argomento che è lontano anni luce dal dibattito pubblico italiano, ma non per questo meno importante. Chi ha qualche anno in più tende a minimizzare, a sottovalutare. D’altra parte, nemmeno la reazione opposta e catastrofista è corretta.

Non esistono soluzioni facili, come sempre succede quando ci sono cambiamenti epocali. L’importante è partire riconoscendo il problema!

Di una cosa bisogna restare convinti, dopotutto: questi giganti della rete hanno potere fintanto che noi glielo concediamo. E ne avranno sempre di più finché non avremo coscienza e consapevolezza dei loro lati negativi.

Concludo con due citazioni:

La prima citazione viene dal Manifesto di quello che forse è il più grande sostenitore del software libero, Richard Stallman, fondatore della Free Software Foundation.

“With software, either the users control the program, or the program controls the users.” — Richard Stallman

[Con i software, o l’utente controlla il programma, o il programma controlla l’utente]

Chiudo (davvero) con Zeynep Tufekci, altra ricercatrice e scrittrice che si è occupata di social media e algoritmi in maniera davvero molto profonda e stimolante.

Per me, questa rassegnazione ai poteri delle corporazioni è un’attitudine problematica perché queste corporazioni ( e i governi e le campagne politiche) adesso hanno nuovi strumenti e metodi furtivi per modellare silenziosamente la nostra personalità, le nostre vulnerabilità, identificare le nostre reti, e spostare e condizionare le nostre idee, i nostri desideri e i nostri sogni. Questi strumenti sono nuovi, questo potere è nuovo e in evoluzione. Questo è esattamente il tempo per far sentire la nostra voce! — Zynep Tuckfeci, tecno-sociologa.

Enrico Bergamini

(Questo post è stato inizialmente pubblicato su www.enricobergamini.it)

     ➤➤ Segui Medium Italia anche su Twitter | Facebook | RSS

--

--

Enrico Bergamini

Ferrarese a Bruxelles, orgogliosamente emiliano. Amo Internet nelle sue declinazioni. Ogni tanto scrivo. Faccio cose con i dati.