Annuncio pubblicitario
Italia Markets close in 2 hrs 15 mins
  • FTSE MIB

    34.729,50
    +390,18 (+1,14%)
     
  • Dow Jones

    39.387,76
    +331,36 (+0,85%)
     
  • Nasdaq

    16.346,26
    +43,46 (+0,27%)
     
  • Nikkei 225

    38.229,11
    +155,13 (+0,41%)
     
  • Petrolio

    79,56
    +0,30 (+0,38%)
     
  • BTC-EUR

    58.437,02
    +1.393,60 (+2,44%)
     
  • CMC Crypto 200

    1.304,38
    -53,63 (-3,95%)
     
  • Oro

    2.367,90
    +27,60 (+1,18%)
     
  • EUR/USD

    1,0778
    -0,0006 (-0,0539%)
     
  • S&P 500

    5.214,08
    +26,41 (+0,51%)
     
  • HANG SENG

    18.963,68
    +425,87 (+2,30%)
     
  • Euro Stoxx 50

    5.088,63
    +34,22 (+0,68%)
     
  • EUR/GBP

    0,8602
    -0,0006 (-0,07%)
     
  • EUR/CHF

    0,9768
    +0,0004 (+0,04%)
     
  • EUR/CAD

    1,4700
    -0,0044 (-0,30%)
     

Così l'algoritmo di Facebook ha alimentato rabbia e disinformazione con una emoticon

(Photo: NurPhoto via NurPhoto via Getty Images)
(Photo: NurPhoto via NurPhoto via Getty Images)

Sono trascorsi cinque anni da quando Facebook ha introdotto le nuove reazioni. Non più solo un semplice pollice alzato, il cosiddetto “Like”: gli utenti potevano scegliere anche l’emoticon “love”, “haha”, “wow”, “triste” e “arrabbiato”. Cliccare su una di queste reazioni avrebbe spinto la diffusione del post, l’algoritmo le avrebbe percepite con un peso cinque volte superiore al semplice “mi piace”. Questa formul ha alimentato la rabbia e la disinformazione sul social.

Coinvolgere gli utenti è la chiave del business di Facebook e utenti arrabbiati sono utenti maggiormente coinvolti. Per questo nel 2017 l’emoticon contrariata valeva cinque volte di più rispetto a un like, come rivelano documenti diffusi dal Washington Post. Qualche membro interno aveva sollevato il dubbio: ”Questo potrebbe dar più spazio a contenuti spam/abusi/clickbait inavvertitamente”. ”È possibile”, aveva risposto un collega. Così è stato: dall’analisi dei dati è emerso che i post che avevano cumulato un maggior numero di emoji contrariate - dunque quelli tra i più diffusi - tendevano a includere disinformazione e notizie di bassa qualità. Queste rivelazioni sono state fatte alla Securities and Exchange Commission e fornite al Congresso dal consulente legale della “talpa” Frances Haugen. Le versioni scritte sono state esaminate da un consorzio di giornali, tra i quali, appunto, il Washington Post.

“La rabbia e l’odio sono il modo più semplice per crescere su Facebook”, ha detto Haugen al parlamento britannico. I dipendenti hanno valutato e discusso l’importanza della rabbia nella società: un’“emozione umana fondamentale”, ha scritto un membro dello staff, mentre un altro ha sottolineato che i post che generano rabbia potrebbero essere essenziali per protestare contro i regimi corrotti. Il peso della reazione rabbiosa è solo una delle tante leve che gli ingegneri di Facebook manipolano per modellare il flusso di informazioni e conversazioni sul più grande social network del mondo. Facebook tiene conto di numerosi fattori, alcuni pesano tanto, alcuni contano poco e altri ancora vengono percepiti come negativi. Il punteggio è utilizzato per ordinare i post sulla pagina del singolo utente, decidendo quali posizionare in alto e quali così in basso da non essere probabilmente mai letti.

I dipendenti di Facebook hanno provato a correggere il tiro, quando si sono resi conto che il social diffondeva notizie che alimentavano rabbia. Hanno chiesto modifiche, alle volte respinte. Nel 2018 è stato “degradato” per la prima volta l’emoticon arrabbiata, passando da 5 volte a 4 volte un Like, mentre veniva mantenuto lo stesso peso per le altre reazioni. Gli analisti di Facebook hanno scoperto che le reazioni di rabbia erano molto più frequenti sui post problematici: notizie di bassa qualità, disinformazione, tossicità, disinformazione sulla salute e contenuti antivax, secondo un documento del 2019. La rabbia spesso veniva utilizzata come arma dai politici.

ANNUNCIO PUBBLICITARIO

Nell’aprile 2019, Facebook ha messo in atto un meccanismo per “declassare” i contenuti che stavano ricevendo reazioni sproporzionate di rabbia, sebbene i documenti non chiariscano come questo sia avvenuto e che effetti abbia ottenuto. Un membro dello staff propose persino di rimuovere il pulsante, che rimase però in vigore. Nel settembre 2020, Facebook ha smesso di usare l’emoticon arrabbiata come segnale per comprendere le preferenze degli utenti e ha ridotto il suo peso a zero. Attualmente il suo valore è ancora questo.

La parola “algoritmo” ha assunto un significato sinistro, alla luce delle recenti rivelazioni, ma in effetti, l’algoritmo è semplicemente un sistema che decide la posizione di un post sul feed delle notizie in base alle previste preferenze e tendenze di ciascun utente. Facebook non rilascia dati completi in merito e il feed di ogni utente è altamente personalizzato in base ai suoi comportamenti. Nel corso degli anni l’algoritmo è cambiato, per migliorare un servizio che tendeva a rivelare storture. Dal 2018, l’algoritmo ha elevato i post che incoraggiano l’interazione. Questo dà la priorità ai post di amici e familiari, così come ai contenuti divisivi. La scelta dipese dalla volontà allontanarsi dalla precedente strategia, che dava maggiore risalto agli articoli clickbait e ai video prodotti professionalmente. Negli ultimi 12 anni, quasi tutto sull’algoritmo del feed di notizie è cambiato, diventando più sofisticato al punto che oggi può accettare più di 10mila segnali diversi per fare previsioni sulla probabilità di un utente di interagire con un singolo post.

E se l’algoritmo venisse disattivato? Un ricercatore dell’azienda nel febbraio 2018 ha tentato l’esperimento con lo 0,05% degli utenti. Le persone coinvolte passavano più tempo a scorrere il feed delle notizie alla ricerca di cose interessanti, nascondevano il 50% in più di post, indicando che non erano entusiasti di ciò che stavano vedendo. Facebook alla fine ha dunque rinunciato all’idea, lasciando che il News Feed sia ancora classificato con un algoritmo.

Nei suoi primi anni, l’algoritmo dava priorità a like, clic e commenti per decidere quali post diffondere maggiormente. Editori, marchi e singoli utenti hanno presto imparato a creare post e titoli progettati per indurre Mi piace e clic, dando origine a ciò che è diventato noto come “clickbait”. Facebook si è reso conto però che gli utenti erano sempre più diffidenti nei confronti dei titoli fuorvianti e la società ha ricalibrato il suo algoritmo intorno al 2014, per declassare il clickbait e concentrarsi su nuove metriche, come la quantità di tempo che un utente trascorreva leggendo una storia o guardando un video. Nello stesso periodo, il video è stato identificato come una priorità aziendale ed è stato utilizzato l’algoritmo per potenziare i video “nativi”, condivisi direttamente su Facebook. Nel 2016, tuttavia, Facebook si è reso conto che stava nettamente diminuendo la “condivisione originale”. Gli utenti passavano così tanto tempo a guardare e leggere passivamente che non interagivano tra loro. I giovani in particolare avevano spostato le conversazioni personali su piattaforme rivali, come Snapchat.

Facebook ha cercato e trovato la sua risposta nuovamente nell’algoritmo: il suo algoritmo dava ora maggior spazio alle “interazioni sociali significative”, dando maggior spazio ai post di amici e familiari e ai post che davano vita a più botta e risposta. L’altra faccia della medaglia era che i post più commentati erano quelli che generavano più rabbia. Facebook è diventato un luogo più arrabbiato e polarizzante.

Questo articolo è originariamente apparso su L'HuffPost ed è stato aggiornato.