Quanto pesa davvero Facebook?

In due soli giorni, il 21 e il 22 agosto, due storie degne di rilievo, due notizie pesanti, due breaking news, sono arrivate da Menlo Park, sede di Facebook. Entrambe confermano quanto pesi davvero Facebook nella vita di tutti noi. Se mai ve ne fosse ulteriore bisogno raccontano che il social network non è soltanto il luogo della relazione tra singoli, dello scambio e della costruzione di positive discussioni tra le persone (forse non lo è più in senso puro), ma mostra ormai i connotati di uno spazio geopolitico variabile e contendibile in cui l’essere umano, come singolo, è preda più che semplice prodotto. Non solo per la sua – ahimè – naturale propensione alla cessione di dati, ma per l’intrinseco valore delle sue azioni e parole dentro lo spazio sociale digitale. In questo spazio gli attori in gioco sono molteplici, e l’azienda guidata da Mark Zuckerberg è solo uno di essi.

  • La prima notizia è che Facebook ha deciso di dare un punteggio di affidabilità agli utenti che segnaleranno una notizia ritenendola falsa. Se la notizia si rivelerà poi vera, l’utente che l’aveva giudicata falsa sarà valutato come poco credibile e poco attendibile.
  • La seconda è che Facebook ha rimosso 652 profili e pagine che producevano contenuti pensati per truccare il “naturale” svolgimento delle elezioni americane di Mid-term.

Le due notizie sembrano collegate esclusivamente dal fatto che ruotano ed emanano dal social network di Menlo Park. In realtà hanno entrambe a che fare con la presenza di Facebook nel discorso pubblico e certificano il peso che l’azienda guidata da Mark Zuckerberg ha ormai nella vita delle democrazie e nel momento più delicato di questa vita, ovvero le elezioni politiche.
La prima notizia è stata riportata dal Washington Post con un’intervista a Tessa Lyons, responsabile della guerra alle fake news, e poi smentita e circoscritta da Facebook. Smentita che non smentisce granché.

***

Andiamo con ordine. La prima storia è figlia del classico modo di pensare delle techno-corporation che affidano agli esseri umani compiti e dai compiti traggono molteplici vantaggi.
In questo caso il compito, semplice solo in apparenza, risiede nel giudicare un contenuto (ricordiamo che la fattispecie notizia affoga nel più ampio genere denominato “contenuto” insieme alle favole, alle parabole, alle storie e alle fandonie, ai video e alle foto con gli sticker), dicevamo, il compito è stabilire se un determinato contenuto sia vero oppure no. Laddove il giudizio dell’utente non viene poi confermato, perché il contenuto risulta essere vero, l’utente verrà giudicato poco affidabile dall’algoritmo. Verrà classificato come poco attendibile.
Assistiamo a uno scambio, per essere precisi a una nuova forma di commercio: si permuta la reputazione delle persone con la verifica delle notizie. Come se chiunque possa essere davvero in grado di mettere sul piatto la veridicità di una notizia, di una storia; nel senso che possegga strumenti e competenze per saperlo fare. Processo che sottintende ancora una volta la messa in soffitta di una professione – quella giornalistica – che ancora offre qualche servizio all’opinione pubblica. Siamo alle solite: questa è la sola, unica e possibile impostazione algoritmica di una questione che, se non è giornalistica (stabilire cosa sia notizia e cosa non lo sia), è filosofica alla radice: la distinzione tra il vero e il falso, tra il vero e il verosimile.
Esistono contenuti chiaramente falsi e costruiti per orientare il dibattito politico (il social network lo sa, e se ne rende conto: tant’è che sospende 652 profili). Esistono invece notizie, inchieste e reportage che hanno come obiettivo proprio quello di sollevare il velo delle verità ufficiali. E grazie a questo tipo di notizie che si conoscono nuove verità: ciò che prima era vero diviene improvvisamente – e motivatamente – falso. Per arrivare a scoprire una nuova verità serve però tempo, talvolta sono molto tempo, dibattiti e luoghi di discussione, confronti e tribune. Il caso Watergate, per dirne una, all’inizio nasce come un trafiletto sul Washington Post; ci sono voluti mesi per arrivare a capire cosa era davvero accaduto in quell’albergo. Il fattore tempo è dunque un altro elemento cruciale di questa vicenda. E ad oggi nessuno sa come venga mescolato nelle pozioni e negli alambicchi algoritmici degli apprendisti stregoni di Menlo Park.

Non solo. Esistono alcune notizie che la credibilità comune (magari costruita con sapienza grazie all’utilizzo di altre notizie false) ritiene vere. Ad esempio, una notizia che oggi smentisca che gli immigrati sbarcati in Italia pretendono di avere Sky nei centri di accoglienza, potrebbe essere bollata come falsa da molti. Anzi, potrebbe ricevere un simile giudizio da così tante persone – la maggioranza – che chiunque la segnali come vera sarebbe penalizzato dall’algoritmo, e marchiato come inaffidabile, la sua reputazione prederebbe punti di credibilità.
Il sistema procede su base statistica: non c’è altra via per stabilire di fronte a milioni di notizie al giorno, in centinaia di lingue e paesi, cosa sia vero e cosa sia falso. Secondo questa impostazione la notizia vera è la notizia certificata come vera dalla maggior parte delle persone.
Modello non molto distante da quello noto e utilizzato da Google che mette in prima pagina, per alcune chiavi di ricerca, risultati molto consultati e cliccati, sebbene non affidabili e talvolta nemmeno scientificamente verificati (basta provare con la keyword “vaccini pericolosi” e vedere cosa accade in prima pagina).

***

Cosa altrettanto grave però, lo abbiamo anticipato, è lo scambio tra una funzione di controllo e la creazione di un rating dei controllori. Molte reazioni critiche hanno fatto riferimento a una puntata della serie Black Mirror e proprio su questo tema è arrivata la smentita di Facebook. Da Menlo Park hanno detto che non esiste nessun rating universale degli utenti, ma solo un sistema per tenere d’occhio quelli che segnalano contenuti in maniera malevola e per ragioni personali: «abbiamo sviluppato un processo per proteggere le persone da coloro che segnalano indiscriminatamente le notizie come false cercando così di aggirare il sistema. La ragione per cui lo facciamo è per esser certi che la nostra lotta contro la disinformazione sia il più efficace possibile».

La realtà è che il rating per qualunque social network è l’acqua in cui nuotano gli utenti. Il punteggio attribuito a ciascun post, misurato grazie al formato e al numero di like, contando condivisioni, commenti e reazioni risiede nelle fondamenta, pratiche e teoriche dell’Edge Rank, cioè dell’algoritmo di Facebook. Quindi se proprio vogliamo credere alla smentita di Tessa Lyons, limitiamoci ad annuire, consapevoli che esistono molte forme di classificazione dell’attività degli utenti, in uno spazio in cui tutto è misurato.
D’altronde nell’universo digitale, come spiega bene Byung-Chul nel suo saggio Nello sciame, l’unica cosa che conta è saper contare:

«La parola “digitale” rimanda al dito (digitus), che – soprattutto – conta. La cultura digitale si basa sul dito che conta: la storia, invece, è un racconto. (…) Né i tweet né le informazioni si combinano in un racconto: neppure il diario di Facebook racconta la storia di una vita, una biografia. È additivo, non narrativo. L’uomo digitale gioca con le dita nel senso che conta e calcola ininterrottamente: il digitale assolutizza il numerare e il contare. Anche gli amici su Facebook vengono soprattutto contati; ma l’amicizia è un racconto. L’era digitale totalizza l’additivo, il contare e il contabile. Persino le simpatie vengono contate sotto forma del “mi piace”. Il narrativo perde notevolmente di significato: oggi tutto viene trasformato in qualcosa di contabile, per poter essere tradotto nel linguaggio della prestazione e dell’efficienza. Così, tutto ciò che non è contabile cessa di essere».

Che i numeri siano importanti non è una scoperta: Facebook (come Google) realizza enormi guadagni elaborando enormi masse di dati che gli utenti cedono volontariamente. Oggi sappiamo che esiste un rating dei controllori e forse domani questo rating potrebbe essere esteso a tutti gli utenti. Il problema sarà capire – in futuro – come Facebook utilizzerà i profili dei controllori super-attendibili, super-credibili.

  • Quale funzione avranno costoro?
  • Come li utilizzerà l’algoritmo nella relazione con altri utenti?
  • Ad esempio, vedremo per primi i post dei più bravi della classe?
  • E i segnalatori malevoli che fine faranno? Retrocederanno nelle ultime posizioni delle nostre timeline?
  • Facebook può escludere che qualcuno cerchi di diventare credibile agli occhi dell’algoritmo (una specie di infiltrato) per poi svolgere una funzione di disinformazione?

Aspettiamo di saperne di più.

***

Le techno-corporation non fanno mai una cosa con un solo scopo. È la loro natura anfibia che le rende così adattabili, molli e plastiche nella soluzione di problemi. Questa storia rivela il desiderio impossibile per capire se un contenuto è falso, e poi il desiderio, più esile in apparenza ma realizzabile, di circoscrivere gruppi di utenti (proattivi, per usare un vocabolo caro a Zuckerberg), e di lavorarci sopra, realizzando – per adesso – una classifica dei più bravi e meno bravi a combattere la disinformazione; e poi dopo, una volta che la classifica sarà ben nutrita di dati, vedremo cosa farci. A essere onesti la lotta della disinformazione nell’epoca della postverità da parte di un social network – che è lo spazio naturale della proliferazione delle fake news – è una medaglietta da appuntare sul bavero della giacca, per chi è stato pizzicato con le dita nella marmellata (Cambridge Analytica), e adesso deve dimostrare di saper stare a tavola. Dalle parti di Facebook non possono ammetterlo, perché il loro modello di business vive anche di questo, ma la produzione del falso è un paradigma del presente, non solo perché è strumento nelle mani di moltissimi, ma perché il vero non se la passa più tanto bene.

Scrive Maurizio Ferraris nel suo Postverità e altri enigmi:

«la facilitazione tecnologica del falso acquista una potenza tanto maggiore in quanto viene dopo un’onda lunga di discredito ideologico del vero, considerato fonte di oppressione e di dogmatismo, a cui si doveva contrapporre, in nome della fioritura umana, la forza delle narrazioni e delle verità alternative, quando non dell’immane e seducente potenza dello pseudos e del mythos contrapposti al logos secchione e prepotente».

 

***

A Menlo Park però vive e opera anche un poliziotto cattivo. Uno che di colpo cancella centinaia di account sospetti di legami con Russia e altri Stati, e attivi nella creazione di contenuti falsi, contenuti che avrebbero come obiettivo quello di orientare le elezioni politiche di Mid-term negli Stati Uniti. In realtà abbiamo di fronte sempre lo stesso poliziotto.
Qualcuno potrebbe affermare che questa seconda storia certifichi la possibilità di Facebook di scoprire chi crea notizie false, e che dunque che il social network è in grado di cancellare quando vuole i profili dei mistificatori di professione. Detto in altri termini: non c’è bisogno di utenti controllori che invece svolgono quella funzione solo per essere analizzati, giudicati e classificati dall’algoritmo per chissà quale obiettivo recondito.

Le cose non procedono quasi mai in maniera lineare quando si tratta di Facebook.
Intanto una cosa è scovare account stranieri che fanno propaganda, un conto è capire se una storia sia vera o falsa. La prima è più semplice sul piano tecnologico, della seconda abbiamo già descritto abbondantemente le difficoltà.
In premessa va ricordato che la necessità di colpire più account possibile gestiti da potenze straniere  in vista delle elezioni, è una questione di pura sopravvivenza per Zuckerberg. Il solo sentore che il social network possa essere utilizzato per mischiare le carte, per gettare scompiglio e falsare il risultato elettorale, rimetterebbe di nuovo il sultano digitale nella scomoda posizione di imputato numero 1. Il ricordo corre allo scandalo Cambridge Analytica, alla giacca e cravatta indossata per la prima volta davanti alle telecamere e alla sfilza di domande dei membri del Congresso e del Senato degli Stati Uniti d’America. Anche se la maggior parte delle risposte non furono memorabili, lo scenario è da incubo, in termini di reputazione.
A Menlo Park immaginiamo dunque che abbiano raccolto risorse, investito soldi, spostato centinaia di ingegneri a lavorare su chi bara, che abbiano messo agenti della sicurezza interna alle calcagna delle spie venute dalle freddo, creato tool che analizzano decine di IP e profili al secondo, scandagliandone origine, paesi di provenienza, tecnologie, attività, controllando post dalle caratteristiche simili e correlando tutto quello che c’è da correlare.
Quando le cose si fanno serie, dalle parti di Facebook, è Mark Zuckerberg in persona a spiegare che cosa accade. E stavolta lo fa raccontando, in un post, che questa attività di polizia funziona:

«grazie ai progressi nell’intelligenza artificiale ora possiamo essere molto più proattivi nel trovare e rimuovere contenuti malevoli e account falsi. Negli ultimi mesi, siamo stati in grado di identificare e rimuovere account, pagine e gruppi non autorizzati provenienti da paesi tra cui Russia, Messico e Brasile. Stiamo anche lavorando a stretto contatto con esperti esterni, governi e altre società per prevenire interferenze durante le elezioni».

Zuck racconta qualcosa di più quanto hanno descritto i giornali. Intanto che le campagne di disinformazione sono pianificate con cura.
Non si tratta solo di profili personali, ma anche di Pagine (dunque di spazi che possono legittimamente sponsorizzare i propri contenuti) e Gruppi (spazi in cui si raccolgono persone intorno ad argomenti di interesse comune). Inoltre queste azioni non sono state limitate a Facebook ma sarebbero state estese anche a Instagram.
Insomma parrebbe una campagna di disinformazione – di guerra ibrida, hybrid warfare – coi fiocchi; campagna che ha come obiettivo non Internet nel complesso ma gli spazi sociali digitali più popolati negli USA: i due social network controllati da Zuckerberg contano in totale oltre 300 milioni di utenti.
Nelle stesse ore in cui Facebook faceva questo annuncio, Twitter dichiarava di aver cancellato 284 account per le stesse ragioni. E anche Microsoft ha rivelato un tentativo di clonazione di siti messo in piedi con l’obiettivo di sottrarre identità e credenziali.

Se il campo di battaglia è Internet, come titola Foreign Affairs, feroci combattimenti  si avranno sempre di più dentro i social network. La questione è più che mai seria, qualche settimana fa il direttore del National Inteligence Dan Coats avvertiva che «l’infrastruttura digitale che serve gli Stati Uniti è letteralmente sotto attacco». Nulla di nuovo se non che l’intensità dello scontro sta evidentemente salendo.
Per Zuckerberg però conta ciò che avviene in casa sua. Come abbiamo già detto la vicenda Cambridge Analytica ha lasciato un odore marcio nei corridoi di Menlo Park. Quindi l’urgenza adesso è dimostrare che sta affrontando una sfida titanica, ovvero che Facebook sta facendo di tutto per difendere non una cosa qualunque, ma le elezioni di Medio Termine degli Stati Uniti.

«Abbiamo indagato su alcune di queste campagne per mesi – spiega Zuck – il che evidenzia quanto siamo attenti in ogni indagine che porti a rimuovere rapidamente attori fraudolenti (bad actors) e quanto teniamo a migliorare le nostre difese nel tempo».

Tutto ciò però non è sufficiente. Da solo Facebook non può farcela. Per questo Zuckerberg ammette che stanno lavorando «con esperti esterni, governi e altre aziende per prevenire interferenze durante le elezioni». La verità – e il succo di tutto questo discorso conduce a una prima, scarna e amara verità – è che simili comportamenti (cyber-operations) sono impossibili da sradicare.

Facebook, ci piaccia o no, è una delle piazze in cui si svolge buona parte del dibattito elettorale e politico: è uno dei luoghi – forse il più importante ormai – in cui prende corpo il discorso pubblico. E tuttavia la natura stessa del social network prevede la possibilità che un utente manipoli altri utenti, che crei contenuti falsi, che faccia la sua parte e dunque – se lo vuole – giochi a carte coperte, bari e interferisca in quella che si chiama conversazione digitale.
Altrettanto evidente è che se tali azioni non sono messo in piedi da persone qualunque ma da Stati e agenzie di intelligence, con risorse economiche, tecnologia e comprensione profonda delle dinamiche interne dei social network,, organismi che dispongono di un’organizzazione militare, beh allora sradicare la malapianta è di fatto impossibile. Nessuno riuscirà mai a controllare account che possono sorgere come funghi e che possono creare pagine, anche non legate a partiti politici. Nessuno può impedirlo perché non vi sono filtri in entrata, e l’assenza di filtri e verifiche è parte del successo di Facebook, ovviamente. Nessuno può impedire in definitiva che le elezioni possano essere manipolate e soggette a influenze esterne.

Guardare oggi a una serie tv come The Americans o ricordare i tempi di Radio Free Europe, i tempi della propaganda tra i blocchi e delle operazioni sotto copertura, fa sorridere. Intanto perché il mondo è multipolare e lo scontro sul terreno digitale è altrettanto multipolare; l’annuncio di Zuckerberg non riguarda la sola Russia. E poi perché pensare e mettere in cantiere  propaganda, condurre cyber-operations, dentro un social network con la sola funzione di avvelenare i pozzi del dibattito pubblico, e in ultima analisi spingere un candidato alla vittoria, è davvero cosa piuttosto semplice. Basta avere soldi e soldati (davanti a un computer connesso, s’intende).

Da sempre le relazioni internazionali si giocano con dinamiche conflittuali su piani multipli e il conflitto ormai prende corpo anche nello spazio digitale. È chiaro che non vedremo tutte le cyber-operations dentro Facebook e Instagram, ma che ve ne saranno ancora nei social network di proprietà di Zuckerberg questo è poco ma sicuro.
Semmai la questione è capire come gli Stati Uniti e un’azienda come Facebook potranno cooperare (e stanno cooperando) dopo la scandalo Cambridge Analytica. La vicenda di inizio 2018 è come se avesse segnato un’altra tappa nella tumultuosa dialettica tra techno-corporation e governo americano. Dialettica che soffre, e ha sofferto, di alti e bassi, e che era arrivata a un punto di svolta con la rivelazione di Edward Snowden dell’infrastruttura PRISM. Dopo Cambridge Analytica, in cui Zuckerberg è finito sul banco degli imputati anche per Washington (all’epoca di Snowden era stato il governo a finire sotto accusa), adesso le parti potrebbero trovarsi nuovamente in equilibrio.
Il terreno delle lotta alle fake news prodotte da Stati esteri è uno di quelli in cui la collaborazione tra Pentagono, Dipartimento della Giustizia e le infinite agenzie governative che si occupano di sicurezza nazionale e Facebook, è più semplice, più attuabile e più comoda per entrambi. Significherebbe, però, per gli Stati Uniti cambiare orientamento, come scrive Foreign Affairs, significherebbe «ripensare radicalmente l’approccio alla cyber-difesa. Storicamente il governo si è fin qui considerato responsabile della protezione dei soli sistemi e dei network governativi e ha lasciato tutti gli altri a difendersi da soli». La frase di Zuckerberg chiarisce che la direzione è cambiata. E quando il CEO di Facebook afferma che si sta lavorando con “governi“,  quel plurale va inteso come singolare: il riferimento è soprattutto al Governo del suo paese. Forse qualcosa sta cambiando nella temperatura della relazione tra la Silicon Valley e Washington, non tanto intesa come Casa Bianca, ma pensando alle differenti entità che lavorano alla sicurezza del Paese. 

In ogni caso Zuckerberg – da parte sua – deve raccontare che sta facendo molto, che sta facendo di tutto. Deve raccontarlo all’opinione pubblica globale, al suo Paese, ai partiti e alle numerose e variegate agenzie di sicurezza, deve raccontarlo al Congresso e in ultima analisi – ma non per questo meno importante – ai suoi azionisti. Sì perché di cattiva reputazione le aziende possono anche schiattare. Non è il caso di Facebook, ma insomma i tonfi  a Wall Street non fanno mai bene a chi campa in uno stagno agitato e popolato di pesci onnivori come il mercato globale.

Non esiste nessuna morale che unisca queste due storie. Il tratto comune è il friabile concetto di notizia falsa – fake news – che campeggia al centro di tutto questo ragionamento: strumento di lotta politica, merce sovrabbondante, simulacro di vero e falso, terreno implacabile su cui edificare classifiche di affidabilità umana, oggetto misurabile, vessillo della postverità, nemesi della dittatura algoritmica.
Brutalmente dovremo sempre di più fare i conti con fatti e misfatti che riguardano la vita di un’azienda americana, guidata da un simpatico ragazzone alto e con le efelidi, dovremmo osservare da vicino quello che accade in questa gigantesca fabbrica di dati e numeri, perché è uno dei luoghi – mai lo avremmo pensato – in cui si decidono i destini di tutti, o almeno di molti di noi. 

Articolo creato 92

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Articoli correlati

Inizia a scrivere il termine ricerca qua sopra e premi invio per iniziare la ricerca. Premi ESC per annullare.

Torna in alto