Un redattore della rivista americana WIRED ha condotto recentemente un esperimento su Facebook. Per due giorni ha cliccato “LIKE” a tutti i contenuti proposti, pubblicitari o dei suoi amici, includendo anche i primi 4 fra i post “consigliati”; cliccando sia da computer fisso sia da dispositivi mobili (Qui il suo articolo integrale in inglese).
L’obiettivo era vedere cosa sarebbe successo ad EdgeRank, l’algoritmo che regola la rilevanza e il peso dei singoli contenuti e che decide cosa mostrare e cosa nascondere nel proprio News Feed. I risultati sono stati molteplici e rilevanti.
Prima di tutto una sostanziale differenza fra i “risultati” visibili sulla propria pagina da mobile o da computer fisso. Sul telefono, infatti, i contenuti mostrati erano quasi esclusivamente di tipo pubblicitario e commerciale, mentre sul computer apparivano maggiormente i contenuti privati, degli amici. Dimostrazione questa che Facebook ritiene il dispositivo “mobile” molto più fruttuoso dal punto di vista commerciale e ne manipola l’algoritmo di conseguenza.
La seconda e più interessante osservazione, almeno da un punto di vista socio-psicologico, riguarda invece cosa è successo al tipo di contenuti mostrati dopo aver abusato della funzione LIKE. Se pensiamo infatti che Facebook sia uno strumento per facilitare la libera circolazione delle idee, a questo punto possiamo dire che ci sbagliamo di grosso. Grazie ai LIKE, l’algoritmo di Facebook ridistribuisce infatti a ciascuno di noi la tipologia di contenuti che preferisce, evitando e allontanando i contenuti a noi più distanti per cultura, lingua, credenze religiose, politiche ecc. I filtri sociali/politici/culturali che noi impostiamo con i LIKE rinforzano se stessi in un circolo vizioso, che ci espone a pubblicità in linea con le nostre credenze, ad articoli che parlano di temi con i quali ci identifichiamo ecc.
Il concetto non è nuovo, risale addirittura agli anni ’70 ed è attribuito a Nicholas Negroponte, celebre informatico e co-fondatore del MIT MediaLAB, dal quale egli stesso ha poi derivato il termine “Daily Me”, oggi diventato un giornale virtuale (come tanti altri) con contenuti raccolti in base ai gusti e le preferenze del lettore. Come va a finire, quindi? Il lettore riceve soltanto i contenuti graditi, ai quali si sente affine, coi quali è già tendenzialmente d’accordo. Un luogo virtuale, dunque, in cui le persone che la pensano alla stessa maniera ascoltano solo chi è già d’accordo con loro, rinforzando di conseguenza le loro credenze.
Già nel 2012 la stessa Facebook si offrì per un esperimento sulle emozioni coinvolgendo circa 700.000 suoi utenti (ignari e in seguito molto indignati): modificando temporaneamente il suo algoritmo, offrì alla maggioranza del campione solo contenuti positivi, al resto contenuti negativi. Obiettivo: vedere come si sarebbero modificate le emozioni del campione. Bene, i profili esposti ai post solo positivi generarono a loro volta contenuti positivi, e lo stesso accadde con i profili esposti ai post negativi, che generarono prevalentemente contenuti negativi, confermando ancora una volta che le persone che pensano e sentono nello stesso modo si influenzano a vicenda.
La terza e ultima riflessione che scaturisce da questo “esperimento” è che al termine dei due giorni di abuso della funzione LIKE, i contenuti apparsi sulla pagina del giornalista erano tutti sciocchi, inutili, insomma, notizie spazzatura. E quel che è peggio è che tutta questa attività randomica e priva di senso del giornalista è stata immediatamente visualizzata anche sulle pagine dei suoi amici, che lo hanno persino chiamato per capire cosa stava succedendo, se fosse impazzito. Ti hanno “hackerato”, gli ha chiesto il suo direttore? Come si esce allora da questo “circolo vizioso”, forse anche un po’ insito nella stessa natura umana? Aprendoci al nuovo, al diverso, documentandoci su fonti disparate per natura e obiettivi. Ascoltando. E meditando sulla nostra strategia Facebook.
Pubblicato da Barbara Lisei