IL CONFRONTO al tempo del Web
formazione personale aziendale | formazione aziendale obiettivi | gestione personale azienda

peopleart formazione personale aziendale | formazione aziendale obiettivi | gestione personale azienda IL CONFRONTO al tempo del Web

IL CONFRONTO al tempo del Web

 

IL CONFRONTO AL TEMPO DEL WEB

Foto di memyselfaneye da Pixabay

 

1. INTRODUZIONE

Nei mesi scorsi, alcuni eventi, fra cui fake news con conseguenze politiche, hanno portato l’attenzione su come funziona il confronto di opinioni nel web e su come i dati degli utenti vengono utilizzati per influenzarci (1), spesso sotto il travestimento di servizi che “ci facilitano la vita”. 

Le fake news (la Disinformazione) sono sempre esistite, ma non cessano di destare preoccupazione. Già nel 2013, il World Economic Forum (WEF) ha cominciato a segnalare il fenomeno come uno dei principali rischi globali (i “digital wildfires” compaiono nel report  Rif.1, e poi in quello 2018: Rif.2). Commissione Europea (Rif.3, 23) e Congresso USA (2) se ne stanno occupando proprio adesso. 

La ragione di questo allarme, anche in Italia (3), risiede nel fatto che alcune caratteristiche delle fake news (es. facilità di produzione, influenza efficace, velocità di diffusione) sono state esaltate/ accelerate dal canale web.  

Troppo facilmente se ne trae la conclusione che serve una sua stretta regolazione: vedremo che se il web è il media e l’acceleratore, non è la causa della disinformazione. Le cause sono dovute ad attitudini del tutto umane, individuali e di gruppo (Paragrafi 2 e 3).

Vale la pena comprendere meglio quali sono queste attitudini e di come operano (Paragrafo 3), con o senza l’ausilio tecnologico. Emergerà un quadro in cui prevenzione e contrasto debbono essere agiti a tre livelli:

  • Utenti dell’informazione : individualmente possediamo già le capacità adeguate per evitare la maggior parte dei danni della disinformazione; 
  • Organizzazioni (es. le aziende):  le dinamiche di comunicazione attive sul web agiscono anche al loro interno, con rischi non indifferenti per l’ efficacia operativa, loro e dei mercati di cui agiscono. La loro azione di auto difesa contribuisce a quella collettiva;
  • Società: le fake news hanno lo scopo spesso malevolo di disinformare per trarre vantaggi economici, di potere o strategici, danneggiando soggetti non solo privati. La loro prima vittima è la Pubblica Fiducia. Un patrimonio collettivo su cui si fondano le società libere, democratiche ed aperte. Coerentemente, il ruolo delle Istituzioni si sta già configurando come promotore di consapevolezza, per lo sviluppo di conoscenza e di strumenti di contrasto a “grande scala” (Paragrafo 4) (Rif.3) 

 

 

 

 

 

 

 

2. BIAS COGNITIVI

Si da per scontato che l’uomo sia un animale razionale e “sociale”, ma quanto effettivamente siamo razionali ed in che modo siamo sociali sono aspetti rilevanti per come funziona la disinformazione.

Da tempo le ricerche sulle capacità cognitive hanno evidenziato come usiamo la Razionalità in modo molto limitato. Non la usiamo sempre e quando pensiamo di farlo spesso è un’illusione (Rif.6, 7, 8, 9, 10). 

Nella maggioranza dei casi, anche quando la mente opera in modo “consapevole”, si basa su schemi di pensiero e comportamentali standardizzati. Questi schemi  sono modalità semplificate di valutazione, decisione e comportamento. Potranno ulteriormente mutare, ma per ora si sono consolidate come caratteristiche della nostra specie (Rif. 11).

Si basano su pochi elementi chiave del contesto, naturale e sociale, in cui ci siamo evoluti. Si sono mantenuti sino a noi perché in grado di farci raggiungere, con una elevata probabilità, scopi come l’efficacia sociale e la sopravvivenza.

Tuttavia, non è detto che possiamo aspettarci la stessa efficacia affrontando nuove situazioni o contesti (Rif.12), come quelli artificiali del “mondo costruito da noi”.  Sono i Bias Cognitivi (Deviazioni Cognitive: per un elenco dei più diffusi Rif.11).

Vediamo quelli collegati con la diffusione della disinformazione e come il web ne amplifica gli effetti.

 

3. UNO SCENARIO DI FRAMMENTAZIONE

Ai suoi albori, si pensava al web come luogo per un confronto di opinioni globale ed aperto. Capace di favorire lo sviluppo di una “intelligenza collettiva globale” (Rif.6). 

 

A meno di un decennio, questa visione ottimistica è sostituita da uno scenario opposto (Rif.6, 7, 8, 9, 10): 

  • ai contenuti di qualità si contrappone una massa maggiore di contenuti falsi, dannosi, illegali;
  • il confronto sui contenuti è spesso fazioso, offensivo, aggressivo, violento (4);
  • le opinioni individuali tendono a polarizzarsi, al confronto si preferiscono le conferme di chi “la pensa come noi”;
  • si creano “nuove chiese” sempre più autoreferenziali (gruppi chiusi o Bolle, di dimensioni nazionali o globali se la lingua lo permette);
  • l’autoreferenzialità rende veloce la diffusione della disinformazione: gli utenti sono pronti ad assegnare patente di verità a qualunque contenuto allineabile ai valori condivisi del gruppo-bolla.

Proverò a mostrare in 3 figure alcuni dei fenomeni alla radice di questa evoluzione.

(4)  Vedi ad esempio: https://mosaicscience.com/story/why-good-people-turn-bad-online-science-trolls-abuse/ oppure la finestra sul “sentire della gente” che alcune trasmissioni a microfono aperto offrono (es. “La Zanzara” di Radio24)

 

 

3.1 Utente = Fonte editoriale  (Narcisismo, Individualismo, Disintermediazione)

 

Figura 1

 

 

 

 

 

 

La tendenza al narcisismo (“mettersi al centro a scapito degli altri”) è aumentata negli ultimi anni (Rif.6). 

Ci spingono vari fenomeni sociali fra cui: più difficile salire la scala sociale o trovare un lavoro, illusioni di successo senza impegno, modelli che-sei-un-leader-o-sei-nessuno, ecc., oltre  la tendenza alla frammentazione individualista (“l’importante è che me la cavi io”). 

Narcisismo e Frammentazione si sposano con la disintermediazione della comunicazione,  resa possibile dal web. Pubblichiamo direttamente i nostri audio, video, articoli (come questo), commenti. Persino le versioni che preferiamo della nostra storia (profili professionali o personali) e delle nostre più minute vicende ed emozioni (blog): ognuno di noi diventa una Fonte Editoriale autonoma.

 

3.2   Echo Chamber = opinioni autoreferenziali  (Complessità, Insicurezza, Bisogno di Conferma)

 

Figura 2

 

 

 

 

 

 

 

 

 

La complessità del mondo in cui viviamo ce lo rende sempre meno comprensibile (Rif.14). Ne consegue spaesamento e bisogni molto forti di sicurezza, ancoraggio, senso.

Le spiegazioni migliori sono quelle che noi stessi siamo in grado di formulare o capire. 

Approccio in linea col pensiero Post-moderno (“non ci sono fatti, solo interpretazioni”) e poi confermato dalla sua forma popolare, la Post-verità: “non c’è una cosa vera, ci sono molte verità sulla stessa cosa” (Rif.15). Le opinioni, da possibili interpretazioni che è opportuno confrontare, divengono verità inattaccabili per cui ogni confronto è un affronto.

“E’ vero se lo credo io” implica il bisogno di conferma sociale perchè dà solidità alla propria identità. Di questo si alimentano il Bias di Conferma: cercare e dare più ascolto a fonti, opinioni, persone che confermano quello che noi stessi pensiamo e le sue conseguenze:

  • dagli individui, il bisogno si trasferisce a gruppi/organizzazioni, diventando concausa di scarsa resilienza ed agilità di fronte al cambiamento (Rif.17);
  • porta al rifiuto di fonti, opinioni e persone con idee differenti (Backfire Effect) (Rif. 7, 8).

La conferma della mia-verità ed il rifiuto di opinioni diverse portano alla Polarizzazione del confronto ed al passaggio confronto-scontro (Rif.6). Le conversazioni assumono una struttura chiusa su opinioni simili (Echo Chamber) (Rif.7). 

La tecnologia contribuisce alla chiusura, ad esempio con gli algoritmi che forniscono informazioni coerenti con le nostre preferenze (Algorithmic Bias) (Rif.18, 19). L’esempio più diffuso lo si trova nel funzionamento di Google.

 

3.3 L’informazione cattiva scaccia quella buona  (Bias Gregario, Delegittimazione dell’autorevolezza, Disinformazione)

 

Figura 3

 

 

 

 

 

 

 

Il processo di selezione continuo sulla accettabilità delle opinioni scambiate nelle Echo Chambers  diventa un vero processo di Controllo Sociale. Ne risulta un ambiente Identitario su cui fa presa il Bias Gregario (Bandwagon Effect).

Un utente emula attivamente altri che sente simili, generando un effetto a cascata: dai più attivi, ai meno attivi per coinvolgere infine anche i dubbiosi.

Questa volta, la tecnologia è un accelerante grazie all’aumento del tempo di esposizione alla rete (es. tramite gli smartphone), o alla semplicità delle app che abilitano l’immediatezza dell’interazione (scambi basati più su indignazione, rabbia, commozione, ecc. che su riflessione, riesame dei flussi di eventi e contenuti). 

Ecco bello e pronto l’ambiente base per favorire la tempesta perfetta  delle fake news digitali.

 

Una Fake News può nascere all’interno di una Echo Chamber, o esservi iniettata dall’esterno. Il produttore può addirittura essere un bot redattore di testi. Una volta all’interno della Echo Chamber si diffonde rapidamente. 

La diffusione è refrattaria ai metodi più sofisticati di Smascheramento (Debunking) a causa dell’effetto Backfire. Anzi, diversi studi sembrano mostrare che si genera un effetto contrario: screditare una fonte ne rinforza l’uso sino ad un +30% (es. Rif.7).

 

Infine, la Disinformazione si diffonde molto meglio della informazione di qualità perchè costruita per far leva sul tendenze come la preferenza per:

  • eccezionalità del contenuto (l’uomo che morde il cane e non il viceversa), 
  • emotività del messaggio, 
  • bisogno di conferme, 
  • semplicità del contenuto, 
  • sfiducia nelle fonti ufficiali, ecc.

 

4 I LIVELLI DI CONTRASTO

Uno sguardo al fenomeno nel suo insieme (Figura 4) pare mostrare che la Tecnologia (web, piattaforme di social media, smartphone, bot, ecc.) sostanzialmente svolga una funzione di amplificazione ed accelerazione di fenomeni che hanno radici piuttosto nelle dimensioni della nostra natura psicologica e sociale

 

Figura 4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Radici alimentate a loro volta dal  non riconoscimento della presenza dei bias dei nostri “ragionamenti” (“Bias? Nessuno mi condiziona”). E’ il Bias del Punto Cieco (Blind Spot Bias), il più subdolo: maschera la consapevolezza che funzioniamo con molti limiti, che molte delle nostre certezze sono fallaci, che le nostre opinioni spesso  non hanno nulla di originale essendo reazioni stereotipate a certi stimoli.

 

Le azioni di contrasto della dimensione Pubblica stanno quindi convergendo, in modo equilibrato, su tutte e tre le dimensioni (Rif.3 e Rapporto della Commissione Europea in Rif.23). Ad esempio:

  • Trasparenza: processi economici ed editoriali di siti/ piattaforme;
  • Educazione: aggiornamento dei contenuti educativi (es. l’alfabetizzazione digitale su media, informazioni e dati - Rif.20);
  • Responsabilizzazione: delle professioni coinvolte;
  • Diversità dell’ecosistema digitale: dalla revisione delle finalità dei bot, al sostegno di pluralità ed autonomia delle fonti;
  • Ricerca: approfondimento di motivazioni,  origini e dinamica della Disinformazione.

Queste cinque direzioni forniscono uno spunto d’azione anche a livello di Utenti singoli e di Organizzazione (Tabella 1). Nelle organizzazioni, le stesse interazioni che nelle Figure 1, 2 e 3 hanno luogo fra la dimensione Psicologica e quella Sociale avvengono anche li: Group Thinking (Bias Gregario), Bisogno di Conferma, Narcisismo e Competizione individuale, Punti Ciechi e Silos (Echo Chamber), ecc.

Senza neanche il bisogno di un accelerante tecnologico. Dispongono già di validi sostituti come:  dinamiche di “piccolo mondo”; funzionamento gerarchico; sistemi di rinforzo (promozioni, sanzioni, riconoscimenti); processi di governance.

 

Tabella 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5    ALTRI SPUNTI PER APPROFONDIRE

Rif.1 WEF – Global Risk Report 2013 http://reports.weforum.org/global-risks-2013/risk-case-1/digital-wildfires-in-a-hyperconnected-world/?doing_wp_cron=1523714993.5722019672393798828125

Rif.2 WEF – Global Risk Report 2018  http://reports.weforum.org/global-risks-2018/digital-wildfires/

Rif.3 “Fake News – Burla o complotto”, A.Migliorati, 2018, ebook Radio24, scaricabile da:     http://www.utility.ilsole24ore.com/radio24/fake-news.pdf

Rif.4 “L’arte dell’Inganno – I consigli dell’hacker più famoso del mondo”, K.D.Mitnick, 2005, Feltrinelli

Rif.5 “L’economia civile”, L.Bruni, S.Zamagni, 2015, il Mulino (disponibile anche in formato Kindle).

Rif. 6 “Liberi di crederci – Informazione, Internet e Post-verità”, W.Quattrociocchi, A.Vicini, 2018, ed Codice per Le Scienze

Rif.7 “Il Tribalismo e l’idea di verità”, M.Fisher, J.Knobe, B.Strickland, FC.Keil, Le Scienze, aprile 2018 

Rif. 8 “La Babele di Internet”, W.Quattrociocchi, Le Scienze nr.596, aprile 2018 

Rif.9 “Capacità cognitive e vulnerabilità alle fake news”, D.Z.Hambrick, M.Marquardt, MIND nr 160, aprile 2018

Rif.10 “L’era della disinformazione”, W. Quattrociocchi, Le Scienze nr.570, febbraio 2016

Rif.11 Una ventina di questi schemi o Bias cognitivi, sono stati identificati con alcune attività di ricerca dell’Università di Harvard e sono sintetizzati nella grafica in https://tinyurl.com/yby7fofe (fonte citata in Rif. 6)

Rif.12 “Decisioni Intuitive”, G.Gigerenzer, 2008, Raffaello Cortina ed.

Rif.13  “Le singolarità della specie umana”, P.Teilhard de Chardin, 2013, Jaca Book

Rif.14  “Passaggio ad Occidente”, G.Marramao, 2003, Bollati Borienghieri

Rif.15  “Postverità ed altri misteri”, M.Ferraris, 2017, Il Mulino

Rif.16  Su alcuni casi emblematici di post verità in India: https://www.nature.com/articles/d41586-018-04119-y?utm_source=briefing-dy&utm_medium=email&utm_campaign=briefing&utm_content=20180406

Rif.17  “Governare l’inatteso”, K.E.Weick, K.M.Sutcliffe, 2010, Raffaello Cortina

Rif.18  Project of the Royal Society on the Algorithmic Ethic  https://royalsociety.org/topics-policy/projects/machine-learning/  (Fonte citata nel Rif.20)

Rif.19  Horizon’s Research Project about how emancipate users from Algorithmic Biases https://www.horizon.ac.uk/project/unbias-emancipating-users-against-algorithmic-biases-for-a-trusted-digital-economy/   (Fonte citata nel Rif.20)

Rif.20 Corso on line “Learning in the Network Age”della Southampton University sulla piattaforma FutureLearn: https://www.futurelearn.com/courses/learning-network-age/ )

Rif.21 https://www.slideshare.net/domfama/labor-sailing-1 

Rif.22 https://www.peopleart.it/it/news-23/resilienza-parte-1-cos-e.html  e  https://www.peopleart.it/it/news-24/resilienza-parte-2-cosa-allenare.html

Rif.23  “Final Report of the High Level Expert Group on Fake News and Online Disinformation”, Commissione Europea, Aprile 2018  http://ec.europa.eu/newsroom/dae/document.cfm?doc_id=50271