“La tecnologia non è mai neutra”
Per quanto tempo l'uomo riuscirà a capire e controllare le macchine che lui stesso inventa? Il pensatore e pubblicista Bruno Giussani nella tecnologia digitale vede crescenti pericoli per la democrazia e la società.
Bruno GiussaniCollegamento esterno è il curatore globale del think tank TEDCollegamento esterno, l’organizzazione che tiene conferenze attorno alle “idee che val la pena condividere”, sotto i marchi TED e TEDx, e che crea i popolari TEDTalks visualizzabili su Internet.
La seguente intervista è un estratto di quella integrale, pubblicata sul Corriere del TicinoCollegamento esterno il 13 novembre 2018 in un approfondimento in “Primo piano”.
Altri sviluppi
Il cacciatore di idee
Come va guardato il progresso tecnologico?
In modo distaccato, avendo chiari un paio di punti. Prima di tutto, da un paio di decenni assistiamo a una crescita tecnologica esponenziale, mentre tutte le istituzioni e i sistemi che abbiamo sviluppato nei secoli per far funzionare il nostro mondo sono fatti per gestire un’evoluzione lineare.
Poi: lo sviluppo tecnologico tocca in modo profondo l’identità individuale, collettiva e la struttura sociale perché cambia il modo di comunicare e di “leggere” il mondo e le relazioni con gli altri.
Terzo: la tecnologia non cade dal cielo e non è mai neutra. La maggior parte di quella che utilizziamo è stata sviluppata da un gruppo ristretto di persone, per lo più maschi, concentrati in due o tre posti nel mondo, di formazione ingegneristica, bianchi o asiatici, fra i 20 e i 40 anni. Il loro modo di vedere ha influenzato e influenzerà in modo massiccio ciò che tutti noi oggi facciamo attraverso la tecnologia – cioè quasi tutto.
La tecnologia che conosciamo oggi era inevitabile?
Sì e no. C’è un determinismo nella tecnologia: il fatto che noi avremmo tutti utilizzato uno strumento di comunicazione mobile era inevitabile vista l’evoluzione scientifica e tecnologica che ha portato alla sua invenzione.
Ma non era inevitabile che la forma che ha preso è quella di uno smartphone con applicazioni che ci sorvegliano e che, basate sul design persuasivo, ci manipolano. Avremmo potuto avere telefoni più benigni, più rispettosi di aspetti etici, disegnati per servirci più che per renderci dipendenti.
Come distinguere tra le tecnologie buone e quelle dannose?
“Non c’è una tecnologia buona o dannosa, c’è un modo diverso di utilizzarla”.
Non c’è una tecnologia buona o dannosa, c’è un modo diverso di utilizzarla. La tecnologia è una cosa brutta se la nostra unica reazione è quella di adattarcisi, di lasciarle “dirigere” le nostre azioni; è una cosa buona se oltre a usare le capacità che ci offre sappiamo prevederne gli impatti potenzialmente negativi e limitarli o eliminarli. La cosa peggiore da fare è lasciarci sopraffare senza prepararci ai suoi potenziali impatti, e parlo tanto a livello individuale che collettivo.
Come ci si prepara alla tecnologia?
Sappiamo che ci sono tecnologie che possono generare effetti negativi, per esempio la dipendenza dai videogiochi, dai telefonini, dai social media. Sappiamo anche che l’intelligenza artificiale combinata alla robotica potenzialmente eliminerà molti posti di lavoro, sostituendoli soltanto in parte.
Non si può non premunirsi, bisogna educare i giovani e gli adulti, regolamentare certi tipi di applicazioni software e prodotti, creare contromisure per i problemi sociali che si creeranno.
Come ci si educa alla tecnologia?
Ovviamente non è necessario diventare specialisti di tutto, ma diciamola così: non è molto sano tenersi in tasca oggetti molto potenti, che ci danno accesso a tutte le informazioni del mondo e che controllano ogni passo e ogni gesto che facciamo e ogni cosa che comunichiamo e non sapere nulla di come funzionano e del sistema del quale fanno parte.
“Nei Paesi industrializzati l’attività che assorbe maggiormente le persone oggi è interfacciarsi con uno schermo”.
Penso per esempio che sarebbe bene insegnare il coding (la programmazione informatica, n.d.r.) fin dalle elementari: non perché tutti diventeranno programmatori, non è quello il punto. Non si impara a leggere e scrivere perché tutti diventeranno scrittori: lo si impara perché leggere e scrivere ci permettono di capire il mondo, di comunicare, di organizzare pensieri, di esprimerci.
Il punto è che il linguaggio del mondo è sempre più composto da software, da algoritmi e per viverci consapevolmente bisogna imparare a capirli. In fondo nei Paesi industrializzati l’attività che assorbe maggiormente le persone oggi è interfacciarsi con uno schermo (telefonino, computer, cruscotto dell’auto, tv, distributori di biglietti…).
Cosa significa esattamente dire che la tecnologia non è neutra?
Prendiamo ad esempio una tecnologia gratuita come i social, che viene sviluppata con criteri di “psicologia persuasiva” per rendere gli utenti sempre più dipendenti. Il vero prezzo dell’utilizzo si paga attraverso la raccolta di tutte le informazioni possibili su una persona e sui suoi comportamenti e pensieri.
Queste informazioni vengono profilate, impacchettate e vendute a inserzionisti che poi ci bombardano con offerte mirate. Le offerte sono di tipo commerciale, ma possono essere anche politiche.
Il problema, come abbiamo visto per le ultime elezioni presidenziali americane e anche più recentemente in Brasile e altrove, è che questi messaggi commerciali o politici assumono molto velocemente una connotazione manipolativa e questa targettizzazione facilita la circolazione di notizie false.
La nuova legge europea sulla privacy non basta a tutelare il trattamento dei nostri dati?
È un buon inizio di tutela, ma resta un inizio. I sistemi comunicativi oggi non fanno molto caso alla privacy, sono sviluppati per rispettare formalmente la legge ma nei fatti per “risucchiare” ogni possibile informazione, per tangenziale che sia. Non è solo un comportamento malevolo da parte dei creatori della tecnologia. La nostra stessa concezione di sfera privata è cambiata molto.
Trent’anni fa l’apertura di un dossier segreto era garanzia di uno scandalo; nel 2018, 30 milioni di persone hanno installato in casa volontariamente i dispositivi Alexa di Amazon e Home di Google, che ascoltano continuamente quel che viene detto attorno a loro. Praticamente, 30 milioni di persone hanno installato in casa un microfono di Amazon o Google».
Il progresso tecnologico si è sempre avuto, ma perché oggi se ne parla di più? Per la sua velocità stratosferica?
La tecnologia è co-costitutiva dell’avanzamento sociale e culturale e quando parliamo di tecnologia non parliamo soltanto di digitale. Oggi se ne parla di più perché determina in modo molto più massiccio quello che possiamo fare rispetto al passato.
Forse se ne parla di più anche per via della mitizzazione del grande imprenditore tecnologico nella cultura occidentale. Il medico che salva 300 vite all’anno non viene certo idealizzato come chi riesce a lanciare una nuova app per condividere foto.
L’innovazione non è mai democratica. La rete di informazione creata dalla tecnologia si presenta invece come fortemente democratica. Un’illusione o un paradosso?
“Oggi c’è più democrazia di espressione, ma c’è sicuramente meno capacità di filtrare le informazioni”.
Penso che sia un enorme paradosso. Oggi c’è più democrazia di espressione, ma c’è sicuramente meno capacità di filtrare le informazioni e di sviluppare dei ragionamenti critici.
Creiamo molta più informazione ma non sono sicuro che si possa dire che abbiamo fatto molto progresso nella conoscenza e nella comprensione negli ultimi due decenni. Eppoi, nel flusso tutte le informazioni appaiono uguali (il tweet di un presidente si presenta uguale a quello dell’amico) e così vengono banalizzate, normalizzate.
Per finire, la velocità di diffusione dell’informazione non lascia alcun tempo al ragionamento, ma costringe alla reazione immediata. Un sistema politico solido non può sopportare questo tipo di velocità nel lungo termine.
C’è chi dice che la tecnologia abbia già superato le nostre capacità mentali…
In effetti c’è chi pensa che viviamo già oltre le nostre capacità psicologiche. Vien da chiedersi: ma Mark Zuckerberg stesso capisce ancora cos’è veramente Facebook? Non solo come sistema tecnologico, ma come sistema sociale e culturale?
Uno dei fondatori di Instagram ha detto recentemente che ci troviamo nell’era pre-newtoniana dei social media: sappiamo che funzionano, ma non sappiamo come. Non sappiamo perché l’informazione si polarizza. O perché siamo sempre più dipendenti da queste tecnologie. O perché reagiamo in modo più virulento a certi messaggi».
Abbiamo bisogno di filtri, ma per farlo usiamo degli algoritmi. Il nostro cervello cederà il passo a una macchina?
C’è una forte competizione tra la capacità di assorbire e trattare l’informazione del nostro cervello e la capacità delle macchine di diffondere le informazioni su larga scala. È anche una contraddizione di fondo. Ad esempio, come si fa a seguire in modo competente 1’742 persone su Twitter? C’è troppo rumore.
I filtri algoritmici sarebbero una bella cosa se servissero a mettere in evidenza le informazioni importanti: purtroppo di fatto servono a selezionare le informazioni a cui reagiamo di più (generalmente ciò che ci fa arrabbiare o che conferma le nostre convinzioni), per creare l’engagement che le aziende cercano per generare utili attraverso la pubblicità».
Come non essere succubi ma proattivi rispetto a questo meccanismo?
“È sorprendente che siamo sempre più attenti a quello che mangiamo, ma non facciamo attenzione alla spazzatura informativa con cui nutriamo la mente”.
La risposta radicale sarebbe smettere di usare i social media. C’è un fenomeno curioso in corso: quelli che conoscono meglio la tecnologia, perché l’hanno creata, gli imprenditori della Silicon Valley, mandano i figli in scuole dove non c’è nessuno schermo; proibiscono loro l’uso del telefonino fino all’adolescenza; mettono nei contratti per le babysitter clausole molto strette sul “no screens”.
Ma è molto difficile, anche perché ci sono armate di ingegneri e psicologi il cui lavoro è di disegnare i sistemi e le interfacce per creare dipendenza. Bisogna cercare di utilizzarli in modo più cosciente.
È sorprendente che siamo sempre più attenti a quello che mangiamo, ma non facciamo attenzione alla spazzatura informativa con cui nutriamo la mente. Pensiamo di essere più forti, di poterci difendere. Qualunque cosa passi sullo schermo entra nella nostra testa senza filtri: è pericolosissimo, perché determina come ci relazioniamo e come leggiamo gli eventi nel mondo. Ed è pura illusione pensare di poter fare pulizia di immagini nella testa a posteriori.
Altri sviluppi
“Siamo cyborg da molto tempo, e stiamo migliorando continuamente”
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.