La macchina e la morale
Le tecnologie digitali in rete offrono grandi opportunità per l'economia e la società, ma sollevano problemi etici. Un esempio, fra tanti, è il riconoscimento facciale. La Svizzera, una delle nazioni leader nel campo dell'intelligenza artificiale (IA), affronta la sfida.
Perdita di posti di lavoro a causa dell’automazione, protezione dei dati, riconoscimento facciale, video deepfake, sicurezza informatica, uso improprio dell’IA e delle tecnologie robotiche: la digitalizzazione ha portato con sé un numero storicamente senza precedenti di nuove sfide etiche.
L’ultimo esempio è il software ChatGPT, un chatbot che si basa sull’intelligenza artificiale (IA) e che ha sollevato preoccupazioni in diversi settori. Dalla sua introduzione, avvenuta alla fine dell’autunno 2022, ha fatto costantemente parlare di sé per la sua capacità di eseguire compiti come codificare e correggere errori nei programmi informatici. ChatGPT solleva anche diverse questioni etiche.
Altri sviluppi
ChatGPT: intelligenza, stupidità o malvagità artificiali?
Cosa potrebbe accadere se l’IA finisse nelle mani sbagliate, non si osa nemmeno immaginarlo. La comunità internazionale, ad esempio, è tuttora divisa sulla necessità di regole severe per i robot killer. I colloqui in seno agli organi delle Nazioni Unite a Ginevra sono stati in gran parte inconcludenti.
Attualmente non esistono armi simili completamente autonome. Ma secondo gli attivisti, visti i rapidi progressi e gli elevati investimenti nel campo dell’intelligenza artificiale e di altre tecnologie chiave, nel giro di pochi anni potrebbero diventare realtà.
Altri sviluppi
Robot killer: che fare?
La Svizzera è uno dei paesi leader nello sviluppo dell’IA. Per IA s’intende un software che impara a pensare e a decidere come un essere umano. Il processo di apprendimento si basa sull’elaborazione di grandi quantità di dati.
Numerose startup in Svizzera sviluppano tali sistemi di apprendimento – sia sotto forma di robot, che di applicazioni o di assistenti digitali – che dovrebbero semplificarci la vita grazie ai big data. Queste aziende si confrontano costantemente con questioni di etica. Il dilemma di fondo: un’azienda che vuole vendere tecnologie, dove dovrebbe tracciare la linea rossa?
Questo problema diventa particolarmente evidente all’interfaccia tra ricerca e applicazione concreta. Cosicché, delle università svizzere partecipano anche a progetti finanziati dall’esercito americano. Questi vanno dalle telecamere di sorveglianza dello spazio aereo ai droni da ricognizione controllati autonomamente.
Altri sviluppi
Una relazione speciale: l’esercito USA e le università svizzere
La Svizzera mostra ambizioni
La Svizzera vuole essere capofila in fatto di standard etici legati all’IA. Ma da dove può partire per assumere il ruolo pionieristico a cui mira? Grazie al suo status di Paese neutrale con un forte settore della ricerca, la Svizzera ha le potenzialità per sfidare gli approcci dominanti di Cina e Stati Uniti e diventare un terzo polo di ricerca sull’IA “che non funzioni come una società o un’impresa statale”, ha detto il sindaco di Davos Philipp Wilhelm.
La città tra le Alpi grigionesi sta cercando di diventare un centro neutrale per lo sviluppo di tecnologie basate sull’IA che siano responsabili, inclusive e democratiche. “Quello che manca è un approccio neutrale, indipendente e umanistico”, ha affermato Wilhelm.
Altri sviluppi
Un nuovo centro per l’intelligenza artificiale “neutrale” sta nascendo tra le Alpi svizzere
Un altro tentativo è lo Swiss Digital Trust Label, l’etichetta con cui si cerca di rafforzare la fiducia degli utenti nelle nuove tecnologie. L’idea alla base è quella di trasmettere più informazioni sui servizi digitali, creare trasparenza e garantire che i valori etici siano rispettati.
“Allo stesso tempo, si intende contribuire a garantire che anche un comportamento etico e responsabile diventi un vantaggio competitivo per le aziende”, afferma Niniane Paeffgen, direttrice dell’Iniziativa digitale svizzera, che è all’origine dello Swiss Digital Trust Label (Etichetta svizzera di fiducia digitale).
Altri sviluppi
Come accrescere la fiducia nelle nuove tecnologie?
Esiste un ampio consenso sul fatto che siano necessarie regole e definizioni chiare che traccino i confini dei limiti etici. A tal fine il governo elvetico ha istituito il gruppo di lavoro interdipartimentale “Intelligenza artificiale”. Alla fine di novembre 2020 ha adottato le relative linee guidaCollegamento esterno per l’Amministrazione federale.
“È importante che la Svizzera utilizzi il potenziale derivante dalle nuove possibilità offerte dall’intelligenza artificiale”, afferma il gruppo di lavoro interdipartimentale in un rapporto rivolto al governo federale. “Per questo occorre garantire le migliori condizioni quadro possibili affinché la Svizzera possa affermarsi e svilupparsi ulteriormente come uno dei principali luoghi innovativi al mondo per la ricerca, lo sviluppo e l’applicazione dell’IA. Al contempo si devono anche affrontare i rischi associati all’uso dell’IA e adottare provvedimenti in tempo utile”.
Altri sviluppi
La Svizzera può prendere le redini del dibattito etico?
Ognuno ha una morale diversa
Da molte parti è sollecitato uno standard vincolante a livello globale. A fine 2018 un gruppo di esperte ed esperti della Commissione Europea ha messo a punto le prime linee guida etiche. A giugno 2023 il Parlamento europeo ha approvato un primo progetto della legge sull’intelligenza artificiale (legge sull’IA).Collegamento esterno
Altri sviluppi
Regolamentazione dell’intelligenza artificiale, a che punto è la Svizzera?
Nel dicembre 2023, il Parlamento europeo, la Commissione europea e gli Stati membri hanno finalmente concordato una serie di regole vincolanti per l’uso dell’intelligenza artificiale. Nel marzo 2024, il Parlamento europeo ha approvato l’introduzione di regole più severe in materia di IA nell’UE. Si tratta della prima legge di questo tipo al mondo.
Il regolamento mira a vietare i sistemi di intelligenza artificiale che rappresentano un rischio “inaccettabile” per la cittadinanza e la democrazia. Si tratta, ad esempio, di sistemi che utilizzano dati personali sensibili per la manipolazione psicologica, la classificazione sociale e la profilazione razziale, sessuale e religiosa.
L’UE ha definito la decisione un “momento storico”. Ma dove si colloca la Svizzera, che in quanto non membro non ha potuto avere voce in capitolo nella regolamentazione dell’IA?
Altri sviluppi
La Svizzera ha perso il treno della regolamentazione dell’IA?
Nel complesso, esistono già numerose linee guida e dichiarazioni di questo tipo. Tuttavia, un’analisi sistematica condotta dall’Health Ethics and Policy Lab del Politecnico federale di Zurigo (ETHZ) ha mostrato che non si trova un singolo principio etico comune in 84 documenti pertinenti.
A ogni modo, in più della metà delle dichiarazioni sono stati menzionati cinque valori fondamentali: trasparenza, giustizia ed equità, prevenzione dei danni, responsabilità, protezione dei dati e della privacy.
Questa discussione sembra essere accesa anche tra i giganti della tecnologia come Google. L’azienda ha licenziato nel 2021 due esperte di etica dell’AI in una controversia. Ciò ha messo in dubbio che la costruzione di un’AI nel rispetto dei principi morali sia davvero tra le priorità dei Big Tech.
Altri sviluppi
Cosa succede se Google licenzia la sua etica
Un nuovo centro di ricerca sull’IA presso l’ETHZ vuole concentrarsi almeno sui valori morali europei. Qui dovrebbe convergere la ricerca sull’IA dell’intero Politecnico. Al centro dell’attenzione sono poste le persone, afferma il suo responsabile, il professor Alexander Ilic, in un’intervista.
“La persona che progetta qualcosa di nuovo ha anche una certa responsabilità. Per questo è importante per noi contribuire a plasmare questo dialogo e incorporare i nostri valori europei nello sviluppo delle applicazioni di intelligenza artificiale”, afferma Alexander Ilic.
Altri sviluppi
Per un’intelligenza artificiale con valori europei
L’argomento probabilmente più importante a favore dell’utilizzo dell’intelligenza artificiale è che può semplificare le nostre vite. Principalmente perché tali sistemi ci aiutano a risparmiare tempo e si assumono compiti noiosi, come può fare ChatGPT. Nei migliori dei casi, l’IA può persino salvare vite umane, ad esempio se combinata con un drone di soccorso che può operare in spazi ristretti.
Altri sviluppi
I droni svizzeri in soccorso!
D’altra parte, il think tank del Parlamento europeo stima che entro il 2030 l’IA potrebbe dare tra l’1,5 e il 4% del contributo alla riduzione delle emissioni globali di gas serra. Grosso modo equivarrebbe al traffico aereo totale.
“Le sfide per la trasformazione dei sistemi nei settori dell’approvvigionamento energetico, della nutrizione, dell’abitazione e della mobilità sono grandi”, scrive il gruppo di lavoro della Confederazione sull’IA. Il team di esperti è convinto che l’IA “svolgerà un ruolo importante come tecnologia chiave per affrontare queste sfide”.
A causa della pandemia di coronavirus, numerosi servizi sono passati alla forma digitale quasi dall’oggi al domani. Ciò ha dato una vera spinta all’intelligenza artificiale nella quotidianità. Ad esempio, l’impiego di robot per disinfettare locali di edifici pubblici come scuole e ospedali.
Altri sviluppi
I robot ci aiuteranno contro il Covid-19 ma non nel modo che pensiamo
Timori per i posti di lavoro e le persone
Tuttavia, molte persone sono critiche nei confronti dell’IA. L’astrofisico di fama mondiale Stephen Hawking ha dichiarato: “L’intelligenza artificiale è la miglior o la peggior cosa che accadrà mai all’umanità”. I critici dei cosiddetti “robot killer” temono che l’intelligenza artificiale e i robot possano mettere in pericolo non solo i posti di lavoro, ma anche le persone.
Lo scetticismo cresce anche nella società. L’industria è già nel mezzo di una rivoluzione: big data, intelligenza artificiale, Internet delle cose (IoT), stampanti 3D stanno cambiando le esigenze dei dipendenti. Lavori semplici o ripetitivi sono sempre più spesso delegati alle macchine.
Altri sviluppi
“La rivoluzione digitale agisce come uno tsunami sull’industria svizzera”
Si prevede quindi che l’utilizzo dell’IA nel lavoro porti presto alla razionalizzazione degli impieghi. Perché, come mostra la ricerca, più della metà dell’attuale lavoro umano può essere svolto in modo più rapido ed efficiente da sistemi automatizzati.
Il ricercatore svizzero Xavier Oberson si schiera tra coloro che propongono quindi di tassare i robot se utilizzati per un lavoro tradizionalmente svolto dalle persone. Secondo il professore, i proventi di tale tassa dovrebbero essere investiti nel finanziamento delle assicurazioni sociali e nella formazione dei disoccupati.
Altri sviluppi
Tassare i robot che ci rubano il lavoro?
E da che parte stanno i consumatori in tutta questa discussione? Sono molto spesso scettici sulle applicazioni di IA. Secondo alcuni studi, tuttavia, non si preoccupano in primo luogo del fatto che l’IA possa spazzare via o controllare l’umanità, ma piuttosto della sicurezza dei loro dati. Perciò i produttori sono sottoposti a crescenti pressioni per rendere la loro tecnologia trasparente per gli utenti.
L’esperto Alexander Ilic cita l’esempio di uno degli obiettivi del suo centro di intelligenza artificiale: “Vogliamo mostrare tramite il dialogo con il pubblico cosa può effettivamente fare l’IA. Ci sono molti esempi tangibili. Soprattutto ciò che sta accadendo nel campo della medicina e della salute digitale riguarda tutti, è di facile comprensione e porta molti cambiamenti positivi. Ma vogliamo anche dimostrare che l’intelligenza artificiale supporta le persone, non le sostituisce”.
Altri sviluppi
“Per diligenza e obbedienza, ci sono delle macchine”
Traduzione dal tedesco: Sonia Fenazzi
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative