Etica e Intelligenza Artificiale. Conversazione con il professor Edmondo Grassi
L’intelligenza artificiale è entrata negli spazi di lavoro, nelle abitazioni, governa mezzi di trasporto e processi produttivi. Ma gli algoritmi sono buoni o cattivi? In quale relazione si pongono rispetto a noi umani? E come stiamo gestendo gli impatti dell’intelligenza artificiale sulle società, la politica e i diritti? Ne abbiamo discusso con il prof. Edmondo Grassi, esperto di Etica e Intelligenza Artificiale, e con il suo contributo porteremo questo tema alla terza edizione del Forum Italia-Canada sull’Intelligenza Artificiale promosso dalla Italian Chamber of Commerce in Canada (ICCC).
Nadia Deisori
intervista
Edmondo Grassi
Da quando uomo e macchine convivono nella stessa infosfera, la nostra esistenza può ambire a molte più opportunità, reclamare nuovi diritti ma anche fare i conti con una dimensione ibrida, a metà tra online e offline.
Come descrive il filosofo Luciano Floridi[1], il processo di re-ontologizzazione del mondo, inteso come infosfera, operato dalle tecnologie, ha annullato la differenza tra processori e processati.
L’identificazione tra lo strumento tecnologico e l’uomo si rivela già nell’appellativo stesso di “intelligenza artificiale”, un binomio di parole che è quasi un ossimoro: un ente intelligente, che quindi comprende (o fraintende) il senso (e anche il perché) può essere artificiale?
La fantascienza ci ha fatto sognare per decenni un’era cyborg. Oggi in qualche modo è una realtà che viviamo quotidianamente. Davanti al cambiamento siamo esaltati, altre volte sembriamo bambini impauriti, incapaci di proteggerci dai rischi del potere che le big tech esercitano sulle nostre scelte, sui diritti e sulla privacy. Altre volte ancora siamo padri e madri di una tecnologia che assorbe da noi pregiudizi “troppo umani”.
Le sfide della conoscenza hanno condotto l’uomo per secoli nella dimensione della ricerca umana e scientifica e quando la realtà diventa complessa, oggi più che mai, la filosofia torna protagonista.
Grandi perché attendono risposte e concetti complessi aspettano di avere un nome: ci chiamano a riflettere, agendo come i grandi pensatori del passato che fondevano scienza e discipline umanistiche, etica e tecnologia, filosofia e matematica.
Ne parliamo con Edmondo Grassi dell'Università degli Studi di Roma Tre, PhD in Ricerca Sociale Teorica e Applicata con una tesi in “Etica e intelligenza artificiale”, un tema caro al Centro Studi Italia-Canada che quest'anno affronteremo anche in occasione del Forum Italia-Canada sull'Intelligenza Artificiale, proprio con il contributo del professore.
Professor Grassi, ci troviamo dentro un nuovo umanesimo digitale?
Credo che il primo aspetto da considerare sia la decentralizzazione del concetto stesso di “umanesimo” nella postmodernità. Adottare la prospettiva di una posizione privilegiata dell’essere umano all’interno del sistema-mondo ha condotto alle grandi crisi contemporanee, come quelle politiche, ambientali, migratorie e tecnologiche – nella dimensione sociale ed economica, del digital divide o della ricerca delle risorse primarie per la produzione di dispositivi - tra le altre.
La centralità della persona nella sua visione cartesiana è decaduta a favore di una visione nomadica dell’essere e questi spostamenti non avvengono più solo in una dimensione prettamente fisica ma acquisiscono una rilevanza sempre più ampia e rilevante negli ambienti digitali. La declinazione di umanesimo digitale potrebbe essere adottata nella misura in cui la persona possa comprendere, grazie alle tecnologie più avanzate e all’intelligenza artificiale, di non essere l’unica attrice sociale su questo pianeta ma che condivide da sempre spazio e tempo con una molteplicità di enti che non sono meri “oggetti” ma hanno il peso di soggetti e interpreti delle dinamiche globali nelle quali è immersa: attori sociali umani e non umani che intessono reti e nodi attraverso i quali costituire una grammatica collettiva di ampio respiro che possa permetterci di analizzare i grandi mutamenti contemporanei.
La rinascita culturale dell’umanesimo deve essere concepita come uno spazio collettivo nel quale produrre dialoghi e interazioni che siano momenti di crisi – nel suo potenziale etimologico, dal greco krino, scelta - e di rottura – nella prospettiva di nuove identità personali, sociali, politiche – che permettano di analizzare la natura proteiforme della persona e l’inserimento nel quadro etico-valoriale di ulteriori soggetti artificiali e non, riuscendo a trascendere gli attuali strumenti di concezione e di misura del mondo, fino ad ora implementati sia socialmente che scientificamente. Viviamo nella networked matter, la materia connessa attraverso approcci che sfumano e annullano gli ultimi confini che definivano la staticità dell’essere: spazio e tempo. L’essere umano sta riscoprendo la centralità della propria narrazione come riconoscimento del sé e della collettività attraverso strumenti tecnologici che non sono più attivi solo nel momento della propria interazione ma che agiscono retroattivamente e in autonomia anche quando la persona smette di interrogarli. L’intelligenza artificiale è divenuta una protesi dell’essere, un suo prolungamento o, meglio ancora, un alienus al quale chiedere chi siamo e quali possano essere le future scelte condotte dall’umanità. La prospettiva di un ambiente sociale condiviso con macchine, microbi, enti terzi ci sta insegnando un approccio sistemico della complessità, vale a dire la contemplazione della non linearità delle manifestazioni della vita, dell’abbattimento delle limitanti dicotomie, della riscoperta dialogica con l’ambiente circostante e del “vivere complesso” – una complessità di nodi, di intrecci che non sono ostacoli ma che richiamano la trama di un tessuto, di punti di congiunzione di incontro, elementi strutturali che vanno compresi, analizzati ma non sciolti, penalità sarebbe la perdita dalla tenuta del sistema.
Definire l’Intelligenza Artificiale
Parlare di intelligenza artificiale darne una definizione o trovarvi un senso non è meno difficile che provare a conviverci.
Cyborg, robot e macchine che pensano, in grado di agire autonomamente con sentimento e coscienza, capaci di dominare ed esercitare un libero arbitrio che può tendere al bene, ma il più delle volte al male.
Questi sono gli stereotipi che animano i nostri riferimenti culturali, fantasiosi e per niente corrispondenti alla realtà, eredità forse di una cultura cinematografica che nei decenni scorsi ci ha plasmato.
Da una parte siamo portati a sopravvalutare le macchine create dall’uomo attraverso le nuove tecnologie informatiche, a farne esseri superiori e a-morali; altre volte, all'opposto, le sottovalutiamo, riduciamo la tecnologia a uno specchio, la vogliamo a nostra immagine e somiglianza, nel corpo e nelle debolezze psicologiche.
Che cos'è Intelligenza Artificiale? È davvero complicato delimitare e comprendere.
L’IA include ambiti e tecnologie diverse, come il machine learning, il deep learning, la data mining, il natural language processing, la realtà aumentata e virtuale. Il sapere tecnologico è sempre più appannaggio della “casta informatica”, è altro rispetto al sapere diffuso. Ci sono loro che sanno e poi gli altri, quelli che si nutrono di credenze e luoghi comuni, con tutti i pericoli che ne conseguono per i diritti e la democrazia.
L'applicabilità nella vita quotidiana di una tecnologia tanto potente e pervasiva fa sì che l’intelligenza artificiale si possa permettere una sorta di “pragmatismo a-morale” laddove invece richiederebbe modelli etici forti soprattutto da quando l'abbiamo messa a disposizione di settori vitali per la nostra convivenza e la nostra stessa esistenza come:
- Salute
- Gestione dei Dati
- Mobilità
- Città intelligenti
- Sostenibilità
La rivoluzione tecnologica ha avuto una velocità senza precedenti, non è paragonabile alle precedenti scoperte scientifiche. O almeno è così che percepiamo la cosa. Mentre la tecnologia divorava conoscenza in costante moto di apprendimento e aggiornamento continuo, le competenze umane richieste per l’accesso al lavoro, la consapevolezza necessaria per comprendere cosa stava accadendo sono evolute nel giro di una sola generazione senza che ci fosse il tempo di adeguarle al mondo che cambia.
Parallelamente, le opportunità offerte dalle tecnologie sono aumentate a tutti i livelli della vita pubblica e privata. I vantaggi sono immensi e accedervi significa avere a disposizione una nuova categoria di diritti di cittadinanza digitale. Non accedervi, in assenza di adeguate conoscenze e consapevolezze, quadri normativi e apparati valoriali a corredo, si traduce per forza in opportunità negate, diseguaglianze e divari.
Ci aiuti a capire. Che cos’è e a cosa serve l’etica dell’intelligenza artificiale?
La società nella sua forma attuale è un ambiente nel quale si manifesta il progresso delle azioni della persona ed essa stessa può essere indagata attraverso la storia degli strumenti che hanno concesso all’individuo di abitare il pianeta, migliorare la propria sussistenza e adattare la vita alle proprie necessità. Tali elementi rientrano nel campo dell’indefinito e dell’indistinto fin quando non si giunge alla produzione di dispositivi meccanici, strutture interattive, costruzioni morali che possano delineare i caratteri percettivi dei confini e del loro superamento.
Secondo Anassimandro, l’Apeiron era il principio da cui tutto deriva e le sue caratteristiche sono l’illimitatezza fisica e l’indefinibilità qualitativa, quindi il mondo, la realtà, lo spazio esistenziale dell’essere è circoscrivibile nel campo dell’indistinto e, quindi, delle possibilità. La vastità di questi concetti conduce alla manifestazione di timori, paure, irrequietezze che possono essere analizzati attraverso un’archeologia dei saperi e una qualificazione di matrice etica. La necessità di quest’ultima è dichiarata dalla volontà di comprensione delle interrelazioni collettive ma, soprattutto, dalla possibilità che offre per lo spostamento dei confini, con lo scopo di comprendere l’esistenza attraverso modalità differenti.
L’etica, nella sua concezione più ampia, non è finalizzata alla creazione di regole ma alla malleabilità dei principi della persona, dell’espressione della simmetria dell’esistenza che non è assolutizzante ma può essere “rotta” introducendo nuovi campi di esplorazione. I confini imposti che privano di respiro l’identità camaleontica dell’individuo, imponendo una sua cristallizzazione, devono divenire, tramite l’etica spazi di passaggio, di attraversamento, di osmosi tra esistenze nomadi: i confini non devono essere sacralizzati nella loro staticità e tenuta ma per la loro possibilità di conoscenza, immaginazione e travalicamento.
In questa cornice, possiamo comprendere e innestare anche un’etica per e dell’intelligenza artificiale. L’uso delle due preposizioni non è un errore e non è casuale poiché:
- “per” sta ad indicare la necessità di spostare l’attenzione rivolta alla persona anche all’algoritmo e ai dispositivi con i quali si interagisce. Non si vuole donare ad essere una valenza sociale come i replicanti di Blade Runner ma si richiede alla persona di iniziare a concepire tale tecnologia come un ente che riesce a intercettare e ad impattare con le pratiche esistenziali della persona che mutano ad ogni istante, ad ogni accesso a questi agenti intelligente che, oltre a sostenere le richieste dirette, ne divengono anticipatori e preveggenti. Il loro agire deve essere percepito come un contributo, una collaborazione che possa permettere alla persona, all’umanità, di progredire verso nuovi orizzonti.
- Nella misura del “del”, si richiama alla formulazione di principi etici che possano divenire misura di tali innovazione, come se fossero contemporaneamente lente e specchio di una composizione rizomica di nuove declinazioni dell’esistenza sociale, soprattutto considerando che la questione che pone la potenzialità degli algoritmi che predispongono l’intelligenza artificiale è alla base della nuova gestazione del pianeta, dei suoi paradigmi culturali, delle prassi politiche, dell’automazione della vita pubblica e privata. La necessità di un’etica che sia declinata attorno e nell’intelligenza artificiale è centrale poiché tale innovazione torna a sottolineare e ad irrobustire i processi di scardinamento dell’antropocentrismo, permettendo alla persona di riacquisire il valore delle proprie capacità, delle pulsioni, desideri, aspettative ma più di tutto, della sua natura, avendo dinnanzi l’immanenza di un ente che è divenuto parte del reticolato biotecnologico che è la nostra esistenza. L’intelligenza artificiale, come già accaduto per altri artefatti, racchiude in sé caratteristiche che andranno ad influenzare il sistema sociale nel quale si manifesta e è necessario comprenderne il ciclo vitale: ogni tecnologia, prima di essere concretizzata, nasce come metafora di altro, come eco dell’immaginario e acquisizione di un telos, di un destino del quale l’artificio diviene a sua volta creatore di ulteriori possibilità.
Un’etica della/per la macchina non è altro che l’assunzione della tecnicità dell’essere dalle sue origini, dal primo momento in cui scelse un sasso per rompere il pericarpo coriaceo di un frutto o per proteggersi dall’aggressione di un predatore. Le questioni culturali aperte poste dalla relazione tra intelligenza artificiale e persona richiamano alla riflessione su di una tecnologia che concerne i saperi pratici dell’umano ma evoca, soprattutto, la radicalità di quanto un artificio possa divenire sistema vitale per l’espletamento dell’esistenza.
La governance della tecnologia: l’esempio del Canada
Non è solo la società civile ad essere smarrita.
I livelli di governance sono alle prese con un cambiamento del modello delle relazioni tra cittadini e Stati. Modellare gli scenari futuri della tecnologia attraverso un approccio strategico è tra i compiti che la politica non può sottintendere o delegare all’impresa. L’IA guadagna così posizioni nelle agende politiche e un ruolo centrale nell’economia.
È considerata una risorsa fondamentale per lo sviluppo nei piani di sviluppo di Stati e Organizzazione internazionali. Allo stesso tempo, se ne teme l’imprevedibilità delle applicazioni e la nebulosità dell’ontologia.
Certo è che nel prossimo futuro dovremo rispondere a molte domande, alcune molto concrete:
- Come finanziare e dove indirizzare la ricerca scientifica?
- Come formare talenti IA e attrarre talenti internazionali?
- Come sviluppare competenze nei giovani e potenziare la formazione continua degli adulti?
- Come costruire piani per l’industria 4.0?
- Come governare i Dati e costruire l’infrastruttura digitale?
- Come utilizzare l’IA per migliorare l'efficienza della Pubblica Amministrazione e erogare i servizi ai cittadini?
- Come attivare reti di conoscenza di IA in grado di fra progredire inclusione e benessere sociale?
- Come tutelare la privacy dei cittadini e prevenire attacchi di cyberterrorismo?
Tra i Paesi che hanno mosso per primi i passi in questo campo c’è il Canada, primo al mondo, nel 2017, a dotarsi di una Strategia per l’Intelligenza Artificiale.
Non si tratta di un documento astratto ma di un vero e proprio piano di azioni del valore di 125 milioni di dollari nel quale trova posto anche un piano valoriale di riferimento, che tiene conto degli impatti degli algoritmi sulla società e sulla gestione della cosa pubblica[2].
Lo sviluppo e la guida della strategia sono stati affidati dal governo del Canada a CIFAR, un centro canadese di ricerca globale con all’attivo oltre 400 ricercatori provenienti da 161 istituzioni e 18 paesi diversi.
La Pan-Canadian AI Strategy si pone obiettivi ambiziosi, sostenuti da finanziamenti pubblici con l’appoggio di player privati leader del settore come Facebook.
L’obiettivo primario è posizionare il Canada tra i leader mondiali nel campo dell’intelligenza artificiale:
- Attirando ricercatori internazionali e sostenendo le competenze qualificate in Canada
- Promuovendo un ecosistema di IA collaborativo, facendo dialogare l’eccellenza scientifica dei tre principali centri di ricerca canadesi per l'IA (Amii di Edmonton, Alberta; Mila a Montreal, Quebec; Vector Institute di Toronto, Ontario)
- Promuovendo un piano strategico di attività educative come programmi di formazione e workshop
- Includendo nel campo d’azione della ricerca, gli studi sugli impatti economi, etici, politici e nel campo del diritto dei progressi nell'IA.
Dopo il Canada, altri 27 paesi, oltre all'Unione europea, ne hanno seguito l’esempio e hanno pubblicato proprie linee guida per la governance dell’IA.
A gennaio 2020[3], altri 18 paesi stavano lavorando a propri documenti strategici, inclusa l’Italia, che ha incaricato un gruppo di esperti di definire un quadro di Proposte per una Strategia italiana per l'intelligenza artificiale.
L’Italia e l’Europa stanno occupando un posto in questa ricerca di direzione e di significato?
L’approccio analitico e applicativo di una tecnologia è sempre correlato alla dimensione culturale nella quale viene immessa e alla dimensione socio-antropologica degli individui che sono chiamati a interagire con essa. L’intelligenza artificiale gioca un ruolo di predominanza nella futura gestione del pianeta e delle politiche sociali applicative per fronteggiare crisi umanitarie, sopperire alla scarsità di fonti ambientali, divenire strumento e agente per il controllo e l’analisi di flussi politico-economici poiché nella dimensione delle tecnologie riproduttive, dei sistemi intelligenti, del machine to machine, degli automi in grado di percepire lo spazio e le presenze in esse e di tutti i progressi inerenti il settore, la società dell’intelligenza artificiale è la prima a subire una rivoluzione costante, immanente e immediata che applica processi funzionali e decisionali spesso ultraccelerati rispetto alle capacità della persona, producendo mutamenti istituzionali, strutturali e relazionali.
La riflessione etica richiesta alla persona e alle istituzioni non assume, quindi, solo una prospettiva microsociologica ma contempla una dimensione collettiva globalizzata e istituzionalizzata che è stata maggiormente ampliata dagli algoritmi, realizzando ipotesi di scenari futuri non solo tra esseri umani ma tra quest’ultimi e le tecnologie assorbite nel quotidiano.
Nel contesto europeo, il processo decisionale attuato da Bruxelles, sebbene appaia più lento rispetto al quadro canadese, cinese o nipponico, è riuscito ad assorbire una pluralità di prospettive e opinioni per plasmare lo sviluppo della tecnologia nel miglior interesse della cittadinanza comunitaria.
I temi cardine per lo sviluppo del settore per l’UE sono sicuramente nell’incentivare la ricerca e migliorare le prestazioni di carattere economico-industriale al fine di garantire un nuovo livello di benessere alla persona senza lederne i diritti fondamentali, declinando due caratteristiche precipue: eccellenza e affidabilità. La stessa strategia per l’intelligenza artificiale in Europa del 2018 asseriva nel prologo che l’I.A. è già parte integrante delle nostre vite e che non possiamo più disgiungerla dalle nostre azioni quotidiane. La diffusione dell’iniziativa europea è sicuramente fondata sul rispetto dei valori, poiché come ogni tecnologia trasformativa bisognerà porre attenzione ai processi decisionali, interrogativi etici e responsabilità sociali.
Questa visione premia l’istruzione e la sensibilizzazione della cittadinanza verso la comprensione degli algoritmi intelligenti, delle loro applicazioni nella robotica e, quindi, nella condivisione dello spazio con un ente differente dall’umano. Inoltre, vi è in atto un processo di valutazione dei quadri giuridici di ogni paese membro con il fine di valutare se siano consoni in materia di sicurezza e idoneità per l’utilizzo su larga scala di tali strumenti, promuovendo sia un dibattito comunitario che internazionale. L’UE vuole centrare la propria strategia in I.A. nel contesto dei miti, valori e modelli di comportamento che segneranno il delineamento di una società sempre più digitalizzata che vuole tutelare l’essere umano e i suoi diritti: una tecnologia artificiale quale alleata per il progresso collettivo.
Così la prospettiva italiana cerca di seguire le direttive europee scegliendo un approccio che integri la ricerca di una tecnologia immanente unita all’adozione di politiche di sviluppo sostenibile che pongano al centro delle politiche nazionali la tutela dell’ambiente e della persona. Con la pubblicazione della “Strategia italiana per l’intelligenza artificiale” delinea tre direttrici:
- disamina del quadro teorico e applicativo dell’I.A. a livello internazionale;
- enunciazione degli elementi cardine per una strategia su lungo periodo;
- proposte di governance con particolare attenzione a politiche di monitoraggio e implementazione.
Per l’Italia, l’I.A. rappresenta un settore che potrebbe aiutare la popolazione e il Governo a risolvere problemi strutturali: fondi per la ricerca, digitalizzazione della PA, automazione del settore industriale, monitoraggio e tutela dell’ambiente e delle sue risorse naturali.
In conclusione, gli obiettivi mirano a rafforzare il compound delle università, degli enti di ricerca, delle applicazioni non solo tecniche ma anche umanistiche per l’educazione della popolazione alle tecnologie. La costituzione dell’universo simbolico per l’I.A., nel panorama europeo, è quella di algoritmi che divengono alleati per comprendere ulteriori aspetti delle problematiche sociali e che possano rappresentare la sommatoria del nostro sapere, assumendo un proprio valore che può manifestarsi dialogicamente e in continua evoluzione.
L’affidabilità degli algoritmi
Fin qui abbiamo parlato di intelligenza artificiale, di opportunità e rischi. Chiaramante al punto in cui siamo non possiamo più solo guidare l’innovazione economica dei prossimi 10-20 anni verso un mondo che recepirà senza dubbio cambiamenti radicali. L’immensità della sfida che ci si pone davanti ha a che fare con un reticolo di norme di convivenza, privacy, rispetto delle minoranze, uguaglianze, gestione dell'infosfera come una immensa piazza pubblica globale, una vera e propria società.
Come pensiamo di affrontare un sistema economico che si nutre sempre più di dati e sfocia in attività di “sorveglianza di massa”[4] o eliminare i bias che abbiamo translato negli algoritmi sotto forma di pregiudizi razziali, di genere e ingiustizie sociali.
Il Canada, come altri paesi, si è trovato a dover reagire a situazioni ambigue, in cui i diritti erano in pericolo a causa di un uso aggressivo e indiscriminato dell’AI. Ci riferiamo ad esempio al “caso Clearview AI[5]”, la società tecnologica americana che, in violazione alle leggi sulla privacy canadesi, raccoglieva le foto dei cittadini canadesi senza il consenso. I dati biometrici venivano poi venduti a aziende private. Il software di riconoscimento facciale dell’azienda statunitense era, inoltre, in dotazione alle forze dell'ordine canadesi, tra cui l'RCMP, la polizia di Toronto e la polizia di Calgary, utilizzato per identificare autori e vittime di crimini.
Più di recente in Europa, nell’ambito della Strategia europea per l’intelligenza artificiale, la Commissione europea ha pubblicato il 21 aprile 2021 la proposta di regolamento sull’approccio europeo all’intelligenza artificiale che individua un primo quadro giuridico europeo sull'IA.
L’UE introduce così il concetto di rischio dell’intelligenza artificiale misurabile su una scala che va da “minimo” a “inaccettabile” e riconosce la necessità di considerare l’affidabilità etica della tecnologia tra i criteri di validation dell’innovazione con la finalità di salvaguardare i valori e i diritti fondamentali dell'UE e la sicurezza degli utenti.
Avere una prospettiva critica nei confronti degli algoritmi non significa essere tecno-scettici ma voler tutelare equità e democrazia. Il rischio di porre paletti troppo rigidi è quello di sfociare in una dittatura della morale che finirebbe per compromettere il progresso tecnologico.
A suo parere dovremmo definire un’etica oggettiva per l’IA?
Considerando quanto esposto sino ad ora, si può comprendere che sino alla prima metà del Novecento, l’etica aveva come soggetto/oggetto di studio l’essere umano in rapporto con il sé e con l’altro, con la propria vita privata e pubblica. Dalla fine del XX° secolo, ci si rivolge all’etica per riuscire a studiare, elaborare e comprendere le nuove questioni morali che sorgevano, sempre più rapidamente, evocate dal progresso tecnologico, dalle scoperte scientifiche, dalle richieste dell’individuo sociale di migliorare costantemente il proprio tenore di vita, dalla quotidianità sino alle sfide contro le malattie e la morte.
Se fino a quel momento, la persona era proiettata solo sulla necessità di dibattere dei propri diritti etici, in quando unico attore sensiente e socialmente contemplato, in un sistema in cui la tecnica era produttrice solo di strumenti passivi, con l’avvento dell’intelligenza artificiale e del suo universo di innovazioni -algoritmi intelligenti, digital home assistant, robot sociali o industriali, chatbots e ulteriori sistemi dotati di logica e capacità cognitive- ha condotto l’individuo verso l’osservazione che, nel suo sviluppo, si stia costituendo un artefatto potenzialmente autonomo e capace di apprendere dalla società umana che già sta avendo impatti etici sui sistemi sociali.
In che modo un algoritmo è in grado di prendere delle decisioni?
Quali effetti sortisce l’intelligenza artificiale nelle scelte quotidiane dell’individuo?
Quali sono le implicazioni di tipo etico e normativo delle azioni di una macchina intelligente?Sono quesiti che vengono rivolti all’intera società e al proprio sistema di comprensione e di analisi dell’impatto che i progressi dell’intelligenza artificiale avranno in futuro, dato che, già ora, con le sue imperfezioni, rallentamenti e la sua denominazione di sistema ‘debole’, sta mutando progressivamente molteplici aspetti dell’umano.
I valori etici sono strettamente dipendenti dal contesto socioculturale nel quale si sviluppano e si rafforzano con la tradizione ideologica di appartenenza, quindi, credo che ricercare un modello oggettivo sia lesivo per il progredire delle ricerche etiche. Certamente, sarà possibile adottare dei principi, come indico nel mio testo (Etica e intelligenza artificiale) che possono divenire strutturali per l’adozione di carte normative aventi finalità etiche.
La dimensione geopolitica dell’intelligenza artificiale
Come tema di interesse globale, la rivoluzione tecnologica e l’impatto degli algoritmi sulle nostre vite, relazioni e società delineano anche una dimensione geopolitica inedita delle relazioni internazionali.
L’Europa è impegnata nella definizione di proprie linee guida per la gestione del mondo 4.0 e nella costruzione di un ecosistema innovativo europeo. L'obiettivo è anche proporre un modello occidentale, che sfugga alla pressione esercitata dagli Stati Uniti a ovest e dalla Cina a est e dai loro modelli contrapposti.
Si sente la necessità di affermare che l'Europa tutela i propri cittadini dai rischi dell’IA, ma allo stesso tempo si fa fatica a costruire una comunità globale attorno a questo tema e la ricerca di partner affidabili si scrontra con il potere dell'innovazione.
Il dibattito comunque è aperto e non si torna indietro: il legame tra etica e intelligenza artificiale non è più un tabù.
Garantire standard minimi di educazione e formazione nel campo dell'IA è tra gli obiettivi dell'UE, nel senso di far crescere nella società la consapevolezza del sapere per ciò che concerne le competenze tecnologiche soprattutto per quei cittadini sprovvisti di un retroterra tecnologico. Un tema centrale è diventata anche la formazione degli sviluppatori e dei nuovi imprenditori in senso sempre più interdisciplinare, con un posto riservato alla filosofia e all’etica per orientare il design thinking in senso inclusivo e equo.
Vanno in questa direzione la nascita di percorsi universitari di “informatica umanistica”, anche in Italia, o di progetti per la sensibilizzazione nei confronti dell’Etica dell’IA rivolti a maker e innovator.
Il confronto tra le buone prassi disegnate e le conversazioni già avviate in contesti nazionali, tra governi, università, ricercatori, in tema di intelligenza artificiale è davvero da auspicare.
Lo scorso anno, il centro Studi Italia Canada ha avuto il piacere di mettere in evidenza il Business Forum Italia Canada sull’IA, promosso dalla Camera di Commercio italiana in Canada (ICCC), che ha visto confrontarsi italiani e canadesi sul contributo di big data, intelligenza artificiale e cyber security alla costruzione di un contesto post Covid-19 equo, sostenibile e economicamente vantaggioso. Nell’edizione di quest’anno, il Centro Studi Italia Canada proporrà proprio il tema dell’etica nell’IA, grazie al suo contributo, professore.
Sarà senz’altro un’occasione per approfondire, nel contesto tecnologico, un rapporto tra due Paesi con universi culturali e riferimenti democratici molto vicini: il modello canadese si esprime infatti con un sistema valoriale molto simile al nostro e il dialogo a livello accademico, oltre che politico e economico, non può che avere influssi positivi sia sulla nostra economia sia per lo sviluppo di un ecosistema etico condiviso nel campo dell’IA.
Come si passa dai codici di condotta personali a linee guida per norme dell’agire collettivo a livello nazionale e sovranazionale?
Nello studio del rapporto tra individuo e macchina, la dimensione della sovrapposizione e della fusione sono divenute sempre più preminenti, sin da quando McLuhan (2015) definì la tecnologia come prolungamento naturale del sistema nervoso dell’essere umano e rete che ingloba la società e i suoi rapporti. Donna Haraway descrive, con l’ausilio della figura mitica/ reale del ragno Primoa Cthulhu, la società artificiale come l’era delle connessioni sempiterne, della comunicazione invisibile, delle strutture digitali tentacolari. La struttura-mondo viene considerato un sistema olistico che ha bisogno della persona come parte di un ingranaggio molto più complesso e che non si ponga al suo centro, assieme ad una pervasività tecnologica che possa sostenere l’essere umano nella tutela del pianeta, così come indicato da Edward Tenner (2004) nella sua storia antropologica della scienza che ha esteso a tutte le creazioni tecnologiche e artificiali il potere di plasmare e modellare la struttura dell’individuo sociale e delle sue istituzioni, sino a radicarsi nel suo modo di leggere il presente e di immaginare il futuro.
La società artificiale può essere considerata come lo specchio di una sintesi umana verso la costruzione di un proprio alter-ego automatizzato, la realizzazione di quei robot intelligenti che, grazie all’implementazione degli algoritmi di apprendimento su organismi meccanici, siano in grado di sostituirsi alla vita biologica nella responsabilizzazione e nella gestione dei problemi più complessi e che richiedono celerità nelle decisioni, divenendo i collaboratori perfetti verso un futuro incerto, in cui potrebbe manifestarsi quella singolarità che potrebbe renderli autonomi e semicoscienti. L’essere umano viene rappresentato quale risultato complesso delle sue invenzioni, dei suoi strumenti, delle sue tecnologie che si sono susseguite lungo la linea storica, così come i codici di condotta che sono costruzioni culturali e paradigmi morali che vengono assemblati con componenti sempre più innovative per adattarsi al progresso dei diritti, delle norme, dell’evoluzione.
Un’ultima domanda…
Cosa l’ha spinta a interessarsi a questo ambito di ricerca e che riscontri ha raccolto tra colleghi e studenti?
L’immaginazione e le sue infinite prospettive sono la placenta che ha alimentato, sin dalla mia infanzia, la volontà di declinare il progresso tecnologico che recepivo dal cinema, dalla letteratura, dalle arti in un contesto applicativo filosofico. Dalla visione di Metropolis sino a Matrix, da Ghost in the Shell ad Evangelion, da Dick a Naomi Mitchison ho appreso quali fossero le declinazioni non solo della fantascienza e del progresso ma anche la possibilità di utilizzare tali mondi/strumenti per la comprensione di diritti, responsabilità e campi di studio per una lotta democratica e pacifica in nome dei diritti democratici per ogni persona e ogni gruppo sociale. L’intelligenza artificiale è, per me, uno specchio deformante che può permettere all’individuo di osservare un riflesso differente rispetto alle norme convenzionali alle quali è abituato; è un pianeta distante dal quale apprendere nuove prospettive etiche e declinazioni culturali del sapere; è un ingranaggio che potenzierà le capacità umane di comprensione verso le problematiche future delle società che si manifesteranno nella postmodernità. Inoltre, reputo che la tecnologia, con le sue continue mutazioni, i glitch casuali, la sua capacità proteiforme sarà uno strumento per rappresentare tutte le identità incastonate nella natura umana installando dibattiti critici sulla giustizia sociale, sui rapporti di forza e sulla rappresentatività politica. Sicuramente, ad oggi, sono temi di interesse anche per la comunità accademica, anche se cinque o sei anni fa trovai alcune resistente nei settori sociali ed umanistici. Di più ampio sostegno, fu l’interesse da colleghi e colleghe del Canada o della Polonia, con i quali ho stretto solide collaborazioni. Sul versante studentesco, sono tutti e tutte interessate/i al tema, sia nei corsi che svolgo ma anche nella richiesta di tesi di laurea su temi affini.
Edmondo Grassi è ricercatore in Sociologia Generale e insegna Sociologia dei Processi Culturali e Comunicativi e Sociologia Generale e della Salute presso il Dipartimento di Scienze Umane e Promozione della Qualità della Vita dell’Università Telematica San Raffaele. Collabora con il Dipartimento di Scienze della Formazione dell’Università degli Studi Roma Tre per i progetti FAMI (dal 2019) e il Laboratorio EduIA – Educazione Intelligenza Artificiale (dall’anno di fondazione, 2018). Ha conseguito il PhD in Ricerca Sociale Teorica e Applicata con una tesi in “Etica e intelligenza artificiale”. Attualmente, collabora con i gruppi di ricerca C.I.S.U. (Centro interuniversitario in Studi Utopici) e “Via Europea della Fiaba (network europeo di studi sull’immaginario collettivo e le radici folkloristiche europee). È componente del comitato editoriale della rivista Sociologie (Edizioni Altravista) e delle collane editoriali Educazione e Intelligenza Artificiale (RomaTrE-Press), Attrazioni Sociologiche (Cleup) e Immaginari Sociali (Armando). È stato membro in qualità di ricercatore per progetti FAMI e BRIC. Si occupa di mutamenti etici prodotti dall’uso delle tecnologie, delle loro applicazioni sociali contemporanee e delle loro proiezioni immaginifiche, di comunicazione, di identità postmoderna, di genere, di postumanesimo e di pensiero della complessità. Ha pubblicato la sua prima monografia dal titolo “Etica e intelligenza artificiale. Questioni aperte” (2020) e molteplici articoli scientifici su questioni morali e tecnologia, postumano e genere.
Nadia Deisori è giornalista e consulente di comunicazione e formazione “digital human” per istituzioni, centri di ricerca e privati. Progetta spazi digitali, strategie di comunicazione, percorsi formativi e eventi che fondono l'approccio umanistico con le prospettive tecnologiche e i linguaggi e le metodologie dell’era della digital transformation. Laureata in relazioni internazionali, lavora in ambito digitale dal 2008. Collabora con il Centro Studi Italia Canada sui temi dell’educazione e dell’innovazione tecnologica.
Sullo stesso tema >>>
[1] Floridi, L. (2013) The Ethics of Information (pp. 6-8). Oxford: Oxford University Press.
[2] https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai.html#toc1
[4] Il capitalismo della sorveglianza, Soshana Zuboff, Luiss University Press, Roma, 2019
Non perdere i prossimi aggiornamenti del Centro Studi Italia-Canada