L’Intelligenza Artificiale è entrata a far parte della nostra vita quotidiana. Che ne siamo consapevoli o meno, la usiamo ogni giorno. Le tecnologie basate sull’AI condizionano ciò che vediamo quando eseguiamo una ricerca sul web, ciò che compare sui social media, quali prezzi ci vengono proposti online, quali notizie leggiamo, quali film o canzoni ci vengono presentati nei servizi di streaming o quale strada prendiamo quando andiamo dal punto A al punto B.
L'IA è ovunque
La presenza dell’AI è così pervasiva che tocca anche alcuni degli aspetti più importanti della nostra vita: se veniamo accettati all’università o otteniamo un colloquio di lavoro, una promozione, o ci viene approvato un prestito, o siamo considerati a rischio per determinate condizioni mediche. L’elenco continua a crescere ogni giorno. Ad esempio, l’AI viene attualmente utilizzata anche per determinare quali quartieri le auto della polizia pattugliano di notte e a chi possono essere offerte misure alternative alla pena detentiva.
Da un lato, i vantaggi offerti dall’AI sono così promettenti che non sarebbe etico rifiutarli.
Da trasporti più sicuri e una migliore diagnostica medica ai robot che svolgono lavori pericolosi, l’AI ci dà l’opportunità di costruire un mondo migliore. D’altra parte, essa comporta tantissimi rischi come comportamenti discriminatori, invasione della privacy, manipolazione dei comportamenti, mancanza di trasparenza, attività pericolose o immorali, ripercussioni negative sul mercato del lavoro, e persino rischi per l’esistenza stessa dell’umanità.
Anche l'IA ha dei rischi
L’AI ha dimostrato finora di essere un incredibile superpotere in grado di moltiplicare gli aspetti migliori e peggiori della nostra società. Se guardiamo alle maggiori sfide dell’umanità, come, ad esempio, ridurre le disuguaglianze sociali, affrontare il cambiamento climatico, eliminare l’oppressione politica e persino fare i conti con rischi esistenziali della specie, l’AI può facilmente essere sia una soluzione sia un enorme pericolo.
Di conseguenza, qualsiasi sforzo per costruire un mondo migliore non può permettersi di ignorare il potere dell’Intelligenza Artificiale come il migliore alleato e come il peggiore ostacolo. A rendere il tutto ancora più difficile, la versatilità dell’AI la espone al rischio di essere utilizzata per scopi diversi da quelli per cui è stata sviluppata. Ad esempio, le tecnologie sviluppate per fini nobili, come la sicurezza pubblica, possono essere rapidamente convertite in strumenti utilizzati per limitare i diritti civili.
Allo stesso modo, le tecnologie utilizzate per scenari di guerra possono facilmente trovare applicazioni civili molto utili per tutti (Internet, GPS, eccetera). Come possiamo garantire che tutto questo avvenga eticamente e in linea con i nostri valori?
Qual è l’approccio migliore per garantire che l’AI sia socialmente responsabile e veramente vantaggiosa per l’umanità?
Perché dobbiamo incominciare ad occuparci dell’etica dell’Intelligenza Artificiale?
L’etica dell’AI sarà fondamentale per contribuire ad avere sistemi di Intelligenza Artificiale eticamente solidi. Gli argomenti affrontati sono molteplici ma, semplificando un po’, possono essere organizzati in due gruppi. Il primo gruppo riguarda ciò vogliamo venga fatto con l’AI. In che modo l’AI può aiutarci a raggiungere i nostri obiettivi più urgenti? Date le enormi opportunità in molti settori, dai trasporti alla medicina, non si tratta solo di individuare il miglior uso dell’AI ma anche di evitare che sia sottoutilizzato e che si perda l’occasione di migliorare la condizione umana. Il secondo gruppo riguarda ciò che non vogliamo venga fatto con l’AI.
Quali sono i rischi derivanti e come possiamo mitigarli? In alcuni scenari l’AI reca danni perché sviluppata o utilizzata per fini illeciti o immorali, come nel caso di strumenti di sorveglianza introdotti specificatamente per reprimere oppositori politici o per perpetrare pulizie etniche. Altri scenari comprendono situazioni in cui i danni sono una conseguenza non voluta di un uso legittimo dell’AI, come nel caso in cui essa risulti non essere sufficientemente sicura, o finisca per discriminare minoranze, o contribuisca a creare instabilità socioeconomica. Questo stesso gruppo comprende anche le implicazioni etiche del delegare attività specifiche a macchine autonome, in considerazione del fatto che potrebbe risultare in una perdita della nostra stessa autonomia, in quanto non più in grado di esercitare un sufficiente controllo su esse o diventandone troppo dipendenti.
Il perseguimento di un’AI responsabile è tipicamente legato a una serie di principi chiave di alto livello spesso inclusi nelle linee guida etiche da governi, associazioni di settore e singole aziende. Ci sono centinaia di linee guida etiche sull’AI, tutte con temi chiave simili come equità, trasparenza, privacy, sicurezza, eccetera. Una recente ricerca dell’Università di Harvard ha raggruppato i principi in trentasei gruppi incentrati su otto temi chiave:
privacy,
responsabilità,
sicurezza,
protezione,
trasparenza,
spiegabilità,
equità,
non discriminazione,
controllo umano della tecnologia,
responsabilità professionale e promozione dei valori umani.
Il vantaggio principale di avere principi generali di alto livello è che i valori fondamentali possono essere facilmente applicati per una vasta gamma di tecnologie anche molto diverse tra loro.
Ciò è particolarmente importante in un settore che sta registrando livelli di innovazione così elevati, in quanto sarebbe difficile rivalutare i requisiti etici ogni volta che viene scoperta una nuova tecnologia.
Tra Etica e Legalità
I principi etici e le leggi sono fortemente correlati con una vasta gamma di situazioni in cui vanno a intersecarsi. I principi etici non sono giuridicamente vincolanti in quanto tali. Per diventare applicabili, devono essere tradotti in leggi in modo che si valgano per tutti i soggetti indipendentemente dalle loro convinzioni personali. Ci sono ancora diversi casi in cui principi etici e i requisiti legali non coincidono. Da un lato, ci sono situazioni in cui i comportamenti legali sono visti come non etici.
Ad esempio, approfittare di una scappatoia fiscale per evitare i pagamenti delle tasse è legale, ma spesso considerato non etico. Allo stesso modo, una legge che introduce la discriminazione razziale sarà anche considerata non etica in quanto viola valori fondamentali come il principio di non discriminazione.
D’altra parte, ci sono comportamenti etici che sono illegali. Ad esempio, l’azione di una madre che ruba cibo da un negozio per il suo bambino affamato, anche se illegale, sarebbe vista non solo come etica, ma anche come un imperativo morale. Infine, ci sono situazioni in cui gli individui considerano uno standard legale troppo basso e scelgono di fare più di quanto richiesto dalla legge. Ad esempio, il proprietario di un’attività commerciale potrebbe decidere di pagare i propri dipendenti più del minimo richiesto della legge per considerazioni etiche piuttosto che meramente economiche.
Tutto questo vale anche per il mondo dell’AI. Quando i Paesi richiedono per legge la rimozione di determinati contenuti da Internet a sostegno di programmi di censura, le aziende di tecnologia che considerano la censura non etica dovranno decidere tra le opzioni di violare la legge (poiché conformarsi significherebbe sostenere la censura), di non operare più in quello Stato o di rispettare la legislazione sulla base di altri valori etici altrettanto importanti come, per esempio, l’impegno a rispettare le leggi anche quando non in linea con i valori propri dell’azienda. Questi sono veri dilemmi etici che possono essere affrontati se le imprese hanno una buona comprensione dei propri valori e della gerarchia di tali valori.
In termini di legislazione non partiamo da zero, poiché alcuni principi hanno già una certa copertura giuridica. Principi come la privacy e la sicurezza dell’AI sono già almeno in parte tutelati attraverso le leggi sulla protezione dei dati e le norme sulla responsabilità dei prodotti. Tuttavia, poiché le capacità e le applicazioni dell’AI continuano ad espandersi, ci sono vaste aree ancora non toccate dai limiti legali. Ad esempio, attualmente non esiste una legge che richieda test indipendenti delle tecnologie impiegate per eseguire attività sensibili come la selezione del personale o l’accesso all’università.
IA ed Etica , ciò che devi sapere
Alcune imprese hanno già iniziato a inserire tali principi nei propri regolamenti interni. Dobbiamo comunque avere anche norme giuridicamente vincolanti in quanto sarebbe utopistico fare affidamento solo sulla buona volontà degli attori coinvolti. Avere politiche pubbliche, leggi e regolamenti che affrontano le esigenze e i valori della nostra comunità non solo possono avere un enorme impatto sulla sicurezza e sull’affidabilità dell’AI, ma può anche aiutare a promuovere l’innovazione creando regole chiare per tutti gli attori.
Matteo Di Michele è un esperto di tecnologie emergenti con vent’anni di esperienza internazionale in molteplici funzioni e discipline come il diritto, la sostenibilità ambientale e l’Intelligenza artificiale e autore del saggio INTELLIGENZA ARTIFICIALE, Etica, rischi e opportunità di una tecnologia rivoluzionaria (Diarkos Editore, 2023).
Dopo la sua laurea in Giurisprudenza con una tesi sulla protezione internazionale dei diritti umani e una breve esperienza di avvocato contrattualista presso una grande società di telecomunicazioni, Matteo si è trasferito negli Stati Uniti dove ha lavorato per dieci anni a fianco del celebre architetto Paolo Soleri ricoprendo diversi incarichi dirigenziali presso la Cosanti Foundation, organizzazione non-profit dedicata alla promozione dell’architettura ecologica e dello sviluppo sostenibile con sede nella famosa città-prototipo di Arcosanti in Arizona. Attualmente lavora negli Stati Uniti come manager di una multinazionale presso Charlotte nel North Carolina. La sua formazione universitaria include anche l’Mba in Supply Chain and Operations Management presso l'Arizona State University e diversi corsi presso l’Università della California (Uc Davis), Harvard Law, e Mit. Continua inoltre a dirigere la Cosanti Foundation come Presidente del Consiglio di amministrazione.
Questo saggio fornisce una visione ricca e ben articolata sull'importanza dell'etica nell'Intelligenza Artificiale. Tocca tematiche cruciali e stimola la riflessione sull'urgente necessità di un approccio etico e responsabile nello sviluppo e nell'implementazione dell'IA. Nel complesso, esso rappresenta un contributo significativo al dialogo in corso su come l'IA può e deve essere plasmata per servire al meglio l'umanità. Bravo Matteo!😀
Argomento molto attuale direi, visti gli scenari di impiego, sia istituzionali, che burocratici, come quelli che il Cyber Resilience Act propone.
Io credo che, come al solito, se ci si affida esclusivamente alle macchine, per l'adempimento di certe operazioni, sia un azzardo, un atteggiamento di deresponabilizzazione, facilmente utilizzabile, sia in buona che in malafede!
Lasciare che siano algoritmi inferenziali, per quanto sofisticati, a decidere certe cose, non è da ingenui, ma da criminali, se l'oggetto della decisione riguarda altri esseri senzienti!
Parliamo di etica? Ebbene, esiste un metodo per misurare il livello dell'etica umana, utilizzando il minor numero di parametri possibili?
A mio avviso SI! ... e ve lo faccio dire da una piccola intelligenza artificiale!
https://youtu.be/vIbEjWZI68g?si=RI6XBTjYCaa84CIu