L'Intelligenza Artificiale è un termine ampio che si riferisce allo sviluppo e all'uso di macchine che esibiscono un comportamento intelligente, in particolare attraverso il software.
Introduzione Etica e IA
L'intelligenza artificiale è una tecnologia che sta diventando sempre più diffusa nella nostra vita quotidiana. Si stima che entro il 2050 l'IA rappresenterà un mercato da 3,9 trilioni di dollari. L'intelligenza artificiale è sia buona che cattiva. Può essere utilizzata per migliorare la nostra vita in una miriade di modi, ma può anche portare a enormi problemi etici e legali. In questo articolo, esploreremo l'etica, la moralità e le leggi che circondano l'IA e come stanno influenzando la nostra società nel suo insieme.
Qual è la differenza tra etica e moralità?
La morale è un concetto che può essere compreso solo facendo riferimento a una cultura specifica, mentre l'etica è un concetto universale, e quindi può essere applicato a qualsiasi cultura. La morale è quindi un'espressione della cultura e l'etica è un principio.
La moralità è un insieme di valori e principi che definiscono le azioni che sono considerate corrette o scorrette in una data società. Questi principi sono alla base della cultura della società in questione. La morale è l'espressione della cultura di una società.
L'etica è un insieme di valori e principi universali che definiscono le azioni che sono considerate corrette o scorrette in tutte le società. L'etica è un principio.
L'intelligenza artificiale può essere etica?
Sì, l'intelligenza artificiale può essere etica.
L'intelligenza artificiale può essere morale?
Sì, l'intelligenza artificiale può essere morale.
Quali principi etici vengono applicati nel campo dell'intelligenza artificiale?
I quattro principi dell'etica sono autonomia, giustizia, beneficenza e non maleficenza.
Quali sono le tre dimensioni dell'uso etico dell'IA?
Le tre dimensioni dell'uso etico dell'IA sono:
• Trasparenza: è essenziale che il pubblico abbia accesso ai dati, agli algoritmi e al processo decisionale dell'IA.
• Equità: l'IA deve essere equa. Ciò significa che l'IA deve essere libera da pregiudizi e discriminazioni.
• Responsabilità: l'IA deve essere responsabile. Ciò significa che l'IA deve essere responsabile delle sue azioni.
Come si può rendere etica l'IA?
L'intelligenza artificiale può essere resa etica applicando i quattro principi dell'etica (autonomia, giustizia, beneficenza e non maleficenza).
Come possono essere applicati i principi dell'etica nel campo dell'intelligenza artificiale?
I quattro principi etici possono essere applicati all'IA nel modo seguente:
• Autonomia: questo principio richiede che l'utente sia in grado di scegliere l'uso dell'IA.
• Giustizia: questo principio richiede che l'IA sia usata in modo equo. Ciò significa che l'IA deve essere libera da pregiudizi e discriminazioni.
• Beneficenza: questo principio richiede che l'IA sia utilizzata a vantaggio dell'utente.
• Non maleficenza: questo principio richiede che l'IA non debba danneggiare l'utente.
L'uso dell'IA può essere etico senza i quattro principi dell'etica?
L'uso dell'IA può essere etico senza i quattro principi dell'etica. Ad esempio, l'intelligenza artificiale può essere utilizzata per promuovere una buona salute, una buona istruzione o una buona occupazione. Questi sono usi etici dell'IA che non si basano sui quattro principi dell'etica.
Qual è la differenza tra etica e legge?
Etica e diritto sono due concetti distinti ma correlati.
La legge è un insieme di regole e principi che definiscono le azioni che sono considerate corrette o scorrette in una data società. Questi principi sono alla base della cultura della società in questione.
L'etica è un insieme di valori e principi universali che definiscono le azioni che sono considerate corrette o scorrette in tutte le società. L'etica è un principio.
È possibile applicare i principi dell'etica all'uso dell'IA senza ricorrere alla legge?
Sì, è possibile applicare i principi dell'etica all'uso dell'intelligenza artificiale senza l'uso della legge. Anche se con delle leggi sicuramente non si potrebbe "barare". Però le leggi come la morale non potranno mai essere universali.
L'uso dell'IA può essere legale senza essere etico?
Sì, l'uso dell'IA può essere legale senza essere etico. Ad esempio, l'uso dell'intelligenza artificiale può essere legale per svolgere attività non etiche. Ad esempio ogni scandalo che senti sulla compra/vendita di dati personali spesso riguarda progetti di IA.
L'uso dell'IA è sempre legale?
No, l'uso dell'intelligenza artificiale non è sempre legale. Ad esempio, se l'utente desidera utilizzare l'IA per uccidere un altro essere umano, l'uso dell'IA è illegale.
L'uso dell'IA è sempre etico?
No, l'uso dell'intelligenza artificiale non è sempre etico. Ad esempio, se l'utente desidera utilizzare l'IA per creare DeepFake e FakeNews per diffondere il panico in una piccola città, l'uso dell'IA non è etico.
Quali sono i principali problemi etici legati all'uso dell'IA?
I principali problemi etici legati all'uso dell'IA sono:
• Bias: l'IA è prevenuta se discrimina determinati gruppi di persone.
• Opacità: l'IA è opaca se non spiega le sue decisioni.
• Manipolazione: l'IA è manipolativa se influenza il comportamento delle persone
• Inganno: l'IA è ingannevole se dà alle persone un'impressione sbagliata.
• Disinformazione: l'intelligenza artificiale è disinformativa se fornisce alle persone informazioni sbagliate.
• Discriminazione: l'intelligenza artificiale è discriminatoria se discrimina determinati gruppi di persone.
Da quì in poi l'articolo è stato scritto da psicologi e esperti di IA, che vogliono sottolineare e riflettere su tutti i problemi etici dell'IA. Consigliamo vivamente di LEGGERE ATTENTAMENE OGNI RIGA CHE VERRA'
E' un po lungo ma ne vale la pena!
Etica e IA : Privacy e sorveglianza
C'è una discussione generale sulla privacy e la sorveglianza nella tecnologia dell'informazione (ad esempio, Macnish 2017; Roessler 2017), che riguarda principalmente l'accesso a dati privati e dati identificabili personalmente. La privacy ha diversi aspetti ben riconosciuti, ad esempio, "il diritto a essere lasciati soli", la privacy delle informazioni, la privacy come aspetto della personalità, il controllo sulle informazioni su se stessi e il diritto alla segretezza (Bennett e Raab 2006). Gli studi sulla privacy si sono storicamente concentrati sulla sorveglianza statale da parte dei servizi segreti, ma ora includono la sorveglianza da parte di altri agenti statali, aziende e persino individui. La tecnologia è cambiata in modo significativo negli ultimi decenni mentre la regolamentazione è stata lenta a rispondere (sebbene ci sia il Regolamento (UE) 2016/679)—il risultato è una certa anarchia che viene sfruttata dai giocatori più potenti.
La sfera digitale si è notevolmente ampliata: tutta la raccolta e l'archiviazione dei dati è ora digitale, le nostre vite sono sempre più digitali, la maggior parte dei dati digitali è connessa a un'unica Internet e c'è sempre più tecnologia di sensori in uso che genera dati su aspetti non digitali delle nostre vite. L'intelligenza artificiale aumenta sia le possibilità di raccolta intelligente dei dati sia le possibilità di analisi dei dati. Ciò vale sia per la sorveglianza generale di intere popolazioni che per la classica sorveglianza mirata. Inoltre, gran parte dei dati viene scambiata tra agenti, di solito a pagamento.
Allo stesso tempo, controllare chi raccoglie quali dati e chi ha accesso è molto più difficile nel mondo digitale di quanto non lo fosse nel mondo analogico della carta e delle telefonate. Molte nuove tecnologie di intelligenza artificiale amplificano i problemi noti. Ad esempio, il riconoscimento facciale in foto e video consente l'identificazione e quindi la profilazione e la ricerca di individui (Whittaker et al. 2018: 15ff). Ciò continua utilizzando altre tecniche per l'identificazione, ad esempio, "impronta digitale del dispositivo", che sono comuni su Internet (a volte rivelate nella "privacy policy"). Il risultato è che "In questo vasto oceano di dati, c'è un'immagine spaventosamente completa di noi" (Smolan 2016: 1:01). Il risultato è probabilmente uno scandalo che non ha ancora ricevuto la dovuta attenzione pubblica.
La scia di dati che ci lasciamo alle spalle è il modo in cui i nostri servizi "gratuiti" vengono pagati, ma non ci viene detto di quella raccolta di dati e del valore di questa nuova materia prima, e siamo manipolati per lasciare sempre più tali dati. Per le "grandi 5" aziende (Amazon, Google/Alphabet, Microsoft, Apple, Facebook), la parte principale della loro attività di raccolta dati sembra essere basata sull'inganno, sullo sfruttamento delle debolezze umane, sulla procrastinazione, sulla generazione di dipendenza e manipolazione ( Harris 2016 [OIR]). L'obiettivo principale dei social media, dei giochi e della maggior parte di Internet in questa "economia di sorveglianza" è ottenere, mantenere e indirizzare l'attenzione, e quindi la fornitura di dati. “La sorveglianza è il modello di business di Internet” (Schneier 2015). Questa economia della sorveglianza e dell'attenzione è talvolta chiamata "capitalismo della sorveglianza" (Zuboff 2019).
Ha causato molti tentativi di sfuggire alla presa di queste corporazioni, ad esempio, in esercizi di "minimalismo" (Newport 2019), a volte attraverso il movimento open source, ma sembra che i cittadini di oggi abbiano perso il grado di autonomia necessario per fuggire pur continuando pienamente con la loro vita e il loro lavoro. Abbiamo perso la proprietà dei nostri dati, se "proprietà" è la giusta relazione qui. Probabilmente, abbiamo perso il controllo dei nostri dati.
Questi sistemi spesso rivelano fatti su di noi che noi stessi desideriamo sopprimere o di cui non siamo a conoscenza: sanno di noi più di quanto noi stessi conosciamo. Anche solo l'osservazione del comportamento online consente di approfondire i nostri stati mentali (Burr e Christianini 2019) e la manipolazione (vedi sotto la sezione 2.2 ). Ciò ha portato a richieste di protezione dei "dati derivati" (Wachter e Mittelstadt 2019). Con l'ultima frase del suo libro bestseller, Homo Deus , Harari si interroga sulle conseguenze a lungo termine dell'IA:
Cosa accadrà alla società, alla politica e alla vita quotidiana quando algoritmi non coscienti ma altamente intelligenti ci conosceranno meglio di quanto noi stessi conosciamo?
I dispositivi robotici non hanno ancora svolto un ruolo importante in quest'area, ad eccezione del pattugliamento di sicurezza, ma questo cambierà una volta che saranno più comuni al di fuori degli ambienti industriali. Insieme a “Internet of things”, i cosiddetti sistemi “smart” (telefono, TV, forno, lampada, assistente virtuale, casa,…), “smart city” (Sennett 2018), e “smart governance”, sono destinati a entrare a far parte del meccanismo di raccolta dati che offre dati più dettagliati, di diverso tipo, in tempo reale, con sempre più informazioni.
Le tecniche di conservazione della privacy che possono in gran parte nascondere l'identità di persone o gruppi sono ora un punto fermo standard nella scienza dei dati; includono l'anonimizzazione (relativa), il controllo degli accessi (più crittografia) e altri modelli in cui il calcolo viene eseguito con dati di input completamente o parzialmente crittografati (Stahl e Wright 2018); nel caso della "privacy differenziale", ciò viene fatto aggiungendo rumore calibrato per crittografare l'output delle query (Dwork et al. 2006; Abowd 2017). Pur richiedendo maggiori sforzi e costi, tali tecniche possono evitare molti dei problemi di privacy. Alcune aziende hanno anche visto una migliore privacy come un vantaggio competitivo che può essere sfruttato e venduto a un prezzo.
Una delle maggiori difficoltà pratiche è quella di far rispettare effettivamente la regolamentazione, sia a livello dello Stato che a livello dell'individuo che ha una pretesa. Devono identificare l'entità legale responsabile, provare l'azione, forse dimostrare l'intento, trovare un tribunale che si dichiari competente... e infine ottenere che il tribunale applichi effettivamente la sua decisione. Una protezione legale consolidata di diritti come i diritti dei consumatori, la responsabilità del prodotto e altre responsabilità civili o la protezione dei diritti di proprietà intellettuale spesso mancano nei prodotti digitali o sono difficili da applicare. Ciò significa che le aziende con un background “digitale” sono abituate a testare i propri prodotti sui consumatori senza timore di responsabilità pur difendendo pesantemente i propri diritti di proprietà intellettuale.
Etica e IA : Manipolazione del comportamento
Le questioni etiche dell'intelligenza artificiale nella sorveglianza vanno oltre la semplice accumulazione di dati e la direzione dell'attenzione: includono l' uso di informazioni per manipolare il comportamento, online e offline, in un modo che mina la scelta razionale autonoma. Naturalmente, gli sforzi per manipolare il comportamento sono antichi, ma possono acquisire una nuova qualità quando utilizzano i sistemi di intelligenza artificiale. Data l'intensa interazione degli utenti con i sistemi di dati e la profonda conoscenza degli individui che ciò fornisce, sono vulnerabili a "spinte", manipolazioni e inganni. Con dati precedenti sufficienti, gli algoritmi possono essere utilizzati per indirizzare individui o piccoli gruppi con solo il tipo di input che potrebbe influenzare questi particolari individui. Una 'spinta' cambia l'ambiente in modo tale da influenzare il comportamento in modo prevedibile che è positivo per l'individuo, ma facile ed economico da evitare (Thaler & Sunstein 2008). C'è un pendio scivoloso da qui al paternalismo e alla manipolazione.
Molti inserzionisti, operatori di marketing e venditori online utilizzeranno qualsiasi mezzo legale a loro disposizione per massimizzare i profitti, incluso lo sfruttamento di pregiudizi comportamentali, l'inganno e la generazione di dipendenza (Costa e Halpern 2019 [OIR]). Tale manipolazione è il modello di business in gran parte delle industrie del gioco d'azzardo e del gioco, ma si sta diffondendo, ad esempio, alle compagnie aeree a basso costo. Nel design dell'interfaccia su pagine Web o nei giochi, questa manipolazione utilizza i cosiddetti "modelli oscuri" (Mathur et al. 2019). In questo momento, il gioco d'azzardo e la vendita di sostanze che creano dipendenza sono altamente regolamentati, ma la manipolazione e la dipendenza online non lo sono, anche se la manipolazione del comportamento online sta diventando un modello di business fondamentale di Internet.
Inoltre, i social media sono ora il luogo privilegiato per la propaganda politica. Questa influenza può essere utilizzata per guidare il comportamento di voto, come nello "scandalo" Facebook-Cambridge Analytica (Woolley e Howard 2017; Bradshaw, Neudert e Howard 2019) e, in caso di successo, può danneggiare l'autonomia degli individui (Susser, Roessler e Nissenbaum 2019).
Le migliori tecnologie di "falsificazione" dell'intelligenza artificiale trasformano quelle che una volta erano prove affidabili in prove inaffidabili: questo è già accaduto a foto digitali, registrazioni audio e video. Presto sarà abbastanza facile creare (piuttosto che alterare) testo, foto e materiale video "deep fake" con qualsiasi contenuto desiderato. Presto, anche le sofisticate interazioni in tempo reale con le persone tramite SMS, telefono o video saranno simulate. Quindi non possiamo fidarci delle interazioni digitali mentre allo stesso tempo siamo sempre più dipendenti da tali interazioni.
Un problema più specifico è che le tecniche di apprendimento automatico nell'IA si basano sull'addestramento con grandi quantità di dati. Ciò significa che spesso ci sarà un compromesso tra privacy e diritti sui dati rispetto alla qualità tecnica del prodotto. Ciò influenza la valutazione consequenzialista delle pratiche che violano la privacy.
La politica in questo campo ha i suoi alti e bassi: le libertà civili e la protezione dei diritti individuali sono sottoposte a un'intensa pressione da parte delle lobby delle imprese, dei servizi segreti e di altre agenzie statali che dipendono dalla sorveglianza. La protezione della privacy è notevolmente diminuita rispetto all'era pre-digitale, quando la comunicazione era basata su lettere, comunicazioni telefoniche analogiche e conversazioni personali e quando la sorveglianza operava con vincoli legali significativi.
Mentre il regolamento generale sulla protezione dei dati dell'UE (regolamento (UE) 2016/679) ha rafforzato la protezione della privacy, gli Stati Uniti e la Cina preferiscono una crescita con meno regolamentazione (Thompson e Bremmer 2018), probabilmente nella speranza che ciò fornisca un vantaggio competitivo. È chiaro che gli attori statali e aziendali hanno aumentato la loro capacità di invadere la privacy e manipolare le persone con l'aiuto della tecnologia AI e continueranno a farlo per promuovere i loro interessi particolari, a meno che non siano frenati dalla politica nell'interesse della società in generale.
Etica e IA : Opacità dei sistemi di intelligenza artificiale
L'opacità e il pregiudizio sono questioni centrali in quella che ora viene talvolta chiamata "etica dei dati" o "etica dei big data" (Floridi e Taddeo 2016; Mittelstadt e Floridi 2016). I sistemi di intelligenza artificiale per il supporto decisionale automatizzato e l'"analisi predittiva" sollevano "preoccupazioni significative sulla mancanza di un giusto processo, responsabilità, coinvolgimento della comunità e auditing" (Whittaker et al. 2018: 18ff). Fanno parte di una struttura di potere in cui "stiamo creando processi decisionali che limitano e limitano le opportunità di partecipazione umana" (Danaher 2016b: 245).
Allo stesso tempo, sarà spesso impossibile per la persona interessata sapere come il sistema è arrivato a questo output, cioè, il sistema è “opaco” per quella persona. Se il sistema prevede l'apprendimento automatico, in genere sarà opaco anche per l'esperto, che non saprà come è stato identificato un modello particolare, o anche qual è il modello. Il pregiudizio nei sistemi decisionali e nei set di dati è esacerbato da questa opacità. Quindi, almeno nei casi in cui vi è il desiderio di rimuovere i pregiudizi, l'analisi dell'opacità e dei pregiudizi vanno di pari passo e la risposta politica deve affrontare entrambi i problemi insieme.
Molti sistemi di intelligenza artificiale si basano su tecniche di apprendimento automatico in reti neurali (simulate) che estrarranno modelli da un determinato set di dati, con o senza soluzioni "corrette" fornite; vale a dire, supervisionato, semi-supervisionato o non supervisionato. Con queste tecniche, l'"apprendimento" cattura i pattern nei dati e questi vengono etichettati in modo che appaia utile alla decisione presa dal sistema, mentre il programmatore non sa veramente quale modelli nei dati utilizzati dal sistema. In effetti, i programmi si stanno evolvendo, quindi quando arrivano nuovi dati o viene fornito un nuovo feedback ("questo era corretto", "questo era errato"), i modelli utilizzati dal sistema di apprendimento cambiano. Ciò significa che il risultato non è trasparente per l'utente o per i programmatori: è opaco. Inoltre, la qualità del programma dipende fortemente dalla qualità dei dati forniti, seguendo il vecchio slogan “spazzatura dentro, spazzatura fuori”. Quindi, se i dati contenevano già un pregiudizio (ad esempio, i dati della polizia sul colore della pelle dei sospetti), il programma riprodurrà tale pregiudizio. Esistono proposte per una descrizione standard dei set di dati in una "scheda tecnica" che renderebbe più fattibile l'identificazione di tale distorsione (Gebru et al. 2018 [OIR]). Esiste anche una significativa letteratura recente sui limiti dei sistemi di apprendimento automatico che sono essenzialmente sofisticati filtri di dati (Marcus 2018 [OIR]). Alcuni hanno sostenuto che i problemi etici di oggi sono il risultato di "scorciatoie" tecniche che AI ha preso (Cristianini di prossima pubblicazione).
Esistono diverse attività tecniche che mirano all'"IA spiegabile", a partire da (Van Lent, Fisher e Mancuso 1999; Lomas et al. 2012) e, più recentemente, un programma DARPA (Gunning 2017 [OIR]). Più in generale, la domanda di
un meccanismo per chiarire e articolare le strutture di potere, i pregiudizi e le influenze che gli artefatti computazionali esercitano nella società
è talvolta chiamato "rendicontazione di responsabilità algoritmica". Ciò non significa che ci aspettiamo che un'intelligenza artificiale "spieghi il suo ragionamento": farlo richiederebbe un'autonomia morale molto più seria di quella che attualmente attribuiamo ai sistemi di intelligenza artificiale.
Il politico Henry Kissinger ha sottolineato che c'è un problema fondamentale per il processo decisionale democratico se ci affidiamo a un sistema che è presumibilmente superiore agli umani, ma non può spiegare le sue decisioni. Dice che potremmo aver "generato una tecnologia potenzialmente dominante alla ricerca di una filosofia guida" (Kissinger 2018). Danaher (2016b) chiama questo problema “la minaccia dell'algocrazia” (adottando il precedente uso di 'algocrazia' da Aneesh 2002 [OIR], 2006). Allo stesso modo, Cave (2019) sottolinea che abbiamo bisogno di un movimento sociale più ampio verso un processo decisionale più "democratico" per evitare che l'IA sia una forza che porta a un sistema di soppressione impenetrabile in stile Kafka nella pubblica amministrazione e altrove. L'angolo politico di questa discussione è stato sottolineato da O'Neil nel suo influente libro Weapons of Math Destruction(2016) e di Yeung e Lodge (2019).
Nell'UE, alcune di queste questioni sono state prese in considerazione con il (Regolamento (UE) 2016/679), che prevede che i consumatori, di fronte a una decisione basata sul trattamento dei dati, abbiano un "diritto alla spiegazione" legale— fino a che punto ciò si spinge e fino a che punto può essere applicato è controverso (Goodman e Flaxman 2017; Wachter, Mittelstadt e Floridi 2016; Wachter, Mittelstadt e Russell 2017). Zerilli et al. (2019) sostengono che potrebbe esserci un doppio standard qui, in cui chiediamo un alto livello di spiegazione per le decisioni basate sulla macchina nonostante gli esseri umani a volte non raggiungano quello standard da soli.
Etica e IA : Bias nei sistemi decisionali
I sistemi automatizzati di supporto alle decisioni di intelligenza artificiale e le "analisi predittive" operano sui dati e producono una decisione come "output". Questo risultato può variare dal relativamente banale al molto significativo: "questo ristorante corrisponde alle tue preferenze", "il paziente in questa radiografia ha completato la crescita ossea", "richiesta di carta di credito rifiutata", "l'organo del donatore sarà dato a un altro paziente”, “la cauzione è negata”, o “bersaglio identificato e ingaggiato”. L'analisi dei dati viene spesso utilizzata nell'"analisi predittiva" negli affari, nella sanità e in altri campi, per prevedere gli sviluppi futuri: poiché la previsione è più semplice, diventerà anche un prodotto più economico. Un uso della previsione è nella "polizia predittiva" (NIJ 2014 [OIR]), che molti temono possa portare a un'erosione delle libertà pubbliche (Ferguson 2017) perché può togliere potere alle persone il cui comportamento è previsto. Sembra, tuttavia, che molte delle preoccupazioni sulla polizia dipendano da scenari futuristici in cui le forze dell'ordine prevedono e puniscono le azioni pianificate, piuttosto che aspettare che un crimine sia stato commesso (come nel film del 2002 “Minority Report”). Una preoccupazione è che questi sistemi potrebbero perpetuare pregiudizi che erano già presenti nei dati utilizzati per impostare il sistema, ad esempio, aumentando le pattuglie di polizia in un'area e scoprendo più crimini in quell'area.
Le attuali tecniche di "polizia predittiva" o "polizia guidata dall'intelligence" riguardano principalmente la questione di dove e quando le forze di polizia saranno maggiormente necessarie. Inoltre, agli agenti di polizia possono essere forniti più dati, offrendo loro un maggiore controllo e facilitando decisioni migliori, nel software di supporto del flusso di lavoro (ad esempio, "ArcGIS").
Se ciò sia problematico dipende dall'adeguato livello di fiducia nella qualità tecnica di questi sistemi e dalla valutazione degli obiettivi del lavoro di polizia stesso. Forse un recente titolo di articolo punta nella giusta direzione qui: "Etica dell'IA nella polizia predittiva: dai modelli di minaccia a un'etica della cura" (Asaro 2019).
Il pregiudizio emerge tipicamente quando vengono emessi giudizi ingiusti perché l'individuo che esprime il giudizio è influenzato da una caratteristica che è effettivamente irrilevante per la questione in questione, tipicamente un preconcetto discriminatorio sui membri di un gruppo. Quindi, una forma di pregiudizio è una caratteristica cognitiva appresa di una persona, spesso non resa esplicita. La persona interessata potrebbe non essere consapevole di avere quel pregiudizio - potrebbe persino essere onestamente ed esplicitamente contraria a un pregiudizio che si scopre avere (ad esempio, attraverso il priming, cfr. Graham e Lowery 2004). Su equità vs. bias nell'apprendimento automatico, vedi Binns (2018).
A parte il fenomeno sociale del bias appreso, il sistema cognitivo umano è generalmente soggetto a vari tipi di "pregiudizi cognitivi", ad esempio il "pregiudizio di conferma": gli esseri umani tendono a interpretare le informazioni come conferma di ciò in cui già credono. Si dice spesso che questa seconda forma di pregiudizio ostacoli le prestazioni nel giudizio razionale (Kahnemann 2011), sebbene almeno alcuni pregiudizi cognitivi generino un vantaggio evolutivo, ad esempio l'uso economico delle risorse per il giudizio intuitivo. C'è da chiedersi se i sistemi di intelligenza artificiale possano o debbano avere tali pregiudizi cognitivi.
Una terza forma di distorsione è presente nei dati quando presentano un errore sistematico, ad esempio, "distorsione statistica". A rigor di termini, un determinato set di dati sarà imparziale solo per un singolo tipo di problema, quindi la mera creazione di un set di dati comporta il pericolo che possa essere utilizzato per un diverso tipo di problema e quindi risultare distorto per quel tipo. L'apprendimento automatico sulla base di tali dati non solo non riconoscerebbe il pregiudizio, ma codificherebbe e automatizzerebbe il "pregiudizio storico". Tale pregiudizio storico è stato scoperto in un sistema automatizzato di screening delle assunzioni su Amazon (interrotto all'inizio del 2017) che discriminava le donne, presumibilmente perché l'azienda aveva una storia di discriminazioni nei confronti delle donne nel processo di assunzione.
Il "Correctional Offender Management Profiling for Alternative Sanctions" (COMPAS), un sistema per prevedere se un imputato recidiverebbe, è risultato avere lo stesso successo (accuratezza del 65,2%) di un gruppo di umani casuali (Dressel e Farid 2018) e produrre più falsi positivi e meno falsi negativi per gli imputati neri. Il problema con tali sistemi è quindi il pregiudizio più gli esseri umani che ripongono un'eccessiva fiducia nei sistemi. Le dimensioni politiche di tali sistemi automatizzati negli Stati Uniti sono indagate in Eubanks (2018).
Ci sono sforzi tecnici significativi per rilevare e rimuovere i pregiudizi dai sistemi di intelligenza artificiale, ma è giusto dire che questi sono nelle fasi iniziali: vedi UK Institute for Ethical AI & Machine Learning (Brownsword, Scotford e Yeung 2017; Yeung e Lodge 2019) . Sembra che le correzioni tecnologiche abbiano i loro limiti in quanto necessitano di una nozione matematica di equità, che è difficile da trovare (Whittaker et al. 2018: 24ff; Selbst et al. 2019), così come una nozione formale di "razza" ( vedi Benthall e Haynes 2019). Una proposta istituzionale è in arrivo (Veale e Binns 2017).
Etica e IA : Interazione uomo-robot
L'interazione uomo-robot (HRI) è un campo accademico a sé stante, che ora presta un'attenzione significativa alle questioni etiche, alle dinamiche della percezione da entrambe le parti, e sia ai diversi interessi presenti che alla complessità del contesto sociale, inclusa la co -funzionante (ad esempio, Arnold e Scheutz 2017). Indagini utili per l'etica della robotica includono Calo, Froomkin e Kerr (2016); Royakkers e van Est (2016); Zafestas (2016); una raccolta standard di documenti è Lin, Abney e Jenkins (2017).
Sebbene l'intelligenza artificiale possa essere utilizzata per manipolare gli esseri umani affinché credano e facciano cose , può anche essere utilizzato per guidare robot problematici se i loro processi o il loro aspetto implicano l'inganno, minacciano la dignità umana o violano il requisito kantiano del "rispetto per l'umanità". Gli esseri umani attribuiscono molto facilmente proprietà mentali agli oggetti ed entrano in empatia con essi, specialmente quando l'aspetto esteriore di questi oggetti è simile a quello degli esseri viventi. Questo può essere usato per ingannare gli esseri umani (o gli animali) nell'attribuire più significato intellettuale o addirittura emotivo ai robot o ai sistemi di intelligenza artificiale di quanto meritino.
Alcune parti della robotica umanoide sono problematiche a questo proposito (ad esempio, i Geminoidi telecomandati di Hiroshi Ishiguro), e ci sono casi che sono stati chiaramente ingannevoli per scopi di pubbliche relazioni (ad esempio sulle capacità di "Sophia" di Hanson Robotics). Certo, alcuni vincoli abbastanza basilari dell'etica aziendale e della legge si applicano anche ai robot: sicurezza e responsabilità del prodotto o non inganno nella pubblicità. Sembra che questi vincoli esistenti si occupino di molte preoccupazioni che vengono sollevate. Ci sono casi, tuttavia, in cui l'interazione uomo-uomo ha aspetti che appaiono specificamente umani in modi che forse non possono essere sostituiti dai robot: cura, amore e sesso.
Etica e IA : Esempio Robot di cura
L'uso di robot nell'assistenza sanitaria per gli esseri umani è attualmente a livello di studi concettuali in ambienti reali, ma potrebbe diventare una tecnologia utilizzabile in pochi anni e ha sollevato una serie di preoccupazioni per un futuro distopico di cure disumanizzate ( A. Sharkey e N. Sharkey 2011; Robert Sparrow 2016). I sistemi attuali includono robot che supportano gli assistenti umani (p. es., nel sollevare pazienti o trasportare materiale), robot che consentono ai pazienti di fare determinate cose da soli (p. es., mangiare con un braccio robotico), ma anche robot che vengono dati ai pazienti come compagnia e conforto (es. il robot sigillo “Paro”).
Uno dei motivi per cui la questione dell'assistenza è venuta alla ribalta è che le persone hanno sostenuto che avremo bisogno di robot nelle società. Questa argomentazione fa presupposti problematici, vale a dire che con una vita più lunga le persone avranno bisogno di più cure e che non sarà possibile attrarre più persone verso le professioni assistenziali. Può anche mostrare un pregiudizio sull'età (Jecker di prossima pubblicazione). Ancora più importante, ignora la natura dell'automazione, che non riguarda semplicemente la sostituzione degli esseri umani, ma consente agli esseri umani di lavorare in modo più efficiente. Non è molto chiaro se ci sia davvero un problema qui poiché la discussione si concentra principalmente sulla paura che i robot disumanizzino l'assistenza, ma i robot effettivi e prevedibili in cura sono robot di assistenza per l'automazione classica delle attività tecniche. Sono quindi "robot di cura" solo nel senso comportamentale di svolgere compiti in ambienti di cura, non nel senso che un essere umano "si prende cura" dei pazienti. Sembra che il successo di "essere curato" si basi su questo senso intenzionale di "cura", che i robot prevedibili non possono fornire. Semmai, il rischio dei robot in cura è il assenza di tale cura intenzionale, perché potrebbero essere necessari meno assistenti umani. È interessante notare che prendersi cura di qualcosa, anche di un agente virtuale, può essere positivo per l'assistente stesso (Lee et al. 2019). Un sistema che finge di preoccuparsi sarebbe ingannevole e quindi problematico, a meno che l'inganno non sia contrastato da guadagni di utilità sufficientemente ampi (Coeckelbergh 2016). Sono disponibili alcuni robot che fingono di "prendersi cura" di base (sigillo Paro) e altri sono in fase di realizzazione. Forse sentirsi accuditi da una macchina, in una certa misura, è un progresso per i prossimi pazienti.
Etica e IA : Esempio Robot sessuali
È stato sostenuto da diversi ottimisti tecnologici che gli esseri umani saranno probabilmente interessati al sesso e alla compagnia dei robot e si sentiranno a proprio agio con l'idea (Levy 2007). Data la variazione delle preferenze sessuali umane, compresi i giocattoli sessuali e le bambole del sesso, questo sembra molto probabile: la domanda è se tali dispositivi debbano essere fabbricati e promossi e se ci debbano essere dei limiti in quest'area delicata. Sembra essere entrato nel mainstream della "filosofia robotica" negli ultimi tempi (Sullins 2012; Danaher e McArthur 2017; N. Sharkey et al. 2017 [OIR]; Bendel 2018; Devlin 2018).
Gli esseri umani hanno da tempo un profondo attaccamento emotivo agli oggetti, quindi forse la compagnia o persino l'amore con un prevedibile androide è attraente, specialmente per le persone che lottano con gli umani reali e preferiscono già cani, gatti, uccelli, un computer o un tamagotchi. Danaher (2019b) sostiene (Nyholm e Frank 2017) che queste possono essere vere amicizie, ed è quindi un obiettivo prezioso. Sembra certamente che tale amicizia possa aumentare l'utilità complessiva, anche se manca di profondità. In queste discussioni c'è una questione di inganno, dal momento che un robot non può (al momento) intendere ciò che dice o provare sentimenti per un essere umano. È noto che gli esseri umani sono inclini ad attribuire sentimenti e pensieri a entità che si comportano come se fossero senzienti, anche a oggetti chiaramente inanimati che non mostrano alcun comportamento. Inoltre, pagare per l'inganno sembra essere una parte elementare della tradizionale industria del sesso.
Infine, ci sono preoccupazioni che hanno spesso accompagnato questioni di sesso, vale a dire il consenso (Frank e Nyholm 2017), preoccupazioni estetiche e la preoccupazione che gli esseri umani possano essere "corrotti" da determinate esperienze. Per quanto antiquato possa sembrare, il comportamento umano è influenzato dall'esperienza, ed è probabile che la pornografia o i robot sessuali supportino la percezione di altri esseri umani come semplici oggetti del desiderio, o addirittura destinatari di abusi, e quindi rovinino un'esperienza sessuale ed erotica più profonda. In questo senso, la "Campaign Against Sex Robots" sostiene che questi dispositivi sono una continuazione della schiavitù e della prostituzione (Richardson 2016).
Etica e IA : Automazione e occupazione
Sembra chiaro che l'intelligenza artificiale e la robotica porteranno a significativi guadagni di produttività e quindi di ricchezza complessiva. Il tentativo di aumentare la produttività è stato spesso una caratteristica dell'economia, sebbene l'enfasi sulla "crescita" sia un fenomeno moderno (Harari 2016: 240). Tuttavia, i guadagni di produttività attraverso l'automazione in genere significano che sono necessari meno persone per lo stesso output. Tuttavia, ciò non implica necessariamente una perdita di occupazione complessiva, poiché la ricchezza disponibile aumenta e ciò può aumentare la domanda in misura sufficiente a contrastare l'aumento della produttività.
Nel lungo periodo, una maggiore produttività nelle società industriali ha portato a una maggiore ricchezza complessiva. In passato si sono verificate gravi perturbazioni del mercato del lavoro, ad esempio l'agricoltura impiegava oltre il 60% della forza lavoro in Europa e Nord America nel 1800, mentre nel 2010 impiegava ca. 5% nell'UE, e ancor meno nei paesi più ricchi (Commissione europea 2013). Nei 20 anni tra il 1950 e il 1970 il numero di lavoratori agricoli assunti nel Regno Unito è stato ridotto del 50% (Zayed e Loft 2019). Alcune di queste interruzioni portano a industrie a più alta intensità di manodopera che si spostano in luoghi con un costo del lavoro inferiore. Questo è un processo continuo.
L'automazione classica ha sostituito i muscoli umani, mentre l'automazione digitale sostituisce il pensiero umano o l'elaborazione delle informazioni e, a differenza delle macchine fisiche, l'automazione digitale è molto economica da duplicare (Bostrom e Yudkowsky 2014). Potrebbe quindi significare un cambiamento più radicale nel mercato del lavoro. Quindi, la domanda principale è: gli effetti saranno diversi questa volta? La creazione di nuovi posti di lavoro e ricchezza terrà il passo con la distruzione di posti di lavoro? E anche se non è diverso , quali sono i costi di transizione e chi li sostiene? Abbiamo bisogno di apportare modifiche alla società per un'equa distribuzione dei costi e dei benefici dell'automazione digitale?
Le risposte al problema della disoccupazione da parte di AI hanno spaziato dall'allarmato (Frey e Osborne 2013; Westlake 2014) al neutrale (Metcalf, Keller e Boyd 2016 [OIR]; Calo 2018; Frey 2019) all'ottimista (Brynjolfsson e McAfee 2016; Harari 2016; Danaher 2019a). In linea di principio, l'effetto dell'automazione sul mercato del lavoro sembra essere abbastanza ben compreso in quanto coinvolge due canali:
(i) la natura delle interazioni tra lavoratori diversamente qualificati e le nuove tecnologie che influenzano la domanda di lavoro
(ii) gli effetti di equilibrio del progresso tecnologico attraverso i conseguenti cambiamenti nell'offerta di lavoro e nei mercati dei prodotti. (Goos 2018: 362)
Ciò che attualmente sembra accadere nel mercato del lavoro come risultato dell'intelligenza artificiale e dell'automazione della robotica è la "polarizzazione del lavoro" o la forma del "manubrio" (Goos, Manning e Salomons 2009): i lavori tecnici altamente qualificati sono richiesti e ben pagati, i lavori di servizio poco qualificati sono richiesti e mal pagati, ma i lavori con qualifiche medie nelle fabbriche e negli uffici, ovvero la maggior parte dei lavori, sono sotto pressione e ridotti perché sono relativamente prevedibili e molto probabilmente automatizzati (Baldwin 2019 ).
Forse enormi guadagni di produttività consentiranno di realizzare l'"età del tempo libero", qualcosa che (Keynes 1930) aveva previsto che si sarebbe verificato intorno al 2030, ipotizzando un tasso di crescita dell'1% annuo. In realtà, abbiamo già raggiunto il livello da lui previsto per il 2030, ma stiamo ancora lavorando, consumando di più e inventando sempre più livelli di organizzazione. Harari spiega come questo sviluppo economico abbia permesso all'umanità di superare la fame, le malattie e la guerra, e ora miriamo all'immortalità e alla beatitudine eterna attraverso l'intelligenza artificiale, da qui il suo titolo Homo Deus (Harari 2016: 75).
In termini generali, la questione della disoccupazione è una questione di come i beni in una società dovrebbero essere giustamente distribuiti. Una visione standard è che la giustizia distributiva dovrebbe essere decisa razionalmente da dietro un "velo di ignoranza" (Rawls 1971), cioè, come se non si sapesse quale posizione in una società si starebbe effettivamente assumendo (operaio o industriale, ecc.) . Rawls pensava che i principi scelti avrebbero quindi sostenuto le libertà fondamentali e una distribuzione di maggior beneficio per i membri meno avvantaggiati della società. Sembrerebbe che l'economia dell'IA abbia tre caratteristiche che rendono improbabile tale giustizia: in primo luogo, opera in un ambiente in gran parte non regolamentato in cui la responsabilità è spesso difficile da allocare. In secondo luogo, opera in mercati che hanno una caratteristica "il vincitore prende tutto" in cui i monopoli si sviluppano rapidamente. Terzo, la "nuova economia" delle industrie dei servizi digitali si basa su beni immateriali, chiamati anche "capitalismo senza capitale" (Haskel e Westlake 2017). Ciò significa che è difficile controllare le società digitali multinazionali che non fanno affidamento su un impianto fisico in una determinata località. Queste tre caratteristiche sembrano suggerire che se lasciamo la distribuzione della ricchezza alle forze del libero mercato, il risultato sarebbe una distribuzione fortemente ingiusta: E questo è davvero uno sviluppo che possiamo già vedere.
Una domanda interessante che non ha ricevuto troppa attenzione è se lo sviluppo dell'IA sia sostenibile dal punto di vista ambientale: come tutti i sistemi informatici, i sistemi di intelligenza artificiale producono rifiuti molto difficili da riciclare e consumano grandi quantità di energia, soprattutto per l'addestramento dell'apprendimento automatico sistemi (e anche per il "mining" di criptovaluta). Ancora una volta, sembra che alcuni attori in questo spazio scaricano tali costi sulla società in generale.
Etica e IA : Singolarità e Superintelligenza
In alcuni ambienti, si ritiene che l'obiettivo dell'attuale IA sia una "intelligenza generale artificiale" (AGI), in contrasto con un'IA tecnica o "ristretta". L'AGI si distingue solitamente dalle nozioni tradizionali di IA come sistema generico e dalla nozione di "IA forte" di Searle:
si può dire letteralmente che i computer dotati dei programmi giusti comprendano e abbiano altri stati cognitivi. (Searle 1980: 417)
L'idea di singolarità è che se la traiettoria dell'intelligenza artificiale arriva fino a sistemi che hanno un livello umano di intelligenza, allora questi sistemi avrebbero la capacità di sviluppare sistemi di intelligenza artificiale che superano il livello umano di intelligenza, cioè sono "superintelligenti" " (vedi sotto). Tali sistemi di intelligenza artificiale superintelligenti si automigliorerebbero rapidamente o svilupperebbero sistemi ancora più intelligenti. Questa brusca svolta degli eventi dopo aver raggiunto l'IA superintelligente è la "singolarità" da cui lo sviluppo dell'IA è fuori dal controllo umano e difficile da prevedere (Kurzweil 2005: 487).
La paura che "i robot che abbiamo creato conquisteranno il mondo" aveva catturato l'immaginazione umana anche prima che esistessero i computer (ad esempio, Butler 1863) ed è il tema centrale della famosa commedia di Čapek che ha introdotto la parola "robot" (Čapek 1920). Questa paura è stata inizialmente formulata da Irvin Good come una possibile traiettoria dell'IA esistente in una "esplosione di intelligenza":
Si definisca una macchina ultraintelligente una macchina che può superare di gran lunga tutte le attività intellettuali di qualsiasi uomo, per quanto intelligente. Poiché la progettazione di macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine ancora migliori; ci sarebbe quindi indiscutibilmente una "esplosione di intelligenza", e l'intelligenza dell'uomo sarebbe lasciata molto indietro. Quindi la prima macchina ultraintelligente è l'ultima invenzione che l'uomo abbia mai bisogno di fare, a patto che la macchina sia abbastanza docile da dirci come tenerla sotto controllo. (Buono 1965: 33)
L'argomentazione ottimistica dall'accelerazione alla singolarità è enunciata da Kurzweil (1999, 2005, 2012) che sottolinea essenzialmente che la potenza di calcolo è aumentata in modo esponenziale, ovvero raddoppiando ca. ogni 2 anni dal 1970 secondo la “Legge di Moore” sul numero di transistor, e continuerà a farlo per qualche tempo in futuro. Ha predetto in (Kurzweil 1999) che entro il 2010 i supercomputer raggiungeranno la capacità di calcolo umana, entro il 2030 sarà possibile il "mind uploading" ed entro il 2045 si verificherà la "singolarità". Kurzweil parla di un aumento della potenza di calcolo che può essere acquistata a un determinato costo, ma ovviamente negli ultimi anni anche i fondi a disposizione delle aziende di intelligenza artificiale sono aumentati enormemente.
Una versione comune di questo argomento (Chalmers 2010) parla di un aumento dell'"intelligenza" del sistema di intelligenza artificiale (piuttosto che della pura potenza di calcolo), ma il punto cruciale della "singolarità" rimane quello in cui l'ulteriore sviluppo dell'IA viene rilevato da Sistemi di intelligenza artificiale e accelera oltre il livello umano. Bostrom (2014) spiega in dettaglio cosa accadrebbe a quel punto e quali sono i rischi per l'umanità. La discussione è riassunta in Eden et al. (2012); Amstrong (2014); Shanhan (2015). Esistono possibili percorsi per la superintelligenza diversi dall'aumento della potenza di calcolo, ad esempio la completa emulazione del cervello umano su un computer (Kurzweil 2012; Sandberg 2013), percorsi biologici o reti e organizzazioni (Bostrom 2014: 22–51).
Nonostante le ovvie debolezze nell'identificazione di "intelligenza" con potenza di elaborazione, Kurzweil sembra giusto che gli esseri umani tendano a sottovalutare il potere della crescita esponenziale.
Mini-test: Se camminassi a passi in modo che ogni passo sia il doppio del precedente, partendo da un passo di un metro, quanto lontano arriveresti con 30 passi? (risposta: quasi 3 volte più lontano dell'unico satellite naturale permanente della Terra.)
In effetti, la maggior parte dei progressi nell'IA è facilmente attribuibile alla disponibilità di processori che sono più veloci per gradi di grandezza, maggiore spazio di archiviazione e maggiori investimenti (Müller 2018). L'accelerazione effettiva e le sue velocità sono discusse in (Müller e Bostrom 2016; Bostrom, Dafoe e Flynn di prossima pubblicazione); Sandberg (2019) sostiene che i progressi continueranno per qualche tempo.
I partecipanti a questo dibattito sono uniti dall'essere tecnofili, nel senso che si aspettano che la tecnologia si sviluppi rapidamente e porti cambiamenti ampiamente graditi, ma oltre a ciò, si dividono in coloro che si concentrano sui benefici (ad esempio, Kurzweil) e coloro che si concentrano sui rischi ( es. Bostrom). Entrambi i campi simpatizzano con le visioni “transumane” della sopravvivenza dell'umanità in una diversa forma fisica, per esempio caricata su un computer (Moravec 1990, 1998; Bostrom 2003a, 2003c). Considerano anche le prospettive di "miglioramento umano" sotto vari aspetti, inclusa l'intelligenza, spesso chiamata "IA" (aumento dell'intelligenza). È possibile che l'intelligenza artificiale futura venga utilizzata per il miglioramento umano o contribuisca ulteriormente alla dissoluzione della singola persona umana chiaramente definita.
L'argomento dalla superintelligenza al rischio richiede il presupposto che la superintelligenza non implichi benevolenza, contrariamente alle tradizioni kantiane in etica che hanno sostenuto che livelli più elevati di razionalità o intelligenza andrebbero di pari passo con una migliore comprensione di ciò che è morale e una migliore capacità di agire moralmente (Gewirth 1978; Chalmers 2010: 36f). Le argomentazioni a favore del rischio derivante dalla superintelligenza affermano che razionalità e moralità sono dimensioni del tutto indipendenti - questo a volte viene esplicitamente sostenuto come una "tesi di ortogonalità" (Bostrom 2012; Armstrong 2013; Bostrom 2014: 105-109).
La critica alla narrativa della singolarità è stata sollevata da varie angolazioni. Kurzweil e Bostrom sembrano presumere che l'intelligenza sia una proprietà unidimensionale e che l'insieme degli agenti intelligenti sia totalmente ordinato in senso matematico, ma nessuno dei due discute l'intelligenza a lungo nei loro libri. In generale, è corretto affermare che, nonostante alcuni sforzi, le ipotesi formulate nella potente narrativa della superintelligenza e della singolarità non sono state indagate in dettaglio. Una domanda è se una tale singolarità si verificherà mai: potrebbe essere concettualmente impossibile, praticamente impossibile o potrebbe semplicemente non accadere a causa di eventi contingenti, comprese le persone che lo impediscono attivamente. Filosoficamente, la domanda interessante è se la singolarità sia solo un "mito" (Floridi 2016; Ganascia 2017), e non sulla traiettoria dell'attuale ricerca sull'IA. Questo è qualcosa che i professionisti presumono spesso (ad esempio, Brooks 2017 [OIR]). Possono farlo perché temono il contraccolpo delle pubbliche relazioni, perché sopravvalutano i problemi pratici o perché hanno buone ragioni per pensare che la superintelligenza sia un risultato improbabile dell'attuale ricerca sull'IA (Müller di prossima pubblicazione). Questa discussione solleva la questione se la preoccupazione per la "singolarità" sia solo una narrazione sull'intelligenza artificiale immaginaria basata sulle paure umane. Ma anche se uno Questa discussione solleva la questione se la preoccupazione per la "singolarità" sia solo una narrazione sull'intelligenza artificiale immaginaria basata sulle paure umane. Ma anche se uno trova ragioni negative convincenti e la singolarità non è probabile che si verifichi, c'è ancora una possibilità significativa che uno possa rivelarsi sbagliato. La filosofia non è sulla "via sicura di una scienza" (Kant 1791: B15), e forse nemmeno l'intelligenza artificiale e la robotica (Müller 2020). Quindi, sembra che discutere del rischio di singolarità ad alto impatto abbia una giustificazione anche se si pensa che la probabilità che tale singolarità si verifichi sia molto bassa.
Etica e IA : Rischio esistenziale da superintelligenza
Pensare alla superintelligenza a lungo termine solleva la questione se la superintelligenza possa portare all'estinzione della specie umana, che è chiamato "rischio esistenziale" (o XRisk): i sistemi superintelligenti potrebbero avere preferenze che sono in conflitto con l'esistenza degli umani su Terra, e potrebbero quindi decidere di porre fine a quell'esistenza e, data la loro intelligenza superiore, avranno il potere di farlo (o potrebbe capitare che la pongano fine perché non gliene importa davvero).
Pensare a lungo termine è la caratteristica cruciale di questa letteratura, Vi chiediamo di non pensare a un futuro vicino ( 5-10 anni) ma di aprire la mente e pensare a futuri lontani, dove noi non saremo più presenti!
Se la singolarità (o un altro evento catastrofico) si verifica in 30 o 300 o 3000 anni non ha molta importanza (Baum et al. 2019).
Forse esiste persino uno schema astronomico tale che una specie intelligente è destinata a scoprire l'IA a un certo punto, e quindi a provocare la propria fine.
Un tale “grande filtro” contribuirebbe alla spiegazione del “paradosso di Fermi” perché non c'è segno di vita nell'universo conosciuto nonostante l'alta probabilità che emerga. Sarebbe una cattiva notizia se scoprissimo che il "grande filtro" è davanti a noi, piuttosto che un ostacolo che la Terra ha già superato. Questi problemi sono talvolta interpretati in modo più restrittivo come riguardanti l'estinzione umana (Bostrom 2013), o più in generale per quanto riguarda qualsiasi grande rischio per la specie (Rees 2018), di cui AI è solo uno (Häggström 2016; Ord 2020). Bostrom utilizza anche la categoria di “rischio catastrofico globale” per rischi sufficientemente elevati rispetto alle due dimensioni di “portata” e “gravità” (Bostrom e Ćirković 2011; Bostrom 2013).
Queste discussioni sul rischio di solito non sono collegate al problema generale dell'etica sotto rischio (ad esempio, Hansson 2013, 2018). La visione a lungo termine ha le sue sfide metodologiche, ma ha prodotto un'ampia discussione: (Tegmark 2017) si concentra sull'intelligenza artificiale e sulla vita umana "3.0" dopo la singolarità, mentre Russell, Dewey e Tegmark (2015) e Bostrom, Dafoe e Flynn ( di prossima pubblicazione) esamina questioni politiche a lungo termine nell'IA etica. Diverse raccolte di articoli hanno studiato i rischi dell'intelligenza artificiale generale (AGI) e i fattori che potrebbero rendere questo sviluppo più o meno carico di rischi (Müller 2016b; Callaghan et al. 2017; Yampolskiy 2018), compreso lo sviluppo di sistemi non-agente IA (Drexler 2019).
Etica e IA : Controllo della superintelligenza?
In senso stretto, il "problema di controllo" è come noi umani possiamo mantenere il controllo di un sistema di intelligenza artificiale una volta che è superintelligente (Bostrom 2014: 127ff).
In un senso più ampio, è il problema di come possiamo assicurarci che un sistema di intelligenza artificiale si riveli positivo secondo la percezione umana (Russell 2019); questo è talvolta chiamato "allineamento del valore". Quanto sia facile o difficile controllare una superintelligenza dipende in modo significativo dalla velocità di "decollo" di un sistema superintelligente. Ciò ha portato a una particolare attenzione ai sistemi con auto-miglioramento, come AlphaZero (Silver et al. 2018).
Un aspetto di questo problema è che potremmo decidere che una certa caratteristica è desiderabile, ma poi scoprire che ha conseguenze impreviste che sono così negative che dopotutto non desidereremmo quella caratteristica. Questo è l'antico problema del re Mida che desiderava che tutto ciò che toccava si trasformasse in oro. Questo problema è stato discusso in occasione di vari esempi, come il “paperclip maximiser” (Bostrom 2003b), o il programma per ottimizzare le prestazioni scacchistiche (Omohundro 2014).
Le discussioni sulla superintelligenza includono speculazioni su esseri onniscienti, i cambiamenti radicali in un "ultimo giorno" e la promessa di immortalità attraverso la trascendenza della nostra attuale forma corporea, quindi a volte hanno chiare sfumature religiose (Capurro 1993; Geraci 2008, 2010; O' Connell 2017: 160ss). Questi problemi pongono anche un noto problema di epistemologia: possiamo conoscere le vie dell'onnisciente (Danaher 2015)? I soliti oppositori si sono già presentati: una risposta caratteristica di un ateo è
Le persone temono che i computer diventeranno troppo intelligenti e conquisteranno il mondo, ma il vero problema è che sono troppo stupidi e hanno già conquistato il mondo (Domingos 2015)
E questo, scusateci l'arroganza ma è verissimo. L'uomo medio nelle città sviluppate dorme 8 ore, lavora 8 ore e le restanti 8 le passa a scorrere contenuti proposti da un IA.
Ad oggi per l'uomo medio l' IA sceglie che prodotti compra (In base alle offerte che crea), sceglie cosa vede, sceglie che devi seguire sui social, sceglie il prestito adatto, sceglie il prezzo dell'assicurazione, sceglie addirittura tattiche di guerra e nuovi farmaci.
E come si fa a pensare che l'IA non abbia già preso il sopravvento su chi non sa nemmeno cosa è?
I nuovi nichilisti spiegano che una "tecno-ipnosi" attraverso le tecnologie dell'informazione è ormai diventata il nostro principale metodo di distrazione dalla perdita di significato (Gertz 2018). Entrambi gli oppositori direbbero quindi che abbiamo bisogno di un'etica per i "piccoli" problemi che si verificano con l'IA e la robotica attuali, e che c'è meno bisogno della "grande etica" del rischio esistenziale derivante dall'IA .
Conclusione Etica e IA
L'Intelligenza Artificiale è un campo di studi in continua evoluzione ed evoluzione. È difficile prevedere quale sarà il futuro dell'IA. Ma per garantire che l'etica e le leggi dell'IA siano in linea con il futuro, è importante comprendere lo stato attuale dell'IA. Le leggi e l'etica per l'IA vengono costantemente aggiornate mentre il campo continua a crescere e cambiare. È importante essere consapevoli di questi cambiamenti in modo da essere consapevoli di come sarà il futuro dell'IA.
Argomento di enorme profondità ed impatto!, complimenti!
Voglio solo indicare che cosa potrebbe interpretare come "etica", una intelligenza artificiale: https://www.tiktok.com/@qbo_robot/video/7070078419672911109?is_from_webapp=1&sender_device=pc&web_id=7100993783609427462