L'intelligenza artificiale (AI) si basa su big data e machine learning per una miriade di applicazioni, dai veicoli autonomi agli algoritmi di trading, dai sistemi di supporto alle decisioni cliniche al data mining. La disponibilità di grandi quantità di dati è essenziale per lo sviluppo dell'IA.

Ad esempio gli studi sulla grande popolazione e il settore economico della Cina, che utilizzano entrambi piattaforme e strumenti digitalizzati in modo ineguagliabile, potrebbero godere di un vantaggio nell'IA. Inoltre, l’AI ha meno vincoli sull'uso delle informazioni raccolte attraverso l'impronta digitale lasciata da persone e aziende. L'India ha anche adottato una serie di misure simili per digitalizzare la sua economia, compresi i token di identità biometrica, la demonetizzazione e un'imposta integrata sui beni e servizi.

Ma il recente scandalo sull'uso dei dati personali e sociali da parte di Facebook e Cambridge Analytica ha portato alla luce considerazioni etiche. Ed è solo l'inizio. Poiché le applicazioni IA richiedono quantità sempre maggiori di dati per aiutare le macchine a imparare ed eseguire compiti finora riservati agli esseri umani, le aziende stanno affrontando un crescente controllo pubblico, almeno in alcune parti del mondo. Tesla e Uber hanno ridimensionato i loro sforzi per sviluppare veicoli autonomi sulla scia di incidenti ampiamente segnalati. Come possiamo garantire l'uso etico e responsabile dell'IA? Come possiamo portare più consapevolezza su tale responsabilità, in assenza di uno standard globale sull'intelligenza artificiale?

Gli standard etici per la valutazione dell'IA e delle tecnologie ad esso associate sono ancora agli inizi. Le aziende devono avviare una discussione interna e un dibattito esterno con le parti interessate su come evitare di essere coinvolti in situazioni difficili.

Si consideri la differenza tra gli standard etici deontologici e teleologici. Il primo si concentra sull'intenzione e sui mezzi, mentre il secondo sui fini e sui risultati. Ad esempio, nel caso di veicoli autonomi, il fine di un sistema di trasporto privo di errori che sia anche efficiente e amichevole nei confronti dell'ambiente potrebbe essere sufficiente per giustificare la raccolta di dati su larga scala sulla guida in condizioni diverse e anche, sperimentazione basata su AI applicazioni.

Al contrario, gli interventi clinici e in particolare le sperimentazioni mediche sono difficili da giustificare su basi teleologiche. Data l'orribile storia della sperimentazione medica su ignari soggetti umani, le aziende e i ricercatori di IA potrebbero saggiamente impiegare un approccio deontologico che giudichi l'etica delle loro attività sulla base dell'intenzione e dei mezzi piuttosto che dei fini.

Un altro utile metro è la cosiddetta regola d'oro dell'etica, che invita a trattare gli altri nel modo in cui vorresti essere trattato. La difficoltà di applicare questo principio al fiorente campo dell'intelligenza artificiale sta nel divario che separa i miliardi di persone i cui dati vengono accumulati e analizzati dai miliardi di potenziali beneficiari. I dati si aggregano semplicemente in modi che rendono largamente irrilevante l'applicazione diretta della regola d'oro.

Si consideri poi un'ultima serie di standard etici: relativismo culturale contro universalismo. Il primo invita a valutare le pratiche attraverso la lente dei valori e delle norme di una determinata cultura, mentre il secondo esorta tutti a vivere secondo uno standard concordato di comune accordo. Questo confronto aiuta a spiegare, ad esempio, lo scontro attuale tra la concezione europea della privacy dei dati e quella americana, che sta plasmando il panorama competitivo globale per aziende come Google e Facebook, tra le altre. I mercati emergenti come Cina e India hanno proposto per anni di lasciare che il relativismo culturale sia il principio guida, poiché ritengono che dia loro un vantaggio, soprattutto evitando regolamenti inutili che potrebbero rallentare il loro sviluppo come potenze tecnologiche.

È probabile che gli standard etici diventino tanto importanti nel plasmare la competizione globale, così come gli standard tecnologici lo sono stati fin dagli anni '80. Data la posta in gioco e la sete di dati che l'IA comporta, probabilmente richiederà alle aziende di porsi domande molto difficili su ogni dettaglio di ciò che fanno per andare avanti. Nel corso del lavoro che stiamo facendo con i nostri clienti globali, stiamo esaminando il ruolo dell'etica nell'implementazione dell'IA. Il modo in cui industria e società affrontano questi problemi sarà fondamentale per l'adozione dell'IA nel mondo digitale.

Tuttavia, affinché l'AI rispetti le sue promesse, richiederà prevedibilità e fiducia. Questi due aspetti sono correlati. Il trattamento predicibile delle complesse questioni sollevate dall'IA, come la responsabilità e gli usi consentiti dei dati, incoraggerà gli investimenti e l'uso dell'IA. Allo stesso modo, i progressi con l'intelligenza artificiale richiedono ai consumatori di fidarsi della tecnologia, del suo impatto su di essi e del modo in cui utilizza i propri dati. Un trattamento prevedibile e trasparente facilita questa fiducia.

Le macchine intelligenti consentono processi cognitivi di alto livello come pensare, percepire, imparare, risolvere i problemi e prendere decisioni. AI offre opportunità per integrarli, ed  integrare l'intelligenza umana e arricchire il modo in cui operano l'industria e i governi.

Tuttavia, la possibilità di creare macchine cognitive con l'intelligenza artificiale solleva più problemi etici che richiedono un'attenta considerazione. Quali sono le implicazioni di una macchina cognitiva che prende decisioni indipendenti? Dovrebbe essere permesso? Come li riteniamo responsabili dei risultati? Abbiamo bisogno di controllare, regolare e monitorare il loro apprendimento?

Sarà necessario un solido quadro giuridico per affrontare le questioni troppo complesse o in rapido cambiamento per essere adeguatamente affrontate dalla legislazione. Ma il processo politico e legale da solo non sarà abbastanza. Affinché la fiducia possa prosperare, un codice etico sarà ugualmente importante.

Il governo dovrebbe incoraggiare la discussione sull'etica dell'IA e garantire che tutte le parti interessate siano coinvolte. Riunire il settore privato, i gruppi di consumatori e il mondo accademico consentirebbe lo sviluppo di un codice etico che tenga conto degli sviluppi tecnologici, sociali e politici.

Gli sforzi del governo dovrebbero essere collaborativi con gli sforzi esistenti per ricercare e comprendere l'etica nell'intelligenza artificiale. Ci sono molte iniziative di questo tipo che potrebbero essere incoraggiate, tra cui l'Istituto Alan Turing, il Centro per il futuro dell'intelligence di Leverhulme, il World Economic Forum Center per la Quarta rivoluzione industriale, la Royal Society e la Partnership sull'intelligenza artificiale a beneficio delle persone e società.

Ma queste opportunità arrivano con sfide etiche ad esse associate:

  • Decisioni e responsabilità: con l'aumentare dell'uso di IA, diventerà più difficile ripartire la responsabilità delle decisioni. Se vengono commessi degli errori che causano danni, chi dovrebbe assumersene il rischio?
  • Trasparenza: quando si utilizzano sistemi di apprendimento automatico complessi per prendere decisioni importanti, potrebbe essere difficile slegare le cause alla base di una specifica linea d'azione. Sono necessarie chiare spiegazioni sul ragionamento della macchina per determinare la responsabilità.
  • Distorsione: i sistemi di apprendimento automatico possono consolidare pregiudizi esistenti nei sistemi decisionali. Bisogna fare attenzione per garantire che l'intelligenza artificiale evolva in modo non discriminatorio.
  • Valori umani: senza programmazione, i sistemi di intelligenza artificiale non hanno valori predefiniti o "buon senso". Lo standard BS 8611 del British Standards Institute sulla "progettazione etica e l'applicazione di robot e sistemi robotici" fornisce alcune indicazioni utili: "I robot non dovrebbero essere progettati esclusivamente o principalmente per uccidere o danneggiare gli esseri umani. Gli umani, non i robot, sono gli agenti responsabili; dovrebbe essere possibile scoprire chi è responsabile per qualsiasi robot e il suo comportamento."
  • Protezione dei dati e IP: il potenziale dell'IA è radicato nell'accesso a grandi insiemi di dati. Cosa succede quando un sistema AI viene addestrato su un set di dati, quindi applica gli apprendimenti a un nuovo set di dati?

L'IA responsabile assicura attenzione ai principi e ai valori morali per garantire che l'etica umana fondamentale non sia compromessa. Ci sono state diverse recenti accuse di aziende che sfruttano l'intelligenza artificiale in modo non etico. Tuttavia, Amazon, Google, Facebook, IBM e Microsoft hanno stabilito una partnership senza scopo di lucro per formulare le migliori pratiche sulle tecnologie di intelligenza artificiale, far avanzare la comprensione del pubblico e fungere da piattaforma per l'intelligenza artificiale.

Mauro Guillen è professore di management alla The Wharton School. È anche direttore del Joseph H. Lauder Institute, un programma di ricerca e insegnamento sulla gestione e le relazioni internazionali.

L'articolo è stato tradotto dall'originale disponibile a questo link:

https://www.weforum.org/agenda/2018/07/we-know-ethics-should-inform-ai-but-which-ethics-robotics/

Utilizziamo i cookie per rendere l'esperienza dei nostri visitatori la migliore possibile. Per fare questo utilizziamo i cookies. Per sapere come operiamo e come rimuovere i cookies ti invitiamo a vedere la nostra Privacy Policy.