Intelligenza artificiale ed etica: lotta per la fiducia

Pubblicato: 2018-10-02

Di recente ho partecipato all'AI Congress e al Data Science Summit a Londra e ho voluto partecipare alla tavola rotonda intitolata Ethics and AI. I relatori erano Harriet Kingaby, co-fondatrice di Not Terminator ed Emma Perst, direttore esecutivo di DataKind UK.

L'etica è una discussione così interessante e forse l'aspetto più importante nello sviluppo dell'intelligenza artificiale (AI). L'anno scorso abbiamo pubblicato The Marketers Field Guide to Machine Learning e abbiamo discusso l'argomento dell'intelligenza artificiale e dell'etica insieme ad argomenti come equità, spiegabilità e sicurezza. Se l'IA dovesse essere sviluppata in modo completamente non etico, perderemmo completamente la fiducia in essa, quindi dobbiamo tenerla a mente.

Nel nostro ebook abbiamo discusso:

Finora il ML e l'IA sono stati utilizzati principalmente per svolgere attività di livello inferiore, principalmente banali, per migliorare la produttività. Ma presto potranno essere nella posizione di decidere letteralmente la vita o la morte. Un'auto a guida autonoma avrà il compito non solo di portare i suoi occupanti in sicurezza a destinazione, ma anche di mantenere al sicuro tutti quelli che li circondano. È solo questione di tempo quando un'auto a guida autonoma si trova in una situazione impossibile; un incidente è inevitabile, l'unica scelta è tra sterzare verso il pedone A a sinistra o il pedone B a destra. In che modo il sistema di intelligenza artificiale sotto il cofano decide quale azione intraprendere? In base alle dimensioni? Età? Stato sociale? E quando gli investigatori dell'incidente cercano di determinare cosa ha influenzato il risultato, vi troverebbero una logica eticamente preoccupante?

In effetti queste domande ci lasciavano perplessi allora, ma da allora abbiamo visto alcuni dei risultati. Il tema dell'etica e dell'intelligenza artificiale non viene discusso solo nelle sale conferenze e nelle università, ma è entrato nelle pagine legislative e presto sarà ricucito nel tessuto di come operiamo come società.

Intelligenza artificiale buona e cattiva: molte cose possono succedere in un anno

Dal rilascio del nostro ebook sull'apprendimento automatico meno di un anno fa, ci sono stati molti sviluppi dell'IA (nel bene e nel male).

Tesla ha segnalato incidenti con il pilota automatico con auto a guida autonoma e sono emerse tecnologie come Deepfake , per cui la tecnologia di deep learning può essere utilizzata per creare media digitali sovrapponendo immagini di persone reali a situazioni a cui non hanno partecipato con l'intento di creare notizie false o bufale.

In un incidente terribilmente sfortunato, un'auto a guida autonoma di Uber ha ucciso un pedone . Questa tragedia è avvenuta perché la nostra società si è fidata di una tecnologia di intelligenza artificiale. Sebbene in seguito sia stato scoperto che l'errore umano ha avuto un ruolo nell'incidente, una volta etichettate queste cose come IA è difficile dire che la tecnologia non è abbastanza intelligente da essere lasciata a se stessa. Nonostante questa orribile tragedia, le case automobilistiche ( e Ikea ) continuano ad annunciare nuovi piani di auto a guida autonoma.

E mentre l'etica dell'IA è in discussione a causa del suo potenziale dannoso, è la stessa fiducia nel suo sviluppo che ha anche portato a molti risultati sorprendenti di cui stiamo attualmente beneficiando.

La tecnologia, come sempre, è parte del problema e parte della soluzione. Considera il ritmo veloce di sviluppo e le nuove applicazioni dell'IA che emergono ogni giorno come:

  • AI per analizzare le immagini del tumore e riconoscere i tipi di cancro ai polmoni
  • Un'intelligenza artificiale che fa di tutti un grande fotografo
  • Intelligenza artificiale in grado di rendere più efficienti le server farm

Potresti o meno aver sentito parlare di queste tecnologie affascinanti e vantaggiose. La sensazione mediatica intorno alla tragedia è molto più diffusa. L'entusiasmo e l'entusiasmo circondano gli errori della tecnologia AI perché attira molta più attenzione; dai banali, spesso esilaranti fallimenti degli assistenti di intelligenza artificiale alle storie su problemi di privacy più seri .

Il punto è che, che tu ne senta parlare o meno, l'IA sta facendo molte cose positive, nonostante i suoi errori pesantemente pubblicizzati. Queste prove e tribolazioni hanno fatto parlare le persone e le discussioni che si svolgono a un livello superiore giocheranno sicuramente un ruolo nel plasmare il nostro futuro.

Uno sforzo organizzato per sviluppare l'IA in modo etico

Errori altamente pubblicizzati, interruzioni accademiche e confini tecnologici infranti che circondano lo sviluppo dell'IA hanno attirato l'attenzione dei leader di tutto il mondo. Dopotutto, l'IA è già in uso e la società civile si sta preparando per un'accettazione diffusa in vari modi.

I governi e le associazioni devono monitorare e parlarne. E per fortuna lo sono. Ecco un breve elenco di esempi dalla parte superiore della mia testa:

  • Educare i futuri tecnologi dell'IA a far progredire la tecnologia a beneficio dell'umanità ( AI4ALL ).
  • Le Nazioni Unite lavorano per capire come possono aiutare a raggiungere la crescita economica e lavorare per il bene superiore
  • Ricercare le implicazioni sociali dell'IA ( AI Now Institute )
  • Invitando i leader tecnologici in una lettera aperta ad abbracciare uno sviluppo tecnologico incentrato sull'umanità, trasparente e basato sulla fiducia
  • Rendere l'IA parte dei lavori parlamentari: il comitato ristretto della Camera dei Lord del Regno Unito sull'intelligenza artificiale per considerare le implicazioni economiche, etiche e sociali dell'IA

Sistema operativo etico

Il sistema operativo etico è la pratica di stabilire un quadro che tenti di rendere lo sviluppo tecnologico a prova di futuro riducendo al minimo i futuri rischi tecnici e reputazionali. Considera non solo come una nuova tecnologia possa cambiare il mondo in meglio, ma anche come potrebbe danneggiare le cose o essere usata in modo improprio.

Questo sistema operativo propone alcune aree generali da considerare:

  • Verità e disinformazione
    La tecnologia su cui stai lavorando può essere trasformata in uno strumento che può essere utilizzato per "falsificare" le cose?
  • Dipendenza
    È fantastico per il creatore di un nuovo strumento che è così popolare che le persone trascorrono molto tempo ad usarlo, ma fa bene alla loro salute? Lo strumento può essere reso più efficiente in modo che le persone trascorrano bene il loro tempo, ma non all'infinito? Come può essere progettato per incoraggiare un uso moderato?
  • Disuguaglianza
    Chi avrà accesso e chi no? Coloro che non avranno accesso avranno un impatto negativo? Lo strumento ha un impatto negativo sul benessere economico e sull'ordine sociale?
  • Etica
    I dati utilizzati per costruire la tecnologia sono in qualche modo distorti? La tecnologia sta rafforzando il pregiudizio esistente? Il team che sta sviluppando gli strumenti è sufficientemente diversificato per aiutare a individuare i pregiudizi lungo il processo? Lo strumento è sufficientemente trasparente per consentire ad altri di "verificarlo"? Esempio di intelligenza artificiale per l'assunzione per eliminare i pregiudizi – ma per quanto riguarda i suoi creatori, quali pregiudizi potrebbero avere?
  • Sorveglianza
    Un governo o un esercito possono trasformare la tecnologia in uno strumento di sorveglianza o utilizzarla per limitare in altro modo i diritti dei cittadini? I dati raccolti consentono di seguire gli utenti per tutta la vita? Chi non vorresti avere accesso a questi dati per i suoi scopi?
  • Controllo dei dati
    Quali dati stai raccogliendo? Ne hai bisogno? Ne trai profitto? I tuoi utenti condividono questo profitto? Gli utenti hanno diritti sui propri dati? Cosa farebbero i cattivi attori con questi dati? Cosa succede ai dati se la tua azienda viene acquisita?
  • Fiducia implicita
    La tua tecnologia ha diritti utente? I termini sono chiari e di facile comprensione? Stai nascondendo informazioni agli utenti a cui potrebbero interessare? Gli utenti possono accettare e rifiutare determinati aspetti mentre utilizzano ancora la tecnologia? Tutti gli utenti sono creati uguali?
  • Odio e altri crimini
    La tecnologia può essere utilizzata per atti di bullismo o molestie? Può essere usato per diffondere odio, discriminare gli altri? Si può armare?

Ci sono molte aree da considerare, ma ognuna ha le sue implicazioni che non fanno ridere. Ethical OS afferma che una volta identificati i rischi con un potenziale sviluppo dell'IA, possono essere condivisi tra le parti interessate per esaminare completamente il problema.

Verso un futuro intelligente ed etico

Il panel a cui ho partecipato all'AI Congress e al Data Science Summit si è concluso con ulteriori strategie per aiutare gli sviluppatori di IA ad andare avanti in modo più etico. Hanno affermato che l'etica tecnologica dovrebbe essere integrata nella cultura aziendale ed essere parte di una visione aziendale e che i cacciatori di taglie etici dell'IA potrebbero operare in modo simile al modo in cui fanno i cacciatori di insetti!

Con l'entrata in gioco delle principali legislazioni sulla privacy dei consumatori come il GDPR e il California Consumer Privacy Act del 2018 , stiamo già vedendo come i progressi nella scienza dei dati saranno modellati dalle politiche.

Alcune ipotesi suggeriscono che le normative rallenteranno lo sviluppo dell'IA. Sebbene ciò possa accadere durante il processo, se i consumatori hanno più fiducia che i loro dati e le informazioni personali non vengano utilizzati in modo improprio, può aumentare la fiducia nel processo. Ciò potrebbe persino portare a un maggiore utilizzo e adozione, chissà.

Certamente non abbiamo tutte le risposte, ma prestiamo molta attenzione alla discussione.

Crediti immagine

Immagine in primo piano: Unsplash / Markus Spiske