L'etica dell'IA: 4 domande essenziali che dovremmo porci
Pubblicato: 2023-07-31Un anno fa, se avessi detto " AI" a tavola, la mia famiglia (matura) non avrebbe saputo di cosa stavo parlando. A parte i bambini, ovviamente. I bambini sanno già tutto.
Il recente accesso diffuso agli strumenti di intelligenza artificiale generativa rivolti al consumatore ha scatenato conversazioni globali dalle acquisizioni di robot all'entusiasmo per le attività che fanno risparmiare tempo che vengono tolte dai nostri piatti pieni al lavoro.
Gli esperti in materia in tutto il mondo hanno raddoppiato la creazione di risorse di apprendimento automatico per le masse, mentre i responsabili politici prendono in considerazione misure normative per fornire guardrail mentre i malintenzionati hanno una giornata campale per testare i nostri sistemi attuali.
Allo stesso tempo, abbiamo sviluppato politiche tecnologiche che lottano per tenere il passo con la velocità dell'innovazione, le popolazioni che non riescono a determinare efficacemente i fatti dalla finzione online e la privacy viene palesemente ignorata da alcune delle stesse istituzioni che ne pubblicizzano la necessità.
"In breve, l'intelligenza artificiale è ora un attore nella formazione della conoscenza, della comunicazione e del potere".
Kate Crawford
Atlante dell'IA
Rispondere a quattro domande principali sull'intelligenza artificiale
Come possiamo ottenere input su quale direzione nutriamo l'impatto dell'IA? Come potremmo mitigare in modo proattivo i danni causati dall'IA? Come individui, aziende e legislatori, come potremmo ridurre al minimo il rischio di aprire una lattina di worm di apprendimento automatico ?
Inizia con l'etica - con ognuno di noi, come individui, che prende decisioni etiche.
Siamo innovatori. Siamo lavoratori. Siamo famiglie. Siamo comunità. Siamo imprese. Siamo nazioni. Siamo un'umanità globale. Stiamo costruendo, alimentando e istruendo le macchine e quindi abbiamo il 100% di input sulla loro produzione.
L'intelligenza artificiale influenzerà ognuno di noi su questo pianeta e ognuno di noi ha un interesse e una voce su come è - e non è - consentito nelle nostre vite.
Impariamo dai nostri errori nella vita e negli affari e l'intelligenza artificiale non è diversa. L'apprendimento è il fondamento stesso della natura dell'IA. Dopotutto, si chiama apprendimento automatico . Il modo in cui lo costruiamo determina ciò che produce . Quindi dove si applica l'etica qui?
I principi etici devono essere implementati nelle quattro fasi principali dell'intero ciclo di vita dell'IA:
- Come lo costruiamo
- Cosa ci mettiamo dentro
- Cosa facciamo con l'output
- Come mitighiamo le conseguenze indesiderate e inevitabili
Omettere l'ultima fase del ciclo di vita è, avete indovinato, non etico .
Queste fasi possono sembrare pietre miliari perfettamente ragionevoli con cui assegnare regole e linee guida. Conviviamo con algoritmi di apprendimento automatico dagli anni '50 . Abbiamo impiegato diversi anni nella stesura di dati globali e standard etici per l'IA. Eppure, siamo lontani dall'accordo e ancor più dall'adozione.
Se guardiamo ad alcuni attuali ostacoli legali per la grande tecnologia, è chiaro che i responsabili delle decisioni in ogni fase del ciclo di vita delle IA non prendono seriamente in considerazione le considerazioni etiche.
Questioni etiche che circondano l'IA
Quindi, come insistiamo sulle pratiche etiche da parte di coloro che sono coinvolti in ogni fase del ciclo di vita dell'IA?
Facciamo domande, facciamo altre domande, poi facciamo di nuovo quelle stesse domande e non smettiamo mai di fare domande.
- Chi sono i decisori in ogni fase? Abbiamo bisogno di risposte a questo per mitigare i pregiudizi, garantire le migliori pratiche e includere la diversità di pensiero.
- Per chi vengono prese e ottimizzate le decisioni? Ancora una volta, questo riduce i pregiudizi, ma soprattutto, assicura che l'impatto su tutte le parti venga valutato prima di andare avanti.
- Quale capitale è necessario per alimentare l'IA su larga scala? Ciò è necessario per effettuare analisi logiche dei costi-benefici a lungo termine.
- Quali sono gli impatti sociali, politici ed economici? La comprensione di causa ed effetto è necessaria per correggere continuamente le linee guida nel tempo. (Mi piace pensare che questo passaggio sia in linea con lo sviluppo agile del prodotto: lancio, apprendimento, ripetizione.)
In che modo l'IA influisce sul lavoro e sull'economia
Tre recenti case study di Stanford, MIT e Microsoft Research hanno riscontrato risultati simili nella crescita della produttività dei dipendenti dagli strumenti di intelligenza artificiale generativa rispetto alle loro controparti che non hanno utilizzato gli strumenti per svolgere i propri compiti.
In diverse discipline (assistenza clienti, ingegneria del software e creazione di documenti aziendali), vediamo nei dati empirici che gli utenti aziendali hanno aumentato il loro throughput in media del 66%. Nel migliore degli scenari, ciò consente di risparmiare tempo su compiti cognitivamente impegnativi, creando le condizioni per tocchi umani, immaginazione e risultati raffinati più personalizzati.
Con l'aumento della produttività su larga scala, si teme che alcuni lavori diventeranno obsoleti. Storicamente, un settore ha un ciclo di vita naturale quando nuove innovazioni colpiscono i mercati del lavoro. Ad esempio, vi siete mai chiesti che fine hanno fatto gli operatori telefonici ?
Nessuno ha un interruttore magico che consenta ai lavoratori poco qualificati o poco qualificati di entrare immediatamente in settori che richiedono competenze più avanzate. C'è un divario di competenze che storicamente fa affidamento ed esaurisce le reti di sicurezza sociale. Queste lacune di competenze richiedono tempo per essere identificate, finanziate e colmate. Anche se alcuni paesi sostengono in modo proattivo il miglioramento delle competenze per i propri lavoratori, i dati mostrano che i segmenti più vulnerabili della nostra popolazione globale tendono a essere colpiti in modo sproporzionato durante questi giorni di massimo splendore innovativi.
Mentre le previsioni economiche indicano fortemente impatti positivi sul mercato del lavoro derivanti dall'utilizzo dell'IA generativa nelle imprese, sappiamo appieno cosa è a rischio da questo boom economico?
Creativi come artisti, musicisti, registi e scrittori sono tra le industrie con diverse azioni legali collettive contro OpenAI e la società madre di Facebook, Meta. Le grandi aziende tecnologiche che beneficiano dell'intelligenza artificiale confutano le affermazioni secondo cui il lavoro protetto da copyright degli artisti è stato utilizzato illegalmente per addestrare modelli di intelligenza artificiale. Gli artisti stanno cancellando account online a frotte e aziende creative di alto profilo come Getty Images stanno intentando causa . In risposta, la FTC ha recentemente indagato sulle pratiche di scraping dei dati online di OpenAI.
Questo è un perfetto esempio delle quattro fasi del ciclo di vita dell'IA. Poniamoci le nostre domande etiche:
- Chi ha preso queste decisioni? Non i creativi.
- Per chi erano ottimizzate le decisioni? Non i creativi.
- Qual è stato il costo del capitale? Capitale umano? Capitale finanziario? Capitale naturale? Forse è stato in tutti e tre a spese dei creativi.
- È stata presa in considerazione l'impatto sociale, politico ed economico? Forse, ma da chi? Non i creativi.
Siamo disposti a rischiare che una generazione di creativi e le loro industrie adiacenti impediscano la pubblicazione online del lavoro? In che modo ciò influirà sulla nostra evoluzione culturale creativa, sui mezzi di sussistenza dei creatori e sull'impatto sociale e politico a lungo termine che avrebbe? Qualcuno ha riflettuto su questo potenziale impatto, ha determinato se i rischi legali e reputazionali fossero giustificati e ha deciso di andare avanti?
Forse. O semplicemente non ci hanno pensato affatto. In entrambi i casi, la decisione non è stata etica, indipendentemente dalla loro interpretazione delle implicazioni legali.
In un'economia globale, è fondamentale identificare le organizzazioni che operano all'interno di pratiche etiche per dare priorità al loro sostegno rispetto a quelle che violano gli standard etici. Non facendo emergere la posizione etica dei responsabili delle decisioni, rischiamo inavvertitamente di guardare dall'altra parte proprio nel momento in cui abbiamo bisogno di un esame approfondito.
Domanda da asporto: come possiamo valutare, misurare o identificare la posizione etica di un'azienda?
Facci sapere qui.
In che modo l'IA ha un impatto ambientale
L'intelligenza artificiale è un'infrastruttura ad alta intensità energetica. L'impatto ambientale è in gran parte fuori dalla vista e fuori dalla mente, ed è spesso un ripensamento in uno spazio come il settore tecnologico.
Il MIT Technology Review ha riferito che l'addestramento di un singolo modello di intelligenza artificiale può emettere tanto carbonio quanto cinque auto, l'equivalente di oltre 626.000 libbre di anidride carbonica. Anche i minerali della terra svolgono un ruolo importante in ciò che alimenta l'energia per l'elaborazione computazionale di massa dell'IA generativa. L'estrazione dei metalli necessari coinvolti nell'infrastruttura fisica del calcolo spesso avviene a scapito della violenza locale e geopolitica .
"Senza i minerali di questi luoghi, il calcolo contemporaneo semplicemente non funziona."
Kate Crawford
Atlante dell'IA
Ricorda la nostra terza domanda etica: quale capitale è necessario per alimentare l'IA su larga scala? Effettuare un'analisi logica dei costi dei benefici a lungo termine. Il capitale naturale sotto forma di impatto sul nostro pianeta non dovrebbe essere lasciato fuori dall'equazione se siamo abbastanza coraggiosi da porre le domande giuste.
Fare le domande giuste può essere spaventoso, soprattutto se le domande implicano il proprio sostentamento come fonte di contesa. Ma nell'interesse della conoscenza è potere , i tecnologi devono abbracciare la trasparenza per partecipare in ultima analisi a qualsiasi soluzione tecnologica etica.
Non è un sabotaggio aziendale! Un gruppo di professionisti del machine learning "che sono anche consapevoli dello stato generale dell'ambiente" si è impegnato a costruire strumenti di supporto per valutare le emissioni di carbonio generate dal loro lavoro. Dopo la valutazione, possono calcolare modi per ridurre tali emissioni. Hanno persino creato questo calcolatore di emissioni in modo che altri professionisti dell'IA possano calcolare le stime.
Domanda da asporto: come potremmo incoraggiare tecnologi e fornitori a essere coraggiosi nella loro trasparenza dell'IA?
Facci sapere qui.
In che modo i framework che generano ROI influenzano l'etica dell'IA
La regolamentazione da sola non può risolvere i nostri problemi di intelligenza artificiale. I tecnologi sono spesso motivati da metriche che, a loro, possono sembrare eticamente agnostiche perché non sono regolamentate, ma producono un ritorno sull'investimento. Quali sono questi framework che generano ROI? Dove vediamo questi set di regole allo stato brado che restituiscono una qualche forma di ricompensa all'azienda che segue le regole?
Consideriamo l'algoritmo PageRank di Google come un esempio di impatto non normativo sull'etica della tecnologia. L'algoritmo di Google PageRank analizza una "varietà di segnali che si allineano con l'esperienza complessiva della pagina". Ciò include elementi che si allineano con le migliori pratiche UX, seguendo le linee guida ADA e le politiche sulla privacy.
Nessun pattern del dark web significherà un posizionamento favorevole. Non essere conformi ad ADA significherà classifiche meno favorevoli. Migliorando la presenza di un sito e seguendo le linee guida di Google, notiamo che decisioni etiche vengono prese inavvertitamente, sulla base del rispetto di una serie di regole non normative.
Perché il sito della tua azienda dovrebbe seguire le best practice suggerite dall'algoritmo di quest'altra azienda? Perché così facendo si bloccano le tue migliori possibilità di posizionarti bene su Google. L'impatto sulla rilevabilità di un'azienda e sull'importanza percepita online, che influisce sui profitti, è un fattore motivante e quindi influenza le pratiche etiche senza l'applicazione delle normative.
Domanda da asporto: come potremmo ritenere i nostri tecnologi responsabili delle loro pratiche etiche al di fuori del tradizionale spazio normativo? In cosa trovano valore? Da dove traggono carburante per il loro successo?
Facci sapere qui.
Inizia con noi
Indipendentemente da chi sei, tutti svolgono un ruolo nel ridurre al minimo i rischi che vanno di pari passo con l'uso non etico dell'intelligenza artificiale e degli strumenti di apprendimento automatico. Come individui, è fondamentale prendere decisioni etiche sull'uso dell'intelligenza artificiale e su come e cosa insegniamo a queste macchine sulla società.
La storia dell'IA è appena iniziata e come trasformerà completamente il futuro è una storia che non è ancora stata scritta... ancora. Per fortuna, abbiamo voce in capitolo su come l'IA si evolve sia nella nostra vita personale che professionale. Tutto si riduce a garantire che l'etica sia al primo posto.
G2 vuole avere tue notizie!
Coloro che sono interessati all'etica dell'IA, per favore condividi i tuoi pensieri su ciò che manca in questa conversazione che è più importante per te, il tuo settore, azienda o mezzi di sussistenza. Ho intenzione di continuare a sviluppare questa conversazione e condividere articoli successivi basati sulle intuizioni e sull'apprendimento da te e dal resto della comunità G2.
Vuoi più leadership di pensiero? Questo articolo fa parte della serie G2 Voices che presenta una varietà di influenti leader G2.