Usare l'intelligenza artificiale generativa? Considera questi 7 suggerimenti da un esperto legale

Pubblicato: 2023-09-22

In qualità di General Counsel di G2, il mio compito è contribuire a costruire e proteggere l'azienda, quindi probabilmente non sorprende che l'intelligenza artificiale generativa sia la mia priorità (e gli avvocati di tutto il mondo!).

Se da un lato l’intelligenza artificiale rappresenta un’opportunità per le organizzazioni, dall’altro comporta anche dei rischi. E questi rischi sollevano preoccupazioni per tutti i leader aziendali, non solo per gli uffici legali.

Con così tante informazioni disponibili, riconosco che può essere difficile navigare in queste acque. Quindi, per aiutare ad arrivare al nocciolo di queste preoccupazioni e sintetizzarle in una guida utile per tutti i leader aziendali, di recente ho incontrato alcune delle menti più importanti nel campo dell’intelligenza artificiale per una tavola rotonda a San Francisco.

Lì abbiamo discusso del panorama in evoluzione dell’intelligenza artificiale generativa, delle leggi che la influenzano e di cosa tutto ciò significa per il modo in cui operano le nostre aziende.

Siamo giunti all’accordo che, sì, gli strumenti di intelligenza artificiale generativa stanno rivoluzionando il modo in cui viviamo e lavoriamo. Tuttavia, abbiamo anche convenuto che esistono diversi fattori legali che le aziende dovrebbero considerare quando intraprendono il loro percorso verso l’intelligenza artificiale generativa.

Sulla base di questa discussione, ecco sette cose da considerare quando si integra l’intelligenza artificiale nella propria azienda.

1. Comprendere la conformazione del terreno

Il tuo primo compito è identificare se stai lavorando con un'azienda di intelligenza artificiale o con un'azienda che utilizza l'intelligenza artificiale. Un’azienda di intelligenza artificiale crea, sviluppa e vende tecnologie di intelligenza artificiale, con l’intelligenza artificiale come offerta di business principale. Pensa a OpenAI o DeepMind.

D’altra parte, un’azienda che utilizza l’intelligenza artificiale integra l’intelligenza artificiale nelle sue operazioni o prodotti ma non crea la tecnologia AI stessa. Il sistema di raccomandazioni di Netflix ne è un buon esempio. Conoscere la differenza è fondamentale, poiché determina la complessità del terreno legale che devi esplorare e decifra quali leggi si applicano al tuo caso.

G2 presenta il software AI chiave in questo campo in via di sviluppo. Quando hai una visione d'insieme dei possibili strumenti, puoi prendere decisioni migliori su quale è giusto per la tua attività.

Tieni d'occhio gli ultimi sviluppi legislativi, poiché le normative sull'IA generativa sono all'orizzonte. La legislazione si sta sviluppando rapidamente negli Stati Uniti, nel Regno Unito e in Europa. Allo stesso modo, si sta attivamente decidendo sui contenziosi che coinvolgono l’IA. Rimani in contatto con i tuoi avvocati per gli ultimi sviluppi.

2. Scegli il partner giusto, tenendo presente i termini di utilizzo

Puoi dire molto di un'azienda dai suoi termini di utilizzo. Cosa valorizza un’azienda? Come gestiscono il rapporto con i loro utenti o clienti? I termini di utilizzo possono servire come cartina di tornasole.

OpenAI, ad esempio, afferma esplicitamente nelle sue politiche di utilizzo che la sua tecnologia non dovrebbe essere utilizzata per applicazioni dannose, ingannevoli o comunque non etiche. Bing Chat richiede agli utenti di rispettare le leggi che vietano contenuti o comportamenti offensivi. Google Bard , nel frattempo, si concentra sulla sicurezza dei dati e sulla privacy nei suoi termini, evidenziando l'impegno di Google nella protezione dei dati degli utenti. La valutazione di questi termini è essenziale per garantire che la tua attività sia in linea con i principi e i requisiti legali del partner AI.

Abbiamo confrontato i termini di utilizzo e le politiche sulla privacy di diversi attori chiave dell'intelligenza artificiale generativa per aiutarci a determinare quali strumenti di intelligenza artificiale funzionerebbero meglio per il profilo di rischio della nostra azienda e consigliamo di fare lo stesso.

Tra la tua azienda e la società di intelligenza artificiale, chi possiede l'input? Chi possiede l'output? I dati della tua azienda verranno utilizzati per addestrare il modello AI? Come elabora lo strumento AI e a chi invia informazioni di identificazione personale? Per quanto tempo l'input o l'output verranno conservati dallo strumento AI?

Le risposte a queste domande informano in che misura la tua azienda vorrà interagire con lo strumento AI.

3. Navigare nel labirinto dei diritti di proprietà

Quando si utilizzano strumenti di intelligenza artificiale generativa, è fondamentale comprendere la portata del proprio diritto di proprietà sui dati inseriti nell'intelligenza artificiale e sui dati derivati ​​dall'intelligenza artificiale.

Dal punto di vista contrattuale, le risposte dipendono dall’accordo che hai con la società di intelligenza artificiale. Assicurati sempre che i termini di utilizzo o gli accordi di servizio descrivano chiaramente i diritti di proprietà.

Ad esempio, OpenAI assume la posizione secondo cui tra l'utente e OpenAI, l'utente possiede tutti gli input e gli output. Allo stesso modo Google Bard, Bing Chat di Microsoft, Jasper Chat e Claude di Anthropic garantiscono all'utente la piena proprietà dei dati di input e output, ma allo stesso tempo si riservano un'ampia licenza per utilizzare i contenuti generati dall'intelligenza artificiale in una moltitudine di modi.

Claude di Anthropic garantisce la proprietà dei dati di input all'utente ma solo "autorizza gli utenti a utilizzare i dati di output". Anthropic si concede anche una licenza per i contenuti AI, ma solo “per utilizzare tutti i feedback, le idee o i miglioramenti suggeriti forniti dagli utenti”. I termini contrattuali stipulati sono molto variabili tra le società di intelligenza artificiale.

4. Trovare il giusto equilibrio tra copyright e proprietà intellettuale

La capacità dell’intelligenza artificiale di generare output unici crea interrogativi su chi detiene la protezione della proprietà intellettuale (IP) su tali output. L’intelligenza artificiale può creare opere soggette a copyright? Se sì, chi è il titolare del diritto d'autore?

La legge non è del tutto chiara su queste questioni, motivo per cui è fondamentale avere una strategia proattiva sulla proprietà intellettuale quando si ha a che fare con l’intelligenza artificiale. Valuta se è importante per la tua azienda far valere la proprietà IP dell'output dell'intelligenza artificiale.

Attualmente, le giurisdizioni sono divise riguardo alle loro opinioni sulla proprietà del copyright per le opere generate dall’intelligenza artificiale. Da un lato, l’Ufficio statunitense per il copyright ritiene che le opere generate dall’intelligenza artificiale, in assenza di qualsiasi coinvolgimento umano, non possano essere protette da copyright perché non sono create da un essere umano.

Nota: il Copyright Office degli Stati Uniti sta attualmente accettando commenti pubblici su come le leggi sul copyright dovrebbero tenere conto della proprietà in relazione ai contenuti generati dall'intelligenza artificiale.

Fonte: registro federale

Per le opere generate dall'intelligenza artificiale create in parte da autori umani, l'Ufficio del copyright degli Stati Uniti ritiene che il diritto d'autore proteggerà solo gli aspetti di autore umano, che sono "indipendenti" e "non influenzano" lo stato del diritto d'autore dell'IA. materiale stesso generato.

D’altro canto, la legge del Regno Unito prevede che i risultati dell’intelligenza artificiale possano essere di proprietà di un essere umano o di un’azienda e che il sistema di intelligenza artificiale non possa mai essere l’autore o il proprietario della proprietà intellettuale. Si attendono chiarimenti da parte di molte giurisdizioni globali ed è una questione da tenere d'occhio per gli avvocati d'impresa poiché nei prossimi anni si prevede un aumento significativo dei contenziosi sulla proprietà della produzione.

5. Sapere dove vengono archiviati i dati, come vengono utilizzati e le leggi sulla privacy dei dati in gioco

La privacy è un’altra area vitale da considerare. Devi sapere dove sono archiviati i tuoi dati, se sono protetti adeguatamente e se i dati della tua azienda vengono utilizzati per alimentare il modello di intelligenza artificiale generativa.

Alcune aziende di intelligenza artificiale rendono anonimi i dati e non li utilizzano per migliorare i propri modelli, mentre altri potrebbero farlo. È essenziale stabilire tempestivamente questi punti per evitare potenziali violazioni della privacy e garantire il rispetto delle leggi sulla protezione dei dati.

In generale, le attuali leggi sulla privacy richiedono generalmente alle aziende di fare alcune cose fondamentali:

  • Fornire avvisi ai consumatori in merito alle modalità di trattamento dei dati personali
  • A volte si ottiene il consenso degli individui prima di raccogliere i dati personali
  • Consentire agli individui di accedere, eliminare o correggere le informazioni relative ai loro dati personali.

Il modo in cui è costruita l’intelligenza artificiale, da un punto di vista tecnico, è estremamente difficile separare le informazioni personali, rendendo praticamente difficile il pieno rispetto di queste leggi. Le leggi sulla privacy cambiano costantemente, quindi ci aspettiamo sicuramente che l’avvento dell’intelligenza artificiale ispiri ulteriori modifiche a queste leggi.

6. Essere consapevoli delle normative locali

Se la tua azienda opera nell’Unione Europea, la conformità al Regolamento generale sulla protezione dei dati (GDPR) diventa fondamentale. Il GDPR mantiene norme severe in materia di intelligenza artificiale, concentrandosi in particolare sulla trasparenza, sulla minimizzazione dei dati e sul consenso degli utenti. La non conformità potrebbe comportare multe salate, quindi è essenziale comprendere e rispettare queste normative.

Come il GDPR, la proposta di legge sull'intelligenza artificiale (AIA) dell'Unione europea è un nuovo quadro giuridico volto a regolamentare lo sviluppo e l'uso dei sistemi di intelligenza artificiale. Si applicherebbe a qualsiasi società di intelligenza artificiale che faccia affari con cittadini dell’UE, anche se la società non è domiciliata nell’UE.

L’AIA regola i sistemi di IA sulla base di un sistema di classificazione che misura il livello di rischio che la tecnologia potrebbe avere sulla sicurezza e sui diritti fondamentali dell’essere umano.

I livelli di rischio includono:

  • Basso o minimo (chatbot)
  • Alto (interventi assistiti da robot, credit scoring)
  • Inaccettabile (vietato, sfruttare i gruppi vulnerabili e consentire il punteggio sociale da parte del governo)

Sia le società di intelligenza artificiale che le aziende che integrano strumenti di intelligenza artificiale dovrebbero prendere in considerazione la possibilità di rendere conformi i propri sistemi di intelligenza artificiale fin dall’inizio incorporando le funzionalità dell’AIA durante le fasi di sviluppo della loro tecnologia.

L'AIA dovrebbe entrare in vigore entro la fine del 2023 con un periodo transitorio di due anni per conformarsi, il cui mancato rispetto potrebbe comportare sanzioni fino a 33 milioni di euro o al 6% del reddito globale di un'azienda (più ripida rispetto al GDPR, la cui non conformità è penalizzato fino ad un massimo di 20 milioni di euro o del 4% del reddito globale di una società).

7. Determinare e allinearsi sui doveri fiduciari

Infine, i funzionari e i direttori della vostra azienda hanno il dovere fiduciario di agire nel migliore interesse della società. Niente di nuovo lì. La novità, tuttavia, è che i loro doveri fiduciari possono estendersi alle decisioni che coinvolgono l’intelligenza artificiale generativa.

C'è una responsabilità aggiuntiva per il consiglio di amministrazione nel garantire l'uso etico e responsabile della tecnologia da parte dell'azienda. Funzionari e direttori devono considerare le potenziali questioni legali ed etiche, l'impatto sulla reputazione dell'azienda e le implicazioni finanziarie quando lavorano con gli strumenti di intelligenza artificiale.

Funzionari e direttori dovrebbero essere pienamente informati sui rischi e sui benefici dell’IA generativa prima di prendere decisioni. In effetti, molte aziende stanno ora nominando chief AI officer la cui responsabilità è quella di supervisionare la strategia, la visione e l'implementazione dell'intelligenza artificiale dell'azienda.

L’intelligenza artificiale avrà un impatto significativo sui doveri fiduciari dei funzionari e dei direttori aziendali. I doveri fiduciari si riferiscono alle responsabilità che i leader aziendali hanno di agire nel migliore interesse della società e dei suoi azionisti.

Ora, con l’avvento dell’intelligenza artificiale, questi leader dovranno tenere il passo con la tecnologia dell’intelligenza artificiale per assicurarsi di prendere le decisioni migliori per l’azienda. Ad esempio, potrebbero dover utilizzare strumenti di intelligenza artificiale per analizzare i dati e prevedere le tendenze del mercato. Se ignorano questi strumenti e prendono decisioni sbagliate, potrebbero essere visti come non adempiono ai loro doveri.

Man mano che l’intelligenza artificiale diventa sempre più diffusa, funzionari e direttori dovranno affrontare nuove sfide etiche e legali, come la privacy dei dati e i pregiudizi algoritmici, per garantire di gestire l’azienda in modo responsabile ed equo. Pertanto, l’intelligenza artificiale sta aggiungendo un nuovo livello di complessità a ciò che significa essere un buon leader aziendale.

Dettare le leggi con l’intelligenza artificiale

Proprio il mese scorso, sono state introdotte al Congresso due nuove norme sulla regolamentazione dell’IA generativa. In primo luogo, il No Sezione 230 Immunity for AI Act , un disegno di legge che mira a negare l’immunità alla Sezione 230 delle piattaforme di intelligenza artificiale generativa ai sensi del Communications Decency Act .

Nota: l'immunità della Sezione 230 generalmente isola i servizi informatici online dalla responsabilità rispetto ai contenuti di terze parti ospitati sul suo sito e generati dai suoi utenti. Gli oppositori di questo disegno di legge sostengono che, poiché gli utenti forniscono l’input, sono loro i creatori di contenuti, non la piattaforma di intelligenza artificiale generativa.

In alternativa, i sostenitori del disegno di legge sostengono che la piattaforma fornisce informazioni che generano l'output in risposta all'input dell'utente, rendendo la piattaforma una co-creatrice di quel contenuto.

Il disegno di legge proposto potrebbe avere un effetto enorme: potrebbe ritenere le società di intelligenza artificiale responsabili dei contenuti generati dagli utenti che utilizzano strumenti di intelligenza artificiale.

La seconda politica, il SAFE Innovation Framework for AI , si concentra su cinque obiettivi politici: sicurezza, responsabilità, fondamenti, spiegazione e innovazione. Ciascun obiettivo mira a bilanciare i benefici per la società dell’intelligenza artificiale generativa con i rischi di danni alla società, tra cui un significativo uso improprio dello spostamento di posti di lavoro da parte di avversari e cattivi attori, la disinformazione del compressore e l’amplificazione dei pregiudizi.

Continuare a cercare nuove leggi sull’intelligenza artificiale generativa e dichiarazioni su come l’implementazione dell’intelligenza artificiale generativa interagisce con le leggi e i regolamenti esistenti.

Nota: si prevede che le imminenti elezioni del 2024 saranno cruciali per il panorama dell’intelligenza artificiale generativa dal punto di vista normativo. L’HIPAA , ad esempio, non è una legge sull’IA ma dovrà lavorare con le normative sull’IA generativa.

Sebbene i tuoi team legali ti terranno informato, è importante che tutti i leader aziendali siano consapevoli dei problemi.

Non è necessario essere un esperto in tutti i dettagli legali, ma comprendere le sette considerazioni ti aiuterà ad affrontare le preoccupazioni e a sapere quando rivolgerti a un consulente legale per un consiglio esperto.

Quando la partnership tra intelligenza artificiale e azienda viene gestita correttamente, siamo tutti in grado di contribuire alla crescita e alla protezione delle nostre attività, accelerando l'innovazione ed evitando i rischi.

Ti chiedi in che modo l'intelligenza artificiale sta influenzando il settore legale nel suo complesso? Guadagno di più sull'evoluzione dell'intelligenza artificiale e della legge e su cosa riserva il futuro alla coppia.