Używasz generatywnej sztucznej inteligencji? Rozważ te 7 wskazówek od eksperta prawnego

Opublikowany: 2023-09-22

Jako główny radca prawny G2 mam obowiązek pomagać w budowaniu i chronić firmę, więc nie jest zaskoczeniem, że generatywna sztuczna inteligencja jest dla mnie najważniejsza (i prawników na całym świecie!).

Chociaż sztuczna inteligencja stwarza szansę dla organizacji, stwarza również ryzyko. Ryzyko to budzi obawy wszystkich liderów biznesu, nie tylko działów prawnych.

Zdaję sobie sprawę, że przy tak dużej ilości informacji na temat tych wód może być trudno żeglować. Aby więc pomóc dotrzeć do sedna tych obaw i sprowadzić je do przydatnego przewodnika dla wszystkich liderów biznesu, niedawno spotkałem się z niektórymi czołowymi umysłami w przestrzeni AI podczas dyskusji przy okrągłym stole w San Francisco.

Omówiliśmy tam zmieniający się krajobraz generatywnej sztucznej inteligencji, obowiązujące na nią przepisy i znaczenie tego wszystkiego dla funkcjonowania naszych firm.

Doszliśmy do porozumienia, że ​​tak, generatywne narzędzia AI rewolucjonizują sposób, w jaki żyjemy i pracujemy. Zgodziliśmy się jednak również, że istnieje kilka czynników prawnych, które firmy powinny wziąć pod uwagę, rozpoczynając podróż w kierunku generatywnej sztucznej inteligencji.

W oparciu o tę dyskusję przedstawiamy siedem rzeczy, które należy wziąć pod uwagę, integrując sztuczną inteligencję w swojej firmie.

1. Zrozum ukształtowanie terenu

Twoim pierwszym zadaniem jest określenie, czy współpracujesz z firmą zajmującą się sztuczną inteligencją , czy z firmą korzystającą ze sztucznej inteligencji. Firma zajmująca się sztuczną inteligencją tworzy, rozwija i sprzedaje technologie sztucznej inteligencji, których podstawową ofertą biznesową jest sztuczna inteligencja. Pomyśl o OpenAI lub DeepMind.

Z drugiej strony firma korzystająca ze sztucznej inteligencji integruje sztuczną inteligencję w swoich operacjach lub produktach, ale sama nie tworzy technologii sztucznej inteligencji. Dobrym przykładem jest tu system rekomendacji Netflixa. Znajomość tej różnicy jest kluczowa, ponieważ określa złożoność obszaru prawnego, po którym musisz się poruszać, i rozszyfrowuje, które przepisy Cię dotyczą.

G2 przedstawia kluczowe oprogramowanie AI w tej rozwijającej się dziedzinie. Spoglądając na dostępne narzędzia z lotu ptaka, możesz podejmować lepsze decyzje dotyczące tego, które z nich jest odpowiednie dla Twojej firmy.

Obserwuj najnowsze zmiany w prawie, ponieważ na horyzoncie pojawiają się regulacje dotyczące generatywnej sztucznej inteligencji. Prawodawstwo szybko rozwija się w USA, Wielkiej Brytanii i Europie. Podobnie aktywnie rozstrzygane są spory sądowe dotyczące sztucznej inteligencji. Bądź w kontakcie ze swoimi prawnikami, aby uzyskać najnowsze informacje.

2. Wybierz odpowiedniego partnera, pamiętając o warunkach użytkowania

Możesz wiele powiedzieć o firmie na podstawie jej warunków użytkowania. Co ceni firma? Jak radzą sobie z relacjami z użytkownikami lub klientami? Warunki korzystania mogą służyć jako papierek lakmusowy.

Na przykład OpenAI wyraźnie stwierdza w swoich zasadach użytkowania, że ​​jego technologii nie należy wykorzystywać do szkodliwych, oszukańczych lub w inny sposób nieetycznych aplikacji. Bing Chat wymaga od użytkowników przestrzegania przepisów zabraniających obraźliwych treści lub zachowań. Tymczasem Google Bard skupia się na bezpieczeństwie danych i prywatności, podkreślając zaangażowanie Google w ochronę danych użytkowników. Ocena tych warunków jest niezbędna, aby upewnić się, że Twoja firma jest zgodna z zasadami i wymogami prawnymi partnera AI.

Porównaliśmy warunki użytkowania i polityki prywatności kilku kluczowych graczy zajmujących się generatywną sztuczną inteligencją, aby pomóc nam określić, które narzędzia sztucznej inteligencji będą najlepiej działać w przypadku profilu ryzyka naszej firmy, i zalecamy zrobienie tego samego.

Kto jest właścicielem danych wejściowych pomiędzy Twoją firmą a firmą zajmującą się sztuczną inteligencją? Kto jest właścicielem wyników? Czy dane Twojej firmy zostaną wykorzystane do szkolenia modelu AI? W jaki sposób narzędzie AI przetwarza i komu wysyła dane osobowe? Jak długo dane wejściowe lub wyjściowe będą przechowywane przez narzędzie AI?

Odpowiedzi na te pytania informują o tym, w jakim stopniu Twoja firma będzie chciała wchodzić w interakcję z narzędziem AI.

3. Poruszaj się po labiryncie praw własności

Korzystając z narzędzi generatywnej sztucznej inteligencji, niezwykle ważne jest zrozumienie zakresu swojego prawa własności do danych, które umieszczasz w sztucznej inteligencji, oraz danych pochodzących z sztucznej inteligencji.

Z punktu widzenia umowy odpowiedzi zależą od umowy zawartej z firmą zajmującą się sztuczną inteligencją. Zawsze upewnij się, że warunki użytkowania lub umowy o świadczenie usług wyraźnie określają prawa własności.

Na przykład OpenAI stoi na stanowisku, że pomiędzy użytkownikiem a OpenAI użytkownik jest właścicielem wszystkich wejść i wyjść. Google Bard, Bing Chat firmy Microsoft, Jasper Chat i Claude firmy Anthropic podobnie przyznają użytkownikowi pełną własność danych wejściowych i wyjściowych, ale jednocześnie zastrzegają sobie szeroką licencję na korzystanie z treści generowanych przez sztuczną inteligencję na wiele sposobów.

Claude firmy Anthropic przyznaje użytkownikowi własność danych wejściowych, ale jedynie „upoważnia użytkowników do korzystania z danych wyjściowych”. Anthropic udziela sobie również licencji na treści AI, ale wyłącznie „w celu wykorzystania wszystkich opinii, pomysłów lub sugerowanych ulepszeń dostarczonych przez użytkowników”. Warunki umowy, które zawierasz, są bardzo zróżnicowane w przypadku firm zajmujących się sztuczną inteligencją.

4. Znajdź właściwą równowagę pomiędzy prawami autorskimi a własnością intelektualną

Zdolność sztucznej inteligencji do generowania unikalnych wyników rodzi pytania o to, kto jest objęty ochroną własności intelektualnej (IP) w stosunku do tych wyników. Czy sztuczna inteligencja może tworzyć dzieła podlegające prawom autorskim? Jeśli tak, kto jest właścicielem praw autorskich?

Prawo nie jest w pełni jasne w tych kwestiach, dlatego w przypadku sztucznej inteligencji niezwykle ważne jest posiadanie proaktywnej strategii dotyczącej własności intelektualnej. Zastanów się, czy dla Twojej firmy ważne jest egzekwowanie prawa własności adresu IP do wyników AI.

Obecnie jurysdykcje są podzielone co do poglądów na temat własności praw autorskich do dzieł generowanych przez sztuczną inteligencję. Z jednej strony amerykański Urząd ds. Praw Autorskich stoi na stanowisku, że dzieła wygenerowane przez sztuczną inteligencję, bez udziału człowieka, nie mogą być objęte prawami autorskimi, ponieważ nie są autorstwa człowieka.

Uwaga: Amerykański Urząd ds. Praw Autorskich przyjmuje obecnie publiczne uwagi na temat sposobu, w jaki przepisy dotyczące praw autorskich powinny uwzględniać własność treści generowanych przez sztuczną inteligencję.

Źródło: Rejestr Federalny

W przypadku dzieł generowanych przez sztuczną inteligencję, częściowo autorstwa człowieka, amerykański Urząd ds. Praw Autorskich stoi na stanowisku, że prawo autorskie będzie chronić wyłącznie te aspekty stworzone przez człowieka, które są „niezależne” od stanu praw autorskich sztucznej inteligencji i „nie mają na nie wpływu”. sam wygenerowany materiał.

Z drugiej strony prawo brytyjskie stanowi, że wytwory sztucznej inteligencji mogą być własnością osoby lub firmy, a system sztucznej inteligencji nigdy nie może być autorem ani właścicielem własności intelektualnej. W wielu jurysdykcjach na całym świecie oczekuje się na wyjaśnienia, a prawnicy biznesowi powinni zwrócić na to uwagę, ponieważ w ciągu najbliższych kilku lat przewiduje się znaczny wzrost liczby postępowań sądowych dotyczących własności produkcji.

5. Dowiedz się, gdzie przechowywane są dane, w jaki sposób są wykorzystywane i jakie obowiązują przepisy dotyczące prywatności danych

Prywatność to kolejny istotny obszar, który należy wziąć pod uwagę. Musisz wiedzieć, gdzie przechowywane są Twoje dane, czy są odpowiednio chronione i czy dane Twojej firmy są wykorzystywane do zasilania generatywnego modelu sztucznej inteligencji.

Niektóre firmy zajmujące się sztuczną inteligencją anonimizują dane i nie wykorzystują ich do ulepszania swoich modeli, podczas gdy inne mogą to zrobić. Ustalenie tych punktów na wczesnym etapie jest niezbędne, aby uniknąć potencjalnych naruszeń prywatności i zapewnić zgodność z przepisami o ochronie danych.

Ogólnie rzecz biorąc, dzisiejsze przepisy dotyczące prywatności zazwyczaj wymagają od firm wykonania kilku kluczowych rzeczy:

  • Przekazuj konsumentom powiadomienia dotyczące sposobu przetwarzania danych osobowych
  • Czasami przed zebraniem danych osobowych należy uzyskać zgodę poszczególnych osób
  • Zezwalaj poszczególnym osobom na dostęp, usuwanie i poprawianie informacji związanych z ich danymi osobowymi.

Sposób, w jaki zbudowana jest sztuczna inteligencja, z technicznego punktu widzenia niezwykle utrudnia oddzielenie danych osobowych, co praktycznie utrudnia zachowanie pełnej zgodności z tymi przepisami. Przepisy dotyczące prywatności stale się zmieniają, więc z pewnością spodziewamy się, że pojawienie się sztucznej inteligencji zainspiruje dalsze zmiany w tych przepisach.

6. Należy pamiętać o lokalnych przepisach

Jeśli Twoja firma działa w Unii Europejskiej, zgodność z ogólnym rozporządzeniem o ochronie danych (RODO) staje się krytyczna. RODO utrzymuje rygorystyczne regulacje dotyczące sztucznej inteligencji, koncentrując się szczególnie na przejrzystości, minimalizacji danych i zgodzie użytkownika. Nieprzestrzeganie może skutkować wysokimi karami finansowymi, dlatego tak istotne jest zrozumienie i przestrzeganie tych przepisów.

Podobnie jak RODO, zaproponowana przez Unię Europejską ustawa o sztucznej inteligencji (AIA) stanowi nowe ramy prawne mające na celu regulację rozwoju i wykorzystania systemów sztucznej inteligencji. Miałoby to zastosowanie do każdej firmy zajmującej się sztuczną inteligencją prowadzącej interesy z obywatelami UE, nawet jeśli firma nie ma siedziby w UE.

AIA reguluje systemy sztucznej inteligencji w oparciu o system klasyfikacji, który mierzy poziom ryzyka, jakie technologia może stwarzać dla bezpieczeństwa i praw podstawowych człowieka.

Poziomy ryzyka obejmują:

  • Niski lub minimalny (chatboty)
  • Wysoki (operacje z użyciem robota, scoring kredytowy)
  • Niedopuszczalne (zabronione, wyzysk grup bezbronnych i umożliwianie punktacji społecznej przez rząd)

Zarówno przedsiębiorstwa zajmujące się sztuczną inteligencją, jak i przedsiębiorstwa integrujące narzędzia sztucznej inteligencji powinny od początku rozważyć zapewnienie zgodności swoich systemów sztucznej inteligencji poprzez włączenie funkcji AIA na etapach rozwoju swojej technologii.

AIA powinna wejść w życie do końca 2023 r., z dwuletnim okresem przejściowym na osiągnięcie zgodności, a niezastosowanie się do niej może skutkować karami finansowymi do 33 mln EUR lub 6% całkowitego dochodu firmy (bardziej stromymi niż RODO, którego nieprzestrzeganie jest karana w wysokości większej z 20 milionów euro lub 4% światowego dochodu firmy).

7. Określ i dostosuj obowiązki powiernicze

Wreszcie, kierownictwo i dyrektorzy Twojej firmy mają obowiązek powierniczy, aby działać w najlepszym interesie firmy. Nic nowego. Nowością jest jednak to, że ich obowiązki powiernicze mogą obejmować decyzje dotyczące generatywnej sztucznej inteligencji.

Na zarządzie ciąży dodatkowa odpowiedzialność za zapewnienie etycznego i odpowiedzialnego korzystania z technologii przez spółkę. Członkowie kadry kierowniczej i dyrektorzy muszą wziąć pod uwagę potencjalne kwestie prawne i etyczne, wpływ na reputację firmy oraz konsekwencje finansowe pracy z narzędziami sztucznej inteligencji.

Przed podjęciem decyzji kadra kierownicza i dyrektorzy powinni być w pełni poinformowani o ryzyku i korzyściach związanych z generatywną sztuczną inteligencją. W rzeczywistości wiele firm mianuje obecnie dyrektorów ds. sztucznej inteligencji, których obowiązkiem jest nadzorowanie strategii firmy, wizji i wdrażania sztucznej inteligencji.

Sztuczna inteligencja będzie miała znaczący wpływ na obowiązki powiernicze członków kadry kierowniczej i dyrektorów spółki. Obowiązki powiernicze odnoszą się do obowiązków liderów spółek, które muszą działać w najlepszym interesie spółki i jej akcjonariuszy.

Teraz, wraz z rozwojem sztucznej inteligencji, liderzy ci będą musieli nadążać za technologią sztucznej inteligencji, aby mieć pewność, że podejmują najlepsze decyzje dla firmy. Na przykład mogą potrzebować narzędzi sztucznej inteligencji, aby pomóc w analizie danych i przewidywaniu trendów rynkowych. Jeśli zignorują te narzędzia i podejmą złe decyzje, mogą zostać postrzegani jako osoby niespełniające swoich obowiązków.

W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna, kadra kierownicza i dyrektorzy będą musieli stawić czoła nowym wyzwaniom etycznym i prawnym, takim jak prywatność danych i stronniczość algorytmów, aby mieć pewność, że zarządzają firmą w sposób odpowiedzialny i uczciwy. Sztuczna inteligencja dodaje zatem nowy poziom złożoności do tego, co oznacza bycie dobrym liderem firmy.

Stanowienie prawa za pomocą sztucznej inteligencji

Zaledwie w zeszłym miesiącu w Kongresie wprowadzono dwa nowe regulacje dotyczące generatywnej sztucznej inteligencji. Po pierwsze, ustawa nr 230 o immunitecie dla sztucznej inteligencji , projekt ustawy mający na celu odmowę immunitetu na mocy sekcji 230 platform generatywnych AI na mocy ustawy o przyzwoitości komunikacyjnej .

Uwaga: immunitet na podstawie art. 230 zasadniczo izoluje internetowe usługi komputerowe od odpowiedzialności w odniesieniu do treści stron trzecich hostowanych w ich witrynie i generowanych przez ich użytkowników. Przeciwnicy tej ustawy argumentują, że ponieważ użytkownicy wnoszą wkład, to oni są twórcami treści, a nie platformą generatywnej sztucznej inteligencji.

Alternatywnie zwolennicy projektu ustawy argumentują, że platforma dostarcza informacji, które generują dane wyjściowe w odpowiedzi na dane wejściowe użytkownika, co czyni platformę współtwórcą tych treści.

Proponowana ustawa może mieć ogromne skutki – może pociągnąć firmy zajmujące się sztuczną inteligencją do odpowiedzialności za treści generowane przez użytkowników korzystających z narzędzi sztucznej inteligencji.

Druga polityka, ramy innowacji SAFE dla sztucznej inteligencji , koncentruje się na pięciu celach politycznych: bezpieczeństwo, odpowiedzialność, podstawy, wyjaśnienie i innowacja. Każdy cel ma na celu zrównoważenie korzyści społecznych wynikających z generatywnej sztucznej inteligencji z ryzykiem szkód społecznych, w tym znacznych nadużyć w zakresie przenoszenia stanowisk pracy przez przeciwników i złych aktorów, dezinformacji o doładowaniach i wzmacnianiu uprzedzeń.

W dalszym ciągu zwracaj uwagę na nowe przepisy dotyczące generatywnej sztucznej inteligencji i oświadczenia dotyczące interakcji wdrożenia generatywnej sztucznej inteligencji z istniejącymi przepisami i regulacjami.

Uwaga: oczekuje się, że nadchodzące wybory w 2024 r. będą kluczowe dla krajobrazu generatywnej sztucznej inteligencji z punktu widzenia regulacyjnego. Na przykład ustawa HIPAA nie jest prawem dotyczącym sztucznej inteligencji, ale będzie musiała współpracować z przepisami dotyczącymi generatywnej sztucznej inteligencji.

Chociaż zespoły prawne będą Cię na bieżąco informować, ważne jest, aby wszyscy liderzy biznesowi byli świadomi tych problemów.

Nie musisz być ekspertem we wszystkich szczegółach prawnych, ale zrozumienie siedmiu kwestii pomoże Ci rozwiać wątpliwości i wiedzieć, kiedy zwrócić się do radcy prawnego po fachową poradę.

Jeśli partnerstwo między sztuczną inteligencją a biznesem będzie przebiegać właściwie, wszyscy będziemy w stanie przyczynić się do rozwoju i ochrony naszych przedsiębiorstw, przyspieszając innowacje i unikając zagrożeń.

Zastanawiasz się, jak sztuczna inteligencja wpływa na całą branżę prawniczą? Zarabiam więcej na temat ewolucji sztucznej inteligencji i prawa oraz na temat przyszłości tej pary.