Niebezpieczeństwa związane z ChatGPT: świetne narzędzie do personalizacji czy świetna technologia phishingowa?
Opublikowany: 2023-02-28ChatGPT OpenAI szturmem podbił świat.
Oprócz milionów ludzi, którzy już go wypróbowali, dostawcy usług e-mail (ESP) szkolą go, wykorzystując dane z kampanii, aby tworzyć wysoce skuteczne tematy i treści e-maili.
Użytkownicy Salesforce badają, w jaki sposób ChatGPT może tworzyć formuły i reguły sprawdzania poprawności. A Microsoft włączył go teraz do swojej wyszukiwarki Bing - już mówi się o tym, że jest to potencjalny "zabójca Google!"
Jak więc działa nowa technologia?
ChatGPT (Generative Pre-trained Transformer) wykorzystuje techniki głębokiego uczenia się do przetwarzania terabajtów danych internetowych (zawierającychmiliardysłów) w celu tworzenia odpowiedzi na podpowiedzi lub pytania użytkowników.
Interakcje są jak rozmowa z osobą. Wielu twierdzi, że ChatGPT jest pierwszą aplikacją AI, która przeszła test Turinga — co oznacza, że wykazuje inteligentne zachowanie równoważne lub nie do odróżnienia od człowieka.
Widzieliśmy już kilka przyciągających wzrok przypadków użycia:
- Brytyjska gazeta Times wykorzystała ChatGPT do napisania swojego codziennego artykułu redakcyjnego , a następnie poprosiła czytelników o określenie, które treści zostały napisane maszynowo. Większość nie mogła!
- Internetowy sprzedawca kart okolicznościowych Moonpig rozważa integrację ChatGPT ze swoimi systemami. Klienci mogą poprosić go o wygenerowanie spersonalizowanej wiadomości lub wiersza bez konieczności drapania się po głowie w poszukiwaniu właściwych słów.
ChatGPT umożliwia innowacje i produktywność, które mogą zmienić reguły gry, rywalizując z tworzeniem samej sieci. Ale każda moneta ma dwie strony. Czy ta nowa technologia ma potencjalną ciemną stronę?
Przyjrzyjmy się, w jaki sposób ChatGPT może stworzyć nowe możliwości zarówno dla atakujących, jak i obrońców cyberbezpieczeństwa.
Lepsze próby phishingu
Badacze widzą już kod generowany przez sztuczną inteligencję publikowany na forach poświęconych cyberprzestępczości . Jednym z przypadków użycia ChatGPT z „ciemnej strony” jest spear phishing — oszustwa e-mailowe celowo skierowane do konkretnych osób, organizacji lub firm. Korzystając z tej taktyki, oszuści mogą kraść dane w złośliwych celach lub instalować złośliwe oprogramowanie na atakowanych komputerach.
W typowym przykładzie pracownicy firmy mogą otrzymać wiadomość e-mail od swojego „dyrektora generalnego” z pilną prośbą o współtworzenie połączonego dokumentu lub przeczytanie załącznika. Znajoma nazwa w połączeniu z prośbą, której normalnie mogliby się spodziewać, zwiększa prawdopodobieństwo – i prawdopodobieństwo, że odpowiedzą.
W rzeczywistości jest całkiem możliwe, że niedawny atak ransomware Royal Mail rozpoczął się od e-maila typu spear phishing.
Ponieważ ChatGPT może tworzyć treści w stylu nominowanej osoby, e-maile typu spear phishing wkrótce staną się jeszczebardziejprzekonujące. Oszuści mogą teraz żądać treści brzmiących jak dyrektor generalny ofiary, dzięki czemu wiadomość jest jeszcze bardziej realistyczna i maksymalizuje prawdopodobieństwo, że pracownicy się na nią nabiorą.
Inżynieria antyspołeczna
ChatGPT może również usprawnić inne formy oszustw związanych z podszywaniem się pod inne osoby, zwłaszcza w przypadkach, w których konieczne jest zbudowanie zaufania.
Korzystając z ChatGPT, oszuści mogą bardziej przekonująco udawać pracowników banku, policjantów, urzędników podatkowych (którzy mówią ofiarom, że mają zaległy rachunek) lub przedstawicieli usługodawców (którzy twierdzą, że routery ofiar zostały zhakowane i potrzebują zdalnego dostępu do swojego komputera) naprawić problem).
Coraz częstszym przykładem są wiadomości od przyjaciół lub członków rodziny, którzy są „za granicą”. Zwykle mówią, że ich portfel i telefon zostały skradzione, a ktoś pożyczył im inny telefon, aby poprosić o fundusze awaryjne.
Śmierć oryginalnych treści
Wielu nauczycieli jest bardzo zaniepokojonych tym, że ChatGPT oznacza, że uczniowie nigdy nie będą musieli pisać kolejnego eseju.
Niektórzy już to sprawdzili , przesyłając artykuły generowane przez sztuczną inteligencję i uzyskując wiarygodne oceny pozytywne (pod warunkiem, że nie są najlepsi w klasie). Nauczyciele coraz poważniej martwią się, że sztuczna inteligencja doprowadzi do masowego ściągania, a niektóre szkoły już w odpowiedzi na to odchodzą od wypracowań domowych.
Obawy dotyczące prywatności
ChatGPT może wiedzieć, która planeta została po raz pierwszy sfotografowana przez kosmiczny teleskop Webba (był to HIP 65426 b). Jednak sposób pozyskiwania tych danych może kolidować z nowymi przepisami dotyczącymi prywatności, takimi jak ogólne rozporządzenie o ochronie danych (RODO) i kalifornijska ustawa o ochronie prywatności konsumentów (CCPA).
Sprawa Clearview AI , w której baza danych rozpoznawania twarzy została zbudowana przy użyciu skrobania obrazu, zakończyła się wielomilionowymi grzywnami nałożonymi przez ogólnoeuropejskie organy regulacyjne.
Sposób, w jaki działa ChatGPT, nie jest do końca taki sam — bardziej przypomina blender do przetwarzania danych, w którym oryginalne składniki nie są już rozpoznawalne. Jednak nadal będzie istniała kwestia, czy osoby fizycznechciały,aby ich dane były wykorzystywane w ten sposób.
Naruszenie praw autorskich jest bardziej prawdopodobnym scenariuszem. W Stanach Zjednoczonych złożono pozew zbiorowy przeciwko Stability AI, twórcy generatora grafiki AI Stable Diffusion. Prokuratorzy zarzucili naruszenie praw pierwotnych właścicieli zdjęć.
Getty Images, brytyjska biblioteka zdjęć i dzieł sztuki, twierdzi, że pozwie także Stable Diffusion za wykorzystanie jej zdjęć bez licencji.
GPT = Uzyskaj ochronę już dziś
Chociaż te scenariusze mogą brzmieć nieco apokaliptycznie, istnieją ustalone najlepsze praktyki, które można wykorzystać jako zabezpieczenia:
- Czujność jest zawsze pierwszą linią obrony. Banki i funkcjonariusze policji nigdy nie proszą o podanie danych karty, kodu PIN ani hasła do bankowości internetowej. Dlatego bądź bardzo sceptyczny wobec wszelkich podobnych próśb.
- Otrzymując wiadomość e-mail, sprawdź dane, które posiada tylko legalny nadawca. Dlatego banki często dołączają kody pocztowe jako część swoich wiadomości. Wykorzystanie wskaźników marki do uwierzytelniania wiadomości (BIMI) również odegra tutaj kluczową rolę, ponieważ bazowy protokół uwierzytelniania (DMARC) potwierdza, że wiadomość e-mail pochodzi od zweryfikowanego nadawcy.
- W pracy zastosuj reguły wyróżniania e-maili spoza organizacji. Wiadomość e-mail, która rzekomo pochodzi od Twojego dyrektora generalnego, ale poprzedzona słowem „Zewnętrzny”, byłaby natychmiastową czerwoną flagą.
Jak zidentyfikować treści autorstwa AI
Widzimy też, jak pojawiają się nowe taktyki pomagające identyfikować treści tworzone przez sztuczną inteligencję. Na przykład narzędzia takie jak GPTZero zostały opracowane, aby pomóc nauczycielom i wykładowcom określić, czy eseje ich uczniów są autorstwa maszyn.
Ponadto istnieją prognozy, że OpenAI wstawi znak wodny do tekstu pochodzącego z ChatGPT.
Osoby fizyczne staną się również bardziej kreatywne w kwestii ochrony danych, które mogą być wykorzystywane przez generatywną sztuczną inteligencję. Istnieje słynna historia o zespole rockowym Van Halen, który zażądał misek M&Ms z usuniętymi brązowymi miseczkami w ramach wymagań koncertowych. Krytycy zarzucali im, że sława uderzyła im do głowy. Następnie ich piosenkarz David Lee Roth wyjaśnił, że miało to na celu zapewnienie, że ich umowy z organizatorami wydarzeń (z istotnymi wymogami bezpieczeństwa) zostały w pełni przeczytane.
Jest całkiem możliwe, że ludzie zaczną umieszczać w sieci nieprawdziwe „fakty” na swój temat (podobnie jak dostawcy oprogramowania antyspamowego wdrażają nieskazitelne pułapki spamowe).
Mógłbym na przykład napisać na blogu, że wychowałem się w Australii. (W rzeczywistości była to Republika Południowej Afryki.) Każdy, kto mnie zna, wie, że australijskie odniesienie jest nieprawdziwe i byłoby to czerwoną flagą, gdyby zostało później użyte w treści o mnie!
Sztuczna inteligencja wciąż jest siłą służącą dobru
Pomimo obaw, które nakreśliłem w tym poście, ogólny wpływ tej rewolucji AI powinien być zdecydowanie pozytywny.
Można to porównać do innych krytycznych wynalazków, takich jak samochód i komputer. Zmienią się miejsca pracy (tak samo jak życie), ale pojawią się nowe — zwłaszcza w dziedzinach związanych z rozwojem i wdrażaniem sztucznej inteligencji. Co być może najważniejsze, zwiększy się produktywność.
Chcesz usłyszeć nasze prognozy dotyczące tego, jak generatywna sztuczna inteligencja będzie służyć światu marketingu? Sprawdź nasze ostatnie seminarium internetowe na temat stanu poczty e-mail na żywo , w którym dokładnie omawiamy te możliwości.
A w odpowiedzi na twoje niezadane pytanie, nie, nie użyłem ChatGPT do napisania tego artykułu!