Die Gefahren von ChatGPT: Großartiges Personalisierungstool oder großartige Phishing-Technologie?
Veröffentlicht: 2023-02-28ChatGPT von OpenAI hat die Welt im Sturm erobert.
Abgesehen von den Millionen von Menschen, die es bereits ausprobiert haben, trainieren E-Mail-Dienstleister (ESPs) es mithilfe von Kampagnendaten, um hochwirksame E-Mail-Betreffzeilen und -Inhalte zu erstellen.
Salesforce-Benutzer untersuchen, wie ChatGPT Formeln und Validierungsregeln erstellen kann. Und Microsoft hat es jetzt in seine Bing-Suchmaschine integriert – es wird bereits von einem potenziellen „Google-Killer“ gesprochen!
Wie funktioniert also die neue Technologie?
ChatGPT (Generative Pre-trained Transformer) verwendet Deep-Learning-Techniken, um Terabytes an Webdaten (dieMilliardenvon Wörtern enthalten) zu verarbeiten, um Antworten auf Eingabeaufforderungen oder Fragen von Benutzern zu erstellen.
Interaktionen sind wie ein Gespräch mit einer Person. Viele sagen, dass ChatGPT die erste KI-Anwendung ist, die den Turing-Test bestanden hat – was bedeutet, dass sie ein intelligentes Verhalten zeigt, das einem Menschen entspricht oder nicht von ihm zu unterscheiden ist.
Wir haben bereits einige auffällige Anwendungsfälle gesehen:
- Die britische Zeitung Times verwendete ChatGPT, um ihren täglichen Leitartikel zu schreiben , und bat die Leser dann, herauszufinden, welche Inhalte maschinell erstellt wurden. Die meisten konnten nicht!
- Der Online-Grußkartenhändler Moonpig erwägt die Integration von ChatGPT in seine Systeme. Kunden können es bitten, eine personalisierte Nachricht oder ein Gedicht zu erstellen, ohne sich nach den richtigen Worten am Kopf kratzen zu müssen.
ChatGPT ermöglicht Innovation und Produktivität, die das Spiel verändern könnten und mit der Erstellung des Webs selbst konkurrieren können. Aber jede Medaille hat zwei Seiten. Gibt es eine mögliche dunkle Seite dieser neuen Technologie?
Sehen wir uns an, wie ChatGPT sowohl für Angreifer als auch für Verteidiger der Cybersicherheit neue Möglichkeiten schaffen könnte.
Bessere Phishing-Versuche
Forscher sehen bereits KI-generierten Code, der in Cybercrime-Foren gepostet wird . Ein ChatGPT-Anwendungsfall von der „dunklen Seite“ ist Spear-Phishing – E-Mail-Betrug, der absichtlich auf bestimmte Personen, Organisationen oder Unternehmen abzielt. Mit dieser Taktik können Betrüger Daten für böswillige Zwecke stehlen oder Malware auf Zielcomputern installieren.
In einem typischen Beispiel erhalten die Mitarbeiter eines Unternehmens eine E-Mail von ihrem „CEO“ mit der dringenden Bitte, zu einem verknüpften Dokument beizutragen oder einen Anhang zu lesen. Der vertraute Name gepaart mit einer Anfrage, die sie normalerweise erwarten würden, erhöht die Plausibilität – und ihre Wahrscheinlichkeit, darauf zu reagieren.
Tatsächlich ist es durchaus möglich, dass der jüngste Ransomware-Angriff von Royal Mail mit einer Spear-Phishing-E-Mail begann.
Da ChatGPT Inhalte im Stil einer nominierten Person produzieren kann, werden Spear-Phishing-E-Mails bald noch überzeugender.Betrüger können jetzt Inhalte anfordern, die wie der CEO des Ziels klingen, wodurch die Botschaft noch realistischer wird und die Wahrscheinlichkeit maximiert wird, dass Mitarbeiter darauf hereinfallen.
Antisoziales Engineering
ChatGPT könnte auch andere Formen des Identitätsbetrugs verbessern, insbesondere in Fällen, in denen Vertrauen aufgebaut werden muss.
Mit ChatGPT können sich Betrüger überzeugender als Bankangestellte, Polizisten, Steuerbeamte (die den Opfern mitteilen, dass sie eine ausstehende Rechnung haben) oder Vertreter von Dienstanbietern (die behaupten, die Router der Opfer seien gehackt worden und sie benötigen Fernzugriff auf ihren Computer) ausgeben um das Problem zu lösen).
Ein immer häufiger vorkommendes Beispiel sind Nachrichten von Freunden oder Familienmitgliedern, die „im Ausland“ sind. Sie sagen normalerweise, dass ihre Brieftasche und ihr Telefon gestohlen wurden und jemand ihnen ein anderes Telefon geliehen hat, um Notfallgelder anzufordern.
Der Tod des ursprünglichen Inhalts
Viele Pädagogen sind sehr besorgt darüber, dass ChatGPT bedeutet, dass Schüler nie wieder einen Aufsatz schreiben müssen.
Einige haben dies bereits auf die Probe gestellt , KI-generierte Artikel eingereicht und glaubwürdige Erfolgsnoten erhalten (vorausgesetzt, sie sind damit einverstanden, nicht Klassenbester zu sein). Pädagogen sind ernsthaft besorgt, dass KI zu Massenbetrug führen wird, und einige Schulen wenden sich bereits als Reaktion darauf von Hausaufgabenaufsätzen ab.
Datenschutzbedenken
ChatGPT weiß möglicherweise, welcher Planet zuerst vom Webb-Weltraumteleskop fotografiert wurde (es war HIP 65426 b). Die Art und Weise, wie diese Daten bezogen wurden, kann jedoch mit neuen Datenschutzgesetzen wie der Datenschutz-Grundverordnung (DSGVO) und dem California Consumer Privacy Act (CCPA) kollidieren.
Der Clearview-KI- Fall , bei dem eine Gesichtserkennungsdatenbank mithilfe von Image Scraping erstellt wurde, endete mit Bußgeldern in Höhe von mehreren Millionen Dollar von einer europaweiten Gruppe von Aufsichtsbehörden.
Die Funktionsweise von ChatGPT ist nicht ganz dieselbe – eher wie ein Lebensmittelmixer für Daten, bei dem die ursprünglichen Zutaten nicht mehr erkennbar sind. Es bleibt jedoch die Frage, ob der Einzelnebeabsichtigt hat,seine Daten auf diese Weise zu verwenden.
Urheberrechtsverletzungen sind ein wahrscheinlicheres Szenario. In den USA wurde eine Sammelklage gegen Stability AI, den Entwickler des KI-Kunstgenerators Stable Diffusion, eingereicht. Staatsanwälte mutmaßten Verletzung der Rechte der Eigentümer des Originalbildes.
Und Getty Images, die in Großbritannien ansässige Foto- und Kunstbibliothek, sagt, dass sie auch Stable Diffusion wegen der Verwendung ihrer Bilder ohne Lizenz verklagen wird.
GPT = Schützen Sie sich noch heute
Während diese Szenarien ein wenig apokalyptisch klingen mögen, gibt es etablierte Best Practices, die als Schutzmaßnahmen verwendet werden können:
- Wachsamkeit ist immer die erste Verteidigungslinie. Banken und Polizeibeamte werden niemals nach Kartendetails, PINs oder Internet-Banking-Passwörtern fragen. Seien Sie also sehr skeptisch gegenüber ähnlichen Anfragen.
- Überprüfen Sie beim Empfang einer E-Mail auf Daten, die nur ein legitimer Absender haben würde. Aus diesem Grund enthalten Banken häufig Postleitzahlen als Teil ihrer Nachrichten. Auch die Verwendung von Brand Indicators for Message Authentication (BIMI) wird hier eine Schlüsselrolle spielen, da das zugrunde liegende Authentifizierungsprotokoll (DMARC) bestätigt, dass die E-Mail von einem verifizierten Absender stammt.
- Implementieren Sie bei der Arbeit Regeln, um E-Mails von außerhalb Ihrer Organisation hervorzuheben. Eine E-Mail, die vorgibt, von Ihrem CEO zu stammen, aber mit „Extern“ vorangestellt ist, wäre ein sofortiges Warnsignal.
So identifizieren Sie von KI erstellte Inhalte
Wir sehen auch, dass neue Taktiken auftauchen, um dabei zu helfen, von KI erstellte Inhalte zu identifizieren. Beispielsweise wurden Tools wie GPTZero entwickelt, um Lehrern und Dozenten dabei zu helfen, festzustellen, ob die Aufsätze ihrer Schüler maschinell verfasst wurden.
Darüber hinaus gibt es Vorhersagen, dass OpenAI ein Wasserzeichen in Text einfügen wird, der von ChatGPT stammt.
Einzelpersonen werden auch kreativer, wie sie Daten schützen, die von generativen KIs verwendet werden könnten. Es gibt eine berühmte Geschichte über die Rockband Van Halen, die als Teil ihrer Konzertanforderungen Schalen mit M&Ms forderte, denen braune entfernt wurden. Kritiker warfen ihnen vor, sich den Ruhm zu Kopf steigen zu lassen. Dann erklärte ihr Sänger David Lee Roth, dies sei, um sicherzustellen, dass ihre Verträge mit Veranstaltern (mit erheblichen Sicherheitsanforderungen) vollständig gelesen wurden.
Es ist durchaus möglich, dass Leute anfangen, falsche „Fakten“ über sich selbst ins Internet zu stellen (ähnlich wie Antispam-Anbieter makellose Spam-Fallen einsetzen).
Ich könnte zum Beispiel in einem Blog angeben, dass ich in Australien aufgewachsen bin. (Eigentlich war es Südafrika.) Jeder, der mich kennt, weiß, dass die australische Referenz nicht wahr ist, und es wäre ein Warnsignal, wenn sie später in Inhalten über mich verwendet würde!
KI ist immer noch eine Kraft des Guten
Trotz der Bedenken, die ich in diesem Beitrag geschildert habe, sollten die Gesamtauswirkungen dieser KI-Revolution überwältigend positiv sein.
Es ist vergleichbar mit anderen kritischen Erfindungen wie dem Automobil und dem Computer. Jobs werden sich verändern (so wie Leben), aber es werden neue entstehen – insbesondere in Bereichen, die mit der Entwicklung und dem Einsatz von KI zu tun haben. Am wichtigsten ist vielleicht, dass die Produktivität steigt.
Möchten Sie unsere Vorhersagen darüber hören, wie generative KI der Welt des Marketings dienen wird? Sehen Sie sich unser aktuelles Webinar „State of Email Live“ an , in dem wir diese Möglichkeiten ausführlich erläutern.
Und als Antwort auf Ihre nicht gestellte Frage: Nein, ich habe ChatGPT nicht verwendet, um diesen Artikel zu schreiben!