ChatGPT 的危險:偉大的個性化工具還是偉大的網絡釣魚技術?
已發表: 2023-02-28OpenAI 的 ChatGPT 風靡全球。
除了已經嘗試過它的數百萬人之外,電子郵件服務提供商 (ESP) 正在使用活動數據對其進行培訓,以生成高效的電子郵件主題行和內容。
Salesforce 用戶正在探索 ChatGPT 如何創建公式和驗證規則。 而且,微軟現在已將其整合到其 Bing 搜索引擎中——已經有人說這是一個潛在的“谷歌殺手!”
那麼,這項新技術是如何運作的呢?
ChatGPT(生成式預訓練轉換器)使用深度學習技術來處理數 TB 的網絡數據(包含數十億個單詞),從而為用戶的提示或問題創建答案。
互動就像與人交談。 許多人說 ChatGPT 是第一個通過圖靈測試的人工智能應用程序——這意味著它表現出與人類等同或無法區分的智能行為。
我們已經看到了一些引人注目的用例:
- 英國的泰晤士報使用 ChatGPT 撰寫每日社論,然後要求讀者識別哪些內容是機器創作的。 大多數不能!
- 在線賀卡零售商 Moonpig 正在考慮將 ChatGPT 集成到其係統中。 客戶可以要求它生成個性化的消息或詩歌,而無需為正確的詞而絞盡腦汁。
ChatGPT 實現了創新和生產力,這可能會改變遊戲規則,與網絡本身的創建相媲美。 但是每一枚硬幣都有兩個面。 這項新技術有潛在的陰暗面嗎?
讓我們看看 ChatGPT 如何為網絡安全攻擊者和防御者創造新的機會。
更好的網絡釣魚嘗試
研究人員已經看到人工智能生成的代碼被發佈到網絡犯罪論壇上。 來自“黑暗面”的 ChatGPT 用例之一是魚叉式網絡釣魚——有意針對特定個人、組織或企業的電子郵件詐騙。 使用這種策略,欺詐者可以竊取數據用於惡意目的或在目標計算機上安裝惡意軟件。
在一個典型的例子中,一家公司的員工可能會收到一封來自他們的“CEO”的電子郵件,其中有一個緊急請求,要求他們參與鏈接的文檔或閱讀附件。 熟悉的名字搭配他們通常期望的請求會增加可信度——以及他們回應的可能性。
事實上,最近的皇家郵政勒索軟件攻擊完全有可能是從魚叉式網絡釣魚電子郵件開始的。
因為 ChatGPT 可以以提名人的方式製作內容,魚叉式網絡釣魚郵件很快就會變得更有說服力。 欺詐者現在可以請求聽起來像目標 CEO 的內容,使信息更加真實,並最大限度地增加員工上當受騙的機會。
反社會工程學
ChatGPT 還可能增強其他形式的假冒欺詐,尤其是在需要建立信任的情況下。
使用 ChatGPT,欺詐者可以更有說服力地冒充銀行員工、警察、稅務官員(他們告訴受害者他們有未付賬單)或服務提供商代表(他們聲稱受害者的路由器已被黑客入侵,他們需要遠程訪問他們的計算機)來解決問題)。
一個越來越常見的例子涉及來自“海外”的朋友或家人的消息。 他們通常會說他們的錢包和手機被偷了,有人借給他們另一部手機來申請應急資金。
原創內容的消亡
許多教育工作者非常擔心 ChatGPT 意味著學生永遠不需要再寫一篇論文。
有些人已經對此進行了測試,提交了 AI 生成的文章,並獲得了可靠的及格分數(前提是他們可以接受不是一流的)。 教育工作者越來越擔心人工智能會導致大規模作弊,一些學校已經開始放棄家庭作業作文作為回應。
隱私問題
ChatGPT 可能知道韋伯太空望遠鏡最先拍攝到的是哪顆行星(當時是 HIP 65426 b)。 但這些數據的來源方式可能會與新興隱私法發生衝突,例如通用數據保護條例(GDPR) 和加州消費者隱私法 (CCPA)。
在Clearview AI案例中,面部識別數據庫是使用圖像抓取建立的,最終導致泛歐監管機構處以數百萬美元的罰款。
ChatGPT 的工作方式並不完全相同——更像是數據的食物攪拌機,原始成分不再可識別。 但仍然存在個人是否希望以這種方式使用他們的數據的問題。
侵犯版權的可能性更大。 在美國,針對 AI 藝術生成器 Stable Diffusion 的開發商 Stability AI 提起了集體訴訟。 檢察官指控侵犯了原始圖像所有者的權利。
而且,總部位於英國的照片和藝術圖書館 Getty Images 表示,它還將起訴 Stable Diffusion 未經許可使用其圖像。
GPT = 立即獲得保護
雖然這些場景聽起來有點像世界末日,但有一些既定的最佳實踐可以用作保障措施:
- 警惕永遠是第一道防線。 銀行和警察絕不會要求提供銀行卡詳細信息、PIN 或網上銀行密碼。 因此,請高度懷疑任何類似的請求。
- 收到電子郵件時,檢查只有合法發件人才會擁有的數據。 這就是銀行通常將郵政編碼作為其信息的一部分的原因。 使用品牌指標進行消息認證 (BIMI) 也將在這裡發揮關鍵作用,因為底層認證協議 (DMARC) 確認電子郵件來自經過驗證的發件人。
- 在工作中,實施規則以突出顯示來自組織外部的電子郵件。 一封聲稱來自您的 CEO 但以“外部”開頭的電子郵件將是一個直接的危險信號。
如何識別 AI 創作的內容
我們還看到出現了新的策略來幫助識別 AI 創作的內容。 例如,開發了像GPTZero這樣的工具來幫助教師和講師確定他們學生的論文是否是機器創作的。
此外,有預測稱 OpenAI 將在來自 ChatGPT 的文本中插入水印。
對於如何保護生成人工智能可能使用的數據,個人也會變得更有創意。 有一個著名的故事,關於搖滾樂隊 Van Halen 要求將 M&M 巧克力豆的碗去掉,作為他們音樂會要求的一部分。 批評者指責他們讓名聲沖昏了頭腦。 然後,他們的歌手大衛李羅斯解釋說,這是為了確保他們與活動發起人(具有重要安全要求)的合同已被充分閱讀。
人們完全有可能開始在網絡上傳播關於他們自己的不正確“事實”(類似於反垃圾郵件供應商部署原始垃圾郵件陷阱的方式)。
例如,我可以在博客中聲明我在澳大利亞長大。 (實際上是南非。)任何認識我的人都會知道澳大利亞的參考資料是不真實的,如果隨後在關於我的內容中使用它,那將是一個危險信號!
人工智能仍然是一股向善的力量
儘管我在這篇文章中概述了一些擔憂,但這場人工智能革命的總體影響應該是非常積極的。
它可與汽車和計算機等其他重要發明相媲美。 工作會改變(生活也會改變),但新的工作將會出現——尤其是在與人工智能開發和部署相關的領域。 也許最重要的是,生產力將會提高。
想听聽我們對生成式人工智能將如何服務於營銷領域的預測嗎? 查看我們最近的電子郵件狀態實時網絡研討會,我們在其中深入探討了這些機會。
在回答您未提出的問題時,不,我沒有使用 ChatGPT 來寫這篇文章!