人工智能內容檢測

人工智能檢測軟件旨在確定某些內容(文本、圖像、視頻或音頻)是否是使用人工智能(AI)生成的。

截至 2023 年,這方面的典型案例有諸如GPTZero這樣的軟件,該軟件聲稱可以檢測文本是否是由人工智能生成,有有時被大學和高校用於防範學生的學術抄襲。然而,關於這類軟件是否可靠的爭論不斷, [1]同時也存在對教育工作者可能誤用AI檢測軟件擔憂 。

準確性問題

事實證明,多個人工智能檢測工具在準確和全面檢測生成的人工智能生成文本方面表現不可靠。在韋伯·伍爾夫等人於 2023 年公佈的一項研究中,研究人員對包括Turnitin和GPT Zero在內的 14 種文本檢測軟件進行評估,發現「所有軟件的準確率都低於 80%,只有 5 個準確率超過 70%」。 [2]

關於文本檢測

從文本層面上說,這樣做通常是為了防止涉嫌抄襲,通常通過檢測單詞的重複來判斷文本是否由人工智能生成,這被視為文本中使用人工智能的跡象,包括人工智能的幻覺。它們通常由教師在批改學生作業時臨時使用。隨着ChatGPT和類似的人工智能文本生成軟件的發佈,許多教育機構都發佈了禁止學生使用人工智能的政策。 [3]評估求職者以及在線搜尋引擎的工作人員也使用人工智能文本檢測軟件。[4]

目前的檢測軟件有時可能不夠可靠,並且錯誤地將人類創作的作品標記為源自人工智能生成的文本[5] [6] [7] ,同時在其他情況下無法檢測人工智能生成的作品。 [8]《麻省理工科技評論》指出,這項技術在人類稍微重新排列並使用釋義工具混淆的ChatGPT生成文本上表現不佳。此外,人工智能文本檢測軟件也被證明存在歧視非英語母語者的情況。 [4]

加州大學戴維斯分校的兩名學生差點被開除,因為他們的教授使用一種名為Turnitin的文本檢測軟件比對了他們的論文,該軟件將這些論文標記為由人工智能生成。然而,經過媒體報道[9]和徹底調查後,學生們被澄清沒有任何不當行為。 [10] [11]

2023 年 4 月,劍橋大學和英國羅素大學集團的其他成員大學選擇放棄使用 Turnitin 這一文本檢測軟件,因為他們對其可靠性表示擔憂。[12]六個月後,德克薩斯大學奧斯汀分校也選擇放棄使用該軟件。 [13]

2023 年 5 月,德克薩斯州農工大學康莫斯分校的一位教授使用ChatGPT來檢測他的學生的作業是否由該軟件編寫,ChatGPT 稱確實如此。因此,儘管ChatGPT無法檢測出是否是人工智能生成的文本,他還是威脅要讓整個班級掛科。 [14]除了一名學生承認使用該軟件外,沒有其他學生因此無法順利畢業,所有學生都被免除在其作業中使用 ChatGPT 的責任追究。 [15]

關於反文本檢測

有一些軟件可以繞過人工智能文本檢測。 [16]

在2023 年 8 月,塔洛尼等人員在麥格納·格拉西亞大學和英國皇家眼科醫院開展了一項研究,用於測試人工智能文本檢測。 [17]該研究使用了一款名為 Originality.ai 的人工智能檢測工具,發現其對 GPT-4 檢測的平均準確率為 91.3%。

然而,當使用另一款名為Undetectable.ai的軟件 Originality.ai進行重新處理時,Originality.ai的檢測準確率下降至平均27.8%。[17] [7]

塔洛尼等人的研究分析了《眼科雜誌》上中發表的20篇論文摘要,然後使用GPT-4.0對其進行了改寫。對經過人工智能改寫的摘要使用QueText檢查是否抄襲,以及使用Originality.AI檢查人工智能生成的內容,以審查經過GPT-4.0改寫的摘要。隨後,通過一款名為Undetectable.ai的對抗性軟件對文本進行再處理,試圖降低人工智能檢測的相似度分數。 [17] [18] [19]

一些專家還認為,數字水印等技術是無效的,因為它們可以被刪除或添加,從而觸發錯誤的檢測結果。 [20]

關於圖像、視頻、音頻檢測

有許多所謂的人工智能圖像檢測軟件,用於檢測人工智能生成的圖像(例如,源自Midjourney或DALL-E的圖像)。它們並不完全可靠。 [21] [22]

有一些聲稱能夠識別深度偽造的視頻和音頻的軟件,但目前這項技術還不夠可靠。 [23]

儘管圍繞數字水印的功效存在爭議,但谷歌旗下人工智能公司DeepMind正在積極開發一種名為 SynthID 的檢測軟件,該軟件的工作原理是將人眼看不見的數字水印插入圖像的像素中。 [24] [25]

參見

參考資料

  1. ^ 'Don't use AI detectors for anything important,' says the author of the definitive 'AI Weirdness' blog. Her own book failed the test. Fortune. [2023-10-21]. (原始內容存檔於2023-10-22) (英語). 
  2. ^ Weber-Wulff, Debora; Anohina-Naumeca, Alla; Bjelobaba, Sonja; Foltýnek, Tomáš; Guerrero-Dib, Jean; Popoola, Olumide; Šigut, Petr; Waddington, Lorna. Testing of detection tools for AI-generated text. International Journal for Educational Integrity. 2023-12-25, 19 (1): 26. ISSN 1833-2595. doi:10.1007/s40979-023-00146-z (英語). 
  3. ^ Hern, Alex. AI-assisted plagiarism? ChatGPT bot says it has an answer for that. The Guardian. 31 December 2022 [11 July 2023]. 
  4. ^ 4.0 4.1 Sample, Ian. Programs to detect AI discriminate against non-native English speakers, shows study. The Guardian. 10 July 2023 [10 July 2023]. 
  5. ^ Fowler, Geoffrey A. Detecting AI may be impossible. That's a big problem for teachers.. The Washington Post. 2 June 2023 [10 July 2023]. (原始內容存檔於2023-06-03). 
  6. ^ Tangermann, Victor. There's a Problem With That App That Detects GPT-Written Text: It's Not Very Accurate. Futurism. 9 January 2023 [10 July 2023]. (原始內容存檔於2023-12-02). 
  7. ^ 7.0 7.1 We tested a new ChatGPT-detector for teachers. It flagged an innocent student.. The Washington Post. 1 April 2023 [10 July 2023]. (原始內容存檔於2023-10-01). 
  8. ^ Taylor, Josh. ChatGPT maker OpenAI releases 'not fully reliable' tool to detect AI generated content. The Guardian. 1 February 2023 [11 July 2023]. 
  9. ^ AI Detection Apps Keep Falsely Accusing Students of Cheating. Futurism. [2023-10-21]. (原始內容存檔於2024-03-02). 
  10. ^ Jimenez, Kayla. Professors are using ChatGPT detector tools to accuse students of cheating. But what if the software is wrong?. USA TODAY. [2023-10-21]. (原始內容存檔於2024-05-16) (美國英語). 
  11. ^ Klee, Miles. She Was Falsely Accused of Cheating With AI -- And She Won't Be the Last. Rolling Stone. 2023-06-06 [2023-10-21]. (原始內容存檔於2024-06-15) (美國英語). 
  12. ^ Staton, Bethan. Universities express doubt over tool to detect AI-powered plagiarism. Financial Times. 3 April 2023 [10 July 2023]. (原始內容存檔於2023-09-01). 
  13. ^ Carter, Tom. Some universities are ditching AI detection software amid fears students could be falsely accused of cheating by using ChatGPT. Business Insider. [2023-10-21]. (原始內容存檔於2024-03-26) (美國英語). 
  14. ^ Verma, Prashnu. A professor accused his class of using ChatGPT, putting diplomas in jeopardy. The Washington Post. 18 May 2023 [10 July 2023]. (原始內容存檔於2023-09-05). 
  15. ^ College instructor put on blast for accusing students of using ChatGPT. NBC News. 18 May 2023 [10 July 2023]. (原始內容存檔於2023-10-10). 
  16. ^ Beam, Christopher. The AI Detection Arms Race Is On—and College Students Are Building the Weapons. Wired. [2023-12-02]. ISSN 1059-1028. (原始內容存檔於2024-05-25) (美國英語). 
  17. ^ 17.0 17.1 17.2 Taloni, Andrea; Scorcia, Vincenzo; Giannaccare, Giuseppe. Modern threats in academia: evaluating plagiarism and artificial intelligence detection scores of ChatGPT . Eye. 2023-08-02: 1–4 [2024-01-22]. ISSN 1476-5454. doi:10.1038/s41433-023-02678-7. (原始內容存檔於2024-03-14) (英語). 
  18. ^ The Truly Undetectable AI Content Writing Tool. Undetectable AI. [2023-12-02]. (原始內容存檔於2024-06-17) (英語). 
  19. ^ Thompson, David.(13 Dec 2023). Researchers Say Undetectable.ai Is A Modern Threat To Academia Science Times. Retrieved 13 Dec 2023
  20. ^ Knibbs, Kate. Researchers Tested AI Watermarks—and Broke All of Them. Wired. [2023-10-21]. ISSN 1059-1028. (原始內容存檔於2024-05-27) (美國英語). 
  21. ^ Thompson, Stuart A.; Hsu, Tiffany. How Easy Is It to Fool A.I.-Detection Tools?. The New York Times. 28 June 2023 [10 July 2023]. (原始內容存檔於2024-06-06). 
  22. ^ Rizwan, Choudhury. Expert debunks AI tool's claim that Israel’s photo is fake. Interesting Engineering. October 15, 2023 [October 22, 2023]. (原始內容存檔於2023-11-30). 
  23. ^ Hsu, Tiffany; Myers, Steven Lee. Another Side of the A.I. Boom: Detecting What A.I. Makes. The New York Times. 18 May 2023 [10 July 2023]. (原始內容存檔於2024-05-11). 
  24. ^ Pierce, David. Google made a watermark for AI images that you can't edit out. The Verge. 2023-08-29 [2023-10-21]. (原始內容存檔於2024-05-15). 
  25. ^ Wiggers, Kyle. DeepMind partners with Google Cloud to watermark AI-generated images. TechCrunch. 2023-08-29 [2023-10-21]. (原始內容存檔於2024-05-16).