作者 | 黃金瓊
編輯 | 鄧詠儀
常言道,“一物降一物”,但對現在的生成式AI來說,事情也許很難如此。
據TechCrunch,OpenAI于7月20日悄悄下架了其AI檢測器,但因為過于低調,不少人還沒有發(fā)現。
OpenAI的通知顯示,下架是因為檢測的準確率過低。OpenAI團隊“會繼續(xù)研究更有效的文本技術”,希望未來能夠對AI生成的音頻、視頻內容進行檢測。
ChatGPT爆火以來,AI生成文本在各行各業(yè)得到了更廣泛的應用。但比起廣泛應用,AI生成內容引發(fā)了人們更大的擔憂AI或許會成為更大的假新聞源頭、泄露人們數據和隱私。
AI生成內容引發(fā)的現實問題也不絕于耳典型案例是是在大學里,學生們用ChatGPT生成論文,已經擾亂了學校的教學秩序,不少學校已經明令禁止在學術場景下使用ChatGPT。
面對洶涌的輿論,OpenAI在今年2月就迅速推出應對方案,也就是這款AI文本檢測器。
AI文本檢測器的主要功能,是用來判斷文本是否由人工智能生成。此前,在檢測過程中,用戶無需付費,只要將所檢測的文本復制到檢測器上,就可以檢查到內容是否為AI生成。OpenAI也沒有限定可以檢測的文本限定類型,用戶可以檢測包括郵件、文章以及論文在內的文件。
然而直到下架,這款產品壽命只有短短半年。
AI文本檢測器其實一開始就并不完美。據OpenAI公布的數據,AI檢測器在識別AI生成文本方面的正確率為26%,同時將人類所寫的內容識別為AI生成的錯誤率為9%。
在發(fā)布檢測器時,OpenAI就表明“AI文本檢測器并不完全可靠”。同時,OpenAI團隊也承認,檢測器很容易將人類寫的文本識別為AI寫的,AI生成的文本性內容如果經過人類編輯,AI也無法進行準確地識別。
OpenAI已經大模型應用中的技術領頭羊。如今AI檢測器的下架,某種程度上也意味著,人們現在可能還沒有更好的方式監(jiān)管AI。“用AI監(jiān)管AI”的路子,可能還不太能走通。
近期的一則斯坦福研究,也得出了同樣的結論。
數位斯坦福的專家教授對目前主流的七款AI文本檢測器進行了測試,研究結果顯示,一些檢測器生成的99%的準確率具有“誤導性”。非英語母語的人寫的文章,常被錯誤地標識為由AI生成,這會嚴重影響母語非英語的使用者如學生、學者以及求職者,也會很容易增加他們被歧視的可能性。