來自哈佛大學和麻省理工學院--Watson AI實驗室的一組研究人員創(chuàng)建了一個他們認為可以檢測文本是否由另一個AI生成的系統(tǒng)。他們希望為未來的工具奠定基礎,以便更容易在網(wǎng)上發(fā)現(xiàn)虛假評論甚至新聞文章。
根據(jù)arXiv6月份發(fā)布的研究預印本,巨型語言模型試驗室是“支持人類檢測文本是否由模型生成的工具”。您可以點擊此處自行試用演示。
該工具背后的基本概念非常簡單:人類編寫的文本在結構化方面更加難以預測。
由于其規(guī)模有限,該系統(tǒng)將無法“自動檢測大規(guī)模濫用” - 它旨在僅在個別情況下嗅出假文本。
該系統(tǒng)并非接近完美:通過將文本與一些常見的AI文本生成器交叉引用,它能夠?qū)ⅰ凹傥谋镜娜梭w檢測率從54%提高到72%而無需任何先前的培訓”。
研究人員還承認,未來的假文本生成器可以通過改變“每個單詞或句子的采樣參數(shù)使其看起來更像是它試圖模仿的語言”來輕易欺騙他們的系統(tǒng)。