世界簡(jiǎn)訊:AI生成內(nèi)容的隱患:當(dāng)AI只學(xué)習(xí)AI 網(wǎng)絡(luò)將充斥無(wú)意義的內(nèi)容
    2023-06-20 11:38:48 來(lái)源: 砍柴網(wǎng)


    【資料圖】

    6 月 20 日消息,人工智能(AI)的發(fā)展日新月異,但也帶來(lái)了一些隱患。最近,一組英國(guó)和加拿大的科學(xué)家發(fā)現(xiàn),如果 AI 只學(xué)習(xí)其他 AI 生成的內(nèi)容,那么經(jīng)過(guò)幾代訓(xùn)練后,AI 將輸出無(wú)意義的垃圾信息,導(dǎo)致網(wǎng)絡(luò)內(nèi)容質(zhì)量下降。

    這些科學(xué)家在 5 月份發(fā)表了一篇論文,試圖探究當(dāng) AI 互相訓(xùn)練時(shí)會(huì)發(fā)生什么。他們發(fā)現(xiàn),在這種情況下,AI 輸出的內(nèi)容會(huì)逐漸變得荒謬可笑。例如,一篇關(guān)于中世紀(jì)建筑的文章,在經(jīng)過(guò)九代 AI 訓(xùn)練后,變成了一篇關(guān)于各種顏色兔子的胡言亂語(yǔ)內(nèi)容。

    這種現(xiàn)象被稱為“模型崩潰”。目前,大多數(shù) AI 語(yǔ)言模型(如 ChatGPT 和 OpenAI)都是基于從互聯(lián)網(wǎng)上獲取的大量數(shù)據(jù)進(jìn)行訓(xùn)練的,而這些數(shù)據(jù)大部分是由人類生成的。但是,隨著 AI 生成內(nèi)容的增加,未來(lái)的 AI 訓(xùn)練將不可避免地受到這些內(nèi)容的影響。這意味著錯(cuò)誤和無(wú)意義的信息會(huì)不斷累積,后來(lái)的 AI 無(wú)法區(qū)分事實(shí)和虛構(gòu)內(nèi)容,開始誤信自己的錯(cuò)誤觀念。

    劍橋大學(xué)的羅斯?安德森教授是論文的作者之一,他在博客中將這種現(xiàn)象比作污染,寫道:“就像我們用塑料垃圾污染了海洋,用二氧化碳污染了大氣層,我們也即將用胡言亂語(yǔ)污染互聯(lián)網(wǎng)。”

    事實(shí)上,AI 生成內(nèi)容已經(jīng)在網(wǎng)絡(luò)上廣泛傳播。IT之家注意到,今年 5 月,一個(gè)名為 NewsGuard 的網(wǎng)絡(luò)虛假信息監(jiān)測(cè)機(jī)構(gòu)警告說(shuō),他們發(fā)現(xiàn)了 49 個(gè)完全由 AI 編寫的新聞網(wǎng)站。此外,市場(chǎng)營(yíng)銷和公關(guān)機(jī)構(gòu)也越來(lái)越多地將他們的文案交給聊天機(jī)器人來(lái)完成,導(dǎo)致人類作家失去工作機(jī)會(huì)。

    【來(lái)源:IT之家】

    關(guān)鍵詞:
    責(zé)任編輯: 梅長(zhǎng)蘇