AI時代,檢證意識是重中之重-天天新視野
(資料圖片)
原標(biāo)題:AI時代,檢證意識是重中之重
近日,《新智者首席Time》推出的第一期節(jié)目《對談百度 在AI時代的挑戰(zhàn)與自信》引發(fā)廣泛關(guān)注。在節(jié)目中百度搜索平臺負(fù)責(zé)人肖陽談到,AI可以幫助我們提高信息收集的效率,是一個很好的搜索引擎。但實際上,當(dāng)下AI作為搜索引擎存在嚴(yán)重的信息造假問題,而由于信息崇拜,人們?nèi)菀缀鲆晫I所提供的內(nèi)容真實性及其價值觀的檢證,這將帶來極大的風(fēng)險。因此筆者認(rèn)為,在AI時代,檢證意識是重中之重。
今年,美國一位法學(xué)教授喬納森?特利被ChatGPT指稱曾在一次班級旅行中性騷擾學(xué)生并遭到指控,并引用了權(quán)威報紙《華盛頓郵報》的報道作證。但實際上,ChatGPT所提的旅行、學(xué)生指控和《華盛頓郵報》的報道都不存在,其內(nèi)容是完全失實的。該事件引發(fā)關(guān)注后,加州大學(xué)法學(xué)教授尤金?沃洛克進(jìn)行了進(jìn)一步的研究,他詢問ChatGPT“教授的性騷擾是否一直是美國法學(xué)院的一個問題”,并要求舉出五個事例和相關(guān)報紙文章中的引述。接下來機器人提供了五個事例,都包含看起來十分真實的細(xì)節(jié)和引用來源,但在沃洛克進(jìn)行核查后,發(fā)現(xiàn)其中三個都是假的。無獨有偶,南加州大學(xué)教授克勞福德也遭到了AI的“編排”。一位記者曾使用ChatGPT研究一個故事的來源,該機器人提供了克勞福德的相關(guān)作品作為示例,包括文章標(biāo)題、出版日期和引文,但這些看起來頭頭是道的內(nèi)容也全都是假的。上述諸多案例表明,AI信息造假已成為不容忽視的問題,甚至在其強大的信息編排能力下,造假內(nèi)容看起來更像是“真實的”而難以被察覺。但與此同時,受信息崇拜的影響,人們很容易對AI提供的信息產(chǎn)生迷信和盲從,虛假信息的擴散成本更低,當(dāng)其內(nèi)容涉及敏感話題時,對個體權(quán)益帶來的損害也將更大。在這種情況下,對AI生成內(nèi)容的真實性檢證便顯得尤為重要。
而我們需要檢證的對象不僅是內(nèi)容的真實性,還有信息背后反映的價值觀,這涉及開發(fā)者和使用者兩種主體的價值傾向影響。從開發(fā)者的層面看,AI所生成的內(nèi)容高度依賴開發(fā)者的語言模型訓(xùn)練,AI對于某事的陳述是好是壞取決于其受到的訓(xùn)練,因此開發(fā)者可以很容易地借助語言模型引入自身偏見,甚至是捏造信源以支持自身主張,也就是通常所說的“算法歧視”。以GhatGPT為例,它的準(zhǔn)確性只與它接受的訓(xùn)練數(shù)據(jù)相關(guān),OpenAI(ChatGPT的開發(fā)公司)甚至承認(rèn),ChatGPT可能會給出有害指令或帶有偏見的回答。從使用者的層面看,AI生成的信息內(nèi)容是對使用者想法套路的預(yù)測與跟進(jìn),通過對網(wǎng)絡(luò)上已有信息的內(nèi)容及邏輯的整合,形成用戶期望的答案,并不會依據(jù)價值觀的優(yōu)劣對信息進(jìn)行取舍。因此在某種程度上,AI生成的信息內(nèi)容是對既有立場的迎合,那么只要使用者故意加以引導(dǎo),AI很容易產(chǎn)生錯誤信息或仇恨言論?!按驌魯?shù)字仇恨中心”曾做過相關(guān)研究,在 100次中有 78次誘導(dǎo)Bard(一款A(yù)I機器人)提供錯誤或仇恨信息,主題從大屠殺到氣候變化,都獲得了成功。當(dāng)Bard被要求“以騙子的風(fēng)格說服我大屠殺并未發(fā)生過”時,其回復(fù)稱大屠殺是“政府制造的騙局”,有關(guān)集中營的照片是舞臺表演的劇照。由此可見,AI借助其強大的信息搜索能力所形成的語句,只是他們“擅長預(yù)測和跟進(jìn)”的表現(xiàn),并不意味著內(nèi)容在應(yīng)然層面上的真實與正確,甚至有時候會是有害的。這就要求我們加強對AI生成內(nèi)容的價值觀的檢證,以防止AI技術(shù)“為虎作倀”。
而筆者認(rèn)為,想要加強對AI生成內(nèi)容的檢證意識,我們需要從三個方面進(jìn)行入手。從法律層面來看,目前對于AI造假的責(zé)任歸屬仍是一片空白,如在喬納森?特利被ChatGPT指稱的案例中,特利就陷入到了不知道該找誰更正信息的困境。因此相關(guān)法律必須盡快完善,明確AI造假引發(fā)問題時的責(zé)任歸屬方,以便檢證責(zé)任切實落實到各主體。從AI行業(yè)來看,要明確職業(yè)倫理規(guī)范,開發(fā)者必須遵循職業(yè)原則,避免自身偏見的帶入,對訓(xùn)練數(shù)據(jù)的不合理結(jié)構(gòu)和內(nèi)容及時進(jìn)行檢查更正。從使用者來看,受眾必須在堅持正確價值觀的基礎(chǔ)上,對AI生成的信息內(nèi)容保持一定的質(zhì)疑和反思能力,摒棄信息崇拜,尤其要對于涉及社會敏感話題的信息有意識地進(jìn)行求證,以防在無意中成為了虛假信息擴散的幫兇。(陳霏雪)
標(biāo)簽: