“我們的研究表明,人工智能可能成為人們避免為指控別人說謊的后果負責(zé)的借口!
目前的人工智能(AI)在語言理解和交互方面已經(jīng)取得了令人矚目的成績。這些程序不僅能夠理解對話的內(nèi)容,作出合適的回答,還能夠?qū)π畔⑦M行解讀和判斷。有人認為,有了人工智能的參與,未來社會中人們的交往、互動乃至整個社會的規(guī)范都有可能發(fā)生變化。
近日一項研究指出,人工智能的出現(xiàn)或許會改變?nèi)藗兇链﹦e人謊言的方式——當(dāng)人工智能判斷一些言論是撒謊時,即便沒有提供新的證據(jù)和解釋,人們也更有可能會聽取它的建議,對撒謊進行指責(zé)。這一發(fā)現(xiàn)有助于深入了解使用人工智能系統(tǒng)進行測謊的社會影響,并在實施類似技術(shù)時為相關(guān)政策的制定提供參考。
這項研究于6月27日發(fā)表在細胞出版社(Cell Press)旗下期刊iScience(《交叉科學(xué)》)上,作者是來自德國馬克思·普朗克人類發(fā)展研究所(Max Planck Institute for Human Development)、法國圖盧茲高等研究所(Institute for Advanced Study Toulouse)等機構(gòu)的Nils K?bis、Alicia von Schenk、Victor Klockmann等五名科學(xué)家。
該研究認為,戳穿謊言是要承擔(dān)一定的社會風(fēng)險的。錯誤的指控不僅會讓被指控者蒙受不白之冤,也會讓指控者落得個“糊涂判官”的壞名聲。除此之外,之前科學(xué)家們已經(jīng)發(fā)現(xiàn),人類識別謊言的能力很差,從概率上來說跟亂猜區(qū)別不大——成功率不超過50%。
因此,人們對質(zhì)疑別人的謊言常常有所保留,也就形成了社會中信任他人、默認別人講的都是真話的傾向!拔覀兊纳鐣䦟θ鲋e指控有著牢固而完善的規(guī)范!闭撐耐ㄓ嵶髡摺⒌聡乓了贡-埃森大學(xué)行為科學(xué)家Nils K?bis在接受細胞出版社采訪時說,“公開指責(zé)別人撒謊需要很大的勇氣和堅實的證據(jù)!
在該研究中,研究者們想要知道,如果人們有更加“權(quán)威”的AI測謊“專家”幫助,這種相對謹慎的揭穿謊言的習(xí)慣會不會改變。
研究者們首先招募了986名參與者對他們下周末的活動計劃寫一份真實和一份虛假的描述,要求都要超過150字。最終,他們從768名作者那里收集到了1536份描述。
然后,該團隊用這些數(shù)據(jù)在谷歌的開源語言模型BERT的基礎(chǔ)上訓(xùn)練了一種算法,開發(fā)出一種人工智能測謊模型。該模型識別真假陳述的準(zhǔn)確率能達到66%,明顯高于普通人的水平。
接下來,該團隊從之前的陳述樣本中挑選出510個,并招募了2040人作為評委,每個人隨機閱讀一份并決定真假。根據(jù)是否以及如何接受AI測謊的幫助,研究人員將參與者分為四組——“基線”(Baseline)組、“強迫”(Forced)組、“封鎖”(Block)組和“選擇”(Choice)組。
在基線組中,參與者在沒有人工智能幫助的情況下回答“對”或“錯”。在強迫組中,參與者在做出自己的判斷之前會強制收到AI預(yù)測。在封鎖組和選擇組中,參與者可以選擇是否接受人工智能生成的預(yù)測。但封鎖組的人即便選擇了AI幫助也不會收到預(yù)測反饋,而選擇組的人會收到。
研究者們發(fā)現(xiàn),基線組的參與者在判斷真假時的準(zhǔn)確率為46%。盡管事先已經(jīng)被告知有50%的陳述一定是假,最終也只有19%的人作出了指控。研究認為,這證實了人們傾向于避免指責(zé)別人撒謊的保守傾向。
在強迫組中,不管參與者是否想要,他們都得到了人工智能預(yù)測結(jié)果,因此超過1/3的參與者認為陳述是虛假的。這一比例明顯高于基線組和未接受人工智能預(yù)測的封鎖組。
盡管沒有提供具體解釋,人工智能的判斷本身就能讓參與者們“跟風(fēng)”投票。當(dāng)人工智能預(yù)測某句話是真的時,只有13%的參與者認為這句話是假的。然而,當(dāng)人工智能預(yù)測一個陳述為假時,超過40%的參與者認為該陳述是假的。
此外,在要求并收到人工智能預(yù)測的參與者中,84%的人接受了預(yù)測結(jié)果,并在人工智能說陳述是錯誤的時候提出了指控。
“這表明,一旦人們手頭有了這樣的算法,他們就會依賴它,并可能改變他們的行為。如果算法認為某件事是謊言,人們就會欣然接受。這是相當(dāng)令人擔(dān)憂的,這表明我們應(yīng)該非常謹慎地對待相關(guān)技術(shù)。”K?bis在采訪中表示。
但有趣的是,人們似乎不愿意使用人工智能作為測謊工具。在封鎖組和選擇組中,只有1/3的參與者選擇接受人工智能預(yù)測。這個結(jié)果讓研究小組感到驚訝,因為研究人員事先告訴參與者,該算法比人類更能發(fā)現(xiàn)謊言。K?bis說:“這可能是因為人們對自己的測謊能力過于自信,盡管人類在這方面真的很糟糕!
盡管該研究中的人工智能測謊僅有66%的正確率,它已經(jīng)能以“權(quán)威”的面貌出現(xiàn)并影響參與者的判斷。實際上人工智能經(jīng)常犯錯,遠非客觀。它不僅會“一本正經(jīng)地胡說八道”,還會因為訓(xùn)練數(shù)據(jù)的結(jié)構(gòu)問題而強化內(nèi)容中的刻板印象。鑒于AI測謊技術(shù)可能會在不久的將來在社交媒體等領(lǐng)域被廣泛應(yīng)用,該研究團隊在文章最后呼吁政策制定者應(yīng)當(dāng)完善相關(guān)的政策和法律框架,呼吁對AI測謊技術(shù)進行監(jiān)管。
“人工智能被大肆宣傳,許多人認為這些算法非常強大,甚至是客觀的。我很擔(dān)心這會讓人們過度依賴它,即使它的效果并不好!盞?bis表示,“我們的研究表明,人工智能可能會成為人們避免為指控別人說謊的后果負責(zé)的借口。”