久草在线视频观看免费,999免费网站,国产一级区,人人干日日操,欧美在线观看黄色,高清国产一区二区,欧美亚洲日本国产

當前位置: 您當前的位置 : 科技金融網(wǎng)  ->  科普知識  -> 正文

生成式AI或致虛假信息野蠻生長

2023年06月13日 09:39:28 來源:科技日報 作者:劉霞

  生成式人工智能(AI)橫空出世,可能給人類帶來巨大的影響。美國高盛集團今年早些時候警告稱,超過3億個全職工作崗位可能會受到波及。美國國會研究服務局5月發(fā)布的一份報告指出,AI的最新創(chuàng)新也提出了新的版權問題,即如何界定AI創(chuàng)建或使用的內(nèi)容屬于侵權還是合理使用等。

  美國《福布斯》網(wǎng)站在6月9日的報道中指出,另一個令人擔憂的問題已經(jīng)浮出水面:生成式AI能被用于社交媒體上的虛假信息活動。虛假信息活動指蓄意制造和傳播帶有政治目的的謊言,這與一個人犯錯誤或說謊不同。虛假信息活動可使用各種策略,還可利用各種新技術、新媒體以及傳統(tǒng)媒體來擴大分歧和煽動動亂。

  美國塔爾薩大學網(wǎng)絡安全教授約翰·希爾表示,眾所周知,臉書、推特、TikTok等平臺現(xiàn)在是信息戰(zhàn)的前線,生成式AI“染指”這一領域既造成了新的危險,也放大了現(xiàn)有的危險。

  “深度造假”:假作真時真亦假

  2017年,當名為“深度造假”(Deepfake)的用戶在互聯(lián)網(wǎng)上首次發(fā)布合成視頻時,也許不曾想到,他已經(jīng)打開了“潘多拉魔盒”。隨著“深度造假”技術在缺少監(jiān)管的狀態(tài)下野蠻生長,已逐漸危害經(jīng)濟和社會的穩(wěn)定。

  所謂“深度造假”技術,是一種利用AI將現(xiàn)有圖像、音頻或視頻中的人物替換成他人的技術。一些經(jīng)過操縱的圖像、視頻和音頻等“深度造假”內(nèi)容,曾經(jīng)需要專業(yè)人士才能完成,但在生成式AI的加持下,現(xiàn)在很多人都能更容易地創(chuàng)建出來。

  希爾指出,“深度造假”使別有用心之人可竊取或盜用他人的聲音,將其嵌入圖像或視頻中,或者以無法檢測的方式操縱或更改數(shù)字內(nèi)容。這一切才剛剛開始,隨著技術的不斷進步,“深度造假”技術制作的內(nèi)容與真實事物之間的差距會越來越小。而且,隨著制作出“深度造假”內(nèi)容變得越來越簡單,社交媒體會隨時向大眾傳播此類內(nèi)容。

  希爾強調(diào)稱,隨著這些“深度造假”內(nèi)容在社交媒體平臺上不受限制、不受管理地傳播,將導致一場虛假信息運動,以影響、說服和誤導他人或特定受眾。隨著相關技術的不斷發(fā)展,未來可能會發(fā)生什么令人非常擔憂。

  侵蝕對政治選舉的信任

  《福布斯》雜志指出,生成式AI再加上“深度造假”,可能會給2024年美國總統(tǒng)選舉帶來真正可怕的后果。

  美國公共廣播服務網(wǎng)站在5月份的報道中指出,生成式AI不僅可快速生成有針對性的競選電子郵件、文本或視頻,還可能被用來誤導選民、冒充候選人并以前所未有的規(guī)模和速度破壞選舉,誹謗候選人,甚至煽動暴力。

  中佛羅里達大學研究生院教授兼副院長提摩太·塞爾諾博士表示,AI制造出的“深度造假”內(nèi)容看起來非常真實,即使對專家來說,確定它們的真實性也是一個挑戰(zhàn)。

  與此同時,選民們被AI捏造的視頻淹沒,如果社交媒體平臺故意或錯誤地允許AI修改或生成的信息在其網(wǎng)絡上逗留并肆意傳播,選民對其信任度可能會進一步降低。美國網(wǎng)絡安全公司預測,試圖干預美國選舉的團體將利用AI和合成媒體作為侵蝕信任的一種方式。

  “內(nèi)容認證”標準尚在制訂

  《福布斯》網(wǎng)站在報道中指出,生成式AI相關行業(yè)正在制訂“內(nèi)容認證”標準,使用戶驗證數(shù)字內(nèi)容的來源,但開發(fā)和采納這些標準還需要一些時間。

  希爾指出,這是數(shù)字媒體發(fā)展的必經(jīng)階段,盡管如此,用戶在瀏覽或使用社交媒體平臺上的內(nèi)容時,必須更加謹慎。此外,社交媒體網(wǎng)站應更積極地監(jiān)管AI操縱的帖子。

  AI提供了顛覆性進步的強大能力,但這種能力也必須被謹慎使用,以便更大程度發(fā)揮科技向善的力量。

[編輯: 王航飛]
(本文來源:科技日報)
  • 科技金融時報
舉報電話:0571-87089618 | 地址:杭州市文一路115號 | 法律顧問:北京京師(杭州)律師事務所陳佳律師
互聯(lián)網(wǎng)新聞信息服務許可證 33120240003 | 浙ICP備2024107310號 | 浙公網(wǎng)安備33010602013724
Copyright © 2014 kjjrw.com.cn. All rights reserved.