近日,一段AI技術(shù)假冒知名醫(yī)生張文宏帶貨的視頻引發(fā)熱議。隨后,微信平臺發(fā)布消息稱,已關(guān)閉209個(gè)利用AI技術(shù)仿冒名人進(jìn)行營銷的賬號。隨著人工智能(AI)技術(shù)的快速發(fā)展,其在造假與違法犯罪領(lǐng)域的應(yīng)用正變得越來越普遍。以下是記者整理的AI造假常見套路及防范措施。
套路一:仿冒名人,炮制虛假視頻和聲音
利用AI技術(shù)生成名人形象和聲音已經(jīng)成為造假的高發(fā)領(lǐng)域。以醫(yī)生張文宏為例,騙子利用AI技術(shù)制作虛擬視頻,模仿其形象售賣蛋白棒,甚至有產(chǎn)品售出超千件。此外,雷軍的“AI配音”惡搞視頻、胖東來創(chuàng)始人于東來的AI聲音帶貨案例,均暴露了AI仿冒技術(shù)的潛在風(fēng)險(xiǎn)。
根據(jù)微信平臺的數(shù)據(jù),僅近期就已處置532條相關(guān)內(nèi)容并關(guān)閉209個(gè)賬號。然而,這種仿冒行為仍在持續(xù)蔓延,不僅侵害名人形象,還對社會秩序和消費(fèi)者權(quán)益造成危害。
套路二:炮制虛假新聞,傳播謠言
AI生成虛假新聞的能力讓造謠變得更加輕松和高效。公安部網(wǎng)安局公布的案例顯示,不法分子通過AI技術(shù)編造“地震”、“高層火災(zāi)”等謠言,引發(fā)公眾恐慌。今年6月,上海警方查處兩名使用AI生成視頻造謠的品牌營銷人員,涉案謠言包括“中山公園地鐵站捅人”等。
研究顯示,AI生成的經(jīng)濟(jì)與企業(yè)類謠言量增速高達(dá)99.91%。AI可以根據(jù)關(guān)鍵詞快速生成仿真的新聞內(nèi)容,只需簡單添加時(shí)間、地點(diǎn)與背景音樂,數(shù)秒鐘內(nèi)便可完成“偽裝”。
套路三:換臉詐騙與隱私竊取
AI換臉和換聲技術(shù)被廣泛用于詐騙與敲詐。例如,寧夏居民馬某某因表哥的AI視頻通話而被騙1.5萬元;山東威海一居民收到利用AI生成的裸照后,被敲詐20萬元。這些案件凸顯了AI技術(shù)在個(gè)人隱私竊取和敲詐勒索中的濫用。
不僅如此,AI竊取隱私信息的案例也屢見不鮮。今年9月,杭州警方破獲一起利用AI技術(shù)突破人臉識別系統(tǒng),非法竊取個(gè)人敏感信息的案件。這種通過AI技術(shù)實(shí)施隱私竊取的行為嚴(yán)重威脅公民的信息安全。
套路四:克隆聲音,輕松偽造對話
AI語音克隆技術(shù)門檻極低。只需獲取10秒鐘的聲音樣本,便可生成高還原度的語音模型。不法分子利用此技術(shù),通過偽造電話、語音指令等手段進(jìn)行詐騙。甚至有平臺提供“一鍵克隆”服務(wù),售價(jià)低廉,吸引大量非法需求。
在網(wǎng)絡(luò)平臺上,雷軍、周杰倫、郭德綱等名人的AI語音模型被濫用,次數(shù)高達(dá)數(shù)十萬次。此外,這些模型生成的音頻可被用于偽造合同、廣告、甚至是電話詐騙。
如何防范AI造假?四招保護(hù)個(gè)人信息安全
-
避免連接陌生WiFi
公共場合的免費(fèi)WiFi可能是釣魚陷阱,容易導(dǎo)致信息泄露。
-
警惕釣魚鏈接
收到不明來源的短信或郵件時(shí),不要輕易點(diǎn)擊鏈接,以免遭遇病毒或惡意軟件攻擊。
-
慎掃不明二維碼
二維碼可能暗藏木馬病毒,在掃描前務(wù)必核實(shí)來源。
-
保護(hù)個(gè)人信息
避免在社交媒體上曬含有敏感信息的內(nèi)容,例如機(jī)票、身份證、位置信息等。