警惕AI詐騙

最近ChatGPT可以說是非?;馃岬脑掝},AI的能力進(jìn)化已經(jīng)到了讓人目瞪口呆的程度。其實(shí)不只是AI對(duì)話,AI繪圖的能力也十分驚人,目前已經(jīng)可以畫出足以亂真的人來了。

比如這個(gè):


沒見過的不用懷疑,這是純粹由AI畫出來的,并不是真人,你可以從身后背景里的那個(gè)姑娘的手上發(fā)現(xiàn)不合常理的地方。

不光是圖片,最近已經(jīng)有用戶可以做AI美女跳舞的視頻來了。

但科技是把雙刃劍,如此逼真的繪畫技術(shù)一方面促進(jìn)了文化的發(fā)展和生活的便利,但同時(shí)也讓不法分子有了可乘之機(jī)。

目前聽說的事情還在國(guó)外,據(jù)說是楓葉國(guó)有多起通過AI合成聲音來冒充家人的電話詐騙案,據(jù)說金額達(dá)到了數(shù)百萬元。

其實(shí)這種案件還是過去電信詐騙的老套路,只不過冒充家人的手段更加先進(jìn),AI合成聲音的電話詐騙,AI換臉的視頻詐騙。比如說把你的臉放到不雅視頻中進(jìn)行勒索,或者合成進(jìn)綁架視頻中威脅你的家人等等。

另外還有一種也是過去的老套路,就是冒充帥哥美女忽悠你和他們網(wǎng)戀騙錢。不過現(xiàn)在AI合成的美女更加逼真漂亮,容易讓一些心靈寂寞的人迅速墮入情網(wǎng)。

此外還有一種也是老套路,就是冒充受災(zāi)或者重病的人來騙取捐款。如今AI可以制造任何場(chǎng)景和任何神態(tài)的人,所以畫出一個(gè)完全不存在的重病患者或者受災(zāi)人群來騙人更加容易。這種事情據(jù)說已經(jīng)在前陣子的土耳其地震當(dāng)中出現(xiàn)了。

不過雖然新的騙錢花樣增多,但是大抵上都只是技術(shù)的進(jìn)步,而套路并沒有改變。所以大家今后要更加小心謹(jǐn)慎,遇到親友借錢要錢之類的事情一定不要著急,設(shè)法確認(rèn)清楚后再做決定。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容