最近ChatGPT可以說是非?;馃岬脑掝},AI的能力進(jìn)化已經(jīng)到了讓人目瞪口呆的程度。其實(shí)不只是AI對(duì)話,AI繪圖的能力也十分驚人,目前已經(jīng)可以畫出足以亂真的人來了。
比如這個(gè):

沒見過的不用懷疑,這是純粹由AI畫出來的,并不是真人,你可以從身后背景里的那個(gè)姑娘的手上發(fā)現(xiàn)不合常理的地方。
不光是圖片,最近已經(jīng)有用戶可以做AI美女跳舞的視頻來了。

但科技是把雙刃劍,如此逼真的繪畫技術(shù)一方面促進(jìn)了文化的發(fā)展和生活的便利,但同時(shí)也讓不法分子有了可乘之機(jī)。
目前聽說的事情還在國(guó)外,據(jù)說是楓葉國(guó)有多起通過AI合成聲音來冒充家人的電話詐騙案,據(jù)說金額達(dá)到了數(shù)百萬元。
其實(shí)這種案件還是過去電信詐騙的老套路,只不過冒充家人的手段更加先進(jìn),AI合成聲音的電話詐騙,AI換臉的視頻詐騙。比如說把你的臉放到不雅視頻中進(jìn)行勒索,或者合成進(jìn)綁架視頻中威脅你的家人等等。
另外還有一種也是過去的老套路,就是冒充帥哥美女忽悠你和他們網(wǎng)戀騙錢。不過現(xiàn)在AI合成的美女更加逼真漂亮,容易讓一些心靈寂寞的人迅速墮入情網(wǎng)。
此外還有一種也是老套路,就是冒充受災(zāi)或者重病的人來騙取捐款。如今AI可以制造任何場(chǎng)景和任何神態(tài)的人,所以畫出一個(gè)完全不存在的重病患者或者受災(zāi)人群來騙人更加容易。這種事情據(jù)說已經(jīng)在前陣子的土耳其地震當(dāng)中出現(xiàn)了。
不過雖然新的騙錢花樣增多,但是大抵上都只是技術(shù)的進(jìn)步,而套路并沒有改變。所以大家今后要更加小心謹(jǐn)慎,遇到親友借錢要錢之類的事情一定不要著急,設(shè)法確認(rèn)清楚后再做決定。