作者:趙甜怡
編輯:曾憲天
當(dāng)人們把2023年看作是從換AI元年時(shí),2024年的臉騙目光自然地聚集在了AI應(yīng)用的落地上。然而,套殼在商業(yè)化之前,賣課AI已經(jīng)變成了某些灰色產(chǎn)業(yè)的詐騙斂財(cái)工具。
莫名其妙的何避電話、熱情的從換異國美女、謠言、臉騙詐騙……在你無意識的套殼時(shí)候,AI騙局就已經(jīng)來到你身邊。賣課PConline收集整理了四大AI新騙局,詐騙來看看你最“眼熟”哪一個(gè)?
騙局一:語音求救
- 常見范圍:微信、何避電話
- 目標(biāo)人群:覆蓋所有,從換其中家長居多
面對陌生的臉騙號碼你可能會直接掛掉,但是套殼如果是家人打來的“求救電話”呢?
根據(jù)中國新聞網(wǎng)的報(bào)道,去年11月,王欣的母親突然接到一通“王欣”打來的電話,聲稱自己被綁架,讓母親轉(zhuǎn)賬30萬元,否則“后果自負(fù)!”著急的王欣母親立馬就打算給對方轉(zhuǎn)錢,被同事攔了下來。同事建議先給王欣打電話,確認(rèn)情況。結(jié)果,真實(shí)的王欣正在睡午覺,啥事也沒。而那通“求救電話”就是騙子利用王欣的AI克隆聲音制作的。
近幾年,AI語音合成技術(shù)有了顯著的發(fā)展,一些C端的應(yīng)用也逐漸成熟。像Voice AI、剪映等應(yīng)用中都提供生成AI克隆音色的功能。只要念兩個(gè)例句,人人都能輕松生成自己的AI音色。不僅如此,現(xiàn)在的技術(shù)已經(jīng)可以在保證聲音的高保真度的同時(shí),模擬你的音色,甚至細(xì)致到你說話時(shí)的口音、重音、換氣的節(jié)奏等等,完全可以滿足實(shí)時(shí)的互動(dòng)需求。
先前在網(wǎng)絡(luò)上爆火的“AI孫燕姿”就曾引得一眾討論。Up主用孫燕姿的AI克隆音色翻唱《發(fā)如雪》《Melody》等眾多知名歌曲。該視頻合集獲得了2000多萬的播放量。網(wǎng)友們都在驚嘆,AI甚至?xí)淖冊械牟糠中桑勒諏O燕姿的曲風(fēng)特點(diǎn)進(jìn)行調(diào)整,幾乎能做到以假亂真的水平。同時(shí),網(wǎng)友們也都開始擔(dān)心,技術(shù)一旦被濫用,防詐騙的成本就更高了。
這樣的擔(dān)心不無道理。據(jù)網(wǎng)友分享,自己曾接到過一通莫名其妙的電話。一接通,對方就問“你家在哪”。一頭霧水的網(wǎng)友回答“不知道”,徑直掛斷了電話。然而就在幾天后,網(wǎng)友的家人就接到了“網(wǎng)友”的求救電話——騙子僅憑一句話就能生成網(wǎng)友的AI克隆聲音,實(shí)施詐騙。
如果你認(rèn)為,耳聽為虛,眼見為實(shí)。視頻信息才能確認(rèn)身份,那么接下來這個(gè)騙局,將會顛覆你的想法,讓你驚呼“防不勝防!”
騙局二:換臉詐騙
- 常見范圍:微信、線上會議、FaceTime
- 目標(biāo)人群:覆蓋所有,熟人關(guān)系居多、針對女性居多
如今,眼見為實(shí)的“鐵律”也會面臨意外的情況。福州市的郭先生就曾因?yàn)檫@條“鐵律”狠狠吃了虧。
“平安包頭”曾公布一起案例:在去年4月份,郭先生的朋友突然打來微信視頻電話,說自己在外地投標(biāo),需要430萬的保證金,想借郭先生公司的賬戶走一下帳。這位“朋友”隨即將錢打到了郭先生的賬戶上,并且截圖讓郭先生確認(rèn)。雖然還未等來銀行的通知信息,但郭先生還是先把錢轉(zhuǎn)了過去。結(jié)果,跟他視頻的,是用AI換了臉的騙子,佯裝成郭先生的朋友來騙錢。
郭先生報(bào)警后,還專門表示:“我在視頻中確認(rèn)了面孔和聲音,才放松了戒備。”
其實(shí),“眼見為虛”的換臉技術(shù)我們早就見過。這種技術(shù)名叫Deepfake深度偽造,是一種將圖片/視頻合并疊加到源圖片/視頻上,生成虛假的個(gè)人表情、動(dòng)作的AI技術(shù)。在2023年上映的《流浪地球2》中,就是利用這個(gè)技術(shù),將62歲的劉德華還原到我們印象中年輕的華仔模樣。
據(jù)《流浪地球2》的視覺特效徐建的分享,在電影中,Deepfake的技術(shù)方案是用要替換的目標(biāo)演員的海量素材訓(xùn)練AI替換拍攝素材的一種方式,相對省時(shí)省力省錢。在好萊塢電影制作中,這樣的操作很常見。漫威的年輕版鋼鐵俠和年輕版黑豹都是基于Deepfake和演員年輕時(shí)的2D素材訓(xùn)練AI得出的。
但先進(jìn)的技術(shù)往往是一把雙刃劍。落到居心叵測的人手里,就變成了傷人的利刃。
前不久,數(shù)百萬網(wǎng)友在推特上看到了由AI生成的美國著名女歌手Taylor Swift的不雅照。這一組在推特上被查看了4700萬次的照片,就是由Deepfake生成的。影響之惡劣,以至于推特直接禁止搜索#Taylor swift#的詞條。然而,Taylor并不是第一個(gè)受害的女明星。打開某些網(wǎng)站,甚至?xí)袑iT的“名人明星”分類,里面充斥著各種AI換臉的女明星。
根據(jù)專注于檢測Deepfake的情報(bào)公司Sensity AI的一份報(bào)告,目前網(wǎng)上超過 96%的Deepfake圖像都具有色情性質(zhì),而且?guī)缀跛袌D像都針對女性。
發(fā)布在社交媒體上的照片,可能被別有用心的人拿來“喂”AI。普通人也隨時(shí)面臨著被“開盒”(指網(wǎng)絡(luò)上公開曝光他人隱私的行為)的風(fēng)險(xiǎn)。根據(jù)奇安信集團(tuán)發(fā)布的《2024人工智能安全報(bào)告》,“2023年基于AI的深度偽造(Deepfake)欺詐暴增了3000%”。
利用換臉技術(shù)來招搖詐騙固然可怕,然而更深的套路是“攻心計(jì)”。
騙局三:美女帶貨
- 常見范圍:視頻號、抖音、小紅書等多家社交媒體平臺
- 目標(biāo)人群:覆蓋所有,其中男性居多
一個(gè)俄羅斯大美女向你發(fā)來視頻,說想嫁到中國,你會支持她嗎?相信90%的人都會表示支持。
外國人的面孔、些許生硬的中文,再配上濃厚的濾鏡,就組成了龐大的異國美女隊(duì)伍。這些“小姐姐”來自全球各地(近兩年以俄羅斯居多),#中俄友誼#是她們一定會帶的視頻標(biāo)簽詞。在她們發(fā)布的視頻中,首當(dāng)其沖的主題就是“想要嫁到中國”。
在這一主題下,“小姐姐們”的視頻敘事采取了豐富多樣的角度:
“雖然我是xx國人,但中國是我的家。”
“朋友家人都不理解,但我知道我遲早是中國媳婦。”
“你愿意娶一個(gè)不要彩禮的俄羅斯女生嗎?”
……
如果你對美女這個(gè)賽道不感興趣,也沒關(guān)系。還有認(rèn)知思維賽道、軍事賽道、時(shí)事評論賽道等等,各式各樣的“外國人”都任你選擇。
這就是AI的新套路。視頻全部都是由AI合成的假人,再配上機(jī)器語音,打著“促進(jìn)國際友誼”的旗號,出售商品。這些“外國人”談?wù)撝袊鐣姆椒矫婷妫u論區(qū)收獲了許多真心實(shí)意的支持。不少粉絲評論留言:“你比中國人還了解中國!”“為你的中文點(diǎn)贊!”
即使視頻中,“外國友人”把“了(liǎo)解”念成了“l(fā)e”解,仍能收獲10萬+的點(diǎn)贊,櫥窗中19.9元的雜糧粥仍能賣出30萬的驚人銷量。
在這背后操刀的是自媒體團(tuán)隊(duì)。他們的商業(yè)思路十分清晰:先通過視頻來積累粉絲——到達(dá)一定粉絲量后,開櫥窗帶貨——實(shí)現(xiàn)變現(xiàn)。由于制作成本低,在起號階段,一人往往能運(yùn)營數(shù)十個(gè)賬號,視頻的腳本也是通用的。無所謂單個(gè)賬號是否有爆款,“廣撒網(wǎng),多斂魚”,商品銷量才是最終目的。
即使常有文案“撞車”的情況發(fā)生,這類視頻還是吸引了大量來自三四線城市的中老年粉絲群體,紛紛為了“國際友誼”下單。
如果你認(rèn)為,這是對下沉市場的招數(shù),你絕不會上當(dāng)。那么下一個(gè)騙局,就是專門針對年輕群體的AI套路。
騙局四:AI知識付費(fèi)
- 常見范圍:微博、抖音、小紅書等多家社交媒體平臺
- 目標(biāo)人群:積極學(xué)習(xí)的年輕群體
“現(xiàn)在不學(xué)AI,第一波失業(yè)的就是你!”“AI工作年薪200萬,入門方法免費(fèi)教你!”“AI是普通人逆襲的最后機(jī)會!”你一定沒少看到這樣的標(biāo)語。
從2022年底,OpenAI發(fā)布ChatGPT開始,學(xué)習(xí)AI就成了新風(fēng)潮。隨著科技巨頭們不斷推陳出新,各行各業(yè)的內(nèi)容創(chuàng)作者們也鉚足了勁,在自己的賬號、社群中發(fā)布越來越多的AI課程——“零基礎(chǔ)學(xué)AI”“AI繪畫教程”,甚至還有“教你如何做AI課程”的課程。
但大水漫灌的結(jié)果,必然是泥沙俱下。
不少年輕粉絲奔著學(xué)習(xí)新知識去,卻領(lǐng)了“吃一塹,不長智”的教訓(xùn)。許多內(nèi)容創(chuàng)作者利用信息差,將國外免費(fèi)開放的官方AI教學(xué)翻譯過來,就成了自己的課件,美美賣課。像許多“零基礎(chǔ)AI”課程中常見的“prompt使用技巧”,其實(shí)是來自O(shè)penAI官網(wǎng)發(fā)布的教學(xué)內(nèi)容。這些標(biāo)價(jià)199、299元的課程還贈送了“免費(fèi)AI體驗(yàn)”。但實(shí)際上,是本就免費(fèi)開放的大模型,再加上一個(gè)套殼包裝罷了。
一些粗制濫造的AI課程絲毫不影響這個(gè)市場的火熱程度。不少焦慮的年輕人仍在直播間瘋狂下單。在抖音,一個(gè)4萬粉絲的博主,近800元的AI錄播課竟有2000+人學(xué)習(xí),這意味著,單課程銷售額至少160萬元。
這些授課人就是通過傳播焦慮的方式來促進(jìn)課件的下單量。一不小心你就會成為“韭菜園里最靚的一棵”。
寫在最后
上面四種AI騙局,你被哪個(gè)絆住了腳?
其實(shí),現(xiàn)在互聯(lián)網(wǎng)上的AI騙局遠(yuǎn)不止這些。網(wǎng)絡(luò)安全公司Fortinet發(fā)布的《2024全球安全威脅預(yù)測》中提到,AI已經(jīng)成為“頭號關(guān)注”。假視頻被頻繁用于傳播謠言,一張朋友圈照片也有可能被拿去換臉。有些人借著AI技術(shù)的發(fā)展,炮制了一個(gè)又一個(gè)新騙局。不明真相的我們,一不小心就會走入這“量身定制”的套路。
雖然關(guān)于AI的法制監(jiān)管都在積極的推進(jìn)中,但政策只是保護(hù)的一方面。另一方面還在于我們自身。擦亮眼睛、審慎思考,才是我們面對騙局的有效出路。
(本篇文章中的案例均為真實(shí)事件,化名。)