作者:趙甜怡
編輯:曾憲天
當人們把2023年看作是從換AI元年時,2024年的臉騙目光自然地聚集在了AI應用的落地上。然而,套殼在商業(yè)化之前,賣課AI已經(jīng)變成了某些灰色產業(yè)的詐騙斂財工具。
莫名其妙的何避電話、熱情的從換異國美女、謠言、臉騙詐騙……在你無意識的套殼時候,AI騙局就已經(jīng)來到你身邊。賣課PConline收集整理了四大AI新騙局,詐騙來看看你最“眼熟”哪一個?
騙局一:語音求救
- 常見范圍:微信、何避電話
- 目標人群:覆蓋所有,從換其中家長居多
面對陌生的臉騙號碼你可能會直接掛掉,但是套殼如果是家人打來的“求救電話”呢?
根據(jù)中國新聞網(wǎng)的報道,去年11月,王欣的母親突然接到一通“王欣”打來的電話,聲稱自己被綁架,讓母親轉賬30萬元,否則“后果自負!”著急的王欣母親立馬就打算給對方轉錢,被同事攔了下來。同事建議先給王欣打電話,確認情況。結果,真實的王欣正在睡午覺,啥事也沒。而那通“求救電話”就是騙子利用王欣的AI克隆聲音制作的。
近幾年,AI語音合成技術有了顯著的發(fā)展,一些C端的應用也逐漸成熟。像Voice AI、剪映等應用中都提供生成AI克隆音色的功能。只要念兩個例句,人人都能輕松生成自己的AI音色。不僅如此,現(xiàn)在的技術已經(jīng)可以在保證聲音的高保真度的同時,模擬你的音色,甚至細致到你說話時的口音、重音、換氣的節(jié)奏等等,完全可以滿足實時的互動需求。
先前在網(wǎng)絡上爆火的“AI孫燕姿”就曾引得一眾討論。Up主用孫燕姿的AI克隆音色翻唱《發(fā)如雪》《Melody》等眾多知名歌曲。該視頻合集獲得了2000多萬的播放量。網(wǎng)友們都在驚嘆,AI甚至會改變原曲中的部分旋律,依照孫燕姿的曲風特點進行調整,幾乎能做到以假亂真的水平。同時,網(wǎng)友們也都開始擔心,技術一旦被濫用,防詐騙的成本就更高了。
這樣的擔心不無道理。據(jù)網(wǎng)友分享,自己曾接到過一通莫名其妙的電話。一接通,對方就問“你家在哪”。一頭霧水的網(wǎng)友回答“不知道”,徑直掛斷了電話。然而就在幾天后,網(wǎng)友的家人就接到了“網(wǎng)友”的求救電話——騙子僅憑一句話就能生成網(wǎng)友的AI克隆聲音,實施詐騙。
如果你認為,耳聽為虛,眼見為實。視頻信息才能確認身份,那么接下來這個騙局,將會顛覆你的想法,讓你驚呼“防不勝防!”
騙局二:換臉詐騙
- 常見范圍:微信、線上會議、FaceTime
- 目標人群:覆蓋所有,熟人關系居多、針對女性居多
如今,眼見為實的“鐵律”也會面臨意外的情況。福州市的郭先生就曾因為這條“鐵律”狠狠吃了虧。
“平安包頭”曾公布一起案例:在去年4月份,郭先生的朋友突然打來微信視頻電話,說自己在外地投標,需要430萬的保證金,想借郭先生公司的賬戶走一下帳。這位“朋友”隨即將錢打到了郭先生的賬戶上,并且截圖讓郭先生確認。雖然還未等來銀行的通知信息,但郭先生還是先把錢轉了過去。結果,跟他視頻的,是用AI換了臉的騙子,佯裝成郭先生的朋友來騙錢。
郭先生報警后,還專門表示:“我在視頻中確認了面孔和聲音,才放松了戒備。”
其實,“眼見為虛”的換臉技術我們早就見過。這種技術名叫Deepfake深度偽造,是一種將圖片/視頻合并疊加到源圖片/視頻上,生成虛假的個人表情、動作的AI技術。在2023年上映的《流浪地球2》中,就是利用這個技術,將62歲的劉德華還原到我們印象中年輕的華仔模樣。
據(jù)《流浪地球2》的視覺特效徐建的分享,在電影中,Deepfake的技術方案是用要替換的目標演員的海量素材訓練AI替換拍攝素材的一種方式,相對省時省力省錢。在好萊塢電影制作中,這樣的操作很常見。漫威的年輕版鋼鐵俠和年輕版黑豹都是基于Deepfake和演員年輕時的2D素材訓練AI得出的。
但先進的技術往往是一把雙刃劍。落到居心叵測的人手里,就變成了傷人的利刃。
前不久,數(shù)百萬網(wǎng)友在推特上看到了由AI生成的美國著名女歌手Taylor Swift的不雅照。這一組在推特上被查看了4700萬次的照片,就是由Deepfake生成的。影響之惡劣,以至于推特直接禁止搜索#Taylor swift#的詞條。然而,Taylor并不是第一個受害的女明星。打開某些網(wǎng)站,甚至會有專門的“名人明星”分類,里面充斥著各種AI換臉的女明星。
根據(jù)專注于檢測Deepfake的情報公司Sensity AI的一份報告,目前網(wǎng)上超過 96%的Deepfake圖像都具有色情性質,而且?guī)缀跛袌D像都針對女性。
發(fā)布在社交媒體上的照片,可能被別有用心的人拿來“喂”AI。普通人也隨時面臨著被“開盒”(指網(wǎng)絡上公開曝光他人隱私的行為)的風險。根據(jù)奇安信集團發(fā)布的《2024人工智能安全報告》,“2023年基于AI的深度偽造(Deepfake)欺詐暴增了3000%”。
利用換臉技術來招搖詐騙固然可怕,然而更深的套路是“攻心計”。
騙局三:美女帶貨
- 常見范圍:視頻號、抖音、小紅書等多家社交媒體平臺
- 目標人群:覆蓋所有,其中男性居多
一個俄羅斯大美女向你發(fā)來視頻,說想嫁到中國,你會支持她嗎?相信90%的人都會表示支持。
外國人的面孔、些許生硬的中文,再配上濃厚的濾鏡,就組成了龐大的異國美女隊伍。這些“小姐姐”來自全球各地(近兩年以俄羅斯居多),#中俄友誼#是她們一定會帶的視頻標簽詞。在她們發(fā)布的視頻中,首當其沖的主題就是“想要嫁到中國”。
在這一主題下,“小姐姐們”的視頻敘事采取了豐富多樣的角度:
“雖然我是xx國人,但中國是我的家。”
“朋友家人都不理解,但我知道我遲早是中國媳婦。”
“你愿意娶一個不要彩禮的俄羅斯女生嗎?”
……
如果你對美女這個賽道不感興趣,也沒關系。還有認知思維賽道、軍事賽道、時事評論賽道等等,各式各樣的“外國人”都任你選擇。
這就是AI的新套路。視頻全部都是由AI合成的假人,再配上機器語音,打著“促進國際友誼”的旗號,出售商品。這些“外國人”談論著中國社會的方方面面,評論區(qū)收獲了許多真心實意的支持。不少粉絲評論留言:“你比中國人還了解中國!”“為你的中文點贊!”
即使視頻中,“外國友人”把“了(liǎo)解”念成了“l(fā)e”解,仍能收獲10萬+的點贊,櫥窗中19.9元的雜糧粥仍能賣出30萬的驚人銷量。
在這背后操刀的是自媒體團隊。他們的商業(yè)思路十分清晰:先通過視頻來積累粉絲——到達一定粉絲量后,開櫥窗帶貨——實現(xiàn)變現(xiàn)。由于制作成本低,在起號階段,一人往往能運營數(shù)十個賬號,視頻的腳本也是通用的。無所謂單個賬號是否有爆款,“廣撒網(wǎng),多斂魚”,商品銷量才是最終目的。
即使常有文案“撞車”的情況發(fā)生,這類視頻還是吸引了大量來自三四線城市的中老年粉絲群體,紛紛為了“國際友誼”下單。
如果你認為,這是對下沉市場的招數(shù),你絕不會上當。那么下一個騙局,就是專門針對年輕群體的AI套路。
騙局四:AI知識付費
- 常見范圍:微博、抖音、小紅書等多家社交媒體平臺
- 目標人群:積極學習的年輕群體
“現(xiàn)在不學AI,第一波失業(yè)的就是你!”“AI工作年薪200萬,入門方法免費教你!”“AI是普通人逆襲的最后機會!”你一定沒少看到這樣的標語。
從2022年底,OpenAI發(fā)布ChatGPT開始,學習AI就成了新風潮。隨著科技巨頭們不斷推陳出新,各行各業(yè)的內容創(chuàng)作者們也鉚足了勁,在自己的賬號、社群中發(fā)布越來越多的AI課程——“零基礎學AI”“AI繪畫教程”,甚至還有“教你如何做AI課程”的課程。
但大水漫灌的結果,必然是泥沙俱下。
不少年輕粉絲奔著學習新知識去,卻領了“吃一塹,不長智”的教訓。許多內容創(chuàng)作者利用信息差,將國外免費開放的官方AI教學翻譯過來,就成了自己的課件,美美賣課。像許多“零基礎AI”課程中常見的“prompt使用技巧”,其實是來自OpenAI官網(wǎng)發(fā)布的教學內容。這些標價199、299元的課程還贈送了“免費AI體驗”。但實際上,是本就免費開放的大模型,再加上一個套殼包裝罷了。
一些粗制濫造的AI課程絲毫不影響這個市場的火熱程度。不少焦慮的年輕人仍在直播間瘋狂下單。在抖音,一個4萬粉絲的博主,近800元的AI錄播課竟有2000+人學習,這意味著,單課程銷售額至少160萬元。
這些授課人就是通過傳播焦慮的方式來促進課件的下單量。一不小心你就會成為“韭菜園里最靚的一棵”。
寫在最后
上面四種AI騙局,你被哪個絆住了腳?
其實,現(xiàn)在互聯(lián)網(wǎng)上的AI騙局遠不止這些。網(wǎng)絡安全公司Fortinet發(fā)布的《2024全球安全威脅預測》中提到,AI已經(jīng)成為“頭號關注”。假視頻被頻繁用于傳播謠言,一張朋友圈照片也有可能被拿去換臉。有些人借著AI技術的發(fā)展,炮制了一個又一個新騙局。不明真相的我們,一不小心就會走入這“量身定制”的套路。
雖然關于AI的法制監(jiān)管都在積極的推進中,但政策只是保護的一方面。另一方面還在于我們自身。擦亮眼睛、審慎思考,才是我們面對騙局的有效出路。
(本篇文章中的案例均為真實事件,化名。)