電信詐騙的套路大家都很熟悉,一般來說,我們可以輕易地分辨出對方是什么來頭。不過,正所謂“道高一尺魔高一丈”,有些詐騙分子已經(jīng)開始利用AI技術進行犯罪。據(jù)外媒報道,目前,AI語音生成軟件可以讓騙子模仿親人的聲音,詐騙者利用AI聲音冒充親人竊取了大量錢財,光是在2022年,這些假冒行為導致人們在2022年被騙走1100萬美元,而且老年人占目標人群的大多數(shù)。
電信詐騙
近段時間以來,人工智能一直是科技圈的中心話題,因為微軟在其產(chǎn)品中注入ChatGPT,而谷歌則通過推出自己的人工智能產(chǎn)品來跟上潮流。雖然人工智能有潛力做一些讓人令人印象深刻的事情,比如根據(jù)一行文本生成圖像,但這項幾乎不受監(jiān)管的技術的更多缺點也開始浮現(xiàn)出來。最新的例子是,人工智能語音發(fā)生器被用來騙取人們的錢財。
人工智能
人工智能語音生成軟件一直受到業(yè)界關注,最開始,這種軟件需要幾句話才能令人信服地再現(xiàn)揚聲器的聲音和語氣。現(xiàn)在,該技術已經(jīng)發(fā)展到只需幾秒鐘的對話就足以準確模仿某人的程度。
根據(jù)外媒公布的報告,數(shù)以千計的受害者聲稱他們被冒充親人的頂替者所欺騙。這類冒名頂替詐騙已成為美國第二大熱門的欺詐類型,2022年提交的案件超過36000起。FTC官員進一步表示,在這36000起案件中,超過5000名受害者通過電話被騙走錢財,損失總額達1100萬美元。
和其他地方一樣,這些詐騙者主要針對老年人。這并不奇怪,因為在涉及金融詐騙時,老年人是最脆弱的群體之一。