詐騙犯罪分子越來越多地使用生成式人工智能技術(shù)來實施詐騙計劃,人們越來越擔心這可能會加劇咋騙打流行。在2020年,詐騙犯利用生成式人工智能技術(shù)模仿了一位公司董事的聲音,成功欺騙了香港一家銀行經(jīng)理,使其授權(quán)轉(zhuǎn)賬3,500萬港元。自那以后,這項技術(shù)變得更加令人信服,使詐騙犯能夠在幾秒鐘內(nèi)生成類似人類的文本,繞過了長期以來與詐騙信息同義的拼寫和語法錯誤。
2023年,ChatGPT令人印象深刻的能力,可以在各種提示下生成高度逼真和連貫的回答,從創(chuàng)意寫作到技術(shù)支持,激發(fā)了公眾的想象力。不幸的是,詐騙犯也看到了潛力,并開始探索使用AI聊天機器人生成惡意軟件的方法。ChatGPT出色地模仿特定組織和機構(gòu)的語言風格的能力使詐騙犯能夠創(chuàng)建高度詳細和逼真的副本,他們可以用來制作詐騙信息或虛假網(wǎng)站。這使得生成詐騙信息成為一項低投入、高回報的工作,導致對釣魚和冒充詐騙的檢測和辨別更加困難。
生成式人工智能技術(shù)的興起似乎加強了詐騙犯已經(jīng)使用的有效工具。在新加坡,2022年報告的詐騙案件數(shù)量比2021年增加了32.6%,損失總額達到了6.6億新加坡元。根據(jù)澳大利亞競爭與消費者委員會(ACCC)的數(shù)據(jù),澳大利亞消費者在過去一年中失去了超過31億澳元的資金,這比前一年增加了80%以上。雖然并非所有詐騙都直接與AI技術(shù)相關(guān),但詐騙案件的增加頻率令人擔憂。詐騙犯現(xiàn)在擁有了更全面的AI技術(shù)使用權(quán)限,這引發(fā)了公眾對詐騙的脆弱性的擔憂。
銀行和金融機構(gòu)必須與技術(shù)的步伐保持一致,并不斷發(fā)展用于消費者保護的工具集,以有效應對使用ChatGPT等精密工具自動化進行的欺詐和詐騙行為。通過利用人工智能和機器學習技術(shù),例如復雜的行為分析和相應的欺詐和詐騙檢測評分,銀行可以顯著提高檢測準確性,并實時應對由犯罪分子利用ChatGPT引發(fā)的欺詐和詐騙案件數(shù)量的增加。
盡管ChatGPT對于希望生成惡意內(nèi)容的用戶有一些限制,但這些限制可以輕易被狡猾的詐騙犯繞過。新加坡警方已開始監(jiān)控與ChatGPT相關(guān)的犯罪活動。上個月,執(zhí)法組織歐洲刑警組織(Europol)發(fā)布了一份有關(guān)ChatGPT和其他“大型語言模型”潛在犯罪用途的國際警示。類似地,美國聯(lián)邦貿(mào)易委員會(FTC)一直在分享其對生成式人工智能能力欺騙公眾的擔憂。
這應該不會令人驚訝,因為犯罪分子不斷尋找新的方法和工具來實施詐騙計劃,并已經(jīng)開始探索如何利用AI聊天機器人生成惡意軟件。
對于該地區(qū)的銀行和金融機構(gòu)來說,這應該敲響警鐘,特別是在數(shù)字銀行服務在該地區(qū)的受歡迎程度不斷增長,消費者成為實時支付的熱衷用戶。在詐騙犯或騙子發(fā)送無意義信息的情況下,顧客發(fā)現(xiàn)這些信息的可能性只會變得更小,而依靠行為分析來檢測財務支付的變化將變得更加重要,因為劣質(zhì)生成的詐騙信息與精心生成的信息之間的界限變得模糊。
銀行可以通過充分利用人工智能、機器學習和教育來更好地防止基于人工智能的欺詐和詐騙,并保護客戶免受賬戶劫持和冒名頂替等金融威脅。
2024-12-22 08:54
2024-12-21 09:15
2024-12-20 08:53
2024-12-20 08:50
2024-12-19 09:23
2024-12-17 09:51
2024-12-17 09:35
2024-12-15 09:06
2024-12-12 10:16
2024-12-12 10:01