【今日点击】人工智能(AI)技術發展令相關騙案數量大增。香港警方周日(2日)指近期出現「深偽」(Deepfake)騙案,罪犯利用AI技術「移花接木」,將某人樣貌「換臉」以欺騙事主親友。外地近月亦出現「AI版猜猜我是誰」,罪犯在網上取得某人聲線後,利用AI「複製聲線」然後向對方親友落手,有研究顯示有近八成收到電話者被騙財。
美國新聞網站Axios報道,生成式AI的冒起令網絡罪犯行騙門檻降低。防毒軟件McAfee最近發表的一項報告,報告訪問了7國共7054人,發現有十分之一成年人親身遇過AI聲音詐騙,當中多達77%承認破財,超過三分之一損失超過1000美元(約7800港元),7%損失5000至1.5萬美元(約3.9萬至11.7萬港元)。
3秒聲音片段 罪犯即可複製聲線
報告指出,在最新的AI複製聲線技術協助下,罪犯只要在網上取得某人說話的聲音片段3秒,就可以將聲線複製,並讓該聲線讀出其他字句,幾可亂真。罪犯然後就以假扮身分和聲線致電該人親友,並在與受害人親友溝通時,利用聲線複製技術軟件用鍵盤輸入文字變成聲音以作即時對答。部分罪犯還會在網上研究受害人親友的背景,以加強可信度。
罪犯索錢的方式包括要求提供信用卡資料搭的士、受傷要醫藥費、急需現金周轉,甚至報稱綁架。英國《太陽報》訪問了一名4月中伏的AI綁架勒索受害者,說她收到電話時,沒有一刻懷疑對方不是自己女兒。她被勒索5萬美元(約39萬港元)贖金。
美國聯邦貿易委員會(FTC)主席莉娜汗(Lina Khan)上月表示,AI導致包括聲音騙案在內的詐騙個案爆發。美國國際詐騙案專家希巴(J. Michael Skiba)5月底時表示,涉及AI的詐騙案過去1年大幅增加了50%至75%。McAfee高級副主席兼技術總監格羅布曼(Steve Grobman)說:「那(AI程式)是很容易使用的媒介,施襲者不太需要對AI擁有經驗。」
(Axios/CBS/英國太陽報/明报)