10分鐘被騙430萬元 “AI詐騙”應被零容忍
近期,多家媒體注意到,“AI換臉”新型詐騙頻發(fā),利用人工智能實施電信詐騙的典型案例沖上熱搜,引發(fā)全網(wǎng)關注。據(jù)“平安包頭”微信公眾號消息,近日,包頭市公安局電信網(wǎng)絡犯罪偵查局發(fā)布一起使用智能AI技術進行電信詐騙的案件,福州市某科技公司法人代表郭先生10分鐘內被騙430萬元。
正常情況下,人們都信奉“眼見為實”,尤其是隨著視頻通訊的普及,對于通過網(wǎng)絡視頻“面對面”的交流,大家總是很容易信任的。但上述詐騙案件告訴我們,這一點也正在被一些騙子“鉆空子”。更重要的是,當前多數(shù)人對此都缺乏足夠的警惕意識。
當務之急,還是要加強有針對性的防騙教育和提醒。類似的“AI換臉”詐騙案例,應該盡快通過多種渠道告知民眾,尤其要提醒一些老年人。與此同時,防騙治理工作也要盡快跟上,目前對“AI換臉”詐騙的防范措施還比較少。針對這類詐騙的新手段和新路徑,是否在技術層面能夠有相應的防范措施,需要相關部門及企業(yè)加緊探索,織密防騙網(wǎng)絡。比如,網(wǎng)絡社交通信工具能否增加準確識別“AI換臉”操作的功能,以此對當事人作出提醒?
還要注意一點,“AI換臉”畢竟是建立在對人臉信息的加工和利用之上,這也應該讓社會對如今人臉識別的濫用風險有更多的科學評估。因為在目前的現(xiàn)實條件下,人臉識別的應用范圍越廣,也就意味著人臉信息的泄露可能越嚴重。如此自然也就很容易降低“AI換臉”詐騙的門檻。對此,相關監(jiān)管和立法應該要有所跟進,進一步明確人臉識別技術應用的邊界,提高對人臉信息的保護力度。同時,語音、視頻等合成技術的研發(fā)和使用 ,也應該進守住技術倫理底線,以從源頭上減少其“干壞事”的可能性。
當然,對于“AI換臉”詐騙也沒必要人人自危。說到底,過去一些最基本的防詐原則依然管用。比如,涉及錢款交易,一定要慎之又慎,進行多方驗證。中國互聯(lián)網(wǎng)協(xié)會就發(fā)出提醒:“在AI時代,文字、聲音、圖像和視頻都有可能是深度合成的,在轉賬匯款、資金往來這樣的典型場景,要通過回撥對方手機號等額外通信方式核實確認,不要僅憑單一溝通渠道未經(jīng)核實就直接轉賬匯款,無論對方是誰!”這點其實相當重要,只要涉及轉賬操作和資金往來,一定要多留個心眼。這應當是每個人都需要擁有的防騙素養(yǎng)。
朱昌俊 來源:中國青年報
隨便看看:
- [頭條]水利部就水資源管理監(jiān)督檢查發(fā)現(xiàn)問題約談部分省級和縣級水行政主
- [頭條]交通運輸部在南沙群島海域設置航標
- [頭條]產業(yè)鏈創(chuàng)新鏈深度融合 精準發(fā)力為中小企業(yè)賦智
- [頭條]我們的選擇:深入生活,扎根人民
- [頭條]全國一般公共預算收入同比增長11.9%
- [頭條]鄉(xiāng)情聯(lián)誼帶動強農興旅
- [頭條]今年以來我國重大水利工程新開工15項 一批重大水利工程建設取
- [頭條]第二次青藏科考啟動6年來取得十大進展
- [頭條]國家鐵路局:鐵路運輸企業(yè)應配備無障礙設施以及助殘設備
- [頭條]深圳證監(jiān)局:截至4月30日深圳轄區(qū)北交所上市公司總市值達35
相關推薦:
網(wǎng)友評論:
推薦使用友言、多說、暢言(需備案后使用)等社會化評論插件