【#公安部網安局提醒防範新型詐騙手段#】
昨日,公安部網安局發文提醒用戶,應該注意防範利用AI人工智慧等新型手段詐騙。公安部網安局稱,AI詐騙常用手法包括了,合成聲音、AI換臉等方式。
合成聲音案例中,騙子通過騷擾電話錄音等來提取某人聲音,獲取素材後進行聲音合成,從而可以用偽造的聲音騙過對方。
而AI換臉中,騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
對此,公安部網安局提醒用戶,面對AI詐騙應該在涉及錢款時,盡量通過電話詢問具體信息,確認對方是否為本人。同時,加強個人信息保護意識,對於不明平台發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子「精準圍獵」。
此外,做好家中老人的宣傳防範工作。提醒老年人在接到電話、簡訊時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。(來源:公安部網安局)http://t.cn/A65pXpAS

LINE it!
回頁頂