《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業界動態 > AI造假 對 AI打假,終結“貓鼠游戲”不能光靠技術

AI造假 對 AI打假,終結“貓鼠游戲”不能光靠技術

2020-02-28
來源:網易科技
關鍵詞: AI 人臉識別 Deepfake

1.jpg

  人臉識別作為生物識別中的重要手段,成為了近年身份識別中最熱門的領域。但與人臉識別技術共同發展的,還有借助機器學習系統、圖像視頻和音頻內容,更改人臉、物體或環境呈現方式的深度偽造技術。隨著這一技術的日趨成熟,其引發的諸多社會問題也開始凸顯。在對抗虛假視頻方面,目前各方在尋求技術突破的同時,也致力于在制度建設方面做出改變。

  俗話說“眼見為實”,人們往往對看到的圖像、視頻深信不疑,而隨著Photoshop、美圖秀秀等圖像編輯軟件的興起,人工智能造假技術的更迭,圖像篡改變得越來越容易,假圖片、假新聞等在網上泛濫成災,人們也愈發不敢相信自己的眼睛。

  為了應對美國大選季期間高發的虛假信息,近日,谷歌決定出手,以AI治AI。有專家指出,深度偽造技術(Deepfake)是AI發展到一定階段的產物,隨著這種技術的發展,相應的檢測技術也會越來越先進——如同“貓抓老鼠的游戲”,將是一場永無休止的競賽。

  假視頻越來越逼真

  2019年11月,在北美上映的電影《愛爾蘭人》反響熱烈,其中令人咋舌的是電影特效制作公司運用虛擬影像重建技術,將片中主角們集體“減齡”,抹平年近80歲演員們容顏上的歲月痕跡,使之重新煥發青春。這種讓耄耋之年的演員重回年輕模樣的“換臉”技術著實讓觀眾心頭一震。

  “Deepfake專指基于人工智能的人體圖像合成技術,主要應用于‘換臉’,其在很多領域有積極的商業價值,但是一旦被‘黑產’盯上用作謀利工具,則會給個人和社會帶來風險和挑戰。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲介紹說。

  這其中最飽受爭議的是“換臉”技術被一些情色網站利用。不久前,網絡上走紅的“一鍵脫衣”軟件DeepNude,只要輸入一張完整的女性圖片就可自動生成相應裸照,并且生成照片存在著廣泛傳播的風險,最終在各方壓力下這款APP被下架。

  不僅如此,不久前還出現了語音版的Deepfake。加拿大一家創業公司開發出的語音合成系統RealTalk,僅基于一定的文本輸入即可生成和真人聲音十分相似的聲音。演示中,系統模仿了美國一位著名脫口秀喜劇演員、主持人的聲音,以至于本人聽后高呼“真的可怕”。而未來這種技術還可能會發展到只需幾秒鐘的音頻素材,即能復制出他人聲音的程度。

  讓人更為頭疼的是,Deepfake技術讓虛假信息“如虎添翼”,尤其在社會重大事件中能夠起到強勁攪拌作用,以至于可能會影響到人們決策以及社會穩定。據相關文獻,2016年美國總統大選前的一個月內,每個美國網民平均會接觸1—3篇假新聞。2020年初,新冠肺炎病毒席卷全國,就有造假者運用上述技術偽造鐘南山院士發言,而針對“辟謠”的百度搜索指數(1月19日—1月25日)與去年春節期間相比,增長了5.4倍。

  以AI治AI揪出假視頻

  “自Deepfake2017年年底首次出現以來,隨著其技術的開源,合成剪輯視頻的數量不斷增長。要對付假視頻,就要在網絡海量信息中,快速找到虛假圖片,并對圖像識別后精準提取其中語義,這也是目前人工智能算法上的核心研究發力點?!弊T茗洲表示。

  要識別虛假視頻,首先,我們來分析一下Deepfake都有哪些招數。

  “目前圖像篡改類型主要分為復制—粘貼、拼接、圖像修補/局部區域去除和人臉PS四大類。”行業專家曹娟博士近日在接受科技日報記者采訪時指出,“既有的檢測方法主要基于手工特征方法和深度學習的方法,前者包括基于圖像的物理屬性(光照不連續、陰影不連續、色差等)、相機屬性(顏色濾波陣列、傳感器噪聲、EXIF數據分析等)、壓縮痕跡(DCT系數、塊狀效應等)、像素級屬性(復制—粘貼、重采樣等);后者包括Encoder-Decoder模型、約束卷積模型和Multi-domain模型等?!?/p>

  “魔”高一尺,“道”可高一丈嗎?近日,谷歌母公司Alphabet旗下的Jigsaw聯手Google Research、美國馬里蘭大學等多家研究機構,開發了名為Assembler的實驗平臺,旨在幫助應用者通過簡單操作,快速識別Deepfake,減少AI技術濫用所帶來的傷害。

  譚茗洲介紹:“實際上,這個平臺是把多個圖像檢測器集成為一個工具,每個檢測器都針對特定類型的圖像進行處理。比如,有的檢測器能判斷圖像是否有復制粘貼痕跡,檢測主要關注圖像顏色、噪點等?!?/p>

  具體而言,其機器學習模型既能利用圖像的顏色值來查找異常,也能檢查圖像的噪點模式是否存在不一致。算法上,能夠查找被編輯過的JPEG壓縮圖像區域外觀相似的區塊,以判斷其中一個圖像是否被復制粘貼到另一個區域上。

  “然而,真實場景中,媒體經常面對的是經過復雜處理后編輯的低分辨率的圖像,這就給檢測技術帶來新的挑戰。光用底層算法不能準確抓住圖像上損失掉的篡改痕跡,還需要結合高層語義算法來識別?!辈芫暾f。

  曹娟進一步指出,現有檢測假視頻的方法尚存在三個主要局限性。第一,通用性不夠,大部分檢測只針對特定類型的篡改,如何尋找篡改的共同屬性,讓模型能應對多種篡改類型是未來的研究重點之一。第二,對抗能力不夠,目前篡改手段不斷隱蔽,經過復雜的處理,篡改痕跡往往會消失,導致檢測性能大大下降。如何提高模型的魯棒性,應對各種真實的應用場景,是未來的核心任務。第三,目前的方法基本都是對圖像劃分成小塊,再逐塊處理,非常耗時耗資源。

  共建保證信息真實的生態體系

  國際咨詢公司Gartner曾預測:到2020年,互聯網虛假信息或產生更大危害,基于人工智能技術的造假能力或將遠超虛假檢測的能力。2018年3月,《科學》雜志刊登的一篇論文指出:近年來虛假新聞的興起,突顯出互聯網時代現有的對抗錯誤信息制度和技術的不足,目前迫切需要重建一個保證信息真實性的信息生態系統。

  “如今更重要的是提升針對性的檢測技術、完善相關法律及認證機制?!弊T茗洲強調。

  2019年9月5日,臉書(Facebook)相關負責人宣布,臉書正與微軟公司聯合包括美國麻省理工學院、英國牛津大學、美國康奈爾大學等在內的多所大學研究檢測Deepfake的方法,同時非營利性研究組織Partnership on AI也參與其中,該組織的成員包括谷歌、蘋果、亞馬遜、IBM等大型科技公司。

  曹娟介紹說,在研究方面,除Assembler平臺之外,目前國內做的比較好的有中科院計算所、中科院自動化所、北京交通大學、中山大學、深圳大學等,國外的美國加州大學伯克利分校、美國賓漢姆頓大學、美國馬里蘭大學等。同時,很多企業和研究機構也在積極研發實用的圖像篡改檢測工具和平臺,如美國Amped Software公司開發的Amped Authenticate工具。

  2019年11月29日,國家互聯網信息辦公室發布《網絡音視頻信息服務管理規定》,要求網絡音視頻信息服務提供者應當具有與新技術新應用發展相適應的安全可控的技術保障,部署違法違規音視頻和非真實音視頻鑒別技術。

  專家建議,防治虛假視頻,有關部門要建立相關管理制度,特別是新聞視頻、新聞內容管理方面;在傳播渠道上,要建立過濾機制,在技術上實現高效過濾,并且還要對所有造假視頻音頻實現溯源,同時,增加對檢測技術研發資金的投入,激發技術創新。


本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。
主站蜘蛛池模板: 中国一级做a爰片久久毛片 中国一级做a爱片免费 | 成人在免费视频手机观看网站 | 99久久精品免费看国产麻豆 | 91精品视频在线免费观看 | 午夜影视网| 国产91精品一区二区视色 | 国产精品天天在线 | 欧美白人猛性xxxxx交69 | 欧美一级高清视频在线播放 | 久久三级影视 | 免费黄在线观看 | 日韩不卡高清 | 天天干天天拍天天射天天添天天爱 | 羞羞色在线| 中文字幕在线免费播放 | 欧美日韩一区二区中文字幕视频 | 香港三级日本三人妇孕妇 | 久久精品国产精品亚洲艾 | 国产日韩视频 | 免费国产不卡午夜福在线 | 国产无卡一级毛片aaa | 在线视频一区二区 | 欧美日本一区二区三区 | 免费观看又黄又刺激的视频网站 | 波多野结衣午夜 | 免费大片av手机看片 | 日本高清视频色wwwwww色 | 亚洲免费中文字幕 | 久久青青成人亚洲精品 | 美女一级牲交毛片视频 | 国产91成人 | h成年动漫同人网站免费 | 北条麻妃中文字幕在线观看 | 国产成人精品福利站 | 久国产精品视频 | 手机毛片在线 | 18免费视频 | 天天插天天插 | 播播成人网 | 久久久久香蕉 | 色综合久久综合网 |