麻省理工推出PhotoGuard 技術,可保護圖像免受惡意AI 編輯

撰文:Andrew Tarantola

來源:Engadget

圖片來源:由無界AI工俱生成

Dall-E 和Stable Diffusion 只是開始。隨著人工智能生成系統的普及,以及各公司努力將自己的產品與競爭對手的產品區分開來,互聯網上的聊天機器人正在獲得編輯和創建圖片的能力,Shutterstock 和Adobe 等公司就是其中的佼佼者。但是,這些新的AI 功能也帶來了我們熟悉的問題,比如未經授權篡改或直接盜用現有的在線作品和圖片。水印技術可以幫助減少後者問題,而麻省理工學院CSAIL 開發的新型“PhotoGuard”技術則可以幫助我們防止前者的出現。

據悉,PhotoGuard 的工作原理是改變圖像中的部分像素,從而破壞AI 理解圖像內容的能力。研究團隊所說的這些“擾動”,人眼是看不見的,但機器很容易讀懂。引入這些偽影的“編碼”攻擊方法針對的是算法模型對目標圖像的潛在表示-- 描述圖像中每個像素的位置和顏色的複雜數學-- 從根本上阻止了人工智能理解它正在看什麼。 (注:偽影(Artifacts) 是指原本被掃描物體並不存在而在圖像上卻出現的各種形態的影像。

此外,更先進、計算量更大的“擴散”攻擊方法會將圖像偽裝成人工智能眼中的另一幅圖像。它將定義一個目標圖像,並優化其圖像中的擾動,使其與目標圖像相似。人工智能試圖對這些“免疫”圖像進行的任何編輯都會應用到偽造的“目標”圖像上,從而生成看起來不真實的圖像。

“編碼器攻擊會讓模型認為(要編輯的)輸入圖像是其他圖像(如灰度圖像),”麻省理工學院博士生、論文第一作者Hadi Salman 告訴Engadget。 “而擴散攻擊則迫使擴散模型對一些目標圖像(也可以是一些灰色或隨機圖像)進行編輯。”這種技術並非萬無一失,惡意行為者可能會通過添加數字噪音、裁剪或翻轉圖片等方式,對受保護的圖像進行逆向工程。

“涉及模型開發人員、社交媒體平台和政策制定者的協作方法可以有效防禦未經授權的圖像操縱。解決這一緊迫問題在今天至關重要。”Salman 在一份新聞稿中表示。 “雖然我很高興能夠為這一解決方案做出貢獻,但要使這一保護措施切實可行,還有很多工作要做。開發這些模型的公司需要投入資金,針對這些AI 工具可能帶來的威脅進行強大的免疫工程設計。”

查看原文
  • 讚賞
  • 留言
  • 分享
留言
暫無留言