MIT, görüntüleri kötü niyetli AI düzenlemelerinden koruyan PhotoGuard teknolojisini tanıttı

Senaryo: Andrew Tarantola

Kaynak: Engadget

Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur

Dall-E ve Kararlı Difüzyon sadece başlangıç. Yapay zeka tarafından üretilen sistemler popülerlik kazandıkça ve şirketler ürünlerini rakiplerinden farklı kılmak için çalıştıkça, Shutterstock ve Adobe gibi şirketlerin başı çekmesiyle, internetteki sohbet robotları resim düzenleme ve oluşturma yeteneği kazanıyor. Ancak bu yeni yapay zeka yetenekleri, yetkisiz kurcalama veya mevcut çevrimiçi çalışmaların ve görüntülerin tamamen kötüye kullanılması gibi tanıdık sorunları da beraberinde getiriyor. Filigran teknolojisi ikinci sorunu azaltmaya yardımcı olabilirken, MIT CSAIL tarafından geliştirilen yeni "PhotoGuard" teknolojisi birinci sorunu önlememize yardımcı olabilir.

PhotoGuard'ın görüntüdeki bazı pikselleri değiştirerek çalıştığı ve böylece AI'nın görüntünün içeriğini anlama yeteneğini yok ettiği bildiriliyor. Araştırma ekibinin dediği gibi bu "tedirginlikler" insan gözüyle görülemez, ancak makineler tarafından okunması kolaydır. Bu yapıları tanıtan "kodlama" saldırı yöntemi, algoritmik modelin hedef görüntünün altında yatan temsilini hedefler -- görüntüdeki her pikselin konumunu ve rengini tanımlayan karmaşık matematik -- esasen yapay zekanın bunun ne olduğunu anlamasını engeller bakıyor (Not: Artifaktlar, taranan nesnede bulunmayan ancak görüntüde görünen çeşitli görüntü biçimlerini ifade eder.)

Ek olarak, daha gelişmiş ve hesaplama açısından yoğun "difüzyon" saldırı yöntemleri, yapay zekanın gözleri için bir görüntüyü başka bir görüntü olarak gizler. Bir hedef görüntü tanımlayacak ve görüntüsündeki pertürbasyonları hedef görüntüye benzer olacak şekilde optimize edecektir. AI'nın bu "bağışıklıksız" görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte "hedef" görüntülere uygulanarak gerçek görünmeyen görüntüler üretilir.

MIT'de doktora öğrencisi ve makalenin ilk yazarı olan Hadi Salman, Engadget'e "Kodlayıcı saldırısı, modelin (düzenlenecek) giriş görüntüsünün başka bir görüntü (gri tonlamalı bir görüntü gibi) olduğunu düşünmesine neden oluyor" dedi. "Difüzyon saldırısı, Difüzyon modelini bazı gri veya rastgele görüntüler de olabilen hedef görüntülerin bazılarını düzenlemeye zorlar." Tersine mühendislik için korumalı görüntüler.

Salman yaptığı açıklamada, "Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, görüntülerin izinsiz manipülasyonuna karşı etkili bir savunma olabilir. Bu acil sorunu ele almak bugün kritik öneme sahiptir." "Bu çözüme katkıda bulunabileceğim için heyecanlı olsam da, bu korumayı pratik hale getirmek için yapılacak çok iş var. Bu modelleri geliştiren şirketlerin, bu AI araçlarının güçlü bağışıklık mühendisliği için oluşturabileceği tehditleri hedeflemeye yatırım yapması gerekiyor. ."

Orijinali Görüntüle
  • Bahşiş
  • Yorum
  • Paylaş
Yorum
Yorum yok