📢 Tantangan Tag Pos Gate.io: #MyFavoriteToken# Pos dan MENANG $100!
Apakah Anda memiliki token favorit yang membuat Anda bersemangat? Baik itu untuk inovasi teknis, dukungan komunitas, atau potensi pasar, ikuti acara #MyFavoriteToken# dan bagikan wawasan Anda dengan kami!
💡 Bagaimana Cara Berparti
MIT memperkenalkan teknologi PhotoGuard yang melindungi gambar dari pengeditan AI yang berbahaya
Ditulis oleh: Andrew Tarantola
Sumber: Engadget
Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas
Dall-E dan Stable Diffusion hanyalah permulaan. Chatbots di internet mendapatkan kemampuan untuk mengedit dan membuat gambar, dengan perusahaan seperti Shutterstock dan Adobe memimpin, karena sistem yang dihasilkan AI mendapatkan popularitas dan perusahaan bekerja untuk membedakan produk mereka dari pesaing mereka. Namun kemampuan AI yang baru ini juga menimbulkan masalah umum, seperti perusakan yang tidak sah atau penyalahgunaan langsung atas karya dan gambar online yang ada. Teknologi watermarking dapat membantu mengurangi masalah terakhir, sementara teknologi "PhotoGuard" baru yang dikembangkan oleh MIT CSAIL dapat membantu kita mencegah masalah pertama.
Dilaporkan bahwa PhotoGuard bekerja dengan mengubah beberapa piksel pada gambar, sehingga merusak kemampuan AI untuk memahami konten gambar. "Gangguan" ini, demikian tim peneliti menyebutnya, tidak terlihat oleh mata manusia tetapi mudah dibaca oleh mesin. Metode serangan "pengodean" yang memperkenalkan artefak ini menargetkan representasi dasar model algoritmik dari gambar target -- matematika kompleks yang menggambarkan posisi dan warna setiap piksel dalam gambar -- pada dasarnya mencegah AI untuk memahami apa itu melihat . (Catatan: Artefak mengacu pada berbagai bentuk gambar yang tidak ada pada objek yang dipindai tetapi muncul pada gambar.)
Selain itu, metode serangan "difusi" yang lebih canggih dan komputasi intensif menyamarkan gambar sebagai gambar lain untuk mata AI. Ini akan menentukan gambar target dan mengoptimalkan gangguan pada gambarnya agar serupa dengan gambar target. Pengeditan apa pun yang coba dilakukan AI pada gambar "kebal" ini diterapkan pada gambar "target" palsu, menghasilkan gambar yang tidak terlihat nyata.
"Serangan encoder membuat model berpikir bahwa gambar masukan (yang akan diedit) adalah gambar lain (seperti gambar skala abu-abu)," kata Hadi Salman, seorang mahasiswa Ph.D. di MIT dan penulis pertama makalah tersebut, kepada Engadget. "Serangan Difusi memaksa model Difusi untuk mengedit beberapa gambar target, yang juga bisa berupa gambar abu-abu atau acak." Gambar yang dilindungi untuk rekayasa balik.
"Pendekatan kolaboratif yang melibatkan pengembang model, platform media sosial, dan pembuat kebijakan dapat menjadi pertahanan yang efektif terhadap manipulasi gambar yang tidak sah. Mengatasi masalah mendesak ini sangat penting hari ini," kata Salman dalam rilisnya. "Sementara saya bersemangat untuk dapat berkontribusi pada solusi ini, masih banyak pekerjaan yang harus dilakukan untuk membuat perlindungan ini praktis. Perusahaan yang mengembangkan model ini perlu berinvestasi dalam penargetan ancaman yang mungkin ditimbulkan oleh alat AI ini untuk rekayasa kekebalan yang kuat. ."