🎉 Gate.io โพสต์ #Followers# ได้รับการกดถึง 20,000+! 🎉
💰 เพื่อฉลอง พวกเรากำลังแจกฟรี 200 ดอลลาร์ มูลค่าของโทเคน!! 💰
📝 วิธีการเข้าร่วม:
1. ติดตาม gate_Post
2. แสดงความประสงค์ดีๆ ในโพสต์เพื่อเฉลิมฉลองครบรอบนี้!
🗓 จบเมื่อ 11 พฤศจิกายน เวลา 12:00 น. (UTC)
🔔 20 ผู้แสดงความคิดเห็นโชคดีจะได้รับ $10 ม
MIT เปิดตัวเทคโนโลยี PhotoGuard ที่ปกป้องรูปภาพจากการแก้ไข AI ที่เป็นอันตราย
เขียนบทโดย: แอนดรูว์ ทาแรนโทลา
ที่มา: Engadget
แหล่งที่มาของรูปภาพ: สร้างโดยเครื่องมือ Unbounded AI
Dall-E และ Stable Diffusion เป็นเพียงจุดเริ่มต้นเท่านั้น Chatbots บนอินเทอร์เน็ตกำลังเพิ่มความสามารถในการแก้ไขและสร้างรูปภาพ โดยมีบริษัทอย่าง Shutterstock และ Adobe เป็นผู้นำ เนื่องจากระบบที่สร้างโดย AI ได้รับความนิยม และบริษัทต่าง ๆ พยายามสร้างความแตกต่างให้กับผลิตภัณฑ์ของตนจากผลิตภัณฑ์ของคู่แข่ง แต่ความสามารถของ AI ใหม่เหล่านี้ยังก่อให้เกิดปัญหาที่คุ้นเคย เช่น การปลอมแปลงโดยไม่ได้รับอนุญาต หรือการยักยอกผลงานและรูปภาพออนไลน์ที่มีอยู่โดยสิ้นเชิง เทคโนโลยีลายน้ำสามารถช่วยลดปัญหาที่ตามมาได้ ในขณะที่เทคโนโลยีใหม่ "PhotoGuard" ที่พัฒนาโดย MIT CSAIL สามารถช่วยให้เราป้องกันปัญหาที่ตามมาได้
มีรายงานว่า PhotoGuard ทำงานโดยเปลี่ยนพิกเซลบางส่วนในรูปภาพ ซึ่งจะเป็นการทำลายความสามารถของ AI ในการทำความเข้าใจเนื้อหาของรูปภาพ "การก่อกวน" ตามที่ทีมวิจัยเรียก สิ่งเหล่านี้มองไม่เห็นด้วยตามนุษย์แต่อ่านง่ายสำหรับเครื่องจักร วิธีการโจมตีแบบ "เข้ารหัส" ที่แนะนำสิ่งประดิษฐ์เหล่านี้มีเป้าหมายที่การแสดงภาพเป้าหมายของแบบจำลองอัลกอริทึม ซึ่งเป็นคณิตศาสตร์ที่ซับซ้อนที่อธิบายตำแหน่งและสีของแต่ละพิกเซลในภาพ โดยพื้นฐานแล้วเป็นการป้องกันไม่ให้ AI เข้าใจว่ามันคืออะไร มองไปที่ . (หมายเหตุ: สิ่งประดิษฐ์หมายถึงรูปแบบต่างๆ ของรูปภาพที่ไม่มีอยู่ในวัตถุที่สแกน แต่ปรากฏบนรูปภาพ)
นอกจากนี้ วิธีการโจมตีแบบ "กระจาย" ขั้นสูงและเน้นการคำนวณจะปลอมภาพเป็นอีกภาพหนึ่งสำหรับดวงตาของ AI มันจะกำหนดภาพเป้าหมายและปรับแต่งการก่อกวนในภาพให้คล้ายกับภาพเป้าหมาย การแก้ไขใด ๆ ที่ AI พยายามทำกับรูปภาพ "ภูมิคุ้มกัน" เหล่านี้จะถูกนำไปใช้กับรูปภาพ "เป้าหมาย" ปลอม ทำให้ได้ภาพที่ดูเหมือนไม่จริง
"การโจมตีด้วยตัวเข้ารหัสทำให้โมเดลคิดว่าภาพอินพุต (ที่จะแก้ไข) เป็นภาพอื่น (เช่นภาพโทนสีเทา)" Hadi Salman นักศึกษาปริญญาเอกที่ MIT และผู้เขียนคนแรกของหนังสือพิมพ์กล่าวกับ Engadget "การโจมตีแบบกระจายบังคับให้โมเดลการแพร่กระจายแก้ไขภาพเป้าหมายบางภาพซึ่งอาจเป็นภาพสีเทาหรือภาพสุ่ม" ภาพที่ได้รับการป้องกันสำหรับการทำวิศวกรรมย้อนกลับ
"วิธีการทำงานร่วมกันที่เกี่ยวข้องกับนักพัฒนาโมเดล แพลตฟอร์มโซเชียลมีเดีย และผู้กำหนดนโยบายสามารถป้องกันการจัดการรูปภาพโดยไม่ได้รับอนุญาตได้อย่างมีประสิทธิภาพ การแก้ไขปัญหาเร่งด่วนนี้มีความสำคัญอย่างยิ่งในปัจจุบัน" Salman กล่าวในเอกสารเผยแพร่ "ในขณะที่ฉันรู้สึกตื่นเต้นที่จะได้มีส่วนร่วมในโซลูชันนี้ แต่ก็ยังมีงานอีกมากที่ต้องทำเพื่อให้การป้องกันนี้ใช้งานได้จริง บริษัทที่พัฒนาโมเดลเหล่านี้จำเป็นต้องลงทุนในการกำหนดเป้าหมายภัยคุกคามที่เครื่องมือ AI เหล่านี้อาจก่อให้เกิดวิศวกรรมภูมิคุ้มกันที่แข็งแกร่ง "