طور باحثون في جامعة شيكاغو أداة تمنح الفنانين القدرة على “تسميم” فنهم الرقمي من أجل منع المطورين من تدريب أنظمة الذكاء الاصطناعي على عملهم.
تُسمى الأداة “Nightshade”، على اسم عائلة النباتات، التي يُعرف بعضها بتوتها السام، وتقوم الأداة بتعديل الصور بطريقة تجعل إدراجها يلوث مجموعات البيانات المستخدمة لتدريب الذكاء الاصطناعي بمعلومات غير صحيحة.
وفقًا لتقرير صادر عن مجلة MIT’s Technology Review، يقوم Nightshade بتغيير وحدات البكسل في الصورة الرقمية من أجل خداع نظام الذكاء الاصطناعي لإساءة تفسيرها. على سبيل المثال، ذكرت مجلة Tech Review إقناع الذكاء الاصطناعي بأن صورة القطة هي كلب، والعكس صحيح.
ومن خلال القيام بذلك، من الناحية النظرية، ستتضرر قدرة الذكاء الاصطناعي على توليد مخرجات دقيقة وحساسة. باستخدام المثال أعلاه، إذا طلب المستخدم صورة “قطة” من الذكاء الاصطناعي الملوث، فقد يحصل بدلاً من ذلك على كلب مسمى على أنه قطة أو مزيج من جميع “القطط” في مجموعة تدريب الذكاء الاصطناعي، بما في ذلك تلك التي هي في الواقع صور للكلاب تم تعديلها بواسطة أداة Nightshade.
ورأى أحد الخبراء الذين شاهدوا العمل، وهو فيتالي شماتيكوف، الأستاذ في جامعة كورنيل، أن الباحثين “لا يعرفون بعد دفاعات قوية ضد هذه الهجمات”. والمغزى من ذلك هو أنه حتى النماذج القوية مثل ChatGPT من OpenAI قد تكون معرضة للخطر.
يرأس فريق البحث وراء Nightshade البروفيسور بن تشاو من جامعة شيكاغو. الأداة الجديدة هي في الواقع امتداد لبرنامج حماية الفنان الحالي المسمى Glaze. في عملهم السابق، صمموا طريقة يمكن للفنان من خلالها تشويش أو “تزجيج” أسلوب أعمالهم الفنية.
على سبيل المثال، يمكن تزجيج الفنان الذي رسم صورة بالفحم ليظهر لنظام الذكاء الاصطناعي كفن حديث.
أمثلة على تقليد فن الذكاء الاصطناعي غير المزجج والمزجج. مصدر الصورة: شان وآخرون. آل، 2023.
وفقًا لمراجعة التكنولوجيا، سيتم تطبيق Nightshade في النهاية على Glaze، وهو متاح حاليًا مجانًا للاستخدام على الويب أو للتنزيل على موقع جامعة شيكاغو.