این کلیپ مربوط به یک رویداد واقعی تاریخی است – سخنرانی دیکتاتور نازی آدولف هیتلر در سال 1939 در آغاز جنگ جهانی دوم.
اما یک تفاوت اساسی وجود دارد. این ویدیوی ویروسی توسط هوش مصنوعی تغییر داده شده است و هیتلر در آن سخنان یهودی ستیزانه را به زبان انگلیسی ارائه می کند.
مجله Wired در ماه مارس گزارش داد که یک تأثیرگذار توطئه راست افراطی این محتوا را در اوایل امسال در X که قبلاً توییتر نامیده می شد به اشتراک گذاشت و به سرعت بیش از 15 میلیون بازدید داشت.
این تنها یک نمونه از چیزی است که محققان و سازمانهایی که بر محتوای نفرتانگیز نظارت میکنند، روندی نگرانکننده مینامند.
آنها می گویند نفرت ناشی از هوش مصنوعی در حال افزایش است.
پیتر اسمیت، روزنامه نگاری که با شبکه کانادایی ضد نفرت کار می کند، می گوید: “من فکر می کنم هرکسی که در مورد محتوای متنفر یا رسانه های متنفر تحقیق می کند، محتوای تولید شده توسط هوش مصنوعی را بیشتر و بیشتر می بیند.”
کریس تنو، دستیار مدیر مرکز مطالعات موسسات دموکراتیک دانشگاه بریتیش کلمبیا، گفت که گروههای نفرت، مانند گروههای برتریطلب سفیدپوست، «از لحاظ تاریخی اولین پذیرندگان فناوریها و تکنیکهای جدید اینترنتی بودهاند».
این یک نگرانی است که یک نهاد مشورتی سازمان ملل در ماه دسامبر به آن اشاره کرد. این سازمان میگوید که «عمیقاً نگران» این احتمال است که محتوای یهودیستیز، اسلامهراسی، نژادپرستانه و بیگانههراسی «به وسیله هوش مصنوعی مولد افزایش یابد».
گاهی اوقات آن محتوا می تواند وارد زندگی واقعی شود.
او گفت، پس از اینکه از هوش مصنوعی برای تولید آنچه اسمیت به عنوان «پوسترهای فیلم بسیار نژادپرستانه به سبک پیکسار» توصیف کرد، استفاده شد، برخی از افراد این علائم را چاپ کردند و در کنار سالنهای سینما نصب کردند.
“هر چیزی که در دسترس عموم است، محبوب است یا در حال ظهور است، به ویژه وقتی صحبت از فناوری باشد، خیلی سریع برای تولید تبلیغات نفرت تطبیق داده می شود.”
سیستمهای هوش مصنوعی مولد میتوانند تصاویر و ویدیوها را تقریباً فوراً تنها با یک فرمان ساده ایجاد کنند.
اسمیت گفت، به جای اینکه یک فرد ساعتها را به ساخت یک تصویر اختصاص دهد، میتواند دهها “در زمان یکسان فقط با چند ضربه کلید” بسازد.
B’nai Brith Canada در گزارش اخیر درباره یهودستیزی موضوع محتوای نفرت تولید شده توسط هوش مصنوعی را برجسته کرد.
این گزارش میگوید سال گذشته شاهد «افزایش بیسابقه تصاویر و ویدیوهای یهودستیزی بودیم که با استفاده از هوش مصنوعی ساخته یا اصلاح و جعل شدهاند».
ریچارد رابرتسون، مدیر تحقیقات و حمایت از این گروه، گفت که این گروه مشاهده کرده است که “تصاویر واقعا وحشتناک و گرافیکی، به طور کلی مربوط به انکار، کاهش یا تحریف هولوکاست، با استفاده از هوش مصنوعی تولید می شوند.”
او نمونه ای از تصویری را که یک اردوگاه کار اجباری با یک پارک تفریحی در داخل آن نشان می دهد، ذکر کرد.
او گفت: «قربانیان هولوکاست سوار بر وسایل نقلیه هستند، ظاهراً از خود در اردوگاه کار اجباری نازیها لذت میبرند، و مسلماً این چیزی است که فقط با استفاده از هوش مصنوعی میتوان تولید کرد.
گزارش این سازمان همچنین می گوید که هوش مصنوعی بر گسترش تبلیغات در پی جنگ اسرائیل و حماس “تاثیر زیادی” داشته است.
از هوش مصنوعی میتوان برای ساخت دیپفیک یا ویدیوهایی که شبیهسازیهای واقعی از افراد مشهور، سیاستمداران یا دیگر شخصیتهای عمومی را نشان میدهد، استفاده کرد.
تنو گفت که دیپ فیک در زمینه جنگ اسرائیل و حماس باعث انتشار اطلاعات نادرست در مورد رویدادها شده و ادعاهای نادرست را هم به ارتش اسرائیل و هم به مقامات حماس نسبت داده است.
“بنابراین چیزهایی وجود داشته است، تلاش برای برانگیختن خشم یا ترس مردم در مورد طرف مقابل و استفاده از فریب برای انجام این کار.”
جیمی لین، استاد دانشکده علوم کامپیوتر دانشگاه واترلو، موافق است که “افزایشی از نظر محتوای جعلی وجود داشته است … که به طور خاص طراحی شده است تا مردم هر دو طرف را عصبانی کند.”
امیرا القاوابی، نماینده ویژه کانادا در مبارزه با اسلامهراسی، میگوید که از آغاز درگیری، روایتهای یهودیستیز و اسلامهراسی افزایش یافته است.
او میگوید که موضوع هوش مصنوعی و محتوای نفرت انگیز هم برای مطالعه و هم بحث بیشتر است.
هیچ اختلاف نظری وجود ندارد که محتوای نفرت تولید شده توسط هوش مصنوعی یک موضوع نوظهور است، اما کارشناسان هنوز در مورد دامنه این مشکل به اجماع نرسیده اند.
تنو گفت: «در حال حاضر مقدار زیادی حدس و گمان وجود دارد»، مشابه سؤالات اجتماعی گستردهتر درباره «محتوای مضر یا مشکلساز که در پلتفرمهای رسانههای اجتماعی منتشر میشود».
به گفته لین، سیستمهایی مانند ChatGPT دارای محافظهای داخلی هستند. یکی از سخنگویان OpenAI تایید کرد که قبل از اینکه شرکت هر سیستم جدیدی را منتشر کند، به مدل آموزش می دهد که از تولید سخنان نفرت انگیز خودداری کند.
اما لین گفت راههایی برای جیلبریک کردن سیستمهای هوش مصنوعی وجود دارد، و یادآور شد که برخی از اعلانها میتوانند مدل را فریب دهند تا محتوای بدی تولید کند.
دیوید ایوان هریس، محقق عمومی دانشگاه کالیفرنیا، برکلی، گفت که سخت است بدانیم محتوای هوش مصنوعی از کجا می آید مگر اینکه شرکت های پشت این مدل ها از واترمارک بودن آن اطمینان حاصل کنند.
او گفت برخی از مدلهای هوش مصنوعی، مانند مدلهایی که توسط OpenAI یا Google ساخته شدهاند، مدلهای منبع بسته هستند. دیگران، مانند لاما متا، به صورت آزادتر در دسترس هستند.
وقتی سیستمی برای همه باز شد، او گفت که بازیگران بد میتوانند ویژگیهای ایمنی را از بین ببرند و سخنان نفرتانگیز، کلاهبرداریها و پیامهای فیشینگ را به روشهایی تولید کنند که تشخیص آنها بسیار دشوار است.
در بیانیه ای از متا آمده است که این شرکت محافظ هایی را در سیستم های خود ایجاد می کند و “همه چیز” را منبع باز نمی کند.
در این بیانیه آمده است: «نرمافزار متنباز معمولاً به دلیل بازخورد، بررسی، توسعه و کاهشهای مداوم جامعه، ایمنتر و امنتر است.
در کانادا، قوانین فدرال وجود دارد که دولت لیبرال می گوید به حل این موضوع کمک می کند. این شامل لایحه C-63، یک لایحه پیشنهادی برای رسیدگی به آسیب های آنلاین است.
Chantalle Aubertin، سخنگوی عارف ویرانی، وزیر دادگستری، گفت که تعریف لایحه از محتوایی که نفرت را تحریک میکند، شامل «هر نوع محتوا، مانند تصاویر و ویدیوها، و هر محتوایی که بهطور مصنوعی تولید میشود، مانند دیپفیک» را شامل میشود.
Innovation Canada گفت قانون تنظیم هوش مصنوعی پیشنهادی آن، Bill C-27، مستلزم آن است که محتوای هوش مصنوعی، به عنوان مثال از طریق واترمارک، قابل شناسایی باشد.
یک سخنگوی گفت که این لایحه همچنین از شرکتهای مسئول سیستمهای هوش مصنوعی با تأثیر بالا و همهمنظوره میخواهد خطرات را ارزیابی کرده و سیستمهای خود را آزمایش و نظارت کنند تا اطمینان حاصل شود که طبق برنامه کار میکنند، و اقدامات کاهشدهنده مناسب برای مقابله با هر گونه خطری را اعمال کنند. از آسیب.”
این گزارش توسط Canadian Press برای اولین بار در 26 مه 2024 منتشر شد.
