Categories: Canada

کارشناسان می گویند افزایش محتوای نفرت هوش مصنوعی آنلاین


این کلیپ مربوط به یک رویداد واقعی تاریخی است – سخنرانی دیکتاتور نازی آدولف هیتلر در سال 1939 در آغاز جنگ جهانی دوم.

اما یک تفاوت اساسی وجود دارد. این ویدیوی ویروسی توسط هوش مصنوعی تغییر داده شده است و هیتلر در آن سخنان یهودی ستیزانه را به زبان انگلیسی ارائه می کند.

مجله Wired در ماه مارس گزارش داد که یک تأثیرگذار توطئه راست افراطی این محتوا را در اوایل امسال در X که قبلاً توییتر نامیده می شد به اشتراک گذاشت و به سرعت بیش از 15 میلیون بازدید داشت.

این تنها یک نمونه از چیزی است که محققان و سازمان‌هایی که بر محتوای نفرت‌انگیز نظارت می‌کنند، روندی نگران‌کننده می‌نامند.

آنها می گویند نفرت ناشی از هوش مصنوعی در حال افزایش است.

پیتر اسمیت، روزنامه نگاری که با شبکه کانادایی ضد نفرت کار می کند، می گوید: “من فکر می کنم هرکسی که در مورد محتوای متنفر یا رسانه های متنفر تحقیق می کند، محتوای تولید شده توسط هوش مصنوعی را بیشتر و بیشتر می بیند.”

کریس تنو، دستیار مدیر مرکز مطالعات موسسات دموکراتیک دانشگاه بریتیش کلمبیا، گفت که گروه‌های نفرت، مانند گروه‌های برتری‌طلب سفیدپوست، «از لحاظ تاریخی اولین پذیرندگان فناوری‌ها و تکنیک‌های جدید اینترنتی بوده‌اند».

این یک نگرانی است که یک نهاد مشورتی سازمان ملل در ماه دسامبر به آن اشاره کرد. این سازمان می‌گوید که «عمیقاً نگران» این احتمال است که محتوای یهودی‌ستیز، اسلام‌هراسی، نژادپرستانه و بیگانه‌هراسی «به وسیله هوش مصنوعی مولد افزایش یابد».

گاهی اوقات آن محتوا می تواند وارد زندگی واقعی شود.

او گفت، پس از اینکه از هوش مصنوعی برای تولید آنچه اسمیت به عنوان «پوسترهای فیلم بسیار نژادپرستانه به سبک پیکسار» توصیف کرد، استفاده شد، برخی از افراد این علائم را چاپ کردند و در کنار سالن‌های سینما نصب کردند.

“هر چیزی که در دسترس عموم است، محبوب است یا در حال ظهور است، به ویژه وقتی صحبت از فناوری باشد، خیلی سریع برای تولید تبلیغات نفرت تطبیق داده می شود.”

سیستم‌های هوش مصنوعی مولد می‌توانند تصاویر و ویدیوها را تقریباً فوراً تنها با یک فرمان ساده ایجاد کنند.

اسمیت گفت، به جای اینکه یک فرد ساعت‌ها را به ساخت یک تصویر اختصاص دهد، می‌تواند ده‌ها “در زمان یکسان فقط با چند ضربه کلید” بسازد.

B’nai Brith Canada در گزارش اخیر درباره یهودستیزی موضوع محتوای نفرت تولید شده توسط هوش مصنوعی را برجسته کرد.

این گزارش می‌گوید سال گذشته شاهد «افزایش بی‌سابقه تصاویر و ویدیوهای یهودستیزی بودیم که با استفاده از هوش مصنوعی ساخته یا اصلاح و جعل شده‌اند».

ریچارد رابرتسون، مدیر تحقیقات و حمایت از این گروه، گفت که این گروه مشاهده کرده است که “تصاویر واقعا وحشتناک و گرافیکی، به طور کلی مربوط به انکار، کاهش یا تحریف هولوکاست، با استفاده از هوش مصنوعی تولید می شوند.”

او نمونه ای از تصویری را که یک اردوگاه کار اجباری با یک پارک تفریحی در داخل آن نشان می دهد، ذکر کرد.

او گفت: «قربانیان هولوکاست سوار بر وسایل نقلیه هستند، ظاهراً از خود در اردوگاه کار اجباری نازی‌ها لذت می‌برند، و مسلماً این چیزی است که فقط با استفاده از هوش مصنوعی می‌توان تولید کرد.

گزارش این سازمان همچنین می گوید که هوش مصنوعی بر گسترش تبلیغات در پی جنگ اسرائیل و حماس “تاثیر زیادی” داشته است.

از هوش مصنوعی می‌توان برای ساخت دیپ‌فیک یا ویدیوهایی که شبیه‌سازی‌های واقعی از افراد مشهور، سیاستمداران یا دیگر شخصیت‌های عمومی را نشان می‌دهد، استفاده کرد.

تنو گفت که دیپ فیک در زمینه جنگ اسرائیل و حماس باعث انتشار اطلاعات نادرست در مورد رویدادها شده و ادعاهای نادرست را هم به ارتش اسرائیل و هم به مقامات حماس نسبت داده است.

“بنابراین چیزهایی وجود داشته است، تلاش برای برانگیختن خشم یا ترس مردم در مورد طرف مقابل و استفاده از فریب برای انجام این کار.”

جیمی لین، استاد دانشکده علوم کامپیوتر دانشگاه واترلو، موافق است که “افزایشی از نظر محتوای جعلی وجود داشته است … که به طور خاص طراحی شده است تا مردم هر دو طرف را عصبانی کند.”

امیرا القاوابی، نماینده ویژه کانادا در مبارزه با اسلام‌هراسی، می‌گوید که از آغاز درگیری، روایت‌های یهودی‌ستیز و اسلام‌هراسی افزایش یافته است.

او می‌گوید که موضوع هوش مصنوعی و محتوای نفرت انگیز هم برای مطالعه و هم بحث بیشتر است.

هیچ اختلاف نظری وجود ندارد که محتوای نفرت تولید شده توسط هوش مصنوعی یک موضوع نوظهور است، اما کارشناسان هنوز در مورد دامنه این مشکل به اجماع نرسیده اند.

تنو گفت: «در حال حاضر مقدار زیادی حدس و گمان وجود دارد»، مشابه سؤالات اجتماعی گسترده‌تر درباره «محتوای مضر یا مشکل‌ساز که در پلتفرم‌های رسانه‌های اجتماعی منتشر می‌شود».

به گفته لین، سیستم‌هایی مانند ChatGPT دارای محافظ‌های داخلی هستند. یکی از سخنگویان OpenAI تایید کرد که قبل از اینکه شرکت هر سیستم جدیدی را منتشر کند، به مدل آموزش می دهد که از تولید سخنان نفرت انگیز خودداری کند.

اما لین گفت راه‌هایی برای جیلبریک کردن سیستم‌های هوش مصنوعی وجود دارد، و یادآور شد که برخی از اعلان‌ها می‌توانند مدل را فریب دهند تا محتوای بدی تولید کند.

دیوید ایوان هریس، محقق عمومی دانشگاه کالیفرنیا، برکلی، گفت که سخت است بدانیم محتوای هوش مصنوعی از کجا می آید مگر اینکه شرکت های پشت این مدل ها از واترمارک بودن آن اطمینان حاصل کنند.

او گفت برخی از مدل‌های هوش مصنوعی، مانند مدل‌هایی که توسط OpenAI یا Google ساخته شده‌اند، مدل‌های منبع بسته هستند. دیگران، مانند لاما متا، به صورت آزادتر در دسترس هستند.

وقتی سیستمی برای همه باز شد، او گفت که بازیگران بد می‌توانند ویژگی‌های ایمنی را از بین ببرند و سخنان نفرت‌انگیز، کلاهبرداری‌ها و پیام‌های فیشینگ را به روش‌هایی تولید کنند که تشخیص آنها بسیار دشوار است.

در بیانیه ای از متا آمده است که این شرکت محافظ هایی را در سیستم های خود ایجاد می کند و “همه چیز” را منبع باز نمی کند.

در این بیانیه آمده است: «نرم‌افزار متن‌باز معمولاً به دلیل بازخورد، بررسی، توسعه و کاهش‌های مداوم جامعه، ایمن‌تر و امن‌تر است.

در کانادا، قوانین فدرال وجود دارد که دولت لیبرال می گوید به حل این موضوع کمک می کند. این شامل لایحه C-63، یک لایحه پیشنهادی برای رسیدگی به آسیب های آنلاین است.

Chantalle Aubertin، سخنگوی عارف ویرانی، وزیر دادگستری، گفت که تعریف لایحه از محتوایی که نفرت را تحریک می‌کند، شامل «هر نوع محتوا، مانند تصاویر و ویدیوها، و هر محتوایی که به‌طور مصنوعی تولید می‌شود، مانند دیپ‌فیک» را شامل می‌شود.

Innovation Canada گفت قانون تنظیم هوش مصنوعی پیشنهادی آن، Bill C-27، مستلزم آن است که محتوای هوش مصنوعی، به عنوان مثال از طریق واترمارک، قابل شناسایی باشد.

یک سخنگوی گفت که این لایحه همچنین از شرکت‌های مسئول سیستم‌های هوش مصنوعی با تأثیر بالا و همه‌منظوره می‌خواهد خطرات را ارزیابی کرده و سیستم‌های خود را آزمایش و نظارت کنند تا اطمینان حاصل شود که طبق برنامه کار می‌کنند، و اقدامات کاهش‌دهنده مناسب برای مقابله با هر گونه خطری را اعمال کنند. از آسیب.”


این گزارش توسط Canadian Press برای اولین بار در 26 مه 2024 منتشر شد.



Source link

admin2

Share
Published by
admin2

Recent Posts

Kelowna woman gets second chance at life thanks to complete stranger

A Kelowna, B.C., woman has been given a second chance at life after receiving a…

41 minutes ago

Former Manitoba commissioner says province knew she was working from Florida

By Steve Lambert The Canadian Press Posted April 14, 2026 6:35 pm 1 min read…

4 hours ago

That Was Then. This is Now.

“The constant lesson of history is the dominant role played by surprise. Just when we…

4 hours ago

Atletico edge Barcelona on aggregate to reach Champions League semifinal | Football News

Atletico Madrid sent 10-man Barcelona crashing out of the Champions League and reached the final…

5 hours ago

Kraken IPO Plans Move Forward After Confidential Filing, Co-CEO Sethi Revealed

Trusted Editorial content, reviewed by leading industry experts and seasoned editors. Ad Disclosure US crypto…

5 hours ago

Alec Baldwin says he ‘wants to retire’ after trauma of ‘Rust’ movie shooting – National

Alec Baldwin says he is ready to retire from his acting career and spend time…

7 hours ago