Categories: Canada

کارشناسان می گویند افزایش محتوای نفرت هوش مصنوعی آنلاین


این کلیپ مربوط به یک رویداد واقعی تاریخی است – سخنرانی دیکتاتور نازی آدولف هیتلر در سال 1939 در آغاز جنگ جهانی دوم.

اما یک تفاوت اساسی وجود دارد. این ویدیوی ویروسی توسط هوش مصنوعی تغییر داده شده است و هیتلر در آن سخنان یهودی ستیزانه را به زبان انگلیسی ارائه می کند.

مجله Wired در ماه مارس گزارش داد که یک تأثیرگذار توطئه راست افراطی این محتوا را در اوایل امسال در X که قبلاً توییتر نامیده می شد به اشتراک گذاشت و به سرعت بیش از 15 میلیون بازدید داشت.

این تنها یک نمونه از چیزی است که محققان و سازمان‌هایی که بر محتوای نفرت‌انگیز نظارت می‌کنند، روندی نگران‌کننده می‌نامند.

آنها می گویند نفرت ناشی از هوش مصنوعی در حال افزایش است.

پیتر اسمیت، روزنامه نگاری که با شبکه کانادایی ضد نفرت کار می کند، می گوید: “من فکر می کنم هرکسی که در مورد محتوای متنفر یا رسانه های متنفر تحقیق می کند، محتوای تولید شده توسط هوش مصنوعی را بیشتر و بیشتر می بیند.”

کریس تنو، دستیار مدیر مرکز مطالعات موسسات دموکراتیک دانشگاه بریتیش کلمبیا، گفت که گروه‌های نفرت، مانند گروه‌های برتری‌طلب سفیدپوست، «از لحاظ تاریخی اولین پذیرندگان فناوری‌ها و تکنیک‌های جدید اینترنتی بوده‌اند».

این یک نگرانی است که یک نهاد مشورتی سازمان ملل در ماه دسامبر به آن اشاره کرد. این سازمان می‌گوید که «عمیقاً نگران» این احتمال است که محتوای یهودی‌ستیز، اسلام‌هراسی، نژادپرستانه و بیگانه‌هراسی «به وسیله هوش مصنوعی مولد افزایش یابد».

گاهی اوقات آن محتوا می تواند وارد زندگی واقعی شود.

او گفت، پس از اینکه از هوش مصنوعی برای تولید آنچه اسمیت به عنوان «پوسترهای فیلم بسیار نژادپرستانه به سبک پیکسار» توصیف کرد، استفاده شد، برخی از افراد این علائم را چاپ کردند و در کنار سالن‌های سینما نصب کردند.

“هر چیزی که در دسترس عموم است، محبوب است یا در حال ظهور است، به ویژه وقتی صحبت از فناوری باشد، خیلی سریع برای تولید تبلیغات نفرت تطبیق داده می شود.”

سیستم‌های هوش مصنوعی مولد می‌توانند تصاویر و ویدیوها را تقریباً فوراً تنها با یک فرمان ساده ایجاد کنند.

اسمیت گفت، به جای اینکه یک فرد ساعت‌ها را به ساخت یک تصویر اختصاص دهد، می‌تواند ده‌ها “در زمان یکسان فقط با چند ضربه کلید” بسازد.

B’nai Brith Canada در گزارش اخیر درباره یهودستیزی موضوع محتوای نفرت تولید شده توسط هوش مصنوعی را برجسته کرد.

این گزارش می‌گوید سال گذشته شاهد «افزایش بی‌سابقه تصاویر و ویدیوهای یهودستیزی بودیم که با استفاده از هوش مصنوعی ساخته یا اصلاح و جعل شده‌اند».

ریچارد رابرتسون، مدیر تحقیقات و حمایت از این گروه، گفت که این گروه مشاهده کرده است که “تصاویر واقعا وحشتناک و گرافیکی، به طور کلی مربوط به انکار، کاهش یا تحریف هولوکاست، با استفاده از هوش مصنوعی تولید می شوند.”

او نمونه ای از تصویری را که یک اردوگاه کار اجباری با یک پارک تفریحی در داخل آن نشان می دهد، ذکر کرد.

او گفت: «قربانیان هولوکاست سوار بر وسایل نقلیه هستند، ظاهراً از خود در اردوگاه کار اجباری نازی‌ها لذت می‌برند، و مسلماً این چیزی است که فقط با استفاده از هوش مصنوعی می‌توان تولید کرد.

گزارش این سازمان همچنین می گوید که هوش مصنوعی بر گسترش تبلیغات در پی جنگ اسرائیل و حماس “تاثیر زیادی” داشته است.

از هوش مصنوعی می‌توان برای ساخت دیپ‌فیک یا ویدیوهایی که شبیه‌سازی‌های واقعی از افراد مشهور، سیاستمداران یا دیگر شخصیت‌های عمومی را نشان می‌دهد، استفاده کرد.

تنو گفت که دیپ فیک در زمینه جنگ اسرائیل و حماس باعث انتشار اطلاعات نادرست در مورد رویدادها شده و ادعاهای نادرست را هم به ارتش اسرائیل و هم به مقامات حماس نسبت داده است.

“بنابراین چیزهایی وجود داشته است، تلاش برای برانگیختن خشم یا ترس مردم در مورد طرف مقابل و استفاده از فریب برای انجام این کار.”

جیمی لین، استاد دانشکده علوم کامپیوتر دانشگاه واترلو، موافق است که “افزایشی از نظر محتوای جعلی وجود داشته است … که به طور خاص طراحی شده است تا مردم هر دو طرف را عصبانی کند.”

امیرا القاوابی، نماینده ویژه کانادا در مبارزه با اسلام‌هراسی، می‌گوید که از آغاز درگیری، روایت‌های یهودی‌ستیز و اسلام‌هراسی افزایش یافته است.

او می‌گوید که موضوع هوش مصنوعی و محتوای نفرت انگیز هم برای مطالعه و هم بحث بیشتر است.

هیچ اختلاف نظری وجود ندارد که محتوای نفرت تولید شده توسط هوش مصنوعی یک موضوع نوظهور است، اما کارشناسان هنوز در مورد دامنه این مشکل به اجماع نرسیده اند.

تنو گفت: «در حال حاضر مقدار زیادی حدس و گمان وجود دارد»، مشابه سؤالات اجتماعی گسترده‌تر درباره «محتوای مضر یا مشکل‌ساز که در پلتفرم‌های رسانه‌های اجتماعی منتشر می‌شود».

به گفته لین، سیستم‌هایی مانند ChatGPT دارای محافظ‌های داخلی هستند. یکی از سخنگویان OpenAI تایید کرد که قبل از اینکه شرکت هر سیستم جدیدی را منتشر کند، به مدل آموزش می دهد که از تولید سخنان نفرت انگیز خودداری کند.

اما لین گفت راه‌هایی برای جیلبریک کردن سیستم‌های هوش مصنوعی وجود دارد، و یادآور شد که برخی از اعلان‌ها می‌توانند مدل را فریب دهند تا محتوای بدی تولید کند.

دیوید ایوان هریس، محقق عمومی دانشگاه کالیفرنیا، برکلی، گفت که سخت است بدانیم محتوای هوش مصنوعی از کجا می آید مگر اینکه شرکت های پشت این مدل ها از واترمارک بودن آن اطمینان حاصل کنند.

او گفت برخی از مدل‌های هوش مصنوعی، مانند مدل‌هایی که توسط OpenAI یا Google ساخته شده‌اند، مدل‌های منبع بسته هستند. دیگران، مانند لاما متا، به صورت آزادتر در دسترس هستند.

وقتی سیستمی برای همه باز شد، او گفت که بازیگران بد می‌توانند ویژگی‌های ایمنی را از بین ببرند و سخنان نفرت‌انگیز، کلاهبرداری‌ها و پیام‌های فیشینگ را به روش‌هایی تولید کنند که تشخیص آنها بسیار دشوار است.

در بیانیه ای از متا آمده است که این شرکت محافظ هایی را در سیستم های خود ایجاد می کند و “همه چیز” را منبع باز نمی کند.

در این بیانیه آمده است: «نرم‌افزار متن‌باز معمولاً به دلیل بازخورد، بررسی، توسعه و کاهش‌های مداوم جامعه، ایمن‌تر و امن‌تر است.

در کانادا، قوانین فدرال وجود دارد که دولت لیبرال می گوید به حل این موضوع کمک می کند. این شامل لایحه C-63، یک لایحه پیشنهادی برای رسیدگی به آسیب های آنلاین است.

Chantalle Aubertin، سخنگوی عارف ویرانی، وزیر دادگستری، گفت که تعریف لایحه از محتوایی که نفرت را تحریک می‌کند، شامل «هر نوع محتوا، مانند تصاویر و ویدیوها، و هر محتوایی که به‌طور مصنوعی تولید می‌شود، مانند دیپ‌فیک» را شامل می‌شود.

Innovation Canada گفت قانون تنظیم هوش مصنوعی پیشنهادی آن، Bill C-27، مستلزم آن است که محتوای هوش مصنوعی، به عنوان مثال از طریق واترمارک، قابل شناسایی باشد.

یک سخنگوی گفت که این لایحه همچنین از شرکت‌های مسئول سیستم‌های هوش مصنوعی با تأثیر بالا و همه‌منظوره می‌خواهد خطرات را ارزیابی کرده و سیستم‌های خود را آزمایش و نظارت کنند تا اطمینان حاصل شود که طبق برنامه کار می‌کنند، و اقدامات کاهش‌دهنده مناسب برای مقابله با هر گونه خطری را اعمال کنند. از آسیب.”


این گزارش توسط Canadian Press برای اولین بار در 26 مه 2024 منتشر شد.



Source link

admin2

Share
Published by
admin2

Recent Posts

An Impact-First Strategy That Reimagines the Global Core

As the ETF industry matures, issuers are increasingly moving away from broad-brush products in favor…

2 hours ago

UN chief Guterres says ‘no military solution, only diplomacy’ for Lebanon | Israel attacks Lebanon News

The United Nations secretary-general says the Lebanese people have been “dragged into” war, and has called…

2 hours ago

Police identify woman found dead in north Toronto home

Police have identified the woman found dead inside a north Toronto home as 60-year-old Xian…

2 hours ago

Thunderstruck II Mobil Slot Oyunu: Devasa Jackpotlar ve Keyifli Oyun goldbet Türkiye’de iletişim Deneyimi

Thunderstruck slot oyununun keyfini dilediğiniz yerden ve dilediğiniz zaman çıkarmanıza yardımcı olacak bir mobil sürümü…

2 hours ago

Blues rally from 2-0, beat Oilers 3-2 on OT goal with 9 seconds left – Edmonton

By n The Associated Pressn The Associated Press Posted March 14, 2026 8:51 am 1…

5 hours ago

Industries That Stay on My Wish List

I have both a watch list and a wish list. My watch list is the…

7 hours ago