ابزارهای مولد تصویر هوش مصنوعی، علی‌رغم تعهدات شرکت‌های سازنده، همچنان به تولید تصاویر جعلی مرتبط با انتخابات ادامه می‌دهند.

سایه شوم تصاویر جعلی بر سر انتخابات آمریکا

به گزارش سلام نو آنطور که پیوست نوشته است محققان مرکز مبارزه با نفرت دیجیتال (CCDH) در گزارشی هشدار می‌دهند که این ابزارها در ۴۱ درصد موارد، پرامپت‌های مربوط به اطلاعات نادرست انتخاباتی را به تصویر تبدیل کرده‌اند.

انتخابات سال ۲۰۲۴ در کشورهایی مانند هند و ایالات متحده، در معرض خطر سوءاستفاده از این ابزارها قرار دارند.

CCDH با استفاده از ابزارهای مولد تصویر اوپن‌ای‌آی، مایکروسافت، میدجرنی و DreamStudio، تصاویری جعلی از جو بایدن روی تخت بیمارستان و کارکنان اخذ رای در حال نابود کردن ماشین‌های رای‌گیری تولید کرده است.

این تصاویر، نگرانی‌ها در مورد اخبار جعلی و اطلاعات نادرست پیش از انتخابات را افزایش می‌دهد.

پتانسیل استفاده از تصاویر جعلی به عنوان مدرک تصویری، به ترویج ادعاهای نادرست و خدشه‌دار کردن یکپارچگی انتخابات کمک می‌کند.

در حالی که اوپن‌ای‌آی، مایکروسافت و استیبلیتی ای‌آی به همراه ۱۷ شرکت دیگر، متعهد به جلوگیری از نفوذ محتوای گمراه‌کننده ساخته هوش مصنوعی در انتخابات شده‌اند، اما این تعهد داوطلبانه و بدون ضمانت اجرایی است.

شرکت‌های ارائه دهنده ابزار مولد تصویر مانند گوگل، اقداماتی برای علامت‌گذاری تصاویر جعلی و متا نیز علامت‌گذاری محتوای ساخته هوش مصنوعی در پلتفرم‌های خود را آغاز کرده‌اند.

با این وجود، ابزارهای مولد تصویر در آزمایش‌های CCDH، در ۴۱ درصد موارد تصاویر مورد نظر را تولید کرده‌اند.

در حالی که ChatGPT Plus و Image Creator به درستی تمامی پرامپت‌های مربوط به تصاویر نامزدها را رد کرده‌اند، میدجرنی بدترین عملکرد را داشته و در ۶۵ درصد از آزمایش‌ها تصویر مدنظر را تولید کرده است.

برخی از تصاویر جعلی میدجرنی، مانند تصویر دستگیری دونالد ترامپ، توسط کاربران به اشتراک گذاشته شده که نشان‌دهنده خطر سوءاستفاده از این ابزار برای شایعه‌پراکنی انتخاباتی است.

شرکت‌های سازنده ابزارهای مولد تصویر، از جمله میدجرنی، استیبلیتی ای‌آی و اوپن‌ای‌آی، در حال به‌روزرسانی سیاست‌ها و ابزارهای خود برای جلوگیری از سوءاستفاده از آنها در انتخابات هستند.

با این حال، تا زمانی که اقدامات قاطع‌تر و ضمانت‌های اجرایی قوی‌تر برای مقابله با این تهدید وجود نداشته باشد، سایه شوم تصاویر جعلی بر سر انتخابات آینده باقی خواهد ماند.

راهکارهای مقابله:

• افزایش آگاهی عمومی:

آموزش و اطلاع‌رسانی در مورد خطرات تصاویر جعلی و نحوه تشخیص آنها، گامی مهم در جهت مقابله با این پدیده است.

• همکاری بین‌المللی:

همکاری بین دولت‌ها، شرکت‌های فناوری و سازمان‌های ناظر بر انتخابات برای ایجاد یک سیستم نظارتی قوی و هماهنگ ضروری است.

• توسعه ابزارهای تشخیص:

سرمایه‌گذاری در تحقیق و توسعه ابزارهای پیشرفته برای تشخیص تصاویر جعلی و ردیابی منبع آنها، نقشی کلیدی در مقابله با این تهدید دارد.

• مسئولیت‌پذیری شرکت‌ها:

شرکت‌های سازنده ابزارهای مولد تصویر باید تعهدات خود را برای جلوگیری از سوءاستفاده از این ابزارها جدی بگیرند و اقدامات عملی و موثری در این زمینه انجام دهند.

• حمایت از روزنامه‌نگاری باکیفیت:

روزنامه‌نگاری دقیق و عمیق می‌تواند به افشای اطلاعات نادرست و تصاویر جعلی کمک کند.

حمایت از روزنامه‌نگاری باکیفیت از طریق ترویج و حمایت از رسانه‌های مستقل و معتبر، نقشی کلیدی در ارتقای صحت و سلامت اطلاعات دارد.

با اتخاذ تدابیر پیشگیرانه و همکاری همه جانبه، می‌توان از سلامت و صحت انتخابات در دنیای دیجیتال محافظت کرد و از حق رای مردم در برابر تهدیدات نوظهوری مانند تصاویر جعلی دفاع کرد.

در کنار راهکارهای ذکر شده، موارد زیر نیز می‌توانند در مقابله با تصاویر جعلی موثر باشند:

• تشویق به تفکر انتقادی:

مردم باید در مواجهه با تصاویر و اطلاعات آنلاین، تفکر انتقادی داشته باشند و قبل از اشتراک‌گذاری، صحت آنها را بررسی کنند.

• استفاده از منابع موثق:

برای دریافت اطلاعات، فقط به منابع موثق و معتبر مانند وب‌سایت‌های رسمی، خبرگزاری‌های معتبر و نشریات علمی مراجعه کنید.

• گزارش محتوای مشکوک:

در صورت مشاهده تصاویر جعلی یا اطلاعات نادرست، آنها را به پلتفرم مربوطه و همچنین به سازمان‌های ناظر بر انتخابات گزارش دهید.

با هوشیاری و مسئولیت‌پذیری همگانی، می‌توانیم در برابر تهدیدات فزاینده تصاویر جعلی در دنیای دیجیتال، از سلامت و صحت انتخابات و جامعه خود دفاع کنیم.

کد خبرنگار: ۲۶
۰دیدگاه شما

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • پربازدید

    پربحث

    اخبار عجیب

    آخرین اخبار

    لینک‌های مفید

    ***