کد خبر: ۸۴۱۱۶۳
تاریخ انتشار : ۳۱ ارديبهشت ۱۴۰۲ - ۰۹:۰۴

کابوس هوش مصنوعی برای دموکراسی‌ها

در گذشته نه چندان دور، موج‌های پروپاگاندا بر پایه متن‌ها و پیام‌های از پیش نوشته شده یا گروهی از افراد که به آن‌ها پول پرداخت شده بود، بنا می‌شد، اما اکنون فناوری‌هایی نظیر ChatGPT دورنمای ایجاد یک موج تبلیغاتی دروغین به وسیله ربات‌ها را به کلی تغییر داده‌اند.
کابوس هوش مصنوعی برای دموکراسی‌ها
آفتاب‌‌نیوز :

دولت‌های ایالات متحده و بریتانیا برای برگزاری انتخابات سرنوشت‌ساز سال آینده شامل انتخابات پارلمانی سراسری در بریتانیا و انتخابات ریاست‌جمهوری در ایالات متحده با چالشی جدی و مدرن روبه‌رو هستند؛ هوش مصنوعی و محتوا‌های نادرست شامل متن، تصویر، صدا و ویدیو که می‌تواند بر پایه این فناوری تولید و به‌طور گسترده منتشر شود.

کارشناسان هشدار داده‌اند که انتخابات سال آینده در بریتانیا و ایالات متحده می‌تواند کاملا تحت تاثیر موج محتوا‌های دروغین تولید شده به وسیله هوش مصنوعی قرار گیرد. این محتوا‌ها می‌توانند شامل متن، تصویر، صدا و ویدیو‌هایی باشند که در ابعاد وسیع در شبکه‌های اجتماعی منتشر می‌شود و اطلاعاتی نادرست را درباره موضوعات خاص و چالش‌برانگیز به مخاطبان منتقل می‌کند.

سم آلتمن، مدیرعامل شرکت OpenAI (شرکت سازنده چت‌بات هوش مصنوعی ChatGPT) هفته گذشته در یکی از نشست‌های استماع کنگره در این باره گفت که نسل جدید فناوری‌های هوش مصنوعی می‌تواند کاربران را گمراه کرده و به آن‌ها اطلاعات غلط بدهد. به گفته او، «مدل‌های جدید این فناوری توانایی چشمگیری در اقناع یا انتقال اطلاعات نادرست در گفتگو‌های یک به یک دارند و این موضوع محل نگرانی جدی است.»

آلتمن برای رفع این نگرانی به قانونگذاران پیشنهاد داد که روش جدیدی را در قانونگذاری پیرامون فناوری‌های مبتنی بر هوش مصنوعی در پیش بگیرند: «در زمینه قانونگذاری باید هوشمندانه عمل کرد. لازم است مردم بدانند محتوایی که در اختیار آن‌ها قرار می‌گیرد توسط مدل‌های هوش مصنوعی تولید شده یا منبع انسانی دارد. البته با توجه به رشد سریع فناوری‌های هوش مصنوعی لازم است که علاوه بر در پیش گرفتن سیاست‌های درست از سوی شرکت‌های سازنده، آموزش عمومی در این زمینه هم در دستور کار قرار بگیرد.»
ریشی سوناک، نخست‌وزیر بریتانیا روز پنجشنبه ۱۸ مه در این باره گفت که انگلستان در تلاش است تا در زمینه محدود کردن خطرات هوش مصنوعی پیشتاز باشد.

روزنامه گاردین نوشته است: نگرانی‌ها پیرامون اثرگذاری هوش مصنوعی زمانی تشدید شد که محصولات مبتنی بر هوش مصنوعی نظیر ChatGPT یا میدجرنی توانستند متن‌های قانع‌کننده و تصاویری باورپذیر ایجاد کنند.

روزنامه نیویورک‌تایمز چندی قبل در گزارشی نوشته بود: هوش مصنوعی می‌تواند در فرآیند‌های دموکراتیک جای انسان‌ها را بگیرد؛ نه از طریق رای دادن بلکه با اثرگذاری روی افکار عمومی و لابی‌گری. یک مدل هوش مصنوعی می‌تواند به‌طور اتوماتیک روی فرآیند‌های اثرسنجی و نظرسنجی اثر بگذارد. این مدل‌ها قادرند برای سردبیران روزنامه‌های محلی نامه بنویسند و از آن‌ها بخواهند که نگاه دیگری را در تولید و انتشار روزنامه دنبال کنند. این ربات‌ها می‌توانند روزانه میلیون‌ها بار در مورد مقالات خبری، پست‌های وبلاگ‌ها یا پست‌های رسانه‌های اجتماعی نظر بنویسند، می‌توانند ویدیو‌هایی کاملا ساختگی درباره افراد تولید کنند، می‌توانند ظرف چند ثانیه تصاویری دروغین ایجاد کنند. به‌طور خلاصه، هوش مصنوعی می‌تواند کاری را که روس‌ها در سال ۲۰۱۶ با میلیون‌ها دلار بودجه و صد‌ها کارمند موفق به انجام‌آن شدند، به تنهایی انجام دهد.

در حال حاضر شبکه‌های اجتماعی نظیر فیس‌بوک، اینستاگرام یا توییتر راهکار‌هایی برای مقابله با اکانت‌های دروغین و فعالیت‌های مشکوک در شبکه‌های اجتماعی پیدا کرده‌اند، اما با توسعه یافتن فناوری‌های مبتنی بر هوش مصنوعی شرایط به کلی تغییر خواهد کرد و دیگر توییت‌های حاوی اطلاعات گمراه‌کننده یا حملات هماهنگ نیستند که شیوه اصلی اثرگذاری خواهند بود. ناتان‌ای سندرز و بروس شینر در روزنامه نیویورک‌تایمز نوشته‌اند: مدل‌های هوش مصنوعی می‌توانند با استفاده از داده‌های بسیار زیادی که در اختیار دارند، به‌طور هدفمند برای برقراری ارتباط مستقیم، راه انداختن کارزار‌های تاثیرگذاری بر افکار عمومی و تولید محتوای مرتبط مستقیما نقاط ضعف سیستم‌های سیاسی را هدف قرار دهند. در گذشته نه چندان دور، موج‌های پروپاگاندا بر پایه متن‌ها و پیام‌های از پیش نوشته شده یا گروهی از افراد که به آن‌ها پول پرداخت شده بود بنا می‌شد، اما اکنون فناوری‌هایی نظیر ChatGPT دورنمای ایجاد یک موج تبلیغاتی دروغین به وسیله ربات‌ها را به کلی تغییر داده‌اند. احزاب و گروه‌ها می‌توانند مرتبا بر اساس یکسری داده اولیه علیه رقبای‌شان محتوای جدید تولید کنند و به‌طور همزمان هزاران حساب کاربری در شبکه‌های اجتماعی محتوای تولید شده از سوی مدل‌های هوش مصنوعی را منتشر و درباره آن‌ها صحبت کنند.

پروفسور مایکل وولدریج، مدیر بنیاد تحقیقات هوش مصنوعی در موسسه آلن تورینگ بریتانیا می‌گوید: «مهم‌ترین نگرانی من درباره هوش مصنوعی توانایی محصولات مبتنی بر این فناوری در تولید اطلاعات دروغین است. این نگرانی برای ما در رده نخست است. ما انتخابات سرنوشت‌ساز بریتانیا و ایالات متحده را در سال آینده در پیش داریم و می‌دانیم که شبکه‌های اجتماعی به شدت مستعد انتشار اطلاعات دروغین هستند. در گذشته هم اطلاعات دروغین به وفور وجود داشت، اما مساله این است که هوش مصنوعی می‌تواند در ابعاد صنعتی این اطلاعات دروغین را تولید و منتشر کند.» مایکل وولدریج می‌افزاید: «دیگر نیازی به استخدام تعداد زیادی انسان و پرداخت پولی هنگفت نیست و کافی است یک نفر با تجربه اندک از برنامه‌نویسی در طول یک بعدازظهر هویت‌های متعدد دروغینی را تولید کند که راجع به طیف گسترده‌ای از مسائل اظهارنظر دروغین می‌کنند.»

اخیرا نمونه‌های زیادی از محتوا‌های تولید شده از سوی هوش مصنوعی به بیشتر شدن این نگرانی‌ها دامن زده‌اند. در ماه مارس، تصاویری ساختگی از بازداشت دونالد ترامپ، رییس‌جمهور پیشین ایالات متحده در نیویورک و کشیده شدن او روی زمین توسط نیرو‌های پلیس منتشر شد. اندکی بعد تصاویر پاپ فرانسیس، رهبر کاتولیک‌های جهان با لباس ورزشی در شبکه‌های اجتماعی فراگیر شد و سپس نوبت به یک ویدیو از جو بایدن رسید که با هوش مصنوعی تغییر کند و اظهارات او در خصوص ارسال تانک به اوکراین برای مبارزه با روسیه به ارسال تانک برای مبارزه با ترنسجندر‌ها تبدیل شود.

برخی تحلیلگران می‌گویند همان‌گونه که در گذشته از فتوشاپ به عنوان یک ابزار جدید برای دستکاری تصاویر رونمایی شد، تصاویر ساختگی زیادی به وسیله این نرم‌افزار ساخته شدند و مردم دریافتند که باید با تردید به برخی تصاویر و احتمال ساختگی بودن آن‌ها نگاه کنند، در خصوص هوش مصنوعی هم همین اتفاق خواهد افتاد، اما برخی دیگر تاکید دارند فرآیند آگاه شدن عموم مردم به زمان زیادی نیاز دارد و تا آن زمان تحولات زیادی ممکن است اتفاق بیفتد.

الکساندر لزلی، تحلیلگر موسسه «ریکوردد فیوچر» هشدار می‌دهد که تکنولوژی‌های اینچنینی به ویژه تکنولوژی صداسازی در آینده و تا زمان انتخابات پیشرفت‌های زیادی خواهند داشت و ممکن است از سوی افراد و گروه‌ها برای تولید محتوا‌های دروغین با هدف تاثیرگذاری در انتخابات به کار گرفته شوند. او معتقد است: «بدون آموزش گسترده و افزایش آگاهی عمومی با یک تهدید جدی مواجه خواهیم بود.»

نتایج یک پژوهش جدید از سوی نیوگارد، یک موسسه امریکایی درباره انتشار اطلاعات دروغین نشان می‌دهد که آخرین نسخه منتشر شده ChatGPT زمانی که از آن خواسته می‌شود با استفاده از درونمایه ۱۳۰۰ خبر دروغ منتشر شده در فضای اینترنت، ۱۰۰ خبر دروغین جدید تولید کند، می‌تواند به خوبی هر ۱۰۰ نمونه را به وجود بیاورد، اما گوگل بارد، چت‌بات جدید گوگل در این زمینه ضعیف‌تر است و در پاسخ به درخواست مشابه می‌تواند ۷۶ روایت دروغ تولید کند.

بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
ذخیره
عضویت در خبرنامه
نظر شما
پربحث ترین عناوین
پرطرفدار ترین عناوین