خانه / اخبار جعلی، AI Deepfakes، و نمایش غیرواقعی
سرور و هاست رایگان

اخبار جعلی، AI Deepfakes، و نمایش غیرواقعی

Walkerssk / Pixabay
منبع: Walkerssk / Pixabay

من وبلاگم را می نویسم روانی نادیدهدرباره روانشناسی باورهای نادرستاکنون بیش از یک دهه است. در سال 2016، درست قبل از آن دونالد ترامپدر اولین دوره ریاست جمهوری، من در مورد مفهوم «حقیقت» (که توسط فرهنگ لغت وبستر به عنوان «حقیقت از روده، نه کتاب؛ کیفیت ترجیح دادن مفاهیم یا حقایقی که مایل است درست باشند، به جای مفاهیم حقایق شناخته شده به درستی») تعریف شده است) در پستی به نام «مرگ حقایق: معرفت شناسی جدید امپراطور”:

… تاریخ “حقیقت” به یک دهه قبل باز می گردد. مقاله اخیر در اقیانوس اطلس مگان گاربر این نظریه را به دانیل بورستین مورخ نسبت می دهد که «تصویر» در آمریکا در قرن منتهی به دهه 1960 بر واقعیت ترجیح داده شد. گاربر می‌نویسد که بورستین تصویر را به‌عنوان «مثنی دقیق واقعیت، خواه یک فیلم یا گزارش خبری یا پوستری از نیلوفرهای آبی مونه» تصور می‌کرد که جالب‌تر، دراماتیک‌تر و فریبنده‌تر از هر چیزی است که واقعیت می‌توان به آن امیدوار بود» و به‌عنوان یک «توهم اساساً دموکراتیک… [that] ما بارها و بارها برای خود انتخاب کرده‌ایم تا اینکه اصلاً آن را یک انتخاب نمی‌دانیم.» گاربر می‌گوید، بورستین، «نگران است که دیگر نمی‌دانیم واقعیت چیست… و به نظر می‌رسد برایمان مهم نیست». و در حالی که بورستین رسانه‌های نوظهور را در ایجاد توهم تصویر دخیل می‌دانست، او این ادعا را در سال 1962 مطرح کرد، مدت‌ها قبل از اینکه تلویزیون واقعیت یک چیزی باشد.

رد شدن به سال 2026، 35 سال پس از تولد شبکه جهانی وب و آماده شدن در اوج یک انقلاب فناوری جدید در قالب هوش مصنوعی (“AI”)، من به همان اندازه به “حقیقت” و تمایل جهانی انسان برای پذیرش پرشور باورهای نادرست علاقه دارم – و نگران آن هستم.1و نقل قول در مورد حقیقت که مدام به یاد آن می افتم، این نقل قول توسط مورخ فقید و کارشناس اقتدارگرایی هانا آرنت است:

اگر همه همیشه به شما دروغ می گویند، نتیجه این نیست که شما دروغ ها را باور می کنید، بلکه این است که هیچ کس دیگر چیزی را باور نمی کند… و مردمی که دیگر نمی توانند چیزی را باور کنند، نمی توانند تصمیم خود را بگیرند. نه تنها از ظرفیت عمل بلکه از ظرفیت تفکر و قضاوت نیز محروم است. و با چنین مردمی می توانید هر کاری را که می خواهید انجام دهید.2

اطلاعات نادرست تولید شده توسط هوش مصنوعی در حال فراگیر شدن است

این روزها اطلاعات نادرست و اطلاعات نادرست عمدی در اطراف ما وجود دارد. با فرض اینکه ما در میان اکثریت قریب به اتفاق آمریکایی‌هایی هستیم که تلفن همراه دارند و از آن استفاده می‌کنند رسانه های اجتماعی، ما آنقدر غرق آن هستیم که دانستن اینکه چه چیزی واقعی است یا درست است یا نه دشوار شده است. و بر اساس تأثیر هوش مصنوعی تاکنون، مشکل فقط بدتر خواهد شد.

البته برخی از اطلاعات نادرست یا اخبار جعلی می بینیم نسبتا بی ضرر است. در پاسخ به کلیک‌هایم در رسانه‌های اجتماعی، من مرتباً در معرض نقل قول‌های تحریک‌آمیز اما جعلی بازیکنان بسکتبالی مانند لبرون جیمز و پسرش برونی، و همچنین ادعاهای جعلی درباره معاملات قریب‌الوقوع NBA هستم. من بیشتر یاد گرفته ام که آنها را نادیده بگیرم. انجام این کار با ویدیوها سخت‌تر است—به نظر نمی‌رسد که نمی‌توانم روی ویدیوهای جعلی از چیزهایی مانند، برای مثال، دعوای حیوانات وحشی کلیک کنم. روز دیگر، من مجذوب ویدئویی شدم از چنگ زدن یک یوزپلنگ به دم اسب آبی که در حال فرار بود تا زمانی که توسط گاز آبکی حیوان بزرگتر دفع شد. این ویدئو به اندازه کافی واقعی به نظر می رسید، اما با کمی تحقیق، تأیید کردم که آن را – به همراه بسیاری از نسخه های مشابه دیگر که در آنجا منتشر می شوند – توسط هوش مصنوعی درست همان طور که گمان می کردم تولید شده است. صرف نظر از اینکه چقدر ممکن است چیزهای واقعی به نظر برسند، حتی پسر 8 ساله من می‌داند که نباید به آنچه ممکن است در اینترنت بخواند یا ببیند اعتماد کند یا بدون تأیید صحت آن را بپذیرد.

در حالی که این نمونه‌های بی‌اهمیت هستند، هوش مصنوعی اکنون بیش از هر زمان دیگری به طور فراگیر و با آسیب احتمالی بیشتر مورد استفاده و سوء استفاده قرار می‌گیرد. استفاده از هوش مصنوعی در حال حاضر به خوبی در دانشگاه جا افتاده است، با خطر تاسف بار انتشار اطلاعات نادرست تحت پوشش بورسیه از طریق به اصطلاح توهمات هوش مصنوعی. تحلیلی از مقالات بررسی شده ارائه شده در کنفرانس اخیر در عصبی سیستم‌های پردازش اطلاعات – یک نشست سالانه معتبر برای محققان هوش مصنوعی – 100 استناد توهم‌آمیز را در 51 مقاله پیدا کرد که جعلی بودن آنها تأیید شد.3 نظرسنجی دیگری که اخیراً از 1600 دانشگاهی در 111 کشور انجام شد، نشان داد که بیش از نیمی از هوش مصنوعی برای بررسی همتایان استفاده می‌کنند، علی‌رغم راهنمایی‌هایی که علیه آن وجود دارد و یافته‌های تحقیقات دیگر مبنی بر اینکه انجام این کار باعث ایجاد خطاهای واقعی در فرآیند بررسی همتایان می‌شود.4 و اگرچه دانشگاه‌ها دانشجویان را از استفاده از ربات‌های گفتگو برای انجام تکالیف، نوشتن مقاله و امتحانات کامل منع می‌کنند، استادان به طور مرتب در حال حاضر از هوش مصنوعی برای کمک به آموزش استفاده می‌کنند.5

اوایل امروز، با تبلیغی مواجه شدم که به متخصصان سلامت روان مانند من دستورالعمل هایی را ارائه می دهد که چگونه “GPT سفارشی خود را برای نوشتن خبرنامه ها، وبلاگ ها و اسکریپت های پادکست با صدای خود بسازید.” چرا، با خودم فکر کردم، آیا می خواهم یک ربات چت بنویسم روانی نادیده (این نیز اتفاقاً توسط روانشناسی امروز)؟ آیا واقعاً اینقدر تنبل شده ایم که دچار کمبود شده ایم؟ خلاقیتو مایل به سرقت ادبی هستید (زیرا در اصل، چت بات‌هایی که از مدل‌های زبان بزرگ استفاده می‌کنند چه می‌کنند) در حالی که در عین حال نسبت به این واقعیت که انجام این کار منسوخ شدن حرفه‌ای خود را تسریع می‌کند، نابینا هستید؟ و اگر دیگر نمی‌توانیم انتظار داشته باشیم که دانشگاه ما را به سمت آنچه واقعی و واقعی است هدایت کند، کجا می‌توانیم انتظار پیدا کنیم؟

تهدید آشکار تبلیغات هوش مصنوعی

تأثیر بالقوه مضر هوش مصنوعی در دانشگاه تنها یک زمینه کوچک نگران کننده است که در مورد خطر گسترده تر اطلاعات نادرست منتشر شده توسط هوش مصنوعی در آینده مطرح می شود. خطر بسیار جدی تری در قالب تبلیغات سیاسی ایجاد شده توسط هوش مصنوعی وجود دارد که در حال حاضر برای تحت تأثیر قرار دادن افکار عمومی در خدمت دستکاری رفتار انسانی در مقیاس گسترده استفاده می شود. من اخیراً در مصاحبه ای با روانپزشک و پروفسور دوک بازنشسته آلن فرانسیس درباره این تهدید رو به رشد بحث کردم:6

برت گلدشتاین و برت بنسون، استادان دانشگاه وندربیلت هشدار داده‌اند که “تبلیغات مبتنی بر هوش مصنوعی دیگر تهدیدی فرضی در آینده نیست، بلکه عملیاتی است، پیچیده است و نحوه دستکاری افکار عمومی را در مقیاس بزرگ از قبل تغییر می‌دهد.”7 از چت‌بات‌ها می‌توان برای تولید ویدیوهای «دیپ جعلی» استفاده کرد که تصاویر واقعی متقاعدکننده‌ای از افراد واقعی در حال انجام کارهایی یا گفتن چیزهایی را نشان می‌دهند که هرگز واقعاً انجام نداده‌اند یا نگفته‌اند.

روسیه از چت بات ها برای انتشار اطلاعات نادرست در مورد جنگ در اوکراین استفاده کرده است و چین از آنها برای تأثیرگذاری بر انتخابات 2024 تایوان استفاده کرده است. گزارش کمیسیون رابرت اف کندی، دوباره سلامت آمریکا را بسازید (MAHA) که ایمنی و اثربخشی واکسن‌ها را زیر سوال می‌برد، حاوی استنادات جعلی است که تقریباً به طور قطع توسط ربات‌های گفتگو ایجاد شده است.8 در طول سال گذشته، دولت ترامپ حداقل 14 تصویر تولید شده توسط هوش مصنوعی را منتشر کرده است، از جمله عکس اخیر زنی که با هوش مصنوعی تغییر داده شده است تا به نظر برسد در حین دستگیری اش توسط اداره مهاجرت و گمرک ایالات متحده در حال گریه است. زمانی که از کاخ سفید درخواست شد، در پاسخ به این سوال که « الگوهای رفتاری ادامه خواهد یافت.»9

این نگرانی‌ها در مقاله‌ای با عنوان «هوش مصنوعی مخرب چگونه می‌توانند دموکراسی را تهدید کنند» در مقاله‌ای که اخیراً توسط محققان برجسته اطلاعات و اطلاعات نادرست بازتاب داده شد، که به طور مشابه هشدار می‌دهد که چگونه «پیشرفت‌های هوش مصنوعی چشم‌انداز دستکاری باورها را در سطح گسترده‌ای از جمعیت ارائه می‌دهد… ابزارهای مولد می‌توانند خروجی تبلیغاتی را بیش از آن‌هایی که نوشته‌شده انسان را قربانی کنند، افزایش دهند. توسط انسان.»10
همانطور که آرنت هشدار داد، جمعیتی که دیگر نمی‌دانند چه چیزی را باور کنند – یا چگونه درست یا غلط را تشخیص دهند – دیگر در معرض خطر از دست دادن توانایی تفکر، قضاوت و عمل آزاد هستند. با بهره برداری فزاینده ای از هوش مصنوعی توسط بازیگران بد برای ایجاد یک “نمایش غیر واقعی” که برای منحرف کردن ما طراحی شده است. توجه و با هدف متقاعد کردن ما در مورد واقعی یا مهم بودن جهان، ایجاد خشم ما، تحت تاثیر قرار دادن آرای ما، و خرید رضایت ما، اخطار آرنت به خوبی ممکن است به یک پیشگویی تبدیل شود.


Source link

درباره سعید جنگجو

دیدگاهتان را ثبت کنید

آدرس ایمیل شما منتشر نخواهد شدعلامتدارها لازمند *

*

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.