من وبلاگم را می نویسم روانی نادیده–درباره روانشناسی باورهای نادرست–اکنون بیش از یک دهه است. در سال 2016، درست قبل از آن دونالد ترامپدر اولین دوره ریاست جمهوری، من در مورد مفهوم «حقیقت» (که توسط فرهنگ لغت وبستر به عنوان «حقیقت از روده، نه کتاب؛ کیفیت ترجیح دادن مفاهیم یا حقایقی که مایل است درست باشند، به جای مفاهیم حقایق شناخته شده به درستی») تعریف شده است) در پستی به نام «مرگ حقایق: معرفت شناسی جدید امپراطور”:
… تاریخ “حقیقت” به یک دهه قبل باز می گردد. مقاله اخیر در اقیانوس اطلس مگان گاربر این نظریه را به دانیل بورستین مورخ نسبت می دهد که «تصویر» در آمریکا در قرن منتهی به دهه 1960 بر واقعیت ترجیح داده شد. گاربر مینویسد که بورستین تصویر را بهعنوان «مثنی دقیق واقعیت، خواه یک فیلم یا گزارش خبری یا پوستری از نیلوفرهای آبی مونه» تصور میکرد که جالبتر، دراماتیکتر و فریبندهتر از هر چیزی است که واقعیت میتوان به آن امیدوار بود» و بهعنوان یک «توهم اساساً دموکراتیک… [that] ما بارها و بارها برای خود انتخاب کردهایم تا اینکه اصلاً آن را یک انتخاب نمیدانیم.» گاربر میگوید، بورستین، «نگران است که دیگر نمیدانیم واقعیت چیست… و به نظر میرسد برایمان مهم نیست». و در حالی که بورستین رسانههای نوظهور را در ایجاد توهم تصویر دخیل میدانست، او این ادعا را در سال 1962 مطرح کرد، مدتها قبل از اینکه تلویزیون واقعیت یک چیزی باشد.
رد شدن به سال 2026، 35 سال پس از تولد شبکه جهانی وب و آماده شدن در اوج یک انقلاب فناوری جدید در قالب هوش مصنوعی (“AI”)، من به همان اندازه به “حقیقت” و تمایل جهانی انسان برای پذیرش پرشور باورهای نادرست علاقه دارم – و نگران آن هستم.1و نقل قول در مورد حقیقت که مدام به یاد آن می افتم، این نقل قول توسط مورخ فقید و کارشناس اقتدارگرایی هانا آرنت است:
اگر همه همیشه به شما دروغ می گویند، نتیجه این نیست که شما دروغ ها را باور می کنید، بلکه این است که هیچ کس دیگر چیزی را باور نمی کند… و مردمی که دیگر نمی توانند چیزی را باور کنند، نمی توانند تصمیم خود را بگیرند. نه تنها از ظرفیت عمل بلکه از ظرفیت تفکر و قضاوت نیز محروم است. و با چنین مردمی می توانید هر کاری را که می خواهید انجام دهید.2
اطلاعات نادرست تولید شده توسط هوش مصنوعی در حال فراگیر شدن است
این روزها اطلاعات نادرست و اطلاعات نادرست عمدی در اطراف ما وجود دارد. با فرض اینکه ما در میان اکثریت قریب به اتفاق آمریکاییهایی هستیم که تلفن همراه دارند و از آن استفاده میکنند رسانه های اجتماعی، ما آنقدر غرق آن هستیم که دانستن اینکه چه چیزی واقعی است یا درست است یا نه دشوار شده است. و بر اساس تأثیر هوش مصنوعی تاکنون، مشکل فقط بدتر خواهد شد.
البته برخی از اطلاعات نادرست یا اخبار جعلی می بینیم نسبتا بی ضرر است. در پاسخ به کلیکهایم در رسانههای اجتماعی، من مرتباً در معرض نقل قولهای تحریکآمیز اما جعلی بازیکنان بسکتبالی مانند لبرون جیمز و پسرش برونی، و همچنین ادعاهای جعلی درباره معاملات قریبالوقوع NBA هستم. من بیشتر یاد گرفته ام که آنها را نادیده بگیرم. انجام این کار با ویدیوها سختتر است—به نظر نمیرسد که نمیتوانم روی ویدیوهای جعلی از چیزهایی مانند، برای مثال، دعوای حیوانات وحشی کلیک کنم. روز دیگر، من مجذوب ویدئویی شدم از چنگ زدن یک یوزپلنگ به دم اسب آبی که در حال فرار بود تا زمانی که توسط گاز آبکی حیوان بزرگتر دفع شد. این ویدئو به اندازه کافی واقعی به نظر می رسید، اما با کمی تحقیق، تأیید کردم که آن را – به همراه بسیاری از نسخه های مشابه دیگر که در آنجا منتشر می شوند – توسط هوش مصنوعی درست همان طور که گمان می کردم تولید شده است. صرف نظر از اینکه چقدر ممکن است چیزهای واقعی به نظر برسند، حتی پسر 8 ساله من میداند که نباید به آنچه ممکن است در اینترنت بخواند یا ببیند اعتماد کند یا بدون تأیید صحت آن را بپذیرد.
در حالی که این نمونههای بیاهمیت هستند، هوش مصنوعی اکنون بیش از هر زمان دیگری به طور فراگیر و با آسیب احتمالی بیشتر مورد استفاده و سوء استفاده قرار میگیرد. استفاده از هوش مصنوعی در حال حاضر به خوبی در دانشگاه جا افتاده است، با خطر تاسف بار انتشار اطلاعات نادرست تحت پوشش بورسیه از طریق به اصطلاح توهمات هوش مصنوعی. تحلیلی از مقالات بررسی شده ارائه شده در کنفرانس اخیر در عصبی سیستمهای پردازش اطلاعات – یک نشست سالانه معتبر برای محققان هوش مصنوعی – 100 استناد توهمآمیز را در 51 مقاله پیدا کرد که جعلی بودن آنها تأیید شد.3 نظرسنجی دیگری که اخیراً از 1600 دانشگاهی در 111 کشور انجام شد، نشان داد که بیش از نیمی از هوش مصنوعی برای بررسی همتایان استفاده میکنند، علیرغم راهنماییهایی که علیه آن وجود دارد و یافتههای تحقیقات دیگر مبنی بر اینکه انجام این کار باعث ایجاد خطاهای واقعی در فرآیند بررسی همتایان میشود.4 و اگرچه دانشگاهها دانشجویان را از استفاده از رباتهای گفتگو برای انجام تکالیف، نوشتن مقاله و امتحانات کامل منع میکنند، استادان به طور مرتب در حال حاضر از هوش مصنوعی برای کمک به آموزش استفاده میکنند.5
اوایل امروز، با تبلیغی مواجه شدم که به متخصصان سلامت روان مانند من دستورالعمل هایی را ارائه می دهد که چگونه “GPT سفارشی خود را برای نوشتن خبرنامه ها، وبلاگ ها و اسکریپت های پادکست با صدای خود بسازید.” چرا، با خودم فکر کردم، آیا می خواهم یک ربات چت بنویسم روانی نادیده (این نیز اتفاقاً توسط روانشناسی امروز)؟ آیا واقعاً اینقدر تنبل شده ایم که دچار کمبود شده ایم؟ خلاقیتو مایل به سرقت ادبی هستید (زیرا در اصل، چت باتهایی که از مدلهای زبان بزرگ استفاده میکنند چه میکنند) در حالی که در عین حال نسبت به این واقعیت که انجام این کار منسوخ شدن حرفهای خود را تسریع میکند، نابینا هستید؟ و اگر دیگر نمیتوانیم انتظار داشته باشیم که دانشگاه ما را به سمت آنچه واقعی و واقعی است هدایت کند، کجا میتوانیم انتظار پیدا کنیم؟
تهدید آشکار تبلیغات هوش مصنوعی
تأثیر بالقوه مضر هوش مصنوعی در دانشگاه تنها یک زمینه کوچک نگران کننده است که در مورد خطر گسترده تر اطلاعات نادرست منتشر شده توسط هوش مصنوعی در آینده مطرح می شود. خطر بسیار جدی تری در قالب تبلیغات سیاسی ایجاد شده توسط هوش مصنوعی وجود دارد که در حال حاضر برای تحت تأثیر قرار دادن افکار عمومی در خدمت دستکاری رفتار انسانی در مقیاس گسترده استفاده می شود. من اخیراً در مصاحبه ای با روانپزشک و پروفسور دوک بازنشسته آلن فرانسیس درباره این تهدید رو به رشد بحث کردم:6
برت گلدشتاین و برت بنسون، استادان دانشگاه وندربیلت هشدار دادهاند که “تبلیغات مبتنی بر هوش مصنوعی دیگر تهدیدی فرضی در آینده نیست، بلکه عملیاتی است، پیچیده است و نحوه دستکاری افکار عمومی را در مقیاس بزرگ از قبل تغییر میدهد.”7 از چتباتها میتوان برای تولید ویدیوهای «دیپ جعلی» استفاده کرد که تصاویر واقعی متقاعدکنندهای از افراد واقعی در حال انجام کارهایی یا گفتن چیزهایی را نشان میدهند که هرگز واقعاً انجام ندادهاند یا نگفتهاند.
روسیه از چت بات ها برای انتشار اطلاعات نادرست در مورد جنگ در اوکراین استفاده کرده است و چین از آنها برای تأثیرگذاری بر انتخابات 2024 تایوان استفاده کرده است. گزارش کمیسیون رابرت اف کندی، دوباره سلامت آمریکا را بسازید (MAHA) که ایمنی و اثربخشی واکسنها را زیر سوال میبرد، حاوی استنادات جعلی است که تقریباً به طور قطع توسط رباتهای گفتگو ایجاد شده است.8 در طول سال گذشته، دولت ترامپ حداقل 14 تصویر تولید شده توسط هوش مصنوعی را منتشر کرده است، از جمله عکس اخیر زنی که با هوش مصنوعی تغییر داده شده است تا به نظر برسد در حین دستگیری اش توسط اداره مهاجرت و گمرک ایالات متحده در حال گریه است. زمانی که از کاخ سفید درخواست شد، در پاسخ به این سوال که « الگوهای رفتاری ادامه خواهد یافت.»9
این نگرانیها در مقالهای با عنوان «هوش مصنوعی مخرب چگونه میتوانند دموکراسی را تهدید کنند» در مقالهای که اخیراً توسط محققان برجسته اطلاعات و اطلاعات نادرست بازتاب داده شد، که به طور مشابه هشدار میدهد که چگونه «پیشرفتهای هوش مصنوعی چشمانداز دستکاری باورها را در سطح گستردهای از جمعیت ارائه میدهد… ابزارهای مولد میتوانند خروجی تبلیغاتی را بیش از آنهایی که نوشتهشده انسان را قربانی کنند، افزایش دهند. توسط انسان.»10
همانطور که آرنت هشدار داد، جمعیتی که دیگر نمیدانند چه چیزی را باور کنند – یا چگونه درست یا غلط را تشخیص دهند – دیگر در معرض خطر از دست دادن توانایی تفکر، قضاوت و عمل آزاد هستند. با بهره برداری فزاینده ای از هوش مصنوعی توسط بازیگران بد برای ایجاد یک “نمایش غیر واقعی” که برای منحرف کردن ما طراحی شده است. توجه و با هدف متقاعد کردن ما در مورد واقعی یا مهم بودن جهان، ایجاد خشم ما، تحت تاثیر قرار دادن آرای ما، و خرید رضایت ما، اخطار آرنت به خوبی ممکن است به یک پیشگویی تبدیل شود.
Source link
موفقیت – موفقیت برای تو موفقیت , موفق باش , انرژی , شاد , موفقیت برای شما , موفقیت برای تو


