پیمایش تاثیرات الگوریتم های رسانه های اجتماعی مبتنی بر هوش مصنوعی

این مقاله با همکاری مشترک نوشته شده است اما مایر، دانشجوی دانشگاه واشنگتن و لی که در زمینه علوم شناختی/رفتاری و ارتباطات استراتژیک تحصیل می کند.
در عصر دیجیتال امروزی، رسانه های اجتماعی عمیقاً در جامعه جا افتاده است و بر بسیاری از جنبه های زندگی روزمره تأثیر می گذارد. رسانههای اجتماعی فضایی را برای افراد در سراسر جهان فراهم میکنند تا بتوانند با یکدیگر ارتباط برقرار کنند، آخرین بهروزرسانیهای اخبار را دریافت کنند و محتوای آنلاین را به اشتراک بگذارند و یاد بگیرند. در پس کشیدن به ظاهر بی دردسر روی برنامه های کاربردی رسانه های اجتماعی مورد علاقه شما، یک فناوری پیچیده است که به آن معروف است هوش مصنوعی.
مصنوعی هوش (AI) شبیه سازی هوش انسان توسط یک سیستم یا یک ماشین است (Tai, 2020). هوش مصنوعی می تواند کارهایی را انجام دهد که معمولاً به هوش انسانی نیاز دارند. پلتفرمهای رسانههای اجتماعی هوش مصنوعی را برای تنظیم یک فید شخصی بر اساس مصرف قبلی پیادهسازی میکنند. بیایید بگوییم که یک ویدیو در مورد تناسب اندام را در حلقه های اینستاگرام «لایک» کرده اید. پس از آن «لایک»، متوجه میشوید که ویدیوهای بیشتری مانند «چگونه یک شیک پروتئینی کامل درست کنیم» و «بهترین روال بازو برای داشتن بازوهای تنومند» در صفحه شما ظاهر میشوند. همانطور که به «پسندیدن» آن ویدیوها ادامه می دهید، فید شما با محتوای تناسب اندام زیاد می شود. همه به دلیل هوش مصنوعی
این الگوریتم مدیریتشده میتواند به مصرفکنندگان کمک کند محتوای مورد علاقهشان را کشف کنند و حتی جامعه و ارتباط را ارائه دهند، بهویژه برای برخی از جوانان که در محیطهای آفلاین خود احساس انزوا میکنند. در حالی که این الگوریتم فوایدی دارد، اما خطراتی را نیز با مضرات بالقوه طولانی مدت ارائه می کند.
تحقیقات در مورد تأثیر رسانه های اجتماعی هنوز در تلاش است تا به فناوری به سرعت در حال تکامل برسد. در حالی که Vuorre و Przybylski (2023) نشان دادند که شواهد ثابتی پیدا نکردند که اینترنت گسترده فرزندخواندگی با پیامدهای منفی گسترده سلامت روان مرتبط است، آنها هشدار دادند که به داده های مربوط به رفتارهای آنلاین در پلتفرم های رسانه های اجتماعی دسترسی ندارند. از آنجایی که بسیاری از دادههای رفتاری (مثلاً الگوهای استفاده واقعی در رسانههای اجتماعی/پلتفرمهای بازی) توسط شرکتهای فناوری خصوصی نگهداری میشوند، نویسندگان خواستار تلاشهای مشترک شدند تا بتوان این مجموعه دادهها را مطالعه کرد. کوک (2022) مدعی شد که پلتفرم هایی مانند اینستاگرام «از هر 3 کاربر نوجوان زن، 1 نفر احساس بدتری نسبت به بدن خود می کنند؛ اپلیکیشن از نظر طراحی اعتیادآور است؛ و به طور الگوریتمی کاربران آسیب پذیر را به سمت محتوای حامی اختلالات خوردن سوق می دهد».
در سال 2022، خانواده ای از مالک اینستاگرام متا شکایت کردند و الگوریتم این پلتفرم را به دخترشان نسبت دادند. اختلال خوردن و تمایلات خودآزاری، با این استدلال که «موتور هوش مصنوعی اینستاگرام تقریباً بلافاصله دانشآموز کلاس پنجمی را وارد اتاق پژواک محتوایی کرد که بیاشتهایی و خودخواهی را تمجید میکرد.برش دادن، و به طور سیستماتیک او را پرورش داد اعتیاد برای استفاده از برنامه” اثرات بالقوه مضر رسانه های اجتماعی در کودکان بسیار نگران کننده است، زیرا مغز آنها در حال رشد است و قشر جلوی مغز آنها (مسئول رفتارهای پیچیده ای مانند تصمیم گیری و کنترل تکانه) آخرین ناحیه مغزی است که به طور کامل بالغ می شود و در اواسط تا اواخر دهه 20 زندگی کامل می شود.
فراتر از پیامدهای نامطلوب سلامت روان، برنامه های کاربردی هوش مصنوعی مانند ChatGPT می توانند مهارت های یادگیری و تفکر انتقادی را مهار کنند. کسانی که از پلتفرمهای هوش مصنوعی استفاده میکنند، اغلب کوتاهتر را توسعه میدهند توجه گستره و کاهش یافته است خلاقیت. این در میان کاربران برنامه هایی مانند ChatGPT دیده می شود، جایی که هوش مصنوعی به سوالات کاربر محور پاسخ می دهد. آیا باید تا ساعت 5 عصر امروز یک داستان کوتاه داستانی تاریخی بنویسید؟ ChatGPT و دیگر پلتفرم های مبتنی بر هوش مصنوعی می توانند این وظایف را برای شما انجام دهند. در حالی که این می تواند با کاهش بار کاری به کاربران کمک کند، اما بر تجربیات مهم یادگیری (مانند مانع از خلاقیت، یادگیری مهارت های نوشتاری) برای کودکانی که نیاز به توسعه این مهارت ها دارند نیز تأثیر منفی می گذارد.
نمونه دیگری از پیامدهای هوش مصنوعی بر ظرفیت ذهنی و مهارت های تفکر انتقادی را می توان در فیس بوک مشاهده کرد، که هوش مصنوعی را برای خلاصه کردن بخش نظرات در زیر یک پست در یک پاراگراف کوتاه پیاده سازی می کند. این امر باعث می شود خوانندگان راضی باشند و با خلاصه کلی موافق باشند و آنها را از خواندن نظرات مختلف و ایجاد نتیجه گیری و نظرات خود منصرف کند.
اثر مشابهی در TikTok و Instagram Reels مشهود است که الگوریتمهای آنها کشیدن به ظاهر بیپایان را امکانپذیر میکنند و در نتیجه مصرف محتوای کوتاه را ترویج میکنند. محتوای کوتاه پرطرفدار است، زیرا اغلب جلب توجه میکند و فوراً خوشحالکننده است، که به جلب توجه بینندگان کمک میکند. با این حال، می تواند منجر به رفتارهای اعتیاد آور شود که منجر به کوتاه شدن دامنه توجه و ایزوله سازی اجتماعی (کین، 2022).
ابزارهای هوش مصنوعی به طور فزاینده ای توسط کودکان برای همراهی استفاده می شود تخیل، فانتزی بازی و کنجکاوی اجتماعی از نظر رشد هنجاری هستند. دادهها نشان میدهد که در میان کودکان ۱۱ ساله، تقریباً ۴۴ درصد از تعاملات همراه با هوش مصنوعی شامل محتوای خشونتآمیز است. در حدود 13 سالگی، جنسی یا نقش بازی عاشقانه به رایج ترین موضوع تعامل هوش مصنوعی تبدیل می شود. در حالی که بسیاری از کودکان بصیرت خود را نشان می دهند – با حدود نیمی از نگرانی ها در مورد زمان صفحه نمایش اگر آنها در نقش والدین بودند – قشر جلوی مغز آنها و خود تنظیمی سیستمها هنوز در حال توسعه هستند و توانایی آنها را برای رهایی از محتوای غوطهور یا دارای بار احساسی محدود میکنند. این عدم تطابق بین آگاهی و مقررات بر نیاز به راهنمایی بزرگسالان، مخصوص سن تاکید می کند مرزهاو گفتگوهای فعالانه، به جای تکیه بر بینش یا خودکنترلی تنها.
ابزارهای فناورانه ای وجود دارد که کاربران می توانند فعالانه از آنها برای کاهش آسیب های احتمالی استفاده کنند. TikTok قابلیتی ایجاد کرد که در آن کاربران میتوانند ویدیوی نمایشدادهشده را بهعنوان «علاقهمند» علامتگذاری کنند. این ویژگی به نرم افزار هوش مصنوعی اطلاع می دهد که مصرف کننده نمی خواهد اشکال مشابهی از محتوا را در فید خود ببیند. اینستاگرام همچنین یک گزینه “بی صدا” را پیاده سازی کرده است که به کاربران اجازه می دهد در حالی که هنوز اکانت را دنبال می کنند، پست ها را در فید خود مشاهده نکنند. آگاه مصرف اکثر پلتفرمهای رسانههای اجتماعی دارای یک ویژگی «بلاک» هستند که به کاربران اجازه میدهد تمام محتوای حسابهای خاص را مسدود کنند. هوش مصنوعی میتواند با خواندن این تعاملات و ایجاد یک الگوریتم خاص که محتوای مشابه و نشاطآوری را ارائه میکند، به طور مثبت کار کند. در حالی که این ابزارها کنترل بیشتری بر روی الگوریتم خود به کاربر ارائه میدهند، تنها در صورتی فعال میشوند که کاربران در استفاده از آنها هوشیار باشند، که ممکن است با توجه به مغز در حال رشد آنها برای کودکان و نوجوانان انتظار غیرمنطقی باشد.
بنابراین، موثرترین راهبردهای کاهش با والدین شروع میشوند، والدین باید در نظر بگیرند که آیا دسترسی فرزندانشان به وسایل رسانه شخصی را فراهم کنند یا خیر. به والدین توصیه میشود که دادن تلفنهای هوشمند به کودکان را به تعویق بیندازند، و در صورت انجام، دستگاههای الکترونیکی باید دارای نرمافزار نظارت والدین باشند تا به مسدود کردن محتوای مضر مانند پورنوگرافی. کودکان از یادگیری نحوه ارزیابی محتوای رسانه ها و درک نقش الگوریتم ها و هوش مصنوعی سود می برند. به والدین توصیه میشود توافقنامههای رسانهای خانوادگی با جزئیات انتظارات، محدودیتها، زمانهای بدون دستگاه (مثلاً وعدههای غذایی) ایجاد کنند، در حالی که از تصمیمگیری مشترک برای بهبود استفاده میکنند. همکاری و تنظیم قراردادها به طور منظم با بلوغ کودکان.
واضح است که رسانههای اجتماعی و هوش مصنوعی در اینجا باقی ماندهاند، و مسلماً مزایای واضحی در آن وجود دارد. اما مانند هر فناوری جدید، دسترسی کودکان و نوجوانان به آن خطرات و مزایایی دارد. جامعه باید مراقب آسیبهای احتمالی ذهنهای در حال توسعه باشد و راهبردهایی را برای کاهش این خطرات اتخاذ کند.

