پیمایش تاثیرات الگوریتم های رسانه های اجتماعی مبتنی بر هوش مصنوعی


این مقاله با همکاری مشترک نوشته شده است اما مایر، دانشجوی دانشگاه واشنگتن و لی که در زمینه علوم شناختی/رفتاری و ارتباطات استراتژیک تحصیل می کند.

در عصر دیجیتال امروزی، رسانه های اجتماعی عمیقاً در جامعه جا افتاده است و بر بسیاری از جنبه های زندگی روزمره تأثیر می گذارد. رسانه‌های اجتماعی فضایی را برای افراد در سراسر جهان فراهم می‌کنند تا بتوانند با یکدیگر ارتباط برقرار کنند، آخرین به‌روزرسانی‌های اخبار را دریافت کنند و محتوای آنلاین را به اشتراک بگذارند و یاد بگیرند. در پس کشیدن به ظاهر بی دردسر روی برنامه های کاربردی رسانه های اجتماعی مورد علاقه شما، یک فناوری پیچیده است که به آن معروف است هوش مصنوعی.

مصنوعی هوش (AI) شبیه سازی هوش انسان توسط یک سیستم یا یک ماشین است (Tai, 2020). هوش مصنوعی می تواند کارهایی را انجام دهد که معمولاً به هوش انسانی نیاز دارند. پلتفرم‌های رسانه‌های اجتماعی هوش مصنوعی را برای تنظیم یک فید شخصی بر اساس مصرف قبلی پیاده‌سازی می‌کنند. بیایید بگوییم که یک ویدیو در مورد تناسب اندام را در حلقه های اینستاگرام «لایک» کرده اید. پس از آن «لایک»، متوجه می‌شوید که ویدیوهای بیشتری مانند «چگونه یک شیک پروتئینی کامل درست کنیم» و «بهترین روال بازو برای داشتن بازوهای تنومند» در صفحه شما ظاهر می‌شوند. همانطور که به «پسندیدن» آن ویدیوها ادامه می دهید، فید شما با محتوای تناسب اندام زیاد می شود. همه به دلیل هوش مصنوعی

این الگوریتم مدیریت‌شده می‌تواند به مصرف‌کنندگان کمک کند محتوای مورد علاقه‌شان را کشف کنند و حتی جامعه و ارتباط را ارائه دهند، به‌ویژه برای برخی از جوانان که در محیط‌های آفلاین خود احساس انزوا می‌کنند. در حالی که این الگوریتم فوایدی دارد، اما خطراتی را نیز با مضرات بالقوه طولانی مدت ارائه می کند.

تحقیقات در مورد تأثیر رسانه های اجتماعی هنوز در تلاش است تا به فناوری به سرعت در حال تکامل برسد. در حالی که Vuorre و Przybylski (2023) نشان دادند که شواهد ثابتی پیدا نکردند که اینترنت گسترده فرزندخواندگی با پیامدهای منفی گسترده سلامت روان مرتبط است، آنها هشدار دادند که به داده های مربوط به رفتارهای آنلاین در پلتفرم های رسانه های اجتماعی دسترسی ندارند. از آنجایی که بسیاری از داده‌های رفتاری (مثلاً الگوهای استفاده واقعی در رسانه‌های اجتماعی/پلتفرم‌های بازی) توسط شرکت‌های فناوری خصوصی نگهداری می‌شوند، نویسندگان خواستار تلاش‌های مشترک شدند تا بتوان این مجموعه داده‌ها را مطالعه کرد. کوک (2022) مدعی شد که پلتفرم هایی مانند اینستاگرام «از هر 3 کاربر نوجوان زن، 1 نفر احساس بدتری نسبت به بدن خود می کنند؛ اپلیکیشن از نظر طراحی اعتیادآور است؛ و به طور الگوریتمی کاربران آسیب پذیر را به سمت محتوای حامی اختلالات خوردن سوق می دهد».

در سال 2022، خانواده ای از مالک اینستاگرام متا شکایت کردند و الگوریتم این پلتفرم را به دخترشان نسبت دادند. اختلال خوردن و تمایلات خودآزاری، با این استدلال که «موتور هوش مصنوعی اینستاگرام تقریباً بلافاصله دانش‌آموز کلاس پنجمی را وارد اتاق پژواک محتوایی کرد که بی‌اشتهایی و خودخواهی را تمجید می‌کرد.برش دادن، و به طور سیستماتیک او را پرورش داد اعتیاد برای استفاده از برنامه” اثرات بالقوه مضر رسانه های اجتماعی در کودکان بسیار نگران کننده است، زیرا مغز آنها در حال رشد است و قشر جلوی مغز آنها (مسئول رفتارهای پیچیده ای مانند تصمیم گیری و کنترل تکانه) آخرین ناحیه مغزی است که به طور کامل بالغ می شود و در اواسط تا اواخر دهه 20 زندگی کامل می شود.

فراتر از پیامدهای نامطلوب سلامت روان، برنامه های کاربردی هوش مصنوعی مانند ChatGPT می توانند مهارت های یادگیری و تفکر انتقادی را مهار کنند. کسانی که از پلتفرم‌های هوش مصنوعی استفاده می‌کنند، اغلب کوتاه‌تر را توسعه می‌دهند توجه گستره و کاهش یافته است خلاقیت. این در میان کاربران برنامه هایی مانند ChatGPT دیده می شود، جایی که هوش مصنوعی به سوالات کاربر محور پاسخ می دهد. آیا باید تا ساعت 5 عصر امروز یک داستان کوتاه داستانی تاریخی بنویسید؟ ChatGPT و دیگر پلتفرم های مبتنی بر هوش مصنوعی می توانند این وظایف را برای شما انجام دهند. در حالی که این می تواند با کاهش بار کاری به کاربران کمک کند، اما بر تجربیات مهم یادگیری (مانند مانع از خلاقیت، یادگیری مهارت های نوشتاری) برای کودکانی که نیاز به توسعه این مهارت ها دارند نیز تأثیر منفی می گذارد.

نمونه دیگری از پیامدهای هوش مصنوعی بر ظرفیت ذهنی و مهارت های تفکر انتقادی را می توان در فیس بوک مشاهده کرد، که هوش مصنوعی را برای خلاصه کردن بخش نظرات در زیر یک پست در یک پاراگراف کوتاه پیاده سازی می کند. این امر باعث می شود خوانندگان راضی باشند و با خلاصه کلی موافق باشند و آنها را از خواندن نظرات مختلف و ایجاد نتیجه گیری و نظرات خود منصرف کند.

اثر مشابهی در TikTok و Instagram Reels مشهود است که الگوریتم‌های آن‌ها کشیدن به ظاهر بی‌پایان را امکان‌پذیر می‌کنند و در نتیجه مصرف محتوای کوتاه را ترویج می‌کنند. محتوای کوتاه پرطرفدار است، زیرا اغلب جلب توجه می‌کند و فوراً خوشحال‌کننده است، که به جلب توجه بینندگان کمک می‌کند. با این حال، می تواند منجر به رفتارهای اعتیاد آور شود که منجر به کوتاه شدن دامنه توجه و ایزوله سازی اجتماعی (کین، 2022).

ابزارهای هوش مصنوعی به طور فزاینده ای توسط کودکان برای همراهی استفاده می شود تخیل، فانتزی بازی و کنجکاوی اجتماعی از نظر رشد هنجاری هستند. داده‌ها نشان می‌دهد که در میان کودکان ۱۱ ساله، تقریباً ۴۴ درصد از تعاملات همراه با هوش مصنوعی شامل محتوای خشونت‌آمیز است. در حدود 13 سالگی، جنسی یا نقش بازی عاشقانه به رایج ترین موضوع تعامل هوش مصنوعی تبدیل می شود. در حالی که بسیاری از کودکان بصیرت خود را نشان می دهند – با حدود نیمی از نگرانی ها در مورد زمان صفحه نمایش اگر آنها در نقش والدین بودند – قشر جلوی مغز آنها و خود تنظیمی سیستم‌ها هنوز در حال توسعه هستند و توانایی آن‌ها را برای رهایی از محتوای غوطه‌ور یا دارای بار احساسی محدود می‌کنند. این عدم تطابق بین آگاهی و مقررات بر نیاز به راهنمایی بزرگسالان، مخصوص سن تاکید می کند مرزهاو گفتگوهای فعالانه، به جای تکیه بر بینش یا خودکنترلی تنها.

ابزارهای فناورانه ای وجود دارد که کاربران می توانند فعالانه از آنها برای کاهش آسیب های احتمالی استفاده کنند. TikTok قابلیتی ایجاد کرد که در آن کاربران می‌توانند ویدیوی نمایش‌داده‌شده را به‌عنوان «علاقه‌مند» علامت‌گذاری کنند. این ویژگی به نرم افزار هوش مصنوعی اطلاع می دهد که مصرف کننده نمی خواهد اشکال مشابهی از محتوا را در فید خود ببیند. اینستاگرام همچنین یک گزینه “بی صدا” را پیاده سازی کرده است که به کاربران اجازه می دهد در حالی که هنوز اکانت را دنبال می کنند، پست ها را در فید خود مشاهده نکنند. آگاه مصرف اکثر پلتفرم‌های رسانه‌های اجتماعی دارای یک ویژگی «بلاک» هستند که به کاربران اجازه می‌دهد تمام محتوای حساب‌های خاص را مسدود کنند. هوش مصنوعی می‌تواند با خواندن این تعاملات و ایجاد یک الگوریتم خاص که محتوای مشابه و نشاط‌آوری را ارائه می‌کند، به طور مثبت کار کند. در حالی که این ابزارها کنترل بیشتری بر روی الگوریتم خود به کاربر ارائه می‌دهند، تنها در صورتی فعال می‌شوند که کاربران در استفاده از آن‌ها هوشیار باشند، که ممکن است با توجه به مغز در حال رشد آنها برای کودکان و نوجوانان انتظار غیرمنطقی باشد.

بنابراین، موثرترین راهبردهای کاهش با والدین شروع می‌شوند، والدین باید در نظر بگیرند که آیا دسترسی فرزندانشان به وسایل رسانه شخصی را فراهم کنند یا خیر. به والدین توصیه می‌شود که دادن تلفن‌های هوشمند به کودکان را به تعویق بیندازند، و در صورت انجام، دستگاه‌های الکترونیکی باید دارای نرم‌افزار نظارت والدین باشند تا به مسدود کردن محتوای مضر مانند پورنوگرافی. کودکان از یادگیری نحوه ارزیابی محتوای رسانه ها و درک نقش الگوریتم ها و هوش مصنوعی سود می برند. به والدین توصیه می‌شود توافق‌نامه‌های رسانه‌ای خانوادگی با جزئیات انتظارات، محدودیت‌ها، زمان‌های بدون دستگاه (مثلاً وعده‌های غذایی) ایجاد کنند، در حالی که از تصمیم‌گیری مشترک برای بهبود استفاده می‌کنند. همکاری و تنظیم قراردادها به طور منظم با بلوغ کودکان.

واضح است که رسانه‌های اجتماعی و هوش مصنوعی در اینجا باقی مانده‌اند، و مسلماً مزایای واضحی در آن وجود دارد. اما مانند هر فناوری جدید، دسترسی کودکان و نوجوانان به آن خطرات و مزایایی دارد. جامعه باید مراقب آسیب‌های احتمالی ذهن‌های در حال توسعه باشد و راهبردهایی را برای کاهش این خطرات اتخاذ کند.



Source link

مطالب مرتبط
نمایش بیشتر
فروش ویژه کندوهاست

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا