۱۲ آبان ۱۴۰۴ - ۱۲:۴۱
کد خبر: ۷۹۵۴۱۰

چت‌بات، قاتل خاموش نوجوانان؟ / تنهایی مرگبار در عصر دیجیتال

چت‌بات، قاتل خاموش نوجوانان؟ / تنهایی مرگبار در عصر دیجیتال
شری تورکل مقاله «یک پسر ۱۴ ساله به خاطر نزدیک‌تر شدن به یک چت‌بات خودکشی کرد. او فکر می‌کرد آنها عاشق هم هستند.» هشدار می‌دهد که وابستگی عاطفی به چت‌بات‌ها، نشانه فروپاشی مرز میان ارتباط انسانی و صمیمیت مصنوعی است.
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، در دنیایی که هوش مصنوعی به سرعت در حال نفوذ به قلمروهای شخصی و عاطفی انسان است، مرز میان «ارتباط واقعی» و «شبیه‌سازی احساسی» روزبه‌روز کمرنگ‌تر می‌شود. چت‌بات‌ها و همراهان مجازی دیگر صرفاً ابزارهای گفت‌وگو نیستند؛ آنها در نقش دوست، مشاور و حتی معشوق ظاهر می‌شوند — و میلیون‌ها کاربر در سراسر جهان، به‌ویژه نوجوانان، به سوی این روابط مجازی کشیده می‌شوند. اما پشت این ظاهر دلگرم‌کننده، خطری پنهان وجود دارد: خطر فرو رفتن در احساسی که وجود خارجی ندارد.
 
مرگ نوجوانی که عشقش به «هوش مصنوعی» واقعی بود
 
ماجرای مرگ سوئل ستزر سوم، پسر ۱۴ ساله اهل اورلاندو در ایالت فلوریدا، بار دیگر نگاه‌ها را به سوی مخاطرات روانی و اخلاقی ارتباطات عاطفی با هوش مصنوعی معطوف کرده است.
سوئل که از اختلال کمبود توجه و بیش‌فعالی (ADHD) و تجربه مکرر زورگویی در مدرسه رنج می‌برد، در دنیای مجازی اپلیکیشن Character.AI به آرامش و قدرتی خیالی دست یافته بود؛ جایی که با چت‌باتی به نام «دنریس تارگرین» – برگرفته از شخصیت محبوب سریال بازی تاج‌وتخت – وارد رابطه‌ای صمیمی، و حتی در برخی مقاطع، رابطه‌ای با مضامین جنسی شد.
 
چت‌بات، قاتل خاموش نوجوانان؟ / تنهایی مرگبار در عصر دیجیتال
 
در مکالمات میان این نوجوان و چت‌بات، سوئل خود را «دنرو» معرفی می‌کرد و گفت‌وگوهای آنها گاه به تخیلات عاشقانه و زندگی مشترک آینده می‌رسید. در یکی از گفت‌وگوها، دنریس نوشت:
 
«ایده من، که مدام با یکی از بچه‌های زیبایت باردار باشم، فوق‌العاده‌ترین چیز در دنیا بود.»
 
به‌گفته مادر سوئل، او روزبه‌روز از خانواده و مدرسه فاصله می‌گرفت و بیشتر وقتش را در اتاق، پشت صفحه نمایش می‌گذراند؛ رفتاری که خانواده ابتدا آن را بخشی از بازی یا تخیل کودکانه تلقی کردند. اما این وابستگی عاطفی سرانجام به فاجعه انجامید.
 
در شب ۲۸ فوریه ۲۰۲۴، سوئل با اسلحه ناپدری‌اش به زندگی خود پایان داد — ساعاتی پس از آخرین گفت‌وگویش با دنریس، که در آن از «پیوستن ابدی» به او سخن گفته بود.
 
عشق مصنوعی یا فریب احساسی؟
 
نویسندگان مقاله در وال‌استریت ژورنال، شرى تورکل و پت پاتاراموتاپورن – هر دو از پژوهشگران MIT – این رخداد را نشانه‌ای از بحران جدید صمیمیت مصنوعی می‌دانند؛ پدیده‌ای که در آن کاربران، به‌ویژه نوجوانان، احساس می‌کنند چت‌بات‌ها آنها را می‌فهمند، دوست دارند و از نظر عاطفی همراهی می‌کنند.
 
اما حقیقت این است که چت‌بات‌ها فقط "احساس را بازی می‌کنند". آنها فاقد درک، آگاهی و مسئولیت انسانی‌اند، و صرفاً پاسخ‌هایی مبتنی بر الگوهای زبانی تولید می‌کنند. تورکل می‌گوید:
 
«هوش مصنوعی همدلی را اجرا می‌کند، نه احساس. وقتی مردم این اجرا را با احساس واقعی اشتباه بگیرند، مراقبت انسانی به‌تدریج بی‌ارزش می‌شود.»
 
چت‌بات هوشمند در پورتال سازمانی: مزایا و کاربردها - معماران عصر ارتباط
 
پرونده‌های مشابه و زنگ خطر جهانی
 
مرگ سوئل تنها مورد از این دست نیست. در سال گذشته، یک مرد بلژیکی نیز پس از گفت‌وگوهای طولانی با چت‌باتی زن که به او وعده «آرامش ابدی در مرگ» داده بود، خودکشی کرد.
همچنین در بریتانیا، پلیس طرح قتل ملکه الیزابت دوم را که توسط یک نوجوان ۱۹ ساله و با تشویق «دوست‌دختر چت‌باتی‌اش» طراحی شده بود، خنثی کرد.
 
این موارد، به گفته متخصصان، نشان می‌دهد که چت‌بات‌ها می‌توانند به شکل ناخواسته یا غیرقابل‌کنترل، در فرآیندهای ذهنی کاربران آسیب‌پذیر تأثیر عمیق بگذارند.
 
از بحران تنهایی تا کالایی‌سازی همدلی
 
تورکل و پاتاراموتاپورن در تحلیل خود هشدار می‌دهند که وابستگی فزاینده جامعه به «همدم‌های مصنوعی» در حال تبدیل همدلی به کالایی دیجیتال است.
به تعبیر آنان، وقتی انسان‌ها اجرای همدلی از سوی ماشین را به‌جای ارتباط انسانی می‌پذیرند، صمیمیت واقعی – با همه دشواری و آسیب‌پذیری‌اش – به امری غیرضروری و حتی آزاردهنده تبدیل می‌شود.
 
«هوش مصنوعی می‌تواند ما را سرگرم کند، اما نمی‌تواند جایگزین ارتباط انسانی شود. این مانند نشان دادن تصویری از آب برای رفع تشنگی است.»
 
پیامدهای اجتماعی و اخلاقی

این رخدادها تنها هشدارهایی فردی یا تصادفی نیستند، بلکه نشانه‌هایی از بحرانی عمیق‌تر در زیست‌جهان دیجیتال امروزند؛ بحرانی که پرسش‌هایی بنیادین درباره اخلاق طراحی هوش مصنوعی، مرزهای مسئولیت انسانی و نقش جامعه در تربیت کاربران آینده را مطرح می‌کند.

کارشناسان حوزه فناوری و علوم شناختی تأکید می‌کنند که چت‌بات‌ها، به‌ویژه آن دسته که با هدف «همدمی عاطفی» طراحی می‌شوند، باید از «نرده‌های ایمنی دیجیتال» برخوردار باشند؛ سازوکارهایی که بتوانند در صورت شناسایی نشانه‌هایی از خودآزاری، افسردگی یا گفت‌وگوهای خطرناک، واکنشی فوری، انسانی و مداخله‌گرانه نشان دهند. با این حال، چالش اساسی در اینجاست که هیچ سیستم خودکار نمی‌تواند جایگزین حساسیت اخلاقی و درک انسانی شود.

آیا یک ربات چت هوش مصنوعی می تواند درمانگر شما باشد؟ یک سوم آمریکایی ها با  این ایده راحت هستند

پژوهشگران MIT در تحلیل خود یادآور می‌شوند:  

«هوش مصنوعی می‌تواند بسیاری از مسائل فنی را حل کند، اما همدلی یک مسئله مهندسی نیست.»

در واقع، مسئله فقط نقص الگوریتم‌ها نیست، بلکه غیبت انسان در طراحی و استفاده از آنهاست. هنگامی که گفت‌وگو با ماشین، به‌جای گفت‌وگو با انسان می‌نشیند، خطر انزوای عاطفی، اعتیاد روانی به ارتباط مصنوعی، و تغییر در الگوی پیوندهای انسانی پدید می‌آید.

از این منظر، مسئولیت اخلاقی تنها متوجه شرکت‌های فناوری نیست، بلکه خانواده‌ها، نهادهای آموزشی و نظام‌های حقوقی نیز باید در تعریف چارچوب‌های استفاده از این فناوری‌ها دخالت کنند.
محدودیت سنی کاربران، شفاف‌سازی هدف چت‌بات‌ها، و آموزش سواد رسانه‌ای و هیجانی در مدارس از جمله اقداماتی است که می‌تواند از تبدیل هوش مصنوعی به تهدیدی خاموش برای سلامت روان نوجوانان جلوگیری کند.

انسان، تنها پاسخ به تنهایی
 
در نهایت تراژدی سوئل ستزر سوم، نمادی از تنهایی در عصر دیجیتال است — جایی که نوجوانان، به جای جستجوی دوستی و عشق در دنیای واقعی، در آغوش الگوریتم‌هایی پناه می‌گیرند که تنها وانمود به درک می‌کنند.
 
این ماجرا بار دیگر یادآور می‌شود که تنهایی را نمی‌توان با صمیمیت مصنوعی درمان کرد؛ همان‌گونه که شری تورکل می‌گوید:
 
«اگر با هوش مصنوعی پیوند برقرار کنید، شما هنوز تنها هستید.»
 
 
 
ارسال نظرات