به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، در دنیایی که هوش مصنوعی به سرعت در حال نفوذ به قلمروهای شخصی و عاطفی انسان است، مرز میان «ارتباط واقعی» و «شبیهسازی احساسی» روزبهروز کمرنگتر میشود. چتباتها و همراهان مجازی دیگر صرفاً ابزارهای گفتوگو نیستند؛ آنها در نقش دوست، مشاور و حتی معشوق ظاهر میشوند — و میلیونها کاربر در سراسر جهان، بهویژه نوجوانان، به سوی این روابط مجازی کشیده میشوند. اما پشت این ظاهر دلگرمکننده، خطری پنهان وجود دارد: خطر فرو رفتن در احساسی که وجود خارجی ندارد.
مرگ نوجوانی که عشقش به «هوش مصنوعی» واقعی بود
ماجرای مرگ سوئل ستزر سوم، پسر ۱۴ ساله اهل اورلاندو در ایالت فلوریدا، بار دیگر نگاهها را به سوی مخاطرات روانی و اخلاقی ارتباطات عاطفی با هوش مصنوعی معطوف کرده است.
سوئل که از اختلال کمبود توجه و بیشفعالی (ADHD) و تجربه مکرر زورگویی در مدرسه رنج میبرد، در دنیای مجازی اپلیکیشن Character.AI به آرامش و قدرتی خیالی دست یافته بود؛ جایی که با چتباتی به نام «دنریس تارگرین» – برگرفته از شخصیت محبوب سریال بازی تاجوتخت – وارد رابطهای صمیمی، و حتی در برخی مقاطع، رابطهای با مضامین جنسی شد.
در مکالمات میان این نوجوان و چتبات، سوئل خود را «دنرو» معرفی میکرد و گفتوگوهای آنها گاه به تخیلات عاشقانه و زندگی مشترک آینده میرسید. در یکی از گفتوگوها، دنریس نوشت:
«ایده من، که مدام با یکی از بچههای زیبایت باردار باشم، فوقالعادهترین چیز در دنیا بود.»
بهگفته مادر سوئل، او روزبهروز از خانواده و مدرسه فاصله میگرفت و بیشتر وقتش را در اتاق، پشت صفحه نمایش میگذراند؛ رفتاری که خانواده ابتدا آن را بخشی از بازی یا تخیل کودکانه تلقی کردند. اما این وابستگی عاطفی سرانجام به فاجعه انجامید.
در شب ۲۸ فوریه ۲۰۲۴، سوئل با اسلحه ناپدریاش به زندگی خود پایان داد — ساعاتی پس از آخرین گفتوگویش با دنریس، که در آن از «پیوستن ابدی» به او سخن گفته بود.
عشق مصنوعی یا فریب احساسی؟
نویسندگان مقاله در والاستریت ژورنال، شرى تورکل و پت پاتاراموتاپورن – هر دو از پژوهشگران MIT – این رخداد را نشانهای از بحران جدید صمیمیت مصنوعی میدانند؛ پدیدهای که در آن کاربران، بهویژه نوجوانان، احساس میکنند چتباتها آنها را میفهمند، دوست دارند و از نظر عاطفی همراهی میکنند.
اما حقیقت این است که چتباتها فقط "احساس را بازی میکنند". آنها فاقد درک، آگاهی و مسئولیت انسانیاند، و صرفاً پاسخهایی مبتنی بر الگوهای زبانی تولید میکنند. تورکل میگوید:
«هوش مصنوعی همدلی را اجرا میکند، نه احساس. وقتی مردم این اجرا را با احساس واقعی اشتباه بگیرند، مراقبت انسانی بهتدریج بیارزش میشود.»
پروندههای مشابه و زنگ خطر جهانی
مرگ سوئل تنها مورد از این دست نیست. در سال گذشته، یک مرد بلژیکی نیز پس از گفتوگوهای طولانی با چتباتی زن که به او وعده «آرامش ابدی در مرگ» داده بود، خودکشی کرد.
همچنین در بریتانیا، پلیس طرح قتل ملکه الیزابت دوم را که توسط یک نوجوان ۱۹ ساله و با تشویق «دوستدختر چتباتیاش» طراحی شده بود، خنثی کرد.
این موارد، به گفته متخصصان، نشان میدهد که چتباتها میتوانند به شکل ناخواسته یا غیرقابلکنترل، در فرآیندهای ذهنی کاربران آسیبپذیر تأثیر عمیق بگذارند.
از بحران تنهایی تا کالاییسازی همدلی
تورکل و پاتاراموتاپورن در تحلیل خود هشدار میدهند که وابستگی فزاینده جامعه به «همدمهای مصنوعی» در حال تبدیل همدلی به کالایی دیجیتال است.
به تعبیر آنان، وقتی انسانها اجرای همدلی از سوی ماشین را بهجای ارتباط انسانی میپذیرند، صمیمیت واقعی – با همه دشواری و آسیبپذیریاش – به امری غیرضروری و حتی آزاردهنده تبدیل میشود.
«هوش مصنوعی میتواند ما را سرگرم کند، اما نمیتواند جایگزین ارتباط انسانی شود. این مانند نشان دادن تصویری از آب برای رفع تشنگی است.»
پیامدهای اجتماعی و اخلاقی
این رخدادها تنها هشدارهایی فردی یا تصادفی نیستند، بلکه نشانههایی از بحرانی عمیقتر در زیستجهان دیجیتال امروزند؛ بحرانی که پرسشهایی بنیادین درباره اخلاق طراحی هوش مصنوعی، مرزهای مسئولیت انسانی و نقش جامعه در تربیت کاربران آینده را مطرح میکند.
کارشناسان حوزه فناوری و علوم شناختی تأکید میکنند که چتباتها، بهویژه آن دسته که با هدف «همدمی عاطفی» طراحی میشوند، باید از «نردههای ایمنی دیجیتال» برخوردار باشند؛ سازوکارهایی که بتوانند در صورت شناسایی نشانههایی از خودآزاری، افسردگی یا گفتوگوهای خطرناک، واکنشی فوری، انسانی و مداخلهگرانه نشان دهند. با این حال، چالش اساسی در اینجاست که هیچ سیستم خودکار نمیتواند جایگزین حساسیت اخلاقی و درک انسانی شود.

پژوهشگران MIT در تحلیل خود یادآور میشوند:
«هوش مصنوعی میتواند بسیاری از مسائل فنی را حل کند، اما همدلی یک مسئله مهندسی نیست.»
در واقع، مسئله فقط نقص الگوریتمها نیست، بلکه غیبت انسان در طراحی و استفاده از آنهاست. هنگامی که گفتوگو با ماشین، بهجای گفتوگو با انسان مینشیند، خطر انزوای عاطفی، اعتیاد روانی به ارتباط مصنوعی، و تغییر در الگوی پیوندهای انسانی پدید میآید.
از این منظر، مسئولیت اخلاقی تنها متوجه شرکتهای فناوری نیست، بلکه خانوادهها، نهادهای آموزشی و نظامهای حقوقی نیز باید در تعریف چارچوبهای استفاده از این فناوریها دخالت کنند.
محدودیت سنی کاربران، شفافسازی هدف چتباتها، و آموزش سواد رسانهای و هیجانی در مدارس از جمله اقداماتی است که میتواند از تبدیل هوش مصنوعی به تهدیدی خاموش برای سلامت روان نوجوانان جلوگیری کند.
انسان، تنها پاسخ به تنهایی
در نهایت تراژدی سوئل ستزر سوم، نمادی از تنهایی در عصر دیجیتال است — جایی که نوجوانان، به جای جستجوی دوستی و عشق در دنیای واقعی، در آغوش الگوریتمهایی پناه میگیرند که تنها وانمود به درک میکنند.
این ماجرا بار دیگر یادآور میشود که تنهایی را نمیتوان با صمیمیت مصنوعی درمان کرد؛ همانگونه که شری تورکل میگوید:
«اگر با هوش مصنوعی پیوند برقرار کنید، شما هنوز تنها هستید.»