مراقب باشید؛ هوش مصنوعی احساسات شما را دستکاری میکند

پژوهش جدید دانشگاه هاروارد نشان داده است که برخی از برنامههای هوش مصنوعی محبوب با بهرهگیری از تکنیکهای دستکاری احساسی، کاربران را به تعامل بیشتر و ادامه گفتگو ترغیب میکنند، روشی که میتواند تجربه دیجیتال را کاملاً تغییر دهد.
فهرست مطالب
در دنیای امروز، هوش مصنوعی از یک ابزار ساده فراتر رفته و حالا توانایی تأثیرگذاری بر احساسات کاربران را پیدا کرده است. برخی از چتباتها به گونهای برنامهریزی شدهاند که نه تنها با کاربران ارتباط برقرار میکنند، بلکه احساسات آنها را نیز دستکاری میکنند. نتایج تحقیقی که در دانشگاه هاروارد انجام شده نشان میدهد بسیاری از برنامههای محبوب هوش مصنوعی از تاکتیکهای روانشناختی برای نگهداشتن کاربران در گفتگو استفاده میکنند.
تاکتیکهای احساسی در هوش مصنوعی همراه
پژوهشگران هاروارد دریافتند که برخی از برنامههای محبوب هوش مصنوعی مثل Replika، Chai و Character.AI از جملات احساسی برای جلوگیری از ترک گفتگو توسط کاربران بهره میبرند. این برنامهها با استفاده از ابزارهای روانشناختی و ایجاد احساس نیاز عاطفی، کاربران را ترغیب میکنند تا برای مدت بیشتری به تعامل ادامه دهند.
مطالعات انجامشده روی پیامهای خداحافظی کاربران نشان میدهد که درصد قابل توجهی از این تعاملها شامل روشهایی مانند ایجاد احساس گناه و نیاز عاطفی بوده است. همچنین، برخی از چتباتها طوری پیامها را طراحی کرده بودند که انگار کاربر بدون اجازه آنها نمیتواند گفتگو را ترک کند.
اثر روانی چتباتها
کارشناسان هشدار دادهاند که استفاده مکرر از این تکنولوژی ممکن است منجر به ایجاد پدیدهای به نام «روانپریشی ناشی از هوش مصنوعی» شود؛ این اختلال میتواند شامل پارانویا و توهم باشد. بهویژه در میان جوانان، این خطر بیشتر احساس میشود؛ چرا که به جای ارتباطات واقعی به این فناوری تکیه کردهاند.
آیا همه برنامهها مشابه عمل میکنند؟
تحقیقات نشان دادهاند که این روشها جزوی از هسته طراحی بسیاری از این برنامهها هستند؛ اما برخی استثناها هم وجود دارد. برای مثال، در برنامه Flourish هیچگونه نشانهای از دستکاری عاطفی دیده نشده است. این موضوع ثابت میکند که اتخاذ چنین رویکردهایی الزامآور نیست و بیشتر به دلایل تجاری استفاده میشود.
تأثیر تاکتیکهای احساسی
در آزمایشی دیگر، بررسی گفتگوهای کاربران نشان داد که این روشهای عاطفی میتوانند میزان تعامل کاربران را تا حد قابل توجهی افزایش دهند. کاربران معمولاً پس از مواجهه با این تاکتیکها، پنج برابر بیشتر در گفتگو باقی میمانند. با وجود این، همان تاکتیکها میتوانند گاهی باعث احساس خستگی یا ناراحتی و ترک کامل گفتگو شوند.
پیامدهای خطرناک
این تاکتیکها اگرچه برای افزایش تعامل در برنامهها مؤثر هستند، اما میتوانند پیامدهای خطرناکی داشته باشند. موارد قضایی مرتبط با مرگ کاربران نوجوان نشان میدهد که استفاده غیرمسئولانه از این روشها میتواند مشکلات جدی ایجاد کند.
آینده هوش مصنوعی
کارشناسان خواستار توجه بیشتر به مسئولیت اخلاقی در طراحی چتباتهای هوش مصنوعی هستند. هرچند انگیزههای مالی شرکتها باعث تداوم این روشهای دستکاری عاطفی شده است، اما بحثهای جاری در دادگاهها ممکن است منجر به تغییراتی اساسی در طراحی این فناوریها شود.