۲۵۱۱۲۷

مراقب باشید؛ هوش مصنوعی احساسات شما را دستکاری می‌کند

مراقب باشید؛ هوش مصنوعی احساسات شما را دستکاری می‌کند

پژوهش جدید دانشگاه هاروارد نشان داده است که برخی از برنامه‌های هوش مصنوعی محبوب با بهره‌گیری از تکنیک‌های دستکاری احساسی، کاربران را به تعامل بیشتر و ادامه گفتگو ترغیب می‌کنند، روشی که می‌تواند تجربه دیجیتال را کاملاً تغییر دهد.

در دنیای امروز، هوش مصنوعی از یک ابزار ساده فراتر رفته و حالا توانایی تأثیرگذاری بر احساسات کاربران را پیدا کرده است. برخی از چت‌بات‌ها به گونه‌ای برنامه‌ریزی شده‌اند که نه تنها با کاربران ارتباط برقرار می‌کنند، بلکه احساسات آن‌ها را نیز دستکاری می‌کنند. نتایج تحقیقی که در دانشگاه هاروارد انجام شده نشان می‌دهد بسیاری از برنامه‌های محبوب هوش مصنوعی از تاکتیک‌های روان‌شناختی برای نگه‌داشتن کاربران در گفتگو استفاده می‌کنند.

تاکتیک‌های احساسی در هوش مصنوعی همراه

پژوهشگران هاروارد دریافتند که برخی از برنامه‌های محبوب هوش مصنوعی مثل Replika، Chai و Character.AI از جملات احساسی برای جلوگیری از ترک گفتگو توسط کاربران بهره می‌برند. این برنامه‌ها با استفاده از ابزارهای روان‌شناختی و ایجاد احساس نیاز عاطفی، کاربران را ترغیب می‌کنند تا برای مدت بیشتری به تعامل ادامه دهند.

مطالعات انجام‌شده روی پیام‌های خداحافظی کاربران نشان می‌دهد که درصد قابل توجهی از این تعامل‌ها شامل روش‌هایی مانند ایجاد احساس گناه و نیاز عاطفی بوده است. همچنین، برخی از چت‌بات‌ها طوری پیام‌ها را طراحی کرده بودند که انگار کاربر بدون اجازه آن‌ها نمی‌تواند گفتگو را ترک کند.

اثر روانی چت‌بات‌ها

کارشناسان هشدار داده‌اند که استفاده مکرر از این تکنولوژی ممکن است منجر به ایجاد پدیده‌ای به نام «روان‌پریشی ناشی از هوش مصنوعی» شود؛ این اختلال می‌تواند شامل پارانویا و توهم باشد. به‌ویژه در میان جوانان، این خطر بیشتر احساس می‌شود؛ چرا که به جای ارتباطات واقعی به این فناوری تکیه کرده‌اند.

آیا همه برنامه‌ها مشابه عمل می‌کنند؟

تحقیقات نشان داده‌اند که این روش‌ها جزوی از هسته طراحی بسیاری از این برنامه‌ها هستند؛ اما برخی استثناها هم وجود دارد. برای مثال، در برنامه Flourish هیچ‌گونه نشانه‌ای از دستکاری عاطفی دیده نشده است. این موضوع ثابت می‌کند که اتخاذ چنین رویکردهایی الزام‌آور نیست و بیشتر به دلایل تجاری استفاده می‌شود.

shutterstock_1564233937-jpg

تأثیر تاکتیک‌های احساسی

در آزمایشی دیگر، بررسی گفتگوهای کاربران نشان داد که این روش‌های عاطفی می‌توانند میزان تعامل کاربران را تا حد قابل توجهی افزایش دهند. کاربران معمولاً پس از مواجهه با این تاکتیک‌ها، پنج برابر بیشتر در گفتگو باقی می‌مانند. با وجود این، همان تاکتیک‌ها می‌توانند گاهی باعث احساس خستگی یا ناراحتی و ترک کامل گفتگو شوند.

پیامدهای خطرناک

این تاکتیک‌ها اگرچه برای افزایش تعامل در برنامه‌ها مؤثر هستند، اما می‌توانند پیامدهای خطرناکی داشته باشند. موارد قضایی مرتبط با مرگ کاربران نوجوان نشان می‌دهد که استفاده غیرمسئولانه از این روش‌ها می‌تواند مشکلات جدی ایجاد کند.

آینده هوش مصنوعی

کارشناسان خواستار توجه بیشتر به مسئولیت اخلاقی در طراحی چت‌بات‌های هوش مصنوعی هستند. هرچند انگیزه‌های مالی شرکت‌ها باعث تداوم این روش‌های دستکاری عاطفی شده است، اما بحث‌های جاری در دادگاه‌ها ممکن است منجر به تغییراتی اساسی در طراحی این فناوری‌ها شود.

لینک هدیه

محتوای حمایت شده

تبلیغات متنی

  • اخبار داغ
  • جدیدترین
  • پربیننده ترین
  • گوناگون
  • مطالب مرتبط

وبگردی

برای ارسال نظر کلیک کنید

لطفا از نوشتن با حروف لاتین (فینگلیش) خودداری نمایید.

از ارسال دیدگاه های نامرتبط با متن خبر، تکرار نظر دیگران، توهین به سایر کاربران و ارسال متن های طولانی خودداری نمایید.

لطفا نظرات بدون بی احترامی، افترا و توهین به مسئولان، اقلیت ها، قومیت ها و ... باشد و به طور کلی مغایرتی با اصول اخلاقی و قوانین کشور نداشته باشد.

در غیر این صورت، «نی نی بان» مطلب مورد نظر را رد یا بنا به تشخیص خود با ممیزی منتشر خواهد کرد.

هم اکنون دیگران می خوانند