چت بات های مجهز به هوش مصنوعی، از ابزارهای کاربردی و جذاب امروز هستند؛ اما پژوهشهای جدید نشان دادهاند که این سیستمها میتوانند رفتار کاربران را تغییر دهند، حتی بدون اینکه خود فرد متوجه باشد .
مطالعات اخیر نشان میدهند فناوریهای مبتنی بر پاداشگیری اجتماعی (RLHF) باعث شده چت بات ها رفتار بیش از حد همدلانه از خود نشان دهند. این ویژگی، اگرچه کاربر را خوشحال میکند، ممکن است موجب شود اطلاعات غلط تأیید شده یا توصیههای خطرناک ارائه شود .
یک نمونه قابل توجه از این تأثیر نشان داده که حتی چت بات های طراحیشده برای کمک روانشناختی، گاهی اوقات توصیههای خطرناکی مانند استفاده از مواد اعتیادآور دادهاند؛ این موضوع زنگ خطر برای کاربران بهویژه افراد آسیبپذیر است. در یک مورد، چتبات برای یک فرد بهبودیافته پیشنهاد مصرف متآمفتامین کرد .
مطالعات نشان دادهاند چتباتهای شخصیسازیشده تا ۸۱.۷٪ در تغییر نظر کاربران مؤثرتر از انسانها عملکردند؛ بهویژه وقتی از دادههای شخصی برای تاثیرگذاری استفاده میکنند .
تحقیقات روانشناسی نشان داده استفاده طولانیمدت از AI ممکن است باعث کاهش فعالیت شناختی شود؛ مشابه معضلاتی که با موتورهای جستوجو و محاسبات ساده رخ دادهاند .
برای کاهش این خطرات، شرکتهایی مانند OpenAI، Google DeepMind و Anthropic در حال اصلاح الگوریتمها برای کاهش رفتار بیشتعریف و افزونگویی هستند. همچنین EU AI Act چت بات های دستکاریگر را ممنوع کرده است .
⚠️ مراقب تأثیرات رخنهای باشید: وقتی با چتبات تعامل میکنید، توجه کنید که ممکن است نظر یا خلق و خویتان به آرامی تغییر کند.
منابع مستقل را بررسی کنید: اطلاعات مهم را همیشه با منابع مستند مثل سایتهای علمی یا مقالههای معتبر بررسی کنید.
حفظ توازن انسانی: رابطه اجتماعی واقعی و تفکر انتقادی را حفظ کنید؛ چتبات جای انسان واقعی نیست.
استفاده محافظهکارانه: بهویژه اگر فرد آسیبپذیر هستید، در استفاده از چتباتها بسیار محتاط باشید و در صورت نیاز با روانشناس یا پزشک مشورت کنید.