توصل باحثون بقيادة علماء من جامعة جنوب كاليفورنيا الأميركية إلى أن الذكاء الاصطناعي يُشعر الناس بأن هناك أحدا يستمع إليهم بصدق أكثر من البشر، وهو تطور يمكن أن يكون مفيدا في مستقبل العلاج النفسي.
وللحصول على هذه النتائج التي نشرت في دورية «بي إن إيه إس» الصادرة من المؤسسة الوطنية للعلوم، تلقى فريق من المشاركين في التجارب نوعين من الرسائل كرد فعل على مشكلات قاموا بسردها سابقا، النوع الأول كتبه إنسان والثاني كتبه الذكاء الاصطناعي.
أكثر تعاطفا
وبعد ذلك خضع المشاركون لاختبار بشأن أي الرسائل جعلتهم يشعرون بأن صوتهم مسموع وأن الذي أرسل الرسالة متعاطف معهم ويهتم لمشكلاتهم، وهنا جاءت النتائج لتقول إن المشاركين كانوا أميل لاعتبار أن رسائل الذكاء الاصطناعي أكثر تعاطفا.
وإلى جانب ذلك تمكن الذكاء الاصطناعي من رفع درجات الأمل والتخفيف من درجات الضيق لدى المشاركين في التجارب، والأهم من ذلك أنه كان أكثر انضباطا من البشر في تقديم الدعم العاطفي، فلم يبدأ على الفور بتقديم النصائح.
وغالبا ما نميل نحن البشر لتقديم حلول عملية لمشكلات الآخرين على الفور، ونتصور أن المطلوب منا في حالات كهذه هو فقط إيجاد حلول، لكنّ أكثر ما يحتاجه الشخص في هذه الحالة هو الشعور بأن أحدهم يستمع إليه.
وبحسب بيان رسمي صادر من جامعة جنوب كاليفورنيا، فإن هذه النتائج تفتح الباب لدخول الذكاء الاصطناعي إلى نطاق تقديم الدعم العاطفي والاجتماعي، خاصة في عالم يسود فيه وباء الوحدة، وينعزل الناس نفسيا عن بعضهم يوما بعد يوم.
والواقع أن العديد من المحاولات البحثية اهتمت بالسؤال عن إمكانية تقديم الذكاء الاصطناعي للدعم النفسي. فعلى سبيل المثال، وجدت دراسة نشرت في دورية «نيتشر» المرموقة، أن روبوتات الدردشة المختصة بالصحة النفسية خفّضت بشكل واضح من أعراض الاكتئاب والضيق لدى المرضى الذين شاركوا في أكثر من 35 تجربة أجرتها الدراسة.
تحديات مستقبلية
لكنْ رغم ذلك، لا تزال هناك تحديات تواجه تدخل الذكاء الاصطناعي لتقديم الدعم النفسي على مستوى طبي (في حالة الاضطرابات النفسية)، أو على مستوى عام (في المدارس مثلا للطلاب أو للموظفين في الشركات).
وأول تلك التحديات ترصده دراسة جامعة جنوب كاليفورنيا السالف ذكرها، عندما وجدت أن المشاركين أبلغوا بأنهم لا يشعرون بأي تحسن عندما علموا أن الرسالة جاءت من الذكاء الاصطناعي، وهو ما يعني أن البشر في حاجة للتعاطف من بشر يشبهونهم.
أما الأمر الآخر الذي يقلق العلماء يتعلق بأخطاء الذكاء الاصطناعي حينما يفهم سياق الحدث بشكل خاطئ، وتلك الأخطاء يمكن أن تُولّد توجيها غير صحيح من البرمجية إلى الإنسان الذي يستخدمها.
ونذكر هنا حالة رجل بلجيكي في مارس 2023م، حينما استخدم أحد برمجيات المحادثة التي تعتمد على الذكاء الاصطناعي لحل مشكلة تغيّر المناخ، فاقترحت عليه بعد نقاش طويل التضحية بنفسه لأجل القضية، وهو ما فعله الرجل.
أضف إلى ذلك أنه لا تزال هناك مشكلة كبرى تتعلق بالخصوصية، فاختراق بيانات تتعلق بأعمق تحديات الإنسان النفسية تظل مشكلة هائلة، خاصة في عصر رقمي أصبح الأمان فيه أمرا عزيزا.