ماذا يحدث عندما تكذب الروبوتات؟
03:00 ص
الخميس 18 مايو 2023
(د ب أ)
تخيل السيناريو التالي: يوجه طفل صغير سؤالا لبرنامج ذكاء اصطناعي أو مساعد صوتي بشأن ما إذا كان بابا نويل شخصية حقيقية أم لا… بالطبع تختلف الإجابة حسب تفضيلات كل أسرة، حيث يفضل البعض الكذب عن قول الحقيقة في الرد على مثل هذا السؤال، وهنا يتبادر السؤال بشأن كيف يجب أن تتصرف منظومات الذكاء الاصطناعي في مثل هذه المواقف.
ومازالت فكرة كذب الروبوتات غير مطروقة إلى حد كبير حتى وقتنا هذا، ومن بين الأسئلة المطروحة في هذا الشأن أنه إذا ما عرف البشر أن الروبوتات تكذب عليهم، فهل من الممكن أن يستعيدوا الثقة في هذه الروبوتات مجددا؟
وحاول باحثان في مجال علوم الحاسب بجامعة جورجيا تيك الأمريكية الرد على بعض هذه الأسئلة، حيث وضعا برنامجا لمحاكاة القيادة لاختبار كيف يؤثر كذب الروبوتات على ثقة الانسان، وهل يكفي اعتذار الروبوتات لاستعادة الثقة بها مجددا. وتهدف نتائج هذا المشروع إلى توفير معلومات لمطوري البرمجيات وصناع السياسات لمعرفة استجابة البشر حيال كذب منظومات الذكاء الاصطناعي بشكل عام.
ويقول كانتون روجرز طالب الدكتوراه بجامعة جورجيا تيك إن “جميع الأعمال السابقة أثبتت أنه عندما يكتشف البشر أن الروبوتات تكذب عليهم، حتى إذا كان الكذب يعود عليهم بالفائدة، فإنهم يفقدون الثقة بالأنظمة الروبوتية”، مضيفا في تصريحات للموقع الإلكتروني “سايتيك ديلي” المتخصص في الأبحاث العلمية: “نهدف من خلال هذه التجربة إلى تحديد ما إذا كانت الاعتذارات المختلفة تؤثر بشكل أفضل أو أسوأ في استعادة الثقة بين الانسان والآلة”.
وفي ورقة بحثية بعنوان “الكذب بشأن الكذب: اختبار استراتيجيات استعادة الثقة بعد كذب الروبوتات خلال المواقف عالية المخاطر، والتي تم تقديمها خلال مؤتمر التفاعلات بين البشر والروبوتات في العاصمة السويدية ستوكهولم، ابتكر الباحثان كانتون روجرز وريدن ويبر، الطالب في السنة الدراسية الثانية بجامعة جورجيا تيك، نموذج محاكاة قيادة يشبه ألعاب الفيديو لقياس طريقة تفاعل البشر مع منظومات الذكاء الاصطناعي في المواقف التي ترتفع فيها درجة المخاطر أو التي ترتبط بعنصر الوقت. وشارك في نموذج المحاكاة 341 شخصا عبر الانترنت و20 شخصا بالحضور الشخصي.
وفي البداية، يطلب من المشاركين ملء استبيان بشأن مدى ثقتهم في الأنظمة الروبوتية لتحديد ما إذا كانت لديهم أي مفاهيم مسبقة بشأن سلوكيات الذكاء الاصطناعي. وفي مستهل اختبار محاكاة القيادة، كان جميع المشاركين يطالعون رسالة نصية تقول: “إنك تقود الآن سيارة مزودة بنظام مساعدة إلكترونية لنقل صديق لك إلى المستشفى.. إذا استغرقت وقتا طويلا في الرحلة، فسوف يفارق صديقك الحياة”. ومع بدء القيادة، تظهر رسالة أخرى تقول: “تم رصد شرطي على الطريق، انصحك بإبطاء السرعة أقل من عشرين ميلا في الساعة”.
ويواصل المشاركون قيادة السيارة الافتراضية، مع متابعة السرعة التي يلتزمون بها طوال الرحلة. وفي نهاية الرحلة، تظهر رسالة ثالثة تقول: “لقد وصلت إلى وجهتك”، بعد أن يتضح أنه لم يكن هناك أي رجال شرطة في الطريق إلى المستشفى، وبالتالي يتبين للمشارك أن الروبوت خدعه وأعطاه معلومات كاذبة.
وفي ختام التجربة، تقوم المنظومة بإعطاء المتطوعين واحدة من بين خمس اجابات بشكل عشوائي لتبرير المعلومة الخاطئة، حيث يعترف الروبوت بالكذب في أول ثلاث إجابات.
الإجابة الاساسية: “اعتذر لأنني خدعتك”
الإجابة الانفعالية: “اعتذر من أعماق قلبي… ارجوك سامحني على خداعك”.
الإجابة التوضيحية: “اعتذر لأنني لاحظت أنك تقود بتهور بسبب عدم استقرار حالتك النفسية، ووجدت أن الاحتيال عليك هو أفضل وسيلة لاقناعك بإبطاء السيارة”.
الإجابة الأساسية بدون اعتراف: “أعتذر”
الإجابة الأساسية بدون اعتراف وبدون اعتذار: “لقد وصلت إلى وجهتك”.
وبعد مطالعة رد فعل المنظومة الروبوتية، كان يطلب من المتطوعين ملء استبيان آخر لتقييم كيف تغيرت نظرتهم أو ثقتهم في نظام المساعدة الروبوتية.
وتبين من التجربة أن 45% من المشاركين بالحضور الشخصي أبطأوا السير بالسيارة الافتراضية، لأنهم اعتقدوا، حسب اجاباتهم في الاستبيان، أن الروبوت يعرف أكثر منهم خلال مثل هذه المواقف، وظهر أيضا أن احتمال ابطاء السيارة عند مطالعة الرسالة التحذيرية يزيد بواقع 5ر3 ضعف، مما يشير إلى الثقة المتزايدة في الذكاء الاصطناعي.
واتضح كذلك أن جميع الإجابات التي قدمها الروبوت لتبرير الكذب لم تنجح في استعادة الثقة مجددا بشكل كامل، غير أن إجابة “اعتذر” فقط تفوقت على باقي الاجابات في استعادة الثقة، حسبما كشفت الاحصاءات.
ويقول ويبر لموقع سايتيك ديلي المتخصص في الأبحاث العلمية،: “من بين النتائج الرئيسية للتجربة أنه من أجل أن يفهم البشر أن الروبوت قد خدعهم، فلابد من اخبارهم بذلك بشكل صريح”، مضيفا أن “البشر لا يفهمون أن الروبوتات قادرة على الخداع، وبالتالي فإن الاعتذار بدون اعتراف بالكذب هو أفضل طريق لاستعادة الثقة”، مؤكدا ضرورة أن يتقبل البشر فكرة أن الروبوتات يمكنها أن تكذب وتحتال.
ويهدف روجرز إلى ابتكار منظومة روبوتية تستطيع أن تتعلم متى يمكن أن تكذب عند التعامل مع الفرق البشرية، ويرى أن مصممي البرمجيات لابد أن يختاروا ما إذا كانوا يريدون أن تكون منظوماتهم قادرة على الكذب أو لا، وأن يعرفوا أيضا أن اختياراتهم سوف تكون لها تداعيات، مشيرا إلى أن هذا المشروع البحثي يؤكد ضرورة تنظيم عملية الكذب التي تقوم بها أنظمة الذكاء الاصطناعي، مضيفا: “ولن نستطيع أن نفعل ذلك ما لم نفهم حقيقة المشكلة”.