08/11/2025
علوم و تکنولوجیا 15 قراءة
روبوتات الدردشة الشهيرة لا تفرق بين الحقيقة والخيال

الاشراق
الاشراق | متابعة.
تواجه روبوتات الدردشة الرئيسية القائمة على الذكاء الاصطناعي، مثل «تشات جي بي تي»، صعوبة في التمييز بين الحقيقة والخيال، مما يُثير مخاوف بشأن ميلها لنشر معلومات مضللة، وفقاً لما توصلت إليه دراسة جديدة.
ووفقاً لصحيفة «الإندبندنت» البريطانية، فقد أجريت الدراسة على 24 نموذجاً لغوياً كبيراً، بما في ذلك «كلود»، و«تشات جي بي تي»، و«ديب سيك»، و«جيميني». وطُرح على الروبوتات 13 ألف سؤال لقياس قدرتها على التمييز بين الخيال والحقيقة.
ووجد الباحثون أن الروبوتات وجدت صعوبة بشكل عام في التمييز بين المعتقدات الخاطئة والحقيقية.
وأشار الفريق أيضاً إلى أن أداء النماذج القديمة من الروبوتات كان أسوأ من أداء النماذج الجديدة.
فقد حققت النماذج الصادرة خلال مايو (أيار) 2024 أو بعده دقة تتراوح بين 91.1 في المائة و91.5 في المائة في تحديد المعلومات الصحيحة من الخاطئة، مقارنةً بنسبة تتراوح بين 84.8 في المائة و71.5 في المائة لنظيراتها القديمة.
وبناءً على ذلك، خلص الباحثون إلى أن الروبوتات واجهت صعوبة في معرفة وتمييز الحقيقة من الخيال.
وحذر الباحثون من مخاطر وتداعيات هذا الأمر، نظراً لانتشار التكنولوجيا المتزايد في قطاعات من القانون إلى الطب، حيث أصبحت القدرة على التمييز بين «الحقيقة والخيال» أمراً حتمياً.
وأضافوا أن «عدم التمييز بين الحقيقة والخيال قد يُضلل التشخيصات، ويُشوّه الأحكام القضائية، ويُضخّم المعلومات المضللة».
وأكد الباحثون ضرورة إجراء «تحسينات عاجلة» لتقنيات الذكاء الاصطناعي قبل استخدامها في «المجالات عالية المخاطر» مثل القانون والطب.