صحة

الذكاء الاصطناعي قد يشجع على اتهام الآخرين بـ”الكذب”


كشفت دراسة حديثة أن الأشخاص أكثر عرضة لاتهام الآخرين بالكذب عندما يحصلون على دعم من مساعد الذكاء الاصطناعي لكشف الكذب.

تثير هذه النتيجة مخاوف كبيرة بشأن التطبيق الواسع النطاق لهذه التكنولوجيا.

وبحسب تقرير نشره موقع advanced science news، قال نيلز كوبيس، الباحث الرئيس في الدراسة في جامعة دويسبورغ إيسن في ألمانيا: “مجتمعنا لديه معايير قوية وراسخة بشأن اتهامات الكذب. تنبع هذه المعايير من حقيقة أن الاتهام الباطل أو توجيه اتهامات كاذبة يمكن أن يضر بشكل كبير بمكانة الفرد الاجتماعية”.

ومن المعروف أن البشر سيئون في اكتشاف الأكاذيب، مما يزيد من خطر الاتهامات الباطلة، لكن ظهور تكنولوجيا الذكاء الاصطناعي يغير هذه الديناميكية.

ففي حين يوفر التدقيق المنهجي للحقائق الحماية ضد الاتهامات الكاذبة، فإن التغيير الحقيقي لقواعد اللعبة يكمن في الكشف التلقائي عن الكذب، وهو ما قد يقلل من مساءلة المتهم.

تطور تكنولوجيا كشف الكذب

تتقدم تقنية كشف الكذب بسرعة، باستخدام خوارزميات مدربة على اكتشاف الأكاذيب من خلال ردود الفعل الجسدية والسلوكيات وحتى أنماط الكتابة.

وافترض فريق البحث أنه إذا استمرت تكنولوجيا الذكاء الاصطناعي في التحسن، وأصبحت متاحة على نطاق واسع، فقد يؤدي ذلك إلى تعطيل الأعراف المجتمعية التي تثني الناس عن اتهام بعضهم البعض بالكذب.

ولاختبار فرضيتهم، أجرى الفريق تجربة شملت 986 مشاركًا طُلب منهم كتابة عبارة صحيحة وأخرى خاطئة حول خططهم لعطلة نهاية الأسبوع القادمة.

وقد تم تطوير خوارزمية لكشف الكذب باستخدام نموذج لغة مفتوح المصدر من Google، وتقسيم البيانات إلى خمس مجموعات متساوية، ثم تدريب الخوارزمية بشكل متكرر باستخدام 80% من مجموعة فرعية واختبارها على الـ 20% المتبقية.

بالإضافة إلى ذلك، تم تقييم الأداء الإجمالي للخوارزمية عبر جميع مجموعات بيانات الاختبار الخمس، مما حقق معدل دقة قدره 66% في تحديد العبارات الصحيحة أو الخاطئة، وهو أفضل بكثير من الأداء البشري.

التأثير على سلوك الإنسان

وقد تم تجنيد 2000 مشارك آخرين للحكم على مدى صدق التصريحات، ثم تقسيم هؤلاء المتطوعين إلى أربع مجموعات: مجموعة الأساس، المجموعة القسرية، المجموعة المحظورة، ومجموعة الاختيار.

ولم تتلق مجموعة الأساس أي مساعدة من الذكاء الاصطناعي، بينما تلقت المجموعة القسرية مساعدة الذكاء الاصطناعي بغض النظر عن تفضيلاتها.

وكان لدى المجموعة المحظورة ومجموعة الاختيار خيار طلب مساعدة الذكاء الاصطناعي، ولكن مجموعة الاختيار فقط هي التي تلقتها.

حددت المجموعة الأساسية البيانات الصحيحة أو الخاطئة بشكل صحيح بنسبة 46% من الحالات، لكن 19% فقط من المشاركين اتهموا العبارة بأنها كذبة، مما يدل على إحجامهم عن توجيه اتهامات كاذبة دون مساعدة الذكاء الاصطناعي.

 في المقابل، شهدت المجموعة القسرية، التي تلقت مساعدة إلزامية من الذكاء الاصطناعي، زيادة كبيرة في الاتهامات، حيث وصف أكثر من ثلث المشاركين الأقوال بأنها كاذبة.

الميل إلى الثقة بالذكاء الاصطناعي

بشكل عام، كان المشاركون أكثر ميلاً إلى الثقة في حكم الذكاء الاصطناعي. وقد اختلف 13% فقط من المشاركين عندما تنبأ الذكاء الاصطناعي بأن العبارة صحيحة، لكن 40% اتفقوا مع الذكاء الاصطناعي عندما وصف العبارة بأنها كاذبة.

وكان هذا الاتجاه أكثر وضوحًا في مجموعة الاختيار، حيث اتهم 84% من المشاركين الذين طلبوا مساعدة الذكاء الاصطناعي بالكذب بناءً على اقتراح الخوارزمية.

وأشار كوبيس إلى أن “هذا يدل على أنه بمجرد أن يكون لدى الأشخاص مثل هذه الخوارزمية في متناول اليد، فإنهم يميلون إلى الاعتماد عليها، وقد يغيرون سلوكياتهم. هذا أمر مثير للقلق للغاية، ويشير إلى أننا يجب أن نكون حذرين للغاية مع هذه التكنولوجيا“.

الآثار المترتبة على السياسة

يحث الباحثون صناع القرار على إعادة النظر في استخدام تكنولوجيا كشف الكذب في المجالات الحرجة، مثل تقييم طلبات اللجوء على الحدود. وأظهرت العديد من الدراسات أن الخوارزميات يمكن أن ترتكب أخطاء وتعزز التحيزات، ومع ذلك لا يزال الناس يثقون بشكل غير مبرر في دقتها.

وقال كوبيس: “هناك ضجة كبيرة حول الذكاء الاصطناعي، ويعتقد الكثيرون أن هذه الخوارزميات قوية وموضوعية للغاية. أنا قلق حقًا من أن يؤدي هذا إلى الإفراط في الاعتماد على الذكاء الاصطناعي، حتى عندما لا يعمل بشكل جيد”.

مقالات ذات صلة

زر الذهاب إلى الأعلى