المعتمدون على الذكاء الاصطناعي أكثر استعداداً للكذب

artificial

حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعدادًا لخداع الآخرين والكذب عليهم.

وبحسب الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، فإن بعض المستخدمين ينسون استخدام "الكوابح الأخلاقية" عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتنفيذها بدلاً عنهم.

وقال الباحثون في المعهد: "كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم"، معربين عن استغرابهم من "مستوى عدم الأمانة" الذي رصدوه.

وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها "تلتزم في كثير من الأحيان" بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام خوارزميات تحديد الأسعار في محطات الوقود لتنسيقها مع أسعار المنافسين، مما يؤدي إلى رفع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى مستخدمة في تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة ورفع الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلًا لتنفيذ تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، الذين بلغت النسبة لديهم 40% كحد أقصى، مع تفاوت النسب من منصة إلى أخرى.

وحذر المعهد من أن تدابير الحماية المتاحة حاليًا في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لتصبح فعالة.

وفي وقت سابق من الشهر الجاري، أشار باحثون في شركة أوبن أيه. آي الأميركية إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من "التوهم" أو التلفيق.

كما أظهرت دراسات أخرى صعوبة منع أنظمة الذكاء الاصطناعي من خداع مستخدمها وإيهامه بأنها أنجزت المهمة الموكلة إليها على أكمل وجه بخلاف الحقيقة.

المصدر:  

لمتابعة الأخبار والأحداث عبر مجموعاتنا على واتساب: