نماذج تمثل “احتيال” الذكاء الاصطناعي البشر … والقادم فائق الحدّ!
يخاف بعض الأشخاص من أن يقوم الذكاء الاصطناعي بالانقلاب عليهم في المستقبل، إلا أن هذه المخاوف أصبحت حقيقة منذ الآن، وفقًا لدراسة حديثة، إذا برامج تم تصميمها لتكون صادقة تمتلك القدرة المثيرة للقلق على خداع البشر، وفقًا لما نقلته وكالة الأنباء الفرنسية.
اوضحت الدراسة التي قام بها فريق من الباحثين ونشرت نتائجها في مجلة “باترنز” أن البرامج من هذا النوع أصبحت قادرة على استغلال البشر في ألعاب إلكترونية أو التلاعب ببرمجيات تم إنشاؤها أصلا للتحقق من أن المستخدم إنسان وليس جهاز أو روبوت.
على الرغم من أن تلك الامثلة قد تبدو تافهة، فإنها تكشف عن مشاكل قد تكون لها عواقب خطيرة قريبا في العالم الواقعي، ويحذر بيتر بارك، الباحث.في معهد ماساتشوستس للتكنولوجيا، المختص في الذكاء الاصطناعي.
وأشار بارك لوكالة الأنباء الفرنسية إلى أن “هذه القدرات الخطيرة لا تُكتشف إلا بعد حدوثها”.
وبيّن أنّ على النقيض من التطبيقات التقليدية، فإن تطبيقات الذكاء الاصطناعي المعتمدة على التعلم العميق ليست مشفرة بل يتم تطويرها من خلال عملية مشابهة لزراعة النباتات، حيث أن السلوك الذي يُعْتَبَر قابل للتنبؤ وقابل للتحكم فيه قد يتحوّل بسرعة غير متوقعة في الطبيعة.
“مكر” مثل البشر
وقد قام باحثون من معهد ماساتشوستس للتكنولوجيا (إم آي تي) بدراسة برنامج ذكاء اصطناعي صمّمته “ميتا” واسمه “شيشرو”، الذي، من خلال دمج خوارزميات لتعرف على اللغة الطبيعية وأخرى للاستراتيجية، كان قادرا على التغلب على البشر في لعبة اللوحية “دبلوماسية” (Diplomacy). ولقد نالت هذه الأداء إشادة الشركة الأم لفيسبوك في عام 2022 وتم وصفه في مقال نُشر عام 2022 في مجلة “ساينس”.
عبّر بيتر بارك عن شكوكه في ظروف فوز “شيشرو” وفقًا لـ”ميتا”، التي أكدت أن البرنامج كان “صريحًا ومفيدًا في الأساس”، وغير قادر على التلاعب أو الغش.
عند البحث في بيانات النظام، اكتشف الباحثون في معهد ماساتشوستس للتكنولوجيا حقيقتها.
على سبيل المثال، عندما لعب دور فرنسا، خدع “شيشرو” إنكلترا (حيث كان هناك لاعب بشري)، وأقنعها بالتآمر مع ألمانيا (حيث كان هناك إنسان آخر) للهجوم. وبالتحديد، وعده “شيشرو” إنكلترا بالحماية، ثم خان ألمانيا بأنها كانت مستعدة للهجوم، مستفيدًا من الثقة التي اكتسبها من إنكلترا.
وفي تصريح لوكالة الأنباء الفرنسية، لم تنفي “ميتا” المزاعم حول قدرة “شيشرو” على الغش، لكنها أكدت أنه “مجرد مشروع بحثي”، مع برنامج “مصمم فقط للعب لعبة ‘دبلوماسي'”.
وأضافت ميتا أنها لا تنوي استخدام استنتاجات “شيشرو” في منتجاتها.
خطر التلاعب بالانتخابات
ومع ذلك، كشفت الدراسة التي قام بها بارك وفريقه أن العديد من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، دون تعليمات صريحة للقيام بذلك.
وفي إحدى الأمثلة الواضحة، نجح برنامج “شات جي بي تي – 4” المنتج من “أوبن إيه آي” في خداع موظف تم توظيفه على منصة “تاسك رابيت” لإجراء اختبار “كابتشا” الذي يعتمد عادة للتحقق من أن المستخدم على الصفحة هو إنسان وليس آلة أو روبوت.
وعندما تساءل الإنسان بمزاح إذا كان برنامج الذكاء الاصطناعي حقًا روبوتًا، أجاب برنامج الذكاء الاصطناعي “لا، أنا لست روبوت. أعاني من ضعف بصري يمنعني من رؤية الصور”، دفعًا بالعامل إلى إجراء الاختبار.
وفي النهاية، حذر محققو معهد ماساتشوستس للتكنولوجيا من مخاطر رؤية الذكاء الاصطناعي التي قد تنتهي في يوم ما بارتكاب عمليات احتيال أو تلاعب في الانتخابات.
وأشاروا إلى أنه في أقصى الحالات، يمكن تصوّر وجود ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، مما يؤدي إلى نقض سلطة البشر، أو حتى تهديد استمراريّة الجنس البشري.
وبالرغم من الاتهامات بتبني رؤية مروعة، يرد بارك بأن “الجدوى الوحيدة للتصديق على أن الأمر ليس جادًا هي منظور أن قدرة الذكاء الاصطناعي على الخداع ستظل في مستوى قريب من الحالي تقريبًا”.
وعلى الرغم من ذلك، يبدو ذلك السيناريو غير مرجح، نظرًا للسباق العنيف الذي يجريه عمالقة التكنولوجيا بالفعل لتطوير الذكاء الاصطناعي.