الذكاء الاصطناعي: التوازن بين الشفافية والخصوصية في المستقبل

Photo of author

By العربية الآن


بين الانفتاح والسرية.. كيف ستشكل سياسات الذكاء الاصطناعي مستقبلنا؟

الذكاء الاصطناعي التوازن بين الشفافية والخصوصية في المستقبل الشفافية والخصوصية الشفافية والخصوصية
ملامح مستقبل التكنولوجيا تتشكل بين النماذج المفتوحة التي تشجع الشفافية والمشاركة، والمغلقة التي تحكمها السرية والسعي للسيطرة (شترستوك)

تخيّل عالماً تكون فيه أبواب الإبداع والابتكار مفتوحة للجميع دون قيود، مقابل عالم آخر تتخفّى فيه الأسرار خلف أسوار مشدّدة. هذه ليست مجرد رؤية خيالية من أفلام الخيال العلمي، بل هي واقع يعيشه الذكاء الاصطناعي اليوم.

بين النماذج المفتوحة التي تشجع الشفافية والمشاركة، والمغلقة التي تحكمها السرية والسعي للسيطرة، تتشكل ملامح مستقبل التكنولوجيا.

لطالما كانت الشفافية معياراً رئيسياً في أبحاث الذكاء الاصطناعي، ولكن التطورات السريعة أثارت مخاوف بشأن المخاطر المحتملة لإطلاق النماذج الأكثر تقدماً.

بعض الشركات مثل “أوبن إيه آي” تفضل إبقاء نماذجها مغلقة لأغراض تجارية، بينما تقدم شركات أخرى استجابات مختلفة. كما أن بعض النماذج مثل “شن شيلا” (Chinchilla) من “غوغل ديب مايند” (Google DeepMind) لم تُطرح بشكل كامل، بينما تتيح أخرى مثل “جي بي تي فور أو” (GPT-4o) وصولاً محدوداً، في حين تقدم “لاما” (Llama) من “ميتا” نموذجاً مفتوحاً مع قيود على الاستخدام.

ومع تزايد الاعتماد على الذكاء الاصطناعي في مختلف جوانب الحياة، تصبح الأسئلة حول الشفافية والتحكم والمخاطر المرتبطة بإطلاق هذه النماذج أكثر إلحاحاً.

Machine learning , artificial intelligence, ai, deep learning blockchain neural network concept. Brain made with shining wireframe above multiple blockchain cpu on circuit board 3d render.
مستوى الوصول إلى النماذج يتفاوت بناء على ما إذا كانت الأوزان مفتوحة أو مغلقة (غيتي)

ما الفرق بين النماذج المغلقة والمفتوحة في الذكاء الاصطناعي؟

تعرّف منظمة “إيبوك إيه آي” (Epoch.ai) البحثية غير الربحية النماذج المفتوحة بأنها تلك التي تتيح تنزيل أوزان النماذج، بما في ذلك تلك ذات التراخيص التقييدية. في المقابل، تشير النماذج المغلقة إلى النماذج التي لم تُصدر علناً، أو التي يمكن الوصول إليها فقط من خلال واجهة برمجة التطبيقات “إيه بي آي” (API) أو عبر خدمات مستضافة.

غالباً ما يتفاوت مستوى الوصول إلى النماذج بناء على ما إذا كانت الأوزان مفتوحة أو مغلقة، أو إذا كانت تشمل الأكواد والبيانات. وعادةً ما تأتي النماذج التي تحتوي على أوزان قابلة للتنزيل مع تراخيص قد تكون مرنة أو تتضمن قيودًا على بعض الاستخدامات، مثل السلوك الضار، أو استخدام مخرجات النموذج لتدريب نماذج أخرى.

في حين قد تكون النماذج المغلقة غير متاحة تماماً أو قد تتوفر من خلال منتجات أو واجهات برمجة تطبيقات محددة، تقدم أفضل نماذج الذكاء الاصطناعي اليوم، مثل “شات جي بي تي” من “أوبن إيه آي” و”كلود” (Claude) من “أنثروبيك” (Anthropic) مع شروط محددة تعطي الحق للمنشئين في التحكم بكيفية الوصول إليها.

يختلف هذا تماماً عن النماذج المفتوحة التي يمكن تنزيلها وتعديلها واستخدامها من قبل أي شخص لأغراض متعددة.

فجوة الأداء بين النماذج المفتوحة والمغلقة.. تأثيرات على السياسات والمخاطر الأمنية

تعبّر الفجوات في الأداء بين النماذج المفتوحة والمغلقة عن تحديات جديدة تؤثر على تطوير السياسات المرتبطة بالذكاء الاصطناعي، كما تثير أسئلة مهمة حول الممارسات الأمنية في ظل تزايد اعتماد المجتمع على هذه التكنولوجيا المتطورة.

رابط المصدر

فجوة الأداء بين النماذج المفتوحة والمغلقة

أظهرت دراسة جديدة أجرتها منظمة “إيبوك إيه آي” (Epoch AI) أن النماذج المفتوحة المتاحة حاليًا تفشل في اللحاق بأفضل النماذج المغلقة بفارق يصل إلى عام. وعلق بن كوتير، الباحث الرئيسي في الدراسة، بأن “أفضل نموذج مفتوح اليوم يعادل النماذج المغلقة بحوالي عام”.

على سبيل المثال، نموذج “لاما 3.1 405 بي” (Llama 3.1 405B) من “ميتا”، والذي تم إصداره في يوليو الماضي، استغرق مدة تصل إلى 16 شهرًا حتى يعادل قدرات النسخة الأولى من “جي بي تي 4” (GPT-4).

من المتوقع أيضًا أن يساهم الجيل التالي من نظام الذكاء الاصطناعي من ميتا، “لاما 4” (Llama 4)، في تقليص هذه الفجوة إذا تم إطلاقه كنموذج مفتوح كما يُنتظر.

قلق الخبراء من القدرات المتزايدة للذكاء الاصطناعي

تأتي هذه النتائج في وقت يسعى فيه صانعو السياسات للتعامل مع الأنظمة القوية المتزايدة للذكاء الاصطناعي. يعبر الخبراء عن قلقهم من إمكانية تطور هذه الأنظمة لتصبح قادرة على هندسة الأوبئة أو تنفيذ هجمات إلكترونية معقدة، مما يشكل تهديدات جديدة على البشرية، وفقًا لما ورد في تقرير الدراسة.

صورة توضح قدرة المرأة على استخدام الذكاء الاصطناعي على الحاسوب المحمول والهاتف الذكي.
بعض النماذج المفتوحة أظهرت إنها قادرة على تحقيق أداء يعادل النماذج المغلقة مع استخدام حوسبة أقل، بفضل تقدم كفاءة الخوارزميات.

طريقة البحث في مختبر “إيبوك إيه آي”

في دراستهم، قام الباحثون بتحليل المئات من النماذج البارزة التي أُصدرت منذ عام 2018. لقياس الأداء، استخدموا اختبارات معيارية تقيم قدرة الذكاء الاصطناعي على تنفيذ مهام معينة، مثل حل المسائل الرياضية والإجابة على أسئلة المعرفة العامة.

كما قاموا بدراسة مدى القدرة الحاسوبية المستخدمة في تدريب تلك النماذج، وهو معيار موثوق يُستخدم لقياس الكفاءة. وأظهرت بعض النماذج المفتوحة أنها تعادل النماذج المغلقة بينما تستخدم حوسبة أقل.

وأشار الباحثون أنه “يوفر الفارق الزمني بين النماذج المفتوحة والمغلقة فرصة لصانعي السياسات والمختبرات لتقييم القدرات المتقدمة قبل توفرها في النماذج المفتوحة”.

تساؤلات حول فتح المصدر والشفافية

يدور تساؤل حول مدى حقيقة كونه نماذج مفتوحة. فالهامش بين النماذج المفتوحة والمغلقة ليس واضحًا كما قد يظن البعض. على سبيل المثال، تصف شركة “ميتا” نماذجها “لاما” (Llama) بأنها مفتوحة المصدر، لكنها لا تتوافق مع التعريفات الحديثة لمبادرة المصدر المفتوح.

حيث تتطلب المبادرة من الشركات مشاركة ليس فقط النموذج، بل أيضًا البيانات والرموز المستخدمة في التدريب. في حالة “ميتا”، تُصدر الشركة أوزان النموذج، لكن لا تقدم البيانات أو الأكواد المستخدمة في تدريب نماذجها.

تحتاج المستخدمون إلى الموافقة على سياسة الاستخدام المقبول قبل تنزيل النموذج، والتي تمنع الاستخدامات العسكرية والنشاطات الضارة، لكن تنفيذ هذه القيود يصبح صعبًا بعد التنزيل.

في هذا الصدد، ترفض شركة “ميتا” التعريف الجديد لمبادرة المصدر المفتوح، مشيرة إلى عدم وجود تعريف موحد للمصدر المفتوح في مجال الذكاء الاصطناعي. أكد متحدث باسم الشركة لمجلة “تايم” أن “لا يوجد تعريف واحد يصف المصدر المفتوح في مجال الذكاء الاصطناعي، حيث أن التعريفات السابقة لا تأخذ في الاعتبار تعقيدات النماذج الحديثة.”

أضاف المتحدث أن “نحن نهدف إلى جعل نموذج لاما متاحاً للجميع، ونسعى للحفاظ على سلامة المستخدمين عبر بعض القيود، وسنواصل التعاون مع مبادرة المصدر المفتوح والكيانات الصناعية لزيادة توفر الذكاء الاصطناعي بشكل مسؤول”.

قائد الذكاء الاصطناعي للقوات العسكرية على جهاز لوحي مع تكنولوجيا الواقع المعزز.
الابتكار يتعزز من خلال التعاون بين المجتمعات المفتوحة، بما في ذلك الباحثين الأكاديميين ومطوري البرمجيات المستقلين.

### فوائد فتح نماذج الذكاء الاصطناعي

في تقرير لمجلة “تايم”، تمت الإشارة إلى أن فتح نماذج الذكاء الاصطناعي على نطاق واسع يُعتبر مفيداً، إذ يتيح للجميع الوصول إلى هذه التكنولوجيا، مما يشجع على الابتكار والتنافس.

### أهمية المجتمعات المفتوحة

أوضحت إليزابيث سيغر، مديرة السياسات الرقمية في مؤسسة “ديموس”، أن المجتمعات المفتوحة تُساهم في تجميع جهود واسعة ومتنوعة جغرافياً، مما يُعزز تطوير الذكاء الاصطناعي. وأكدت أن التعاون بين الباحثين الأكاديميين والمطورين المستقلين ومختبرات الذكاء الاصطناعي غير الربحية يُعزز من كفاءة العمليات التقنية.

### الابتكار على مستوى أقل

أشارت سيغر إلى أن هذه الجهات لا تملك الموارد التي تمتلكها الشركات الكبرى، مما يجعل القدرة على تحقيق الكثير باستخدام القليل من الأمور الهامة. كمثال، في الهند، يعتمد الذكاء الاصطناعي المستخدم في تقديم الخدمات العامة على النماذج مفتوحة المصدر بشكل شبه كامل.

### الشفافية والمساءلة

النماذج المفتوحة توفر مستوىً أعلى من الشفافية. يقول ياسين جرنيت، رئيس قسم تعلم الآلة في شركة “هاغينغ فيس”، إن وجود نسخة مفتوحة من أي نموذج يصبح جزءًا من البنية التحتية للمجتمع يُساعد في تحديد مصدر المشكلات. وقدم مثالاً عن نموذج “ستيبل ديفيوجن 2” الذي أتاح للباحثين فحص بيانات التدريب الخاصة به.

### المخاطر المحتملة

لكن استخدام هذه النماذج المفتوحة يحمل مخاطر، حيث يمكن للشخصيات ذات النوايا السيئة استغلالها لأغراض ضارة، مثل إنتاج محتوى يتعلق بالاستغلال الجنسي للأطفال، أو استخدامها من قبل دول منافسة.

### قضايا الاستخدام العسكري

في نوفمبر/تشرين الثاني الماضي، أفادت وكالة رويترز بأن مؤسسات بحثية مرتبطة بالجيش الصيني استخدمت نموذجاً قديماً من “لاما” الخاص بشركة “ميتا” لتطوير أداة ذكاء اصطناعي للاستخدام العسكري، مما يبرز أنه بمجرد إطلاق النموذج، لا يمكن سحبه.

### النماذج المغلقة: أمان يفتقر إلى الشفافية

تقدم النماذج المغلقة مميزات ومن أبرزها الأمان، إذ السيطرة على الوصول إليها من قبل مطوريها. لكن، هذا يُحدث حالة من الغموض، حيث لا يمكن للأطراف الخارجية فحص بيانات التدريب لاكتشاف التحيزات أو المشكلات الأخرى. وقد تتجنب المؤسسات التي تعالج البيانات الحساسة استخدام النماذج المغلقة بسبب مخاوف الخصوصية.

### التحديات المتعلقة بالحوكمة

المجلة سلطت الضوء على أن النماذج المفتوحة تواجه تحديات حوكمة خاصة، خصوصاً فيما يتعلق بالمخاطر المرتبطة بأنظمة الذكاء الاصطناعي. ويدعو الخبراء لمزيد من التقييم والتعاون بين الشركات والمؤسسات الحكومية لضمان أمان هذه النماذج عند إصدارها.

رابط المصدر

## تحديات الذكاء الاصطناعي: فتح الأبواب للابتكار أو تعزيز المخاطر؟

### التأثيرات المحتملة للأنظمة المفتوحة والمغلقة

تشير التحليلات إلى أن الموديلات المفتوحة قد تتيح إمكانية تهديدات جديدة، مثل تمكين الإرهاب البيولوجي أو تعزيز الهجمات السيبرانية، نتيجة لافتقارها إلى السيطرة المركزية. وتتوقف ردود فعل صانعي السياسات على مدى اتساع أو تقلص الفجوة بين القدرات للنماذج المفتوحة والمغلقة.

تقول الباحثة سيغر: “إذا استمرت الفجوة في الاتساع، فلن نتحدث كثيرًا عن أمان الذكاء الاصطناعي المتقدم في الأنظمة المفتوحة، لأن أي أحداث ستحدث أولاً مع النماذج المغلقة، وهذه النماذج أسهل في التنظيم.”

من جهة أخرى، أضافت: “لكن إذا بدأ الفارق في التقلص، فإنه سيكون علينا النظر بعناية أكبر لطريقة تنظيم تطوير النماذج المفتوحة، وهو تحدٍ بحكم عدم وجود كيان مركزي ينظمها.”

### الانفتاح والخصوصية: موقف الشركات الكبرى

بالنسبة لشركات مثل “أوبن إيه آي” و”أنثروبيك”، يعتبر بيع الوصول إلى نماذجها ركيزة أساسية لنموذج أعمالها. بينما أكد مارك زوكربيرغ، الرئيس التنفيذي لشركة “ميتا”، في رسالة مفتوحة في يوليو/تموز الماضي، أن “بيع الوصول إلى نماذج الذكاء الاصطناعي ليس جزءًا من نموذج أعمالنا”. وتوقع أن تصبح نماذج “لاما” الأكثر تقدمًا في المجال، مشيرًا إلى تفوقها في الانفتاح وقابلية التعديل وكفاءة التكلفة.

### قياس القدرات: تعقيدات وحوكمة الذكاء الاصطناعي

إن قياس قدرات أنظمة الذكاء الاصطناعي أمر معقد، حيث يقول جرنيت: “القدرات ليست مصطلحًا محددًا مما يجعل المناقشة حولها صعبة بدون وجود مفردات مشتركة.” ويشير إلى أن النماذج المفتوحة يمكن تكييفها بشكل أفضل لتلبية متطلبات متنوعة وقد تتفوق على النماذج المغلقة في مهام محددة.

![هناك العديد من الأمور التي يمكن تحقيقها باستخدام النماذج المفتوحة، والتي لا يمكن تحقيقها باستخدام النماذج المغلقة (غيتي)](https://www.alarabiyanow.com/wp-content/uploads/2024/12/1734583114_644_الذكاء-الاصطناعي-التوازن-بين-الشفافية-والخصوصية-في-المستقبل.jpg)

### استشراف المستقبل: كيف سنواجه التعقيدات القادمة؟

يؤكد إيثان موليك، الأستاذ في كلية “وارتون” لإدارة الأعمال، أن حتى توقف التقدم في مجال الذكاء الاصطناعي، سيكون دمج هذه الأنظمة بشكل كامل في المجتمع عملية قد تستغرق سنوات. ومع إدخال مزايا جديدة، مثل تلك التي قامت بها مختبرات “أنثروبيك”، سيكون التعقيد في حوكمة هذه التكنولوجيا في تزايد مستمر.

في هذا السياق، يعتبر سيغر أن تحديد المخاطر بدقة أمر ضروري، حيث يقول: “نحتاج إلى وضع نماذج لتهديدات واضحة تعكس طبيعة الضرر وكيفية تأثير الانفتاح فيه، لنتمكن من تحديد النقطة الأمثل للتدخل.”

وفي النهاية، هناك تساؤلات ملحة يمكن اختصارها في مقولة الكاتبة والناشطة الأميركية هيلين كيلر: “الحياة إما مغامرة جريئة أو لا شيء، فالأمن غير موجود في الطبيعة.” هل يجب أن نوقف الابتكار خوفًا من المخاطر، أم أن الانفتاح هو السبيل لتحقيق إمكانياتنا الكاملة؟ وما هي المعايير التي يجب أن نحدد من خلالها التوازن بين التقدم والمخاطرة؟

المصدر : الجزيرة

رابط المصدر

أضف تعليق

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.