نموذج الذكاء الاصطناعي الخاص بجوجل يتعرض لتدقيق من مراقب الخصوصية في الاتحاد الأوروبي

Photo of author

By العربية الآن

لندن (AP) – أعلنت الجهات التنظيمية في الاتحاد الأوروبي يوم الخميس أنها تحقق في أحد نماذج الذكاء الاصطناعي الخاصة بشركة جوجل بسبب المخاوف المتعلقة بالامتثال للقوانين الصارمة لحماية البيانات في الاتحاد.

تحقيق حول نموذج جوجل للذكاء الاصطناعي

أفادت لجنة حماية البيانات في إيرلندا أنها بدأت تحقيقاً في نموذج جوجل المعروف باسم Pathways Language Model 2، أو PaLM2. ذلك يأتي في إطار جهود أوسع تشمل وكالات وطنية أخرى عبر الدول السبع والعشرين في الاتحاد، للتحقق من كيفية تعامل أنظمة الذكاء الاصطناعي مع البيانات الشخصية.

حماية البيانات في الاتحاد الأوروبي

يقع المقر الأوروبي لجوجل في دبلن، ولذلك تعد الوكالة الإيرلندية المنظم الرئيسي للشركة وفقاً لقوانين الخصوصية في الاتحاد الأوروبي، المعروفة باسم اللائحة العامة لحماية البيانات (GDPR).

تقييم المخاطر المحتملة

ذكرت اللجنة أنها تدرس ما إذا كانت جوجل قد قامت بتقييم ما إذا كان معالجة بيانات PaLM2 قد يشكل “خطراً عالياً على حقوق وحريات الأفراد” في الاتحاد الأوروبي.

استخدام نموذج PA LM2 في خدمات جوجل

تعتبر النماذج اللغوية الكبيرة مثل PaLM2 قواعد بيانات ضخمة تعمل كعناصر بناء لأنظمة الذكاء الاصطناعي. تستخدم جوجل PaLM2 لتشغيل مجموعة متنوعة من خدمات الذكاء الاصطناعي التوليدية مثل تلخيص الرسائل الإلكترونية. ولم ترد الشركة على طلب للتعليق.

إجراءات سابقة ضد شركات التكنولوجيا الكبرى

في وقت سابق من هذا الشهر، أعلنت الوكالة الإيرلندية أنها توصلت إلى اتفاق مع منصة التواصل الاجتماعي X التي يملكها إيلون ماسك، لوقف معالجة بيانات المستخدمين بشكل دائم لاستخدامها في دردشتها الذكية Grok. تم اتخاذ هذا القرار بعد أن تقدمت الوكالة إلى المحكمة في الشهر السابق بطلب عاجل لإجبار X على “إيقاف أو تقييد أو منع” معالجة البيانات الشخصية الموجودة في المشاركات العامة للمستخدمين.

تحولات في استراتيجية ميتا

أوقفت ميتا بلاتفورمز خططها لاستخدام المحتوى المنشور من قبل المستخدمين الأوروبيين لتدريب النسخة الأحدث من نموذجها اللغوي الكبير بسبب ضغوط من المنظمين الإيرلنديين. جاء هذا القرار بعد “مشاركة مكثفة” بين الطرفين، حسبما ذكرت الوكالة في يونيو.

في العام الماضي، فرض المنظمون الإيطاليون للحماية الخصوصية حظراً مؤقتاً على ChatGPT بسبب انتهاكات حماية البيانات وطلبوا من الشركة المصنعة OpenAI تلبية مجموعة من المطالب لحل مخاوفها.

رابط المصدر

أضف تعليق

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.