أوروبا نظرًا للعديد من التعقيدات، بما في ذلك طلب هيئة حماية الخصوصية الأيرلندية. وفي هذا الإطار، تعرضت الشركة لانتقادات من “المركز الأوروبي للحقوق الرقمية” الذي دعا إلى وقف استخدام بيانات وسائل التواصل الاجتماعي لهذا الغرض، معتبرًا أن إشعارات “ميتا” غير كافية للامتثال للمعايير الأوروبية الخاصة بالخصوصية.
## تاريخ الشركة مع مشكلات حماية البيانات
من جهة أخرى، صرح فادي رمزي، مستشار الإعلام الرقمي، بأن تاريخ “ميتا” مليء بالمشكلات المتعلقة بحماية البيانات، حيث استخدمت البيانات العامة للمستخدمين دون تعزيز الشفافية. وأوضح أن الشركة لم تتخذ خطوات واضحة لإبلاغ المستخدمين بكيفية استخدام بياناتهم، مشيرًا إلى فضائح تسريب البيانات السابقة، مثل قضية “كامبريدج أناليتيكا” التي أثرت سلبًا على سمعة الشركة.
في المجمل، يبقى موضوع حماية الخصوصية هو التحدي الأكبر، حيث أسفر الوضع الحالي عن تضارب بين الرغبة في تحسين حقوق الخصوصية ومصالح شركات التكنولوجيا، مما يجعل تحقيق هذا الهدف أمرًا بالغ التعقيد في المستقبل.
## ميتا تبدأ بتدريب نماذج الذكاء الاصطناعي باستخدام منشورات المستخدمين
قامت شركة “ميتا” بالإعلان عن بدء استخدامها للمحتوى العام الذي ينشره المستخدمون عبر منصتي “فيسبوك” و”إنستغرام” في تدريب نماذج الذكاء الاصطناعي. هذا القرار أثار قلقًا كبيرًا حول موضوع الخصوصية، خاصة بعد الاعتراضات السابقة التي واجهتها الشركة حول مشروعها الذي أدى لتوقفه في يونيو الماضي.
## تفاصيل استخدام المحتوى العام
في تصريح لها في سبتمبر، أكدت “ميتا” أنها ستعتمد فقط على المحتويات العامة مثل الصور والتعليقات لدعم نماذج الذكاء الاصطناعي. وأوضحت أن الرسائل الخاصة أو البيانات المصنفة كمعلومات خاصة لن تُستخدم، كما لن يتم مشاركة معلومات أي مستخدمين تقل أعمارهم عن 18 عامًا.
## أهمية الخصوصية ووجهات نظر الخبراء
وفي هذا السياق، ذكر حاتم الشولي، المشرف على تحرير الإعلام الرقمي في قناة “الشرق للأخبار”، أن هذه الخطوة هي جزء من جهود “ميتا” لتحسين تقنياتها في الذكاء الاصطناعي، واعتبرها استراتيجية تهدف لتعزيز مكانتها في سوق التكنولوجيا. وأشار إلى أن موضوع حماية البيانات يعتبر جدليًا، حيث يجب النظر في البيانات التي يوافق المستخدمون على مشاركتها، مثل العمر والموقع.
## الحاجة لتنظيم عمل الذكاء الاصطناعي
سلط الشولي الضوء على ضرورة وجود معايير قانونية للتحكم في أخلاقيات استخدام الذكاء الاصطناعي، مشيرًا إلى أن العديد من الدول بدأت بإصدار تشريعات تحمي خصوصية المستخدمين. وأكد على أهمية وضع قواعد واضحة فيما يخص استخدام البيانات لتدريب نماذج الذكاء الاصطناعي، لضمان الشفافية وتفادي أي تضليل.
## تساؤلات حول الأمان والخصوصية
تأتي هذه الخطوة بعد أن أعلنت “ميتا” تأجيل الإطلاق الخاص بنماذج الذكاء الاصطناعي في