استغلال بيانات مستخدمي لينكد إن لتدريب الذكاء الاصطناعي دون إذن

Photo of author

By العربية الآن


دون إذن مُسبق.. “لينكد إن” تستغل بيانات مستخدميها لتدريب الذكاء الاصطناعي

“لينكد إن” تعزز خياراتها الأمنية بدعم عملية التحقق بخطوتين
“لينكد إن” تعزز خياراتها الأمنية بدعم عملية التحقق بخطوتين (غيتي)

تُعتبر منصة “لينكد إن” المملوكة لشركة “مايكروسوفت” واحدة من أبرز الشبكات الاجتماعية المهنية، حيث تضم أكثر من مليار مستخدم من أكثر من 200 بلد وإقليم حول العالم. يستخدمها الاّلاف للتعريف بأنفسهم مهنياً ولتسليط الضوء على خبراتهم في مجالاتهم.

تعتبر “لينكد إن” أداة مهمة لبناء العلاقات المهنية ويعتمد المستخدمون عليها في البحث عن وظائف مناسبة والتفاعل مع زملائهم، بالإضافة إلى الاستفادة من مجموعات مختصة تقدم محتويات تعزز مهاراتهم العملية.

الأمر الذي يثير الدهشة هو أن المنصة ليست مستفيدة فقط من مستخدميها بل تسعى أيضاً للاستفادة منهم، حيث أضافت “لينكد إن” في سبتمبر إعداداً جديداً لخصوصية البيانات تحت تسمية “بيانات تعزيز الذكاء الاصطناعي التوليدي”، مما يعني أنها ستستخدم بيانات المستخدمين افتراضياً لتدريب نماذج الذكاء الاصطناعي.

هل تم تحديث شروط الخدمة بشأن تدريب الذكاء الاصطناعي التوليدي؟

بحسب تقرير من موقع “تيك كرانش”، يتمتع مستخدمو “لينكد إن” في الولايات المتحدة بخيار إلغاء الاشتراك في إعدادات الخصوصية المختلفة، فيما تستثنى دول الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية وسويسرا. حيث يُشار بأن “لينكد إن” تجمع البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي، ويعود ذلك لقوانين الخصوصية الصارمة في هذه المناطق.

إعلان

بينما لم يكن خيار إلغاء الاشتراك جديداً، إلا أن تقريراً من “ميديا 404” ذكر أن بعض مستخدمي “لينكد إن” فوجئوا بوجود إعداد جديد يظهر استخدام المنصة لبياناتهم في تدريب نماذج الذكاء الاصطناعي التوليدي دون الحصول على Consent. وأوضح التقرير أنه لم يتم تحديث سياسة الخصوصية لتعكس هذا الاستخدام قبل بدء عملية التدريب.

تم تحديث شروط الخدمة ولكن عادة ما تتضمن هذه التحديثات إشعارات مسبقة قبل تغيير كبير مثل استخدام بيانات المستخدمين لأغراض جديدة كدعم الذكاء الاصطناعي، مما يمنح المستخدمين الفرصة لتعديل حساباتهم أو الخروج من المنصة، وهو ما لم يتم تنفيذه في هذه الحالة.

"لينكد إن" ستحتفظ بعلامتها المميزة واستقلالها
“لينكد إن” ستحتفظ بعلامتها المميزة واستقلالها (الجزيرة)

ما النماذج التي تقوم “لينكد إن” بتدريبها؟

تقوم “لينكد إن” بتدريب نماذج تشمل اقتراحات الكتابة وتوصيات المنشورات، وقد أشارت أيضاً إلى أن نماذج الذكاء الاصطناعي على منصتها قد يتم تدريبها بواسطة مزودين آخرين مثل “مايكروسوفت”.

وذكرت “لينكد إن”: “كما هو الحال مع معظم الميزات، يتم جمع واستخدام البيانات عند تفاعلك مع منصتنا، بما في ذلك البيانات الشخصية”.

وأضافت: “قد تشمل هذه البيانات سلوكك مع الذكاء الاصطناعي التوليدي الذي يُستخدم لإنشاء المحتوى، بالإضافة إلى تقارير أخرى عن منشوراتك ومدى استخدامك للمنصة وتفضيلاتك اللغوية، وكذلك أي ملاحظات قدمتها لنا. نستخدم هذه البيانات وفقًا لسياسة الخصوصية لتحسين خدمات لينكد إن”.

وقال غريغ سنابر، المدير التنفيذي للتواصل المؤسسي في “لينكد إن”، إن المنصة تعتمد على بيانات الأفراد لتدريب الذكاء الاصطناعي.

### لينكد إن تتبنى الذكاء الاصطناعي في تحديثاتها الجديدة

تسعى منصة “لينكد إن” إلى مساعدة الناس في جميع أنحاء العالم على إيجاد فرص اقتصادية جديدة، من خلال تطوير أدوات خاصة بالذكاء الاصطناعي. وقد أعرب ممثل الشركة عن اعتقاده أنه إذا تم تحقيق ذلك، ستتمكن المنصة من مساعدة عدد كبير من الأشخاص بشكل فعّال.

### تحديثات جديدة في سياسة الخصوصية

في 18 سبتمبر/أيلول الماضي، نشرت “لينكد إن” مدونة على موقعها الرسمي توضح تفاصيل التحديثات القادمة في اتفاقية المستخدم. حيث سيتضمن التحديث الجديد أحكاما تتعلق بالميزات الخاصة بالذكاء الاصطناعي التوليدي التي توفرها. ومن المقرر أن تدخل هذه التحديثات حيز التنفيذ في نوفمبر/تشرين الثاني من هذا العام.

وأوضح بلاك لاويت، نائب الرئيس والمستشار العام في “لينكد إن”، أن سياسة الخصوصية قد شهدت إضافات جديدة لتحديد كيفية استخدام المعلومات التي يشاركها المستخدمون لتطوير المنتجات والخدمات، بما في ذلك تدريب نماذج الذكاء الاصطناعي.

### انتقادات واسعة للتحديثات

تتعرض “لينكد إن” لانتقادات بسبب التحديثات الجديدة، حيث أشار الكثيرون إلى عدم وضوح الشركة في كيفية جمع واستخدام البيانات. وقد دعت منظمة “مجموعة الحقوق المفتوحة”، غير الربحية، إلى تحقيق من قبل مكتب مفوض المعلومات في المملكة المتحدة.

وجاء في بيان ماريانو ديلي سانتي، المسؤول القانوني في المنظمة، أن “لينكد إن” تعد من الشبكات الاجتماعية التي تعالج بيانات المستخدمين دون الحصول على موافقتهم. وبيّن أن نموذج الانسحاب غير كافٍ لضمان حقوق المستخدمين، مشيرًا إلى أن الحصول على موافقة مسبقة يعد ضروريًا.

### مشكلات في الشفافية وتبعات الاستخدام

ذكرت صحيفة “واشنطن بوست” في تقريرها أن “لينكد إن” تمنح نفسها إذنًا لاستخدام المعلومات التي يشاركها المستخدمون بشكل افتراضي. ما لم يتخذ المستخدم خطوة لإيقاف هذا الإعداد، فإن جميع بياناته ستعتبر متاحة لاستخدامها في تدريب نماذج الذكاء الاصطناعي، مما شكل مفاجأة للكثيرين.

كما أوضح التقرير أن “لينكد إن” تسعى لتعزيز فرص العمل للمستخدمين، ولكن من الصعب القبول بأنها تقدر مساهماتهم في تحسين ذكائها الاصطناعي بشكل عادل، خاصة وأن المستخدمين قد لا يكونوا على علم باستخدام معلوماتهم.

### خيارات الاستخدام والأخلاقيات

تتباين آراء المستخدمين حول طريقة تعامل “لينكد إن” مع البيانات. وفي هذا الإطار، أشار المحامي ماريو تروخيو من مؤسسة الحدود الإلكترونية إلى أن الخيارات المعقدة لا تتيح حماية فعّالة للخصوصية. وطالب بتقديم خيار واضح للمستخدمين يتيح لهم الموافقة بشكل مباشر.

وليس “لينكد إن” وحدها من تستخدم البيانات الشخصية لهذا الغرض، حيث تستخدم “شات جي بي تي” من “أوبن إيه آي” و”جيميناي” من غوغل أيضًا بيانات المستخدمين لتحسين نماذج الذكاء الاصطناعي، مما يستوجب على المستخدمين اختيار سياسة الانسحاب بدلاً من الاعتماد على الاشتراك تلقائيًا.

### تاريخ “لينكد إن” في الاستخدامات المثيرة للجدل

رغم عدم وضوح “لينكد إن” في سياساتها الجديدة، فإنها ليست المنصة الوحيدة التي تتعرض لهذا النوع من الانتقادات. خلال جلسة استماع في البرلمان الأسترالي، أكدت موظفة في “ميتا” جمع البيانات العامة لتدريب نماذج الذكاء الاصطناعي، مشيرة إلى عدم وضوح طريقة الإبلاغ عن تلك السياسات.

كما أبدت الصحيفة استغرابها عن سبب عدم إطلاق “لينكد إن” خيارات مماثلة بمعلومات مستندة لأسس عقلانية، حيث لم تُبدِ الإدارة رغبة في التعليق على ذلك.

LinkedIn - - ANKARA, TURKEY - MARCH 3: In this photo illustration a mobile phone screen displays LinkedIn logo in Ankara, Turkey on March 3, 2020.
“لينكد إن” أخفقت في الوفاء بالمعايير المطلوبة عند الحصول على موافقات صحيحة من المستخدمين (مواقع التواصل)
1734756038 878 استغلال بيانات مستخدمي لينكد إن لتدريب الذكاء الاصطناعي دون إذن استغلال بيانات مستخدمي لينكد إن استغلال بيانات مستخدمي لينكد إنشكاوى على “لينكد إن” بشأن انتهاك بيانات المستخدمين

تستمر منصة “لينكد إن” في إثارة التساؤلات حول طريقة إدارتها لبيانات مستخدميها، حيث تم تقديم شكاوى ضدها بتهمة انتهاك قانون حماية البيانات العامة.

في عام 2018، قدمت منظمة الحقوق الرقمية الفرنسية “لاكوادراتور دو نت” شكوى ضد “لينكد إن” بسبب خرقها لقانون حماية البيانات، وقد أحالت هيئة حماية البيانات الفرنسية القضية إلى أيرلندا، حيث يقع المقر الرئيسي للمنصة في أوروبا.

على الرغم من مرور 6 سنوات، لم تغلق هذه القضية، إذ فرضت لجنة حماية البيانات في أيرلندا في 24 أكتوبر/تشرين الأول غرامة مالية قدرها 310 ملايين يورو على “لينكد إن” لعدم إبلاغ المستخدمين عن كيفية استخدام بياناتهم في التحليل السلوكي والإعلانات المستهدفة، مما يعتبر انتهاكاً لقانون الاتحاد الأوروبي العام لحماية البيانات.

أكدت مفوضية حماية البيانات أن “لينكد إن” أخفقت في الحصول على الموافقات الصحيحة من المستخدمين، وأن مصالح عملاق وسائل التواصل الاجتماعي كانت أقل أهمية من حقوق الأفراد المعنيين ببياناتهم.

إضافة إلى الغرامة الكبيرة، التي تمثل واحدة من أكبر الغرامات تاريخياً بموجب قانون حماية البيانات، تلقت “لينكد إن” توبيخاً رسمياً، ويجب عليها الالتزام بالقوانين المنصوص عليها، وفقاً لموقع “أورو نيوز” الأوروبي.

من جانبها، أفادت “لينكد إن” بأنها ملتزمة بقوانين حماية البيانات، وأنها تعمل لضمان توافق ممارساتها الإعلانية مع قرار لجنة حماية البيانات الأيرلندية قبل الموعد النهائي المحدد.

كيفية إلغاء استخدام بياناتك في تدريب الذكاء الاصطناعي على “لينكد إن”

إذا كنت ترغب في منع “لينكد إن” من استخدام بياناتك لتدريب الذكاء الاصطناعي الخاص بها، يمكنك اتباع الخطوات التالية:

  • تسجيل الدخول إلى حساب “لينكد إن” الخاص بك.
  • انقر على صورة ملفك الشخصي في الشريط العلوي، ثم اختر “الإعدادات والخصوصية” من القائمة المنسدلة.
  • اختر “خصوصية البيانات” من القائمة الجانبية.
  • حدد خيار “البيانات لتحسين الذكاء الاصطناعي التوليدي” في أسفل قسم “كيف تستخدم لينكد إن بياناتك”.
  • قم بإيقاف تشغيل خيار “استخدم بياناتي لتدريب نماذج إنشاء المحتوى بالذكاء الاصطناعي”.

يجب على المستخدمين البحث عن توازن يحترم استخدام التقدم التكنولوجي، ويضمن حماية بياناتهم الشخصية، خاصة مع تقدم تكنولوجيا الذكاء الاصطناعي. كما من حقهم أن يبقوا على اطلاع بحقوقهم وحرية الاختيار، ويتعين على المنصات الرقمية أن تعطي الأولوية للشفافية واحترام خصوصية المستخدمين.

رابط المصدر

أضف تعليق

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.