لينكد إن" تستفيد من بيانات المستخدمين الأوروبيين لتدريب نماذج الذكاء الاصطناعي التوليدي
أعلنت منصة «لينكد إن»، الشبكة الاجتماعية المهنية الأكبر عالمياً، عن بدء استخدامها للبيانات العامة لمستخدميها في دول الاتحاد الأوروبي ومناطق أخرى حول العالم. يهدف هذا الإجراء، الذي يدخل حيز التنفيذ بشكل تدريجي بدءاً من مطلع نوفمبر الجاري، إلى تدريب نماذجها الخاصة من الذكاء الاصطناعي التوليدي. وتأتي هذه الخطوة في سياق سعي الشركة لتحسين خدماتها وتطوير أدوات مبتكرة تعتمد على هذه التقنيات المتقدمة، مع التأكيد على أهمية البيانات كمحرك أساسي للابتكار في مجال الذكاء الاصطناعي.
خلفية وتطورات رئيسية
تُعدّ البيانات الضخمة وقوداً أساسياً لتطوير نماذج الذكاء الاصطناعي، وخاصةً التوليدية منها، التي تتميز بقدرتها على إنشاء محتوى جديد بناءً على البيانات التي تدربت عليها. وقد أوضحت «لينكد إن»، المملوكة لشركة مايكروسوفت منذ عام 2016 والتي تضم أكثر من مليار مستخدم، أنها ستوظف أنواعاً محددة من بيانات المستخدمين العلنية لتدريب نماذجها. تشمل هذه البيانات معلومات الملفات الشخصية، والمنشورات، والمقالات، والردود، والسير الذاتية التي تُقدم ضمن طلبات التوظيف. وتهدف الشركة من وراء ذلك إلى تغذية برامج الذكاء الاصطناعي التوليدي الخاصة بها، مستفيدةً من خدمات أزور أوبن إيه آي التابعة لـ«مايكروسوفت».
من المهم الإشارة إلى أن هذه السياسة قد بدأت أولاً في الولايات المتحدة، وقد بدأت مؤخراً بالتوسع لتشمل مناطق جغرافية إضافية مثل المملكة المتحدة، وسويسرا، وكندا، وهونغ كونغ، بالإضافة إلى دول الاتحاد الأوروبي. وقد حرصت «لينكد إن» على التأكيد بأن الإجراء لا يشمل الرسائل الخاصة أو البيانات المتعلقة بالرواتب، وأنها لن تستخدم هذه المعلومات في تدريب نماذجها، مما يوضح حدود استخدام البيانات.
آليات الخصوصية والتحكم
إدراكاً لأهمية خصوصية البيانات وحماية حقوق المستخدمين، منحت «لينكد إن» مستخدميها خيار تعطيل هذه الميزة. يمكن لأصحاب الحسابات الراغبين في عدم استخدام بياناتهم لأغراض تدريب الذكاء الاصطناعي التوليدي، تعديل الإعدادات المتعلقة بخصوصية البيانات في حساباتهم. علاوة على ذلك، أكدت الشركة أن القاصرين مستثنون تماماً من هذا الإجراء، ولن تُستخدم بياناتهم حتى في حال عدم تعطيلهم للخاصية، مما يعكس التزاماً بحماية هذه الفئة الحساسة.
تندرج هذه الخطوة ضمن توجه أوسع لشركات التكنولوجيا الكبرى؛ فقد سبق أن بدأت مجموعة «ميتا» الأمريكية العملاقة، منذ أواخر مايو الماضي، باستخدام المحتوى العام لمستخدميها في تطوير نماذج الذكاء الاصطناعي التوليدي الخاصة بها، مع إتاحة خيار الاعتراض للمستخدمين كذلك. يعكس هذا التوجه رغبة الشركات في تسريع تطوير قدرات الذكاء الاصطناعي لديها، في ظل المنافسة الشديدة في هذا المجال المتنامي.
الأهمية والتأثير
تُسلط هذه التطورات الضوء على التوازن الحساس بين الابتكار التقني وحماية خصوصية المستخدمين. ففي حين أن استخدام البيانات قد يساهم في تحسين الخدمات وإطلاق ميزات جديدة قائمة على الذكاء الاصطناعي، فإنه يثير أيضاً تساؤلات حول مدى سيطرة المستخدمين على معلوماتهم الشخصية، خاصةً في مناطق مثل الاتحاد الأوروبي التي تتمتع بلوائح صارمة مثل اللائحة العامة لحماية البيانات (GDPR). تؤكد هذه الخطوة على الحاجة المستمرة للمستخدمين ليكونوا على دراية بسياسات استخدام البيانات ومراجعة إعدادات الخصوصية الخاصة بهم بانتظام. كما تعزز النقاش الدائر حول الأطر التنظيمية للذكاء الاصطناعي واستخدام البيانات في عصر التكنولوجيا المتقدمة، وتشير إلى مستقبل تتشابك فيه التقنيات المتقدمة مع قضايا حماية البيانات بشكل متزايد.




