سام ألتمان: «لسنا شرطة الأخلاق العالمية» في مواجهة جدل تشات جي بي تي
أكد سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي (OpenAI)، في تصريحات بارزة تعود إلى أكتوبر 2023، أن شركته لا تعتبر نفسها «شرطة الأخلاق المنتخبة في العالم»، وذلك في خضم جدل واسع النطاق حول سياسات المحتوى وأنظمة الأمان الخاصة بروبوت الدردشة تشات جي بي تي (ChatGPT) ومنتجات الذكاء الاصطناعي الأخرى التي تطورها الشركة. جاءت هذه التصريحات كتعبير عن التحديات المعقدة التي تواجهها أوبن إيه آي في تحديد الخطوط الفاصلة بين حرية التعبير، ومنع المحتوى الضار، ومراعاة التنوع الأخلاقي والثقافي العالمي في أدوات الذكاء الاصطناعي.

الخلفية والجدل
منذ إطلاق تشات جي بي تي في أواخر عام 2022، أحدث ثورة في المشهد التقني، مقدماً قدرات غير مسبوقة في توليد النصوص، والإجابة على الأسئلة، وحتى كتابة الشفرات البرمجية. ومع هذا الانتشار الواسع، برزت تحديات كبيرة تتعلق بكيفية ضبط المحتوى الذي يمكن أن يولده النموذج. واجهت أوبن إيه آي انتقادات من جهات مختلفة؛ فبينما اتهمها البعض بفرض قيود صارمة للغاية أو «تحيز أخلاقي» (Moral Bias) على مخرجات النموذج، مما يؤدي إلى رفضه توليد محتوى معين أو إظهار ميل نحو وجهات نظر سياسية أو اجتماعية محددة، انتقدها آخرون لعدم كفاية الضوابط، مما قد يسمح بتوليد محتوى «غير أخلاقي» أو ضار.
تفاقم الجدل بشكل خاص مع التحديثات المتتالية لسياسات الاستخدام ونماذج الأمان. ففي سعيها لتحقيق توازن بين توفير أداة قوية ومفيدة للمستخدمين وضمان عدم استخدامها لأغراض ضارة، وجدت الشركة نفسها في مرمى النيران. أدى أي تخفيف للقيود، حتى لو كان بهدف زيادة مرونة النموذج، إلى مخاوف بشأن إمكانية توليد محتوى ينتهك المعايير الأخلاقية أو يعزز المعلومات المضللة أو الكراهية. وعلى النقيض، أدت القيود المشددة إلى اتهامات بالرقابة والحد من حرية التعبير.
رد أوبن إيه آي وموقف ألتمان
في هذا السياق المتوتر، جاءت تصريحات سام ألتمان لتسليط الضوء على الموقف المعقد الذي تجد أوبن إيه آي نفسها فيه. كان جوهر رسالته أن الشركة، ككيان تقني، لا يمكنها أن تفرض مجموعة واحدة من المعايير الأخلاقية على العالم بأسره. إن تعريف «الأخلاقي» أو «غير الأخلاقي» يختلف بشكل كبير بين الثقافات، المجتمعات، وحتى الأفراد. وبالتالي، فإن محاولة أوبن إيه آي أن تكون الحَكم الوحيد لهذه المعايير هو أمر مستحيل وغير مرغوب فيه.
أوضح ألتمان أن مهمة أوبن إيه آي هي بناء أدوات ذكاء اصطناعي قوية ومفيدة، مع السعي لضمان سلامتها قدر الإمكان وتجنب الأضرار الواضحة. ومع ذلك، فإن الشركة لا تهدف إلى أن تكون الحَكم المطلق على كل ما هو صواب أو خطأ في المحتوى الذي يتم إنشاؤه. أشار هذا التصريح إلى أن المسؤولية النهائية تقع أيضاً على عاتق المستخدمين والمجتمع الأوسع في تحديد كيفية استخدام هذه الأدوات ووضع الأطر التنظيمية المناسبة لها.
تتبنى أوبن إيه آي نهجاً تكرارياً (Iterative Approach) في تطوير سياسات الأمان، حيث يتم تحديث النماذج والضوابط باستمرار بناءً على ملاحظات المستخدمين، الأبحاث الداخلية، والجدل العام. هذا النهج يعترف بأن فهم تحديات الذكاء الاصطناعي وأخلاقياته هو عملية مستمرة وليست نقطة نهاية ثابتة.
التطورات اللاحقة وتحديات التحكم
منذ تصريحات ألتمان، استمرت أوبن إيه آي في جهودها لتحسين أنظمة الأمان والتحكم في المحتوى. يشمل ذلك:
- تحسينات في النماذج: تهدف الشركة إلى تدريب نماذجها لتكون أكثر «توافقاً» (Aligned) مع القيم الإنسانية، مع الاعتراف بأن تحقيق الحياد المطلق أمر بالغ الصعوبة.
- سياسات استخدام واضحة: نشرت أوبن إيه آي إرشادات أكثر تفصيلاً حول المحتوى المحظور، مثل خطاب الكراهية، العنف، التضليل، والمحتوى الجنسي الصريح، مع تحديثها بانتظام.
- آليات الإبلاغ: توفير طرق للمستخدمين للإبلاغ عن المحتوى الذي يعتبرونه ضاراً أو غير لائق، لتمكين الشركة من التعلم والتحسين المستمر.
ومع ذلك، لا تزال التحديات قائمة. فالمحاولات المستمرة لتجاوز قيود النماذج (Jailbreaking) من قبل بعض المستخدمين، بالإضافة إلى ظاهرة «الهلوسة» (Hallucination) حيث يولد النموذج معلومات غير دقيقة أو مختلقة، تظهر مدى صعوبة التحكم الكامل في مخرجات أنظمة الذكاء الاصطناعي المعقدة. كما أن الجدل حول مفهوم «الأخلاق» نفسه في سياق الذكاء الاصطناعي يتطلب نقاشاً مجتمعياً وفلسفياً أوسع نطاقاً، يتجاوز قدرة شركة تقنية واحدة على حله.
الأهمية والتداعيات
تكمن أهمية تصريحات سام ألتمان والجدل المحيط بسياسات محتوى تشات جي بي تي في أنها تسلط الضوء على قضية محورية في عصر الذكاء الاصطناعي: من يحدد الأخلاق في العالم الرقمي؟ هذه القضية لها تداعيات بعيدة المدى على:
- ثقة الجمهور: مدى ثقة المستخدمين في أدوات الذكاء الاصطناعي يعتمد بشكل كبير على كيفية إدارتها للمحتوى ومنع الضرر.
- التنظيم والتشريع: تزيد هذه النقاشات من الضغط على الحكومات والمنظمات الدولية لوضع أطر قانونية وتنظيمية للذكاء الاصطناعي، خاصة فيما يتعلق بالسلامة والأخلاقيات.
- مستقبل تطوير الذكاء الاصطناعي: تؤثر هذه التحديات على كيفية تصميم وتدريب النماذج المستقبلية، مع التركيز المتزايد على «الذكاء الاصطناعي المسؤول» (Responsible AI).
- النقاش المجتمعي: تحفز هذه القضية نقاشاً أوسع حول القيم التي يجب أن ندمجها في التكنولوجيا التي نبنيها، ودورنا كمستخدمين ومواطنين في تشكيل مستقبل الذكاء الاصطناعي.
في الختام، يوضح موقف أوبن إيه آي، المعبر عنه من خلال سام ألتمان، أن بناء الذكاء الاصطناعي ليس مجرد تحدٍ تقني، بل هو أيضاً تحدٍ أخلاقي واجتماعي عميق يتطلب تعاوناً بين المطورين، المستخدمين، صانعي السياسات، والمجتمع ككل لتحديد المسار الصحيح.


