نموذج OpenAI مفتوح المصدر: التهرب من القضية الأخلاقية الحقيقية؟
أصدرت OpenAI مؤخرًا نموذجًا لغويًا كبيرًا مفتوح المصدر، لكن مخاوفها المعلنة بشأن "السلامة" أثارت بعض التساؤلات. تجادل المقالة بأن OpenAI تحوّل ببراعة مخاوف الجمهور بشأن أخلاقيات الذكاء الاصطناعي إلى الأخلاقيات الجوهرية للنموذج: منعها من الشتم أو اتخاذ قرارات ضارة. ومع ذلك، فإن الجمهور أكثر قلقًا بشأن الآثار المترتبة على العالم الحقيقي: الحوكمة، والمساءلة، واستخدام البيانات، وفقدان الوظائف، إلخ. هذا يعكس استراتيجيات التكنولوجيا السابقة المتعلقة بالخصوصية، حيث يركز على المشكلات التي يسهل حلها بينما يتجنب التحديات الاجتماعية الأكثر صعوبة. بدلاً من القلق بشأن ما إذا كان الذكاء الاصطناعي يتبع المبادئ التوجيهية الأخلاقية، يجب أن نركز على الشركات والقيادات التي تستخدم هذا الذكاء الاصطناعي. السؤال الحقيقي لأخلاقيات الذكاء الاصطناعي هو كيفية ضمان عدم إساءة استخدام هذه الشركات لمواردها وقوتها لإلحاق الضرر بالبشرية.