في قصر الأمم المتحدة بجنيف، تصدر سؤال محوري قمة الذكاء الاصطناعي لأجل الخير 2025: هل يمكن للآلات أن تتعلم العدالة والرحمة والإنسانية؟ النقاشات لا تركز على القدرات الخارقة للذكاء الاصطناعي، بل على حدوده الأخلاقية ومسؤوليته تجاه الإنسان.
الأخلاقيات والمسؤولية
في عصر تتخذ فيه الخوارزميات قرارات مصيرية بشأن الوظائف والتوصيات الطبية، لم يعد السؤال “ماذا يستطيع الذكاء الاصطناعي أن يفعل؟” كافياً، بل “ما الذي ينبغي ألا يفعله؟” هو الأهم. مع الاعتماد المتزايد على الأنظمة الذكية، تظهر قضايا التحيز الخفي والشفافية والمساءلة والعدالة الرقمية.
من يدرب الخوارزميات؟ وما هي القيم التي تستند إليها؟ كيف نضمن ألا تتحول الآلات إلى أدوات للتمييز بدلًا من المساواة؟ هذه التساؤلات تتطلب إجابات واضحة ومسؤولة.
حوكمة الذكاء الاصطناعي
المملكة العربية السعودية تتبنى رؤية رائدة كأول دولة في الشرق الأوسط تضع إطارًا وطنيًا شاملاً لحوكمة الذكاء الاصطناعي، مستندة إلى الأخلاق والعدالة والشفافية. الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) تسعى لدمج الذكاء الاصطناعي في مشروع وطني يخدم الإنسان ويحفظ القيم.
المملكة لا تكتفي بتبني التقنية، بل تسعى لقيادتها بمنظور إنساني، طموحة لتكون مركزًا عالميًا متقدمًا في مجال الذكاء الاصطناعي المسؤول. هذا الطموح يعكس التزام المملكة بتحقيق التوازن بين التقدم التكنولوجي والقيم الإنسانية.
قمة جنيف وأخلاقيات الذكاء
قمة جنيف، بتنظيم من الاتحاد الدولي للاتصالات (ITU) بالشراكة مع برنامج الأمم المتحدة للذكاء الاصطناعي لأجل التنمية، تضع هذا الملف على رأس أولوياتها. شعار القمة “أخلاقيات الذكاء الاصطناعي” يمثل دعوة لوضع ميثاق عالمي يضمن استخدامًا عادلاً وآمنًا وشفافًا للتقنيات الذكية.
الهدف هو تعزيز العدالة الاجتماعية وحماية الحقوق الرقمية للبشر حول العالم. هذا الشعار يعكس الحاجة الملحة إلى توجيه التقنيات الذكية نحو تحقيق الخير العام.
التحيز في الخوارزميات
الخوارزميات، التي توصف بالذكاء، هي مرايا رقمية تعكس البيانات التي تدربت عليها. إذا كانت البيانات مشوهة أو منحازة، فإن الانحياز سينعكس في قرارات الآلة، مما يحول الخطأ إلى مشكلة أخلاقية وهيكلية.
تقرير من مجلة “Nature Machine Intelligence” في 2024 حذر من أن الأنظمة الذكية، بما في ذلك أدوات التوظيف الرقمية والتقييمات البنكية الآلية، قد تكرس أشكالاً غير مرئية من التمييز ضد النساء والأقليات بسبب “التحيز البنيوي في البيانات”.
المساءلة القانونية
في حالات الظلم الناتج عن الخوارزميات، يجب محاسبة المسؤولين عن تطويرها واستخدامها. الحوكمة الأخلاقية الصارمة تلزم المطورين والمؤسسات بالمسؤولية الكاملة عن نتائج أدواتهم، مع التركيز على جودة التصميم ودقة الأداء.
الحاجة إلى مساءلة قانونية تضمن عدم إفلات أي شخص من العقاب عند تسبب الخوارزميات في ضرر للأفراد أو المجتمع.
الريادة السعودية في الأخلاقيات
المملكة العربية السعودية تبرز كصوت ريادي في المنطقة في مجال أخلاقيات الذكاء الاصطناعي، حيث وضعت سياسة وطنية شاملة لحوكمة الذكاء الاصطناعي. الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) أطلقت هذه السياسة في 2022، واضعة الأسس الأخلاقية لاستخدام التقنيات الذكية لخدمة الإنسان أولاً.
السياسة تركز على الشفافية والعدالة واحترام حقوق الإنسان، ومساءلة المطورين والمستخدمين، وحماية البيانات الشخصية، وتعزيز الثقة المجتمعية في التقنيات الذكية. هذه المبادرة حظيت باهتمام دولي متزايد بعد استضافة الرياض القمة العالمية للذكاء الاصطناعي في 2022 و2023.
معايير الحوكمة
ما تقدمه المملكة هو نموذج محلي للحوكمة ومرجعية عربية طموحة تعيد تعريف العلاقة بين التكنولوجيا والإنسان بمنظور أخلاقي وإنساني متجذر في الثقافة الإسلامية وقيم العدالة العالمية.
هذه المعايير تهدف إلى ضمان أن تكون التكنولوجيا أداة لخدمة الإنسانية وتعزيز القيم الإيجابية في المجتمع.
توجيهات قمة جنيف
في كلمته الافتتاحية لقمة جنيف 2025، دعا الأمين العام للاتحاد الدولي للاتصالات، دورين بوغدان-مارتن، إلى وضع إطار قانوني عالمي لاستخدام الذكاء الاصطناعي يحترم الكرامة الإنسانية، محذرًا من “فجوة أخلاقية” تسبق الفجوة الرقمية بين الدول.
السعودية تشارك في صياغة هذا الإطار عبر عضويتها في المجلس الاستشاري الدولي لأخلاقيات الذكاء الاصطناعي، الذي يضم خبراء من أكثر من 30 دولة.
نحو دستور رقمي
الدكتورة بيغي هيكس، مديرة شؤون الانخراط في مكتب مفوضية الأمم المتحدة السامية لحقوق الإنسان، أكدت في كلمتها الافتتاحية بقمة جنيف أن “الذكاء الاصطناعي ليس محايدًا بطبيعته، بل يعكس خياراتنا نحن البشر”.
دعت إلى وضع “دستور أخلاقي رقمي” عالمي ينظم استخدام الذكاء الاصطناعي، ويحمي الكرامة الإنسانية، ويراعي الفروقات الثقافية بين الشعوب. هذه الدعوة لاقت تفاعلاً واسعاً من ممثلي أكثر من 100 دولة ومنظمات دولية.
حماية الخصوصية
في عصر تتحول فيه البيانات الشخصية إلى سلعة رقمية، يزداد القلق بشأن انتهاك الخصوصية، خاصة مع استخدام تقنيات الذكاء الاصطناعي في المراقبة الواسعة.
الدول تتخذ خطوات لوضع أطر قانونية لحماية مواطنيها، والمملكة العربية السعودية مثال على ذلك، حيث أقرت اللائحة العامة لحماية البيانات الشخصية، الصادرة عن الهيئة الوطنية للأمن السيبراني.
الذكاء الأخلاقي الآلي
العلماء يسعون لتطوير “الذكاء الأخلاقي الآلي” لتعليم الآلة التمييز بين الصواب والخطأ. أبحاث متقدمة في معاهد مثل MIT وستانفورد وجامعة الملك عبد الله للعلوم والتقنية (كاوست) تهدف لدمج مفاهيم الفلسفة الأخلاقية والمنطق الرياضي في الخوارزميات.
الهدف هو جعل قرارات الذكاء الاصطناعي أكثر عدلاً وإنصافاً، خاصة في مجالات مثل الرعاية الصحية والعدالة الجنائية والتوظيف.