إنها حقيقة: أدمجت الشركات في البرازيل الذكاء الاصطناعي في استراتيجيات أعمالها - 98% منها على الأقل، وفقًا لبحث أُجري نهاية عام 2024. لكن المشكلة تكمن في أن 25% فقط من المؤسسات أعلنت استعدادها لتطبيق الذكاء الاصطناعي. أما البقية فتعاني من محدودية البنية التحتية، وصعوبة إدارة البيانات، ونقص الكفاءات المتخصصة. لكن هذا لا يعني أن الـ 75% المتبقية تنتظر الظروف المثالية لتطوير مشاريعها: بل على العكس، تواصل هذه الشركات تطبيق هذه التقنية.
تكمن المشكلة في أن شركة واحدة فقط من كل خمس شركات قادرة على دمج الذكاء الاصطناعي في أعمالها، وذلك وفقًا لتقرير عالمي صدر مؤخرًا عن شركة Qlik بالتعاون مع ESG. علاوة على ذلك، أفادت 47% فقط من الشركات بتطبيق سياسات حوكمة البيانات. هذه الأرقام عالمية، ولن يكون من المستغرب أن تكون الإحصاءات البرازيلية أعلى من ذلك. ورغم أن الذكاء الاصطناعي يُطبق حاليًا بشكل منعزل، وأن "نقطة دخول" هذه التكنولوجيا عادةً ما تكون خدمة العملاء، إلا أن المخاطر المالية والتنظيمية والمتعلقة بالسمعة لا تزال قائمة.
تواجه الشركات التي تختار تطبيق الذكاء الاصطناعي دون إعداد مناسب العديد من العقبات. وقد أظهرت دراسات الحالة أن سوء إدارة الخوارزميات قد يُرسّخ التحيزات أو يُعرّض الخصوصية للخطر، مما يُلحق أضرارًا بالسمعة والأضرار المالية. حوكمة الذكاء الاصطناعي ليست مجرد مسألة تقنية، بل هي أيضًا مسألة تنفيذ واجتهاد: فبدون استراتيجية واضحة المعالم، تتزايد المخاطر بالتوازي مع الفرص المتاحة - من انتهاكات الخصوصية وإساءة استخدام البيانات إلى القرارات الآلية المُبهمة أو المُتحيزة التي تُولّد انعدام الثقة.
الضغط التنظيمي والامتثال: أسس حوكمة الذكاء الاصطناعي
ولم تنشأ الحاجة إلى إرساء حوكمة الذكاء الاصطناعي من الناحية التجارية فحسب: فقد ظهرت لوائح جديدة، وكان التقدم سريعًا، بما في ذلك في البرازيل.
في ديسمبر 2024، وافق مجلس الشيوخ الفيدرالي على مشروع القانون رقم 2338/2023 ، الذي يقترح إطارًا تنظيميًا للذكاء الاصطناعي يتضمن إرشادات للاستخدام المسؤول. يعتمد مشروع القانون نهجًا قائمًا على المخاطر ، على غرار نهج الاتحاد الأوروبي، حيث يُصنف أنظمة الذكاء الاصطناعي وفقًا لاحتمالية انتهاكها للحقوق الأساسية. سيتم حظر التطبيقات التي تُشكل مخاطر مفرطة، مثل خوارزميات الأسلحة ذاتية التشغيل أو أدوات المراقبة الجماعية، بينما أنظمة الذكاء الاصطناعي التوليدية والأنظمة متعددة الأغراض الخضوع لتقييمات مخاطر مسبقة قبل طرحها في السوق.
هناك أيضًا متطلبات للشفافية، منها على سبيل المثال إلزام المطورين بالإفصاح عما إذا كانوا قد استخدموا محتوى محميًا بحقوق الطبع والنشر عند تدريب النماذج. في الوقت نفسه، تدور نقاشات حول إسناد دور محوري للهيئة الوطنية لحماية البيانات (ANPD) في تنسيق حوكمة الذكاء الاصطناعي في الدولة، مستفيدةً من إطار حماية البيانات الحالي. تشير هذه المبادرات التشريعية إلى أن الشركات ستُلزم قريبًا بالتزامات واضحة فيما يتعلق بتطوير الذكاء الاصطناعي واستخدامه، بدءًا من ممارسات الإبلاغ وتخفيف المخاطر ووصولًا إلى مراعاة التأثيرات الخوارزمية.
في الولايات المتحدة وأوروبا، شددت الجهات التنظيمية الرقابة على الخوارزميات، لا سيما بعد شيوع استخدام أدوات الذكاء الاصطناعي التوليدية، مما أثار جدلاً عاماً. دخل قانون الذكاء الاصطناعي (AI ACT) حيز التنفيذ في الاتحاد الأوروبي، ومن المقرر أن ينتهي تطبيقه في 2 أغسطس/آب 2026، عندما تصبح معظم التزامات المعيار سارية، بما في ذلك متطلبات أنظمة الذكاء الاصطناعي عالية المخاطر ونماذج الذكاء الاصطناعي للأغراض العامة.
الشفافية والأخلاق والمساءلة الخوارزمية
إلى جانب الجانب القانوني، تشمل حوكمة الذكاء الاصطناعي مبادئ أخلاقية ومسؤولية تتجاوز مجرد "الامتثال للقانون". تُدرك الشركات أن الشفافية في كيفية استخدام الذكاء الاصطناعي ضرورية لكسب ثقة العملاء والمستثمرين والمجتمع ككل. وهذا يستلزم اعتماد سلسلة من الممارسات الداخلية، مثل التقييم المسبق لتأثير الخوارزميات، والإدارة الدقيقة لجودة البيانات، والتدقيق المستقل للنماذج.
ومن الأهمية بمكان أيضًا تنفيذ سياسات حوكمة البيانات التي تقوم بتصفية بيانات التدريب واختيارها بعناية، وتجنب التحيزات التمييزية التي قد تكون مضمنة في المعلومات التي تم جمعها.
بمجرد تشغيل نموذج الذكاء الاصطناعي، يتعين على الشركة إجراء اختبارات دورية، وعمليات تحقق، وتدقيق لخوارزمياتها، وتوثيق القرارات والمعايير المستخدمة. لهذا السجل فائدتان: فهو يُساعد في شرح آلية عمل النظام، ويُمكّن من المساءلة في حال حدوث عطل أو نتيجة غير سليمة.
الحوكمة: الابتكار ذو القيمة التنافسية
من المفاهيم الخاطئة الشائعة أن حوكمة الذكاء الاصطناعي تحد من الابتكار. على العكس من ذلك، تُمكّن استراتيجية الحوكمة الرشيدة من الابتكار الآمن، وتُطلق العنان لكامل إمكانات الذكاء الاصطناعي بمسؤولية. تستطيع الشركات التي تُهيكل أطر حوكمتها مبكرًا التخفيف من حدة المخاطر قبل أن تتحول إلى مشاكل، متجنبةً إعادة العمل أو الفضائح التي قد تُؤخر المشاريع.
ونتيجةً لذلك، تجني هذه المؤسسات قيمةً أكبر وأسرع من مبادراتها. وتعزز أدلة السوق هذا الارتباط: فقد وجد استطلاع عالمي أن الشركات التي تُشرف قياداتها بنشاط على حوكمة الذكاء الاصطناعي تُحقق تأثيرات مالية أكبر من استخدام الذكاء الاصطناعي المُتقدم.
وعلاوة على ذلك، فإننا نعيش في وقت أصبح فيه المستهلكون والمستثمرون على دراية متزايدة بالاستخدام الأخلاقي للتكنولوجيا - وإظهار هذا الالتزام بالحوكمة يمكن أن يميز الشركة عن المنافسة.
عمليًا، تُبلغ المؤسسات ذات الحوكمة الرشيدة عن تحسينات ليس فقط في مجال الأمن، بل أيضًا في كفاءة التطوير. ويشير المسؤولون التنفيذيون إلى انخفاض زمن دورة مشروع الذكاء الاصطناعي بفضل معايير واضحة منذ البداية. أي أنه عند مراعاة متطلبات الخصوصية والوضوح والجودة في مرحلة مبكرة من مرحلة التصميم، يتم تجنب التصحيحات المكلفة لاحقًا.
لذا، تُعدّ الحوكمة دليلاً للابتكار المستدام، إذ تُرشد إلى أين يُستثمر وكيف يُوسّع نطاق الحلول بمسؤولية. ومن خلال مواءمة مبادرات الذكاء الاصطناعي مع استراتيجية الشركة وقيمها المؤسسية، تضمن الحوكمة أن يخدم الابتكار دائمًا أهداف العمل والسمعة الأوسع، بدلًا من اتباع مسار معزول أو قد يكون ضارًا.
يُعدّ وضع استراتيجية لحوكمة الذكاء الاصطناعي، قبل كل شيء، خطوةً استراتيجيةً لتعزيز مكانة تنافسية. في ظلّ بيئة اليوم، حيث تتنافس الدول والشركات في سباق تكنولوجي، يتصدر المبتكرون بثقة ومصداقية المشهد. فالشركات الكبيرة التي تُرسي أنظمة حوكمة فعّالة قادرة على الموازنة بين تخفيف المخاطر وتعظيم فوائد الذكاء الاصطناعي، بدلًا من التضحية بأحدهما في سبيل الآخر.
أخيرًا، لم تعد حوكمة الذكاء الاصطناعي خيارًا، بل ضرورة استراتيجية. بالنسبة للشركات الكبرى، أصبح وضع استراتيجية حوكمة يعني تحديد المعايير والضوابط والقيم التي ستُوجّه استخدام الذكاء الاصطناعي في السنوات القادمة. ويشمل ذلك كل شيء، بدءًا من الامتثال للأنظمة الناشئة ووصولًا إلى إنشاء آليات أخلاقية وشفافية داخلية، بهدف تقليل المخاطر وتعظيم القيمة بشكل متوازن. وسيجني من يتصرفون بسرعة ثمار الابتكار المستمر والسمعة الطيبة، مما يضعهم في الصدارة في سوق يعتمد بشكل متزايد على الذكاء الاصطناعي.