الذكاء الاصطناعي (AI) يُعتبر غالبًا تقنية ثورية، قادرة على توفير الكفاءة والدقة وفتح فرص استراتيجية جديدة. ومع استفادة الشركات من مزايا الذكاء الاصطناعي، تظهر أيضًا تحدٍ حاسم وأحيانًا مهمل: العدالة الخوارزمية. التحيزات الخفية في هذه الأنظمة قد تضر ليس فقط بكفاءة القرارات التجارية، ولكن أيضًا تثير عواقب قانونية وأخلاقية واجتماعية كبيرة.
يمكن تفسير وجود التحيزات الخوارزمية بطبيعة الذكاء الاصطناعي نفسه، خاصة في التعلم الآلي. يتم تدريب النماذج باستخدام البيانات التاريخية، وعندما تعكس هذه البيانات تحاملات أو تشوهات اجتماعية، فإن الخوارزميات بطبيعتها تستمر في تعزيز هذه التحيزات. بالإضافة إلى التحيزات في المعلومات، قد يتسبب الخوارزم نفسه في حدوث اختلال في وزن العوامل المُعتمدة، أو في البيانات المستخدمة كبديل، أي البيانات التي تحل محل المعلومات الأصلية، لكنها ليست مثالية لذلك التحليل.
مثال بارز على هذه الظاهرة يوجد في استخدام التعرف على الوجه، خاصة في سياقات حساسة مثل الأمن العام. تبنت العديد من المدن البرازيلية أنظمة آلية بهدف زيادة فعالية الإجراءات الشرطية، لكن التحليلات تظهر أن هذه الخوارزميات غالبًا ما ترتكب أخطاء كبيرة، خاصة عند التعرف على أفراد من مجموعات عرقية معينة، مثل الأشخاص السود. أظهرت دراسات الباحثة جوي بولامويني من معهد ماساتشوستس للتكنولوجيا أن الخوارزميات التجارية تظهر معدلات خطأ تزيد عن 30٪ للنساء السود، في حين تنخفض المعدلات بشكل كبير إلى أقل من 1٪ للرجال البيض.
التشريع البرازيلي: مزيد من الصرامة في المستقبل
في البرازيل، بالإضافة إلى القانون العام لحماية البيانات (LGPD)، يجري أيضًا مناقشة الإطار القانوني للذكاء الاصطناعي (مشروع قانون رقم 2338/2023)، الذي يحدد المبادئ التوجيهية العامة لتطوير وتطبيق الذكاء الاصطناعي في البلاد.
على الرغم من أنه لم يُوافق عليه بعد، إلا أن مشروع القانون هذا يشير بالفعل إلى حقوق يتعين على الشركات احترامها، مثل: حق المعلومات المسبقة (إبلاغ المستخدم عندما يتفاعل مع نظام ذكاء اصطناعي)، وحق شرح القرارات الآلية، وحق الاعتراض على القرارات الخوارزمية، وحق عدم التمييز بسبب التحيزات الخوارزمية.
هذه النقاط ستتطلب من الشركات تطبيق الشفافية في أنظمة الذكاء الاصطناعي التوليدي (على سبيل المثال، توضيح متى تم إنشاء نص أو رد بواسطة آلة) وآليات التدقيق لشرح كيف توصل النموذج إلى مخرج معين.
الحوكمة الخوارزمية: الحل للتحيزات
بالنسبة للشركات، تتجاوز التحيزات الخوارزمية المجال الأخلاقي، وتصبح مشكلات استراتيجية ذات أهمية. الخوارزميات المتحيزة لديها القدرة على تشويه القرارات الأساسية في العمليات الداخلية مثل التوظيف، ومنح الائتمان، وتحليل السوق. على سبيل المثال، قد يؤدي خوارزمية تحليل أداء الفروع التي تبالغ بشكل منهجي في تقدير المناطق الحضرية على حساب المناطق الطرفية (بسبب بيانات غير مكتملة أو تحيزات) إلى استثمارات غير موجهة بشكل صحيح. وهكذا، فإن التحيزات الخفية تقوض فعالية الاستراتيجيات المعتمدة على البيانات، مما يجعل التنفيذيين يتخذون قرارات تعتمد على معلومات غير صحيحة جزئيًا.
يمكن تصحيح هذه التحيزات، لكنها ستعتمد على إطار حوكمة خوارزمية، مع التركيز على تنوع البيانات المستخدمة، وشفافية العمليات، ودمج فرق متنوعة ومتعددة التخصصات في التطوير التكنولوجي. عند الاستثمار في التنوع في الفرق الفنية، على سبيل المثال، تتمكن الشركات من تحديد مصادر التحيز المحتملة بسرعة أكبر، مما يضمن أخذ وجهات نظر مختلفة في الاعتبار وكشف الأخطاء مبكرًا.
بالإضافة إلى ذلك، فإن استخدام أدوات المراقبة المستمرة أمر أساسي. تساعد هذه الأنظمة في اكتشاف انحرافات التحيزات الخوارزمية في الوقت الحقيقي، مما يتيح إجراء تعديلات سريعة وتقليل التأثير السلبي.
الشفافية هي ممارسة أساسية أخرى في تقليل التحيزات. يجب ألا تعمل الخوارزميات كصناديق سوداء، بل كنظم واضحة وقابلة للتفسير. عندما تختار الشركات الشفافية، تكسب ثقة العملاء والمستثمرين والمنظمين. الشفافية تسهل التدقيقات الخارجية، وتشجع على ثقافة المسؤولية المشتركة في إدارة الذكاء الاصطناعي.
مبادرات أخرى تشمل الالتزام بأُطُر وشهادات لحوكمة الذكاء الاصطناعي المسؤول. يشمل ذلك إنشاء لجان داخلية للأخلاقيات في الذكاء الاصطناعي، وتحديد السياسات المؤسسية لاستخدامه، واعتماد المعايير الدولية. على سبيل المثال، الأطر مثل: ISO/IEC 42001 (إدارة الذكاء الاصطناعي)، ISO/IEC 27001 (أمن المعلومات)، وISO/IEC 27701 (الخصوصية) تساعد في تنظيم الضوابط في عمليات البيانات المستخدمة من قبل الذكاء الاصطناعي التوليدي. مثال آخر هو مجموعة الممارسات الموصى بها من قبل المعهد الوطني للمقاييس والتكنولوجيا (NIST) في الولايات المتحدة التي توجه إدارة المخاطر الخوارزمية، وتشمل اكتشاف التحيز، وفحوصات جودة البيانات، والمراقبة المستمرة للنماذج.
تؤدي الاستشارات المتخصصة دورًا استراتيجيًا في هذا السيناريو. مع خبرة في الذكاء الاصطناعي المسؤول، حوكمة الخوارزميات والامتثال التنظيمي، تساعد هذه الشركات المؤسسات ليس فقط على تجنب المخاطر، بل على تحويل العدالة إلى ميزة تنافسية. تتراوح أنشطة هذه الاستشارات من تقييمات المخاطر التفصيلية إلى تطوير السياسات الداخلية، مرورًا بالتدريبات المؤسسية حول الأخلاقيات في الذكاء الاصطناعي، لضمان استعداد الفرق لتحديد وتقليل التحيزات الخوارزمية المحتملة.
بهذه الطريقة، فإن تقليل التحيزات الخوارزمية ليس مجرد إجراء وقائي، بل هو نهج استراتيجي. الشركات التي تهتم بالعدالة الخوارزمية تظهر مسؤوليتها الاجتماعية، وتعزز سمعتها، وتحمي نفسها من العقوبات القانونية والأزمات العامة. الخوارزميات غير المتحيزة تميل إلى تقديم رؤى أكثر دقة وتوازنًا، مما يزيد من فعالية القرارات التجارية ويعزز الموقع التنافسي للمنظمات في السوق.
بقلم سيلفيو سوبيرا فييرا، المدير التنفيذي ورئيس الاستشارات في شركة SVX للاستشارات