رفضت الهيئة الوطنية البرازيلية لحماية البيانات (ANPD) مؤخرًا ميزة من شركة Meta، الشركة المالكة لفيسبوك، والتي سعت إلى استخدام البيانات من المستخدمين البرازيليين لتدريب الذكاء الاصطناعي (AI). يسلط هذا القرار الضوء على مخاوف كبيرة بشأن الأخلاقيات والأمن في استخدام البيانات لتطوير الذكاء الاصطناعي.
يحذر مارسيل روزا، المدير العام ونائب رئيس المبيعات في أمريكا اللاتينية في Clevertap، من المخاطر المرتبطة باستخدام البيانات التي تم جمعها من المنصات التي تشيع فيها المعلومات الخاطئة والهجمات الشخصية. “ عندما يتعلم الذكاء الاصطناعي من المعلومات المتحيزة والضارة في كثير من الأحيان، فإن الخطر يكمن في أن هذه الآلات لا تعيد إنتاج سلوكيات الانتشار السلبية والمشوهة فحسب، بل تضخمها أيضًا، كما تقول روزا.
تكتسب المشكلة أبعادًا مثيرة للقلق عندما ننظر إلى السياق الانتخابي البرازيلي. خلال انتخابات 2022، أفادت المحكمة الانتخابية العليا (TSE) أنها تلقت أكثر من 500 تنبيه يومي حول الأخبار الكاذبة في الجولة الثانية وحدها.
القلق الرئيسي هو أن الذكاء الاصطناعي، الذي يتم تدريبه على آراء الأشخاص العاديين الذين غالبًا ما يتأثرون بالمعلومات الخاطئة، يمكنه تكرار وتضخيم الأنماط السلبية. يميل الذكاء الاصطناعي إلى تكرار السلوك البشري، وعندما يتميز هذا السلوك بالاستقطاب والافتقار إلى الكياسة، فإن التكنولوجيا تعكس حتماً هذه العيوب، توضح روزا.
يُنظر إلى قرار ANPD على أنه خطوة مهمة لضمان الاستخدام المسؤول والأخلاقي للبيانات في التدريب على الذكاء الاصطناعي. وتخلص روزا إلى أن خصوصية مستخدم“ وسلامة المعلومات ضرورية لتطوير التقنيات التي تفيد مجتمع” حقًا.
تؤكد هذه الحالة على الحاجة الملحة إلى اتباع نهج أكثر أهمية وتنظيمًا لجمع البيانات واستخدامها بواسطة المنصات الرقمية، بهدف حماية سلامة المعلومات وضمان أن تطوير الذكاء الاصطناعي يعتمد على بيانات موثوقة ومحترمة.

