السلطة الوطنية لحماية البيانات (ANPD) قررت تعليق معالجة البيانات الشخصية بواسطة ميتا. الهدف من تدريب الذكاء الاصطناعي التوليدي للشركة يثير أسئلة حاسمة حول حدود التشريعات الحالية والاستخدام الأخلاقي لهذه التقنيات. كما يبرز القلق بشأن معالجة بيانات أكثر من 102 مليون مالك في البرازيل دون الامتثال اللازم لقانون حماية البيانات العامة (LGPD).
حالة Meta تسلط الضوء على قابلية تطبيق عقوبات الهيئة الوطنية لحماية البيانات على أي شركة تستخدم الذكاء الاصطناعي التوليدي لمعالجة البيانات الشخصية. يتم مناقشتها حاليًا ما إذا كانت هذه التدابير مخصصة للشركات الكبرى أو إذا كانت تشير إلى نهج أكثر صرامة قد يمتد إلى مشغلين آخرين في مجال التكنولوجيا.
منذ تنفيذ قانون حماية البيانات الشخصية في سبتمبر 2020، تكافح الشركات البرازيلية للتكيف مع المتطلبات التنظيمية الجديدة. ومع ذلك، وفقًا لدراسة لقطة اتجاهات تكنولوجيا المعلومات 2023 التي أجرتها شركة لوجيكاليس، الشركة العالمية للحلول وخدمات تكنولوجيا المعلومات، فإن 36٪ فقط أكدوا أنهم يتوافقون تمامًا مع المعايير المحددة.
في ظل هذا السيناريو، تسعى الشركات المتخصصة في الاستشارات القانونية للشركات التقنية إلى فهم كيفية ضمان الاستخدام المسؤول للبيانات الشخصية دون الوقوع في عقوبات مماثلة. شركة SAFIE، التي تأسست في عام 2020 وتقدم حلول البنية التحتية القانونية، هي واحدة منها.لوكاس مانتوفاني، شريك ومؤسس مشارك في SAFIEيمكن أن تقدم هذه الدراسة رؤى حول كيفية اتخاذ خطوات استباقية لتجنب المخاطر التنظيمية، وضمان توافق ممارسات الذكاء الاصطناعي مع المعايير القانونية الناشئة، والتعليق على مستقبل الخصوصية في البرازيل.
الأسئلة التي يمكن معالجتها:
- ما هي حدود التشريعات الحالية فيما يتعلق باستخدام البيانات الشخصية للتدريب على الذكاء الاصطناعي؟
- هل يمكن أن يحدث ما حدث لشركة Meta لأي شركة أو فقط تلك التي تستخدم الذكاء الاصطناعي التوليدي؟
- كيف يمكن للشركات منع هذا النوع من عقوبات ANPD؟
- هل هناك طريقة لاستخدام البيانات الشخصية لتدريب الذكاء الاصطناعي التوليدي دون مخالفة القانون؟
- ما الذي يمكننا أن نتوقعه من المشهد التشريعي والسلطات في السنوات القادمة فيما يتعلق بالذكاء الاصطناعي التوليدي وحماية البيانات الشخصية؟