مع 97% من الشركات البرازيلية التي تعيد تخصيص ميزانيات تكنولوجيا المعلومات الخاصة بها بالفعل لتلبية متطلبات الخصوصية في مشاريع الذكاء الاصطناعي ، وفقًا لمسح خصوصية المستهلك من Cisco ، لم تعد حماية البيانات مجرد مطلب قانوني وبدأت في شغل دور مركزي في استراتيجيات الابتكار. في إشارة إلى يوم خصوصية البيانات الدولي (28 يناير) ، يسلط خبراء كلوديرا الضوء على أن مناهج مثل استخدام البيانات التركيبية - التي تم إنشاؤها بواسطة خوارزميات تعيد إنتاج المعايير الإحصائية للقواعد الحقيقية دون الكشف عن السجلات - كانت تعزز نفسها كطريقة قابلة للتطبيق لتسريع تطوير الذكاء الاصطناعي ونماذج كبيرة للغة (LLMs) ، طالما يتم تطبيقها بدقة تقنية وحوكمة كافية.
“عندما يتم دمج نماذج الذكاء الاصطناعي واللغة في العمليات الأساسية للشركات ، يصبح استخدام البيانات الحساسة أمرًا لا مفر منه عمليًا. التحدي هو توسيع نطاق هذه المشاريع دون توسيع مخاطر الخصوصية ”، كما يقول سيرجيو جاجو، رئيس قسم التكنولوجيا في كلوديرا. “البيانات التركيبية ليست حلاً سحريًا ، لكنها تعزز نفسها كبديل عملي لتقليل التعرض للمعلومات الشخصية والسرية ، مع السماح بالتدريب والاختبار وتقييم نماذج الذكاء الاصطناعي بمرونة أكبر وحوكمة.”
على الرغم من أن قانون حماية البيانات العام (LGPD) كان ساريًا منذ عدة سنوات في البرازيل ، إلا أن أقل من نصف المستهلكين البرازيليين يدعون أنهم يعرفون تشريع حماية البيانات ، مع 44% فقط يقولون إنهم على دراية بهذا القانون الوطني. يفرض مثل هذا التحليل الثقة بشكل مباشر في استخدام التقنيات الناشئة ، مثل الذكاء الاصطناعي التوليدي ، ولا تزال وفقًا للمسح الذي أجرته شركة Cisco.
“يقول: ”تصبح خصوصية البيانات الآن أحد الأصول الاستراتيجية، وليس مجرد التزام تنظيمي". إيفرتون فرنانديز ، مهندس أول في Cloudera Brasil. “مع تطور تطبيقات الذكاء الاصطناعي، لا تكفي طرق حماية البيانات التقليدية وحدها، وهذا هو المكان الذي تكتسب فيه الأساليب المسؤولة مثل توليد البيانات التركيبية أهمية، وخلق بيئات آمنة لتدريب واختبار النماذج الذكية والتحقق من صحتها دون الاعتماد على بيانات حساسة حقيقية.”
في هذا السيناريو، سحابة غامق وهي تعزز التزامها بدعم الشركات البرازيلية في بناء البيانات المسؤولة واستراتيجيات الذكاء الاصطناعي ، والجمع بين الابتكار والحوكمة والأمن. من خلال تقديم منصة بيانات موحدة وذكاء اصطناعي ، تساعد الشركة المؤسسات على أن تكون قادرة على تنظيم مبادرات الذكاء الاصطناعي واختبارها وتوسيع نطاقها ، بطريقة خاضعة للرقابة وشفافة ومواءمة مع متطلبات الخصوصية ، دون المساس بخطوة التحول الرقمي.

