این یک واقعیت است: شرکتهای برزیلی هوش مصنوعی را در استراتژیهای تجاری خود گنجاندهاند - حداقل ۹۸٪ از آنها، طبق تحقیقات انجام شده در پایان سال ۲۰۲۴. با این حال، مشکل این است که تنها ۲۵٪ از سازمانها آمادگی خود را برای پیادهسازی هوش مصنوعی اعلام کردهاند. بقیه از محدودیتهای زیرساختی، مدیریت دادهها و کمبود استعدادهای تخصصی رنج میبرند. اما این بدان معنا نیست که ۷۵٪ باقیمانده منتظر شرایط ایدهآل برای پیشبرد پروژههای خود هستند: برعکس، این شرکتها به پیادهسازی این فناوری ادامه میدهند.
مشکل این است که طبق گزارش جهانی که اخیراً توسط Qlik با همکاری ESG منتشر شده است، تنها یک پنجم شرکتها قادر به ادغام هوش مصنوعی در کسبوکار خود هستند. علاوه بر این، تنها ۴۷ درصد از شرکتها گزارش دادهاند که سیاستهای مدیریت دادهها را اجرا میکنند. این ارقام جهانی هستند و اگر آمار برزیل حتی بالاتر باشد، جای تعجب نخواهد بود. و اگرچه هوش مصنوعی در حال حاضر به صورت جداگانه اعمال میشود و "نقطه ورود" این فناوری معمولاً خدمات مشتری است، اما خطرات مالی، نظارتی و اعتباری هنوز وجود دارد.
شرکتهایی که بدون آمادگی مناسب، هوش مصنوعی را پیادهسازی میکنند، با موانع زیادی روبرو میشوند. مطالعات موردی نشان دادهاند که الگوریتمهای ضعیف مدیریتشده میتوانند تعصبات را تداوم بخشند یا حریم خصوصی را به خطر بیندازند و در نتیجه به اعتبار و آسیب مالی منجر شوند. مدیریت هوش مصنوعی فقط یک مسئله فناوری نیست، بلکه مسئلهای مربوط به اجرا و بررسیهای لازم نیز هست: بدون یک استراتژی مشخص، خطرات همگام با فرصتها افزایش مییابند - از نقض حریم خصوصی و سوءاستفاده از دادهها گرفته تا تصمیمات خودکار مبهم یا جانبدارانه که باعث بیاعتمادی میشوند.
فشار نظارتی و انطباق: مبانی حاکمیت هوش مصنوعی
نیاز به ایجاد حاکمیت هوش مصنوعی فقط از جبهه کسب و کار ناشی نشده است: مقررات جدید در حال ظهور هستند و پیشرفت سریع بوده است، از جمله در برزیل.
در دسامبر ۲۰۲۴، سنای فدرال لایحه ۲۳۳۸/۲۰۲۳ را تصویب کرد که چارچوبی نظارتی برای هوش مصنوعی به همراه دستورالعملهایی برای استفاده مسئولانه ارائه میدهد. این لایحه رویکردی مبتنی بر ریسک ، مشابه رویکرد اتحادیه اروپا، اتخاذ میکند و سیستمهای هوش مصنوعی را بر اساس پتانسیل آنها برای آسیب رساندن به حقوق اساسی طبقهبندی میکند. برنامههایی که ریسک بیش از حد ایجاد میکنند، مانند الگوریتمهای سلاحهای خودکار یا ابزارهای نظارت جمعی، ممنوع خواهند شد ، سیستمهای هوش مصنوعی مولد و همه منظوره ملزم به انجام ارزیابیهای ریسک قبلی قبل از رسیدن به بازار خواهند بود.
همچنین الزامات شفافیت وجود دارد، به عنوان مثال، توسعهدهندگان را ملزم میکند که فاش کنند که آیا هنگام آموزش مدلها از محتوای دارای حق چاپ استفاده کردهاند یا خیر. در عین حال، بحثهایی در مورد واگذاری نقش مرکزی به سازمان ملی حفاظت از دادهها (ANPD) در هماهنگی مدیریت هوش مصنوعی در کشور، با بهرهگیری از چارچوب حفاظت از دادههای موجود، وجود دارد. این ابتکارات قانونی نشان میدهد که شرکتها به زودی تعهدات روشنی در مورد توسعه و استفاده از هوش مصنوعی خواهند داشت - از شیوههای گزارشدهی و کاهش خطرات گرفته تا حسابداری برای تأثیرات الگوریتمی.
در ایالات متحده و اروپا، نهادهای نظارتی، به ویژه پس از رواج ابزارهای هوش مصنوعی مولد که بحثهای عمومی را برانگیخت، نظارت بر الگوریتمها را افزایش دادهاند. قانون هوش مصنوعی (AI ACT) در اتحادیه اروپا لازمالاجرا شده است و قرار است اجرای آن در ۲ آگوست ۲۰۲۶، زمانی که بیشتر تعهدات استاندارد، از جمله الزامات مربوط به سیستمهای هوش مصنوعی پرخطر و مدلهای هوش مصنوعی عمومی، لازمالاجرا میشوند، به پایان برسد.
شفافیت، اخلاق و پاسخگویی الگوریتمی
فراتر از جنبه قانونی، حاکمیت هوش مصنوعی شامل اصول اخلاقی و مسئولیتپذیری است که فراتر از «رعایت قانون» صرف است. شرکتها متوجه شدهاند که برای جلب اعتماد مشتریان، سرمایهگذاران و کل جامعه، شفافیت در مورد نحوه استفاده از هوش مصنوعی ضروری است. این امر مستلزم اتخاذ مجموعهای از شیوههای داخلی، مانند ارزیابی قبلی تأثیر الگوریتمی، مدیریت دقیق کیفیت دادهها و حسابرسی مستقل مدل است.
همچنین اجرای سیاستهای مدیریت داده که دادههای آموزشی را با دقت فیلتر و انتخاب میکنند و از تعصبات تبعیضآمیزی که ممکن است در اطلاعات جمعآوریشده وجود داشته باشد، جلوگیری میکنند، بسیار مهم است.
پس از عملیاتی شدن یک مدل هوش مصنوعی، شرکت باید آزمایش، اعتبارسنجی و ممیزیهای دورهای الگوریتمهای خود را انجام دهد و تصمیمات و معیارهای مورد استفاده را مستندسازی کند. این سابقه دو مزیت دارد: به توضیح نحوه عملکرد سیستم کمک میکند و در صورت بروز خطا یا نتیجه نامناسب، پاسخگویی را ممکن میسازد.
حاکمیت شرکتی: نوآوری با ارزش رقابتی
یک تصور غلط رایج این است که حاکمیت هوش مصنوعی، نوآوری را محدود میکند. برعکس، یک استراتژی حاکمیت خوب، نوآوری ایمن را ممکن میسازد و تمام پتانسیل هوش مصنوعی را به طور مسئولانه آزاد میکند. شرکتهایی که چارچوبهای حاکمیتی خود را زود ساختار میدهند، میتوانند خطرات را قبل از اینکه به مشکل تبدیل شوند، کاهش دهند و از دوبارهکاری یا رسواییهایی که پروژهها را به تأخیر میاندازد، جلوگیری کنند.
در نتیجه، این سازمانها سریعتر از ابتکارات خود ارزش بیشتری به دست میآورند. شواهد بازار این همبستگی را تقویت میکند: یک نظرسنجی جهانی نشان داد که شرکتهایی که نظارت رهبری فعالی بر حاکمیت هوش مصنوعی دارند، تأثیرات مالی بهتری را از استفاده از هوش مصنوعی پیشرفته گزارش میدهند.
علاوه بر این، ما در زمانی هستیم که مصرفکنندگان و سرمایهگذاران به طور فزایندهای از استفاده اخلاقی از فناوری آگاه هستند - و نشان دادن این تعهد به حاکمیت شرکتی میتواند یک شرکت را از رقبا متمایز کند.
در عمل، سازمانهایی که از مدیریت بالغ برخوردارند، نه تنها در امنیت، بلکه در کارایی توسعه نیز بهبودهایی را گزارش میدهند - مدیران به کاهش زمان چرخه پروژه هوش مصنوعی به لطف استانداردهای شفاف از ابتدا اشاره میکنند. به عبارت دیگر، وقتی حریم خصوصی، قابلیت توضیح و الزامات کیفی در اوایل مرحله طراحی در نظر گرفته شوند، از اصلاحات پرهزینه بعدی جلوگیری میشود.
بنابراین، حاکمیت شرکتی به عنوان راهنمایی برای نوآوری پایدار عمل میکند و مشخص میکند که کجا سرمایهگذاری شود و چگونه راهحلها به طور مسئولانه مقیاسپذیر شوند. و با همسو کردن ابتکارات هوش مصنوعی با استراتژی و ارزشهای سازمانی شرکت، حاکمیت شرکتی تضمین میکند که نوآوری همیشه در خدمت اهداف بزرگتر تجاری و اعتباری باشد، نه اینکه مسیری منزوی یا بالقوه مضر را دنبال کند.
تدوین یک استراتژی حاکمیت هوش مصنوعی، بیش از هر چیز، یک اقدام استراتژیک برای موقعیتیابی رقابتی است. در اکوسیستم امروزی، که کشورها و شرکتها در یک مسابقه فناوری گیر افتادهاند، کسانی که با اعتماد به نفس و اعتبار نوآوری میکنند، پیشرو هستند. شرکتهای بزرگی که سیستمهای حاکمیتی کارآمد ایجاد میکنند، میتوانند بین کاهش ریسک و به حداکثر رساندن مزایای هوش مصنوعی تعادل برقرار کنند، نه اینکه یکی را فدای دیگری کنند.
در نهایت، مدیریت هوش مصنوعی دیگر اختیاری نیست، بلکه یک الزام استراتژیک است. برای شرکتهای بزرگ، ایجاد یک استراتژی مدیریت اکنون به معنای تعریف استانداردها، کنترلها و ارزشهایی است که استفاده از هوش مصنوعی را در سالهای آینده هدایت میکند. این شامل همه چیز میشود، از رعایت مقررات نوظهور گرفته تا ایجاد اخلاق داخلی و مکانیسمهای شفافیت، با هدف به حداقل رساندن ریسک و به حداکثر رساندن ارزش به شیوهای متعادل. کسانی که به سرعت اقدام میکنند، از مزایای نوآوری مداوم و شهرت پایدار بهرهمند میشوند و خود را در بازاری که به طور فزایندهای توسط هوش مصنوعی هدایت میشود، در موقعیت پیشرو قرار میدهند.