هوش مصنوعی نیازمند استراتژی حاکمیتی است

پیشرفت هوش مصنوعی نیازمند استراتژی حاکمیتی است

این یک واقعیت است: شرکت‌های برزیلی هوش مصنوعی را در استراتژی‌های تجاری خود گنجانده‌اند - حداقل ۹۸٪ از آنها، طبق تحقیقات انجام شده در پایان سال ۲۰۲۴. با این حال، مشکل این است که تنها ۲۵٪ از سازمان‌ها آمادگی خود را برای پیاده‌سازی هوش مصنوعی اعلام کرده‌اند. بقیه از محدودیت‌های زیرساختی، مدیریت داده‌ها و کمبود استعدادهای تخصصی رنج می‌برند. اما این بدان معنا نیست که ۷۵٪ باقی‌مانده منتظر شرایط ایده‌آل برای پیشبرد پروژه‌های خود هستند: برعکس، این شرکت‌ها به پیاده‌سازی این فناوری ادامه می‌دهند.

مشکل این است که طبق گزارش جهانی که اخیراً توسط Qlik با همکاری ESG منتشر شده است، تنها یک پنجم شرکت‌ها قادر به ادغام هوش مصنوعی در کسب‌وکار خود هستند. علاوه بر این، تنها ۴۷ درصد از شرکت‌ها گزارش داده‌اند که سیاست‌های مدیریت داده‌ها را اجرا می‌کنند. این ارقام جهانی هستند و اگر آمار برزیل حتی بالاتر باشد، جای تعجب نخواهد بود. و اگرچه هوش مصنوعی در حال حاضر به صورت جداگانه اعمال می‌شود و "نقطه ورود" این فناوری معمولاً خدمات مشتری است، اما خطرات مالی، نظارتی و اعتباری هنوز وجود دارد.

شرکت‌هایی که بدون آمادگی مناسب، هوش مصنوعی را پیاده‌سازی می‌کنند، با موانع زیادی روبرو می‌شوند. مطالعات موردی نشان داده‌اند که الگوریتم‌های ضعیف مدیریت‌شده می‌توانند تعصبات را تداوم بخشند یا حریم خصوصی را به خطر بیندازند و در نتیجه به اعتبار و آسیب مالی منجر شوند. مدیریت هوش مصنوعی فقط یک مسئله فناوری نیست، بلکه مسئله‌ای مربوط به اجرا و بررسی‌های لازم نیز هست: بدون یک استراتژی مشخص، خطرات همگام با فرصت‌ها افزایش می‌یابند - از نقض حریم خصوصی و سوءاستفاده از داده‌ها گرفته تا تصمیمات خودکار مبهم یا جانبدارانه که باعث بی‌اعتمادی می‌شوند.

فشار نظارتی و انطباق: مبانی حاکمیت هوش مصنوعی

نیاز به ایجاد حاکمیت هوش مصنوعی فقط از جبهه کسب و کار ناشی نشده است: مقررات جدید در حال ظهور هستند و پیشرفت سریع بوده است، از جمله در برزیل.  

در دسامبر ۲۰۲۴، سنای فدرال لایحه ۲۳۳۸/۲۰۲۳ را تصویب کرد که چارچوبی نظارتی برای هوش مصنوعی به همراه دستورالعمل‌هایی برای استفاده مسئولانه ارائه می‌دهد. این لایحه رویکردی مبتنی بر ریسک ، مشابه رویکرد اتحادیه اروپا، اتخاذ می‌کند و سیستم‌های هوش مصنوعی را بر اساس پتانسیل آنها برای آسیب رساندن به حقوق اساسی طبقه‌بندی می‌کند. برنامه‌هایی که ریسک بیش از حد ایجاد می‌کنند، مانند الگوریتم‌های سلاح‌های خودکار یا ابزارهای نظارت جمعی، ممنوع خواهند شد ، سیستم‌های هوش مصنوعی مولد و همه منظوره ملزم به انجام ارزیابی‌های ریسک قبلی قبل از رسیدن به بازار خواهند بود.

همچنین الزامات شفافیت وجود دارد، به عنوان مثال، توسعه‌دهندگان را ملزم می‌کند که فاش کنند که آیا هنگام آموزش مدل‌ها از محتوای دارای حق چاپ استفاده کرده‌اند یا خیر. در عین حال، بحث‌هایی در مورد واگذاری نقش مرکزی به سازمان ملی حفاظت از داده‌ها (ANPD) در هماهنگی مدیریت هوش مصنوعی در کشور، با بهره‌گیری از چارچوب حفاظت از داده‌های موجود، وجود دارد. این ابتکارات قانونی نشان می‌دهد که شرکت‌ها به زودی تعهدات روشنی در مورد توسعه و استفاده از هوش مصنوعی خواهند داشت - از شیوه‌های گزارش‌دهی و کاهش خطرات گرفته تا حسابداری برای تأثیرات الگوریتمی.

در ایالات متحده و اروپا، نهادهای نظارتی، به ویژه پس از رواج ابزارهای هوش مصنوعی مولد که بحث‌های عمومی را برانگیخت، نظارت بر الگوریتم‌ها را افزایش داده‌اند. قانون هوش مصنوعی (AI ACT) در اتحادیه اروپا لازم‌الاجرا شده است و قرار است اجرای آن در ۲ آگوست ۲۰۲۶، زمانی که بیشتر تعهدات استاندارد، از جمله الزامات مربوط به سیستم‌های هوش مصنوعی پرخطر و مدل‌های هوش مصنوعی عمومی، لازم‌الاجرا می‌شوند، به پایان برسد.  

شفافیت، اخلاق و پاسخگویی الگوریتمی

فراتر از جنبه قانونی، حاکمیت هوش مصنوعی شامل اصول اخلاقی و مسئولیت‌پذیری است که فراتر از «رعایت قانون» صرف است. شرکت‌ها متوجه شده‌اند که برای جلب اعتماد مشتریان، سرمایه‌گذاران و کل جامعه، شفافیت در مورد نحوه استفاده از هوش مصنوعی ضروری است. این امر مستلزم اتخاذ مجموعه‌ای از شیوه‌های داخلی، مانند ارزیابی قبلی تأثیر الگوریتمی، مدیریت دقیق کیفیت داده‌ها و حسابرسی مستقل مدل است.  

همچنین اجرای سیاست‌های مدیریت داده که داده‌های آموزشی را با دقت فیلتر و انتخاب می‌کنند و از تعصبات تبعیض‌آمیزی که ممکن است در اطلاعات جمع‌آوری‌شده وجود داشته باشد، جلوگیری می‌کنند، بسیار مهم است.  

پس از عملیاتی شدن یک مدل هوش مصنوعی، شرکت باید آزمایش، اعتبارسنجی و ممیزی‌های دوره‌ای الگوریتم‌های خود را انجام دهد و تصمیمات و معیارهای مورد استفاده را مستندسازی کند. این سابقه دو مزیت دارد: به توضیح نحوه عملکرد سیستم کمک می‌کند و در صورت بروز خطا یا نتیجه نامناسب، پاسخگویی را ممکن می‌سازد.

حاکمیت شرکتی: نوآوری با ارزش رقابتی

یک تصور غلط رایج این است که حاکمیت هوش مصنوعی، نوآوری را محدود می‌کند. برعکس، یک استراتژی حاکمیت خوب، نوآوری ایمن را ممکن می‌سازد و تمام پتانسیل هوش مصنوعی را به طور مسئولانه آزاد می‌کند. شرکت‌هایی که چارچوب‌های حاکمیتی خود را زود ساختار می‌دهند، می‌توانند خطرات را قبل از اینکه به مشکل تبدیل شوند، کاهش دهند و از دوباره‌کاری یا رسوایی‌هایی که پروژه‌ها را به تأخیر می‌اندازد، جلوگیری کنند.  

در نتیجه، این سازمان‌ها سریع‌تر از ابتکارات خود ارزش بیشتری به دست می‌آورند. شواهد بازار این همبستگی را تقویت می‌کند: یک نظرسنجی جهانی نشان داد که شرکت‌هایی که نظارت رهبری فعالی بر حاکمیت هوش مصنوعی دارند، تأثیرات مالی بهتری را از استفاده از هوش مصنوعی پیشرفته گزارش می‌دهند.

علاوه بر این، ما در زمانی هستیم که مصرف‌کنندگان و سرمایه‌گذاران به طور فزاینده‌ای از استفاده اخلاقی از فناوری آگاه هستند - و نشان دادن این تعهد به حاکمیت شرکتی می‌تواند یک شرکت را از رقبا متمایز کند.  

در عمل، سازمان‌هایی که از مدیریت بالغ برخوردارند، نه تنها در امنیت، بلکه در کارایی توسعه نیز بهبودهایی را گزارش می‌دهند - مدیران به کاهش زمان چرخه پروژه هوش مصنوعی به لطف استانداردهای شفاف از ابتدا اشاره می‌کنند. به عبارت دیگر، وقتی حریم خصوصی، قابلیت توضیح و الزامات کیفی در اوایل مرحله طراحی در نظر گرفته شوند، از اصلاحات پرهزینه بعدی جلوگیری می‌شود.  

بنابراین، حاکمیت شرکتی به عنوان راهنمایی برای نوآوری پایدار عمل می‌کند و مشخص می‌کند که کجا سرمایه‌گذاری شود و چگونه راه‌حل‌ها به طور مسئولانه مقیاس‌پذیر شوند. و با همسو کردن ابتکارات هوش مصنوعی با استراتژی و ارزش‌های سازمانی شرکت، حاکمیت شرکتی تضمین می‌کند که نوآوری همیشه در خدمت اهداف بزرگ‌تر تجاری و اعتباری باشد، نه اینکه مسیری منزوی یا بالقوه مضر را دنبال کند.  

تدوین یک استراتژی حاکمیت هوش مصنوعی، بیش از هر چیز، یک اقدام استراتژیک برای موقعیت‌یابی رقابتی است. در اکوسیستم امروزی، که کشورها و شرکت‌ها در یک مسابقه فناوری گیر افتاده‌اند، کسانی که با اعتماد به نفس و اعتبار نوآوری می‌کنند، پیشرو هستند. شرکت‌های بزرگی که سیستم‌های حاکمیتی کارآمد ایجاد می‌کنند، می‌توانند بین کاهش ریسک و به حداکثر رساندن مزایای هوش مصنوعی تعادل برقرار کنند، نه اینکه یکی را فدای دیگری کنند.  

در نهایت، مدیریت هوش مصنوعی دیگر اختیاری نیست، بلکه یک الزام استراتژیک است. برای شرکت‌های بزرگ، ایجاد یک استراتژی مدیریت اکنون به معنای تعریف استانداردها، کنترل‌ها و ارزش‌هایی است که استفاده از هوش مصنوعی را در سال‌های آینده هدایت می‌کند. این شامل همه چیز می‌شود، از رعایت مقررات نوظهور گرفته تا ایجاد اخلاق داخلی و مکانیسم‌های شفافیت، با هدف به حداقل رساندن ریسک و به حداکثر رساندن ارزش به شیوه‌ای متعادل. کسانی که به سرعت اقدام می‌کنند، از مزایای نوآوری مداوم و شهرت پایدار بهره‌مند می‌شوند و خود را در بازاری که به طور فزاینده‌ای توسط هوش مصنوعی هدایت می‌شود، در موقعیت پیشرو قرار می‌دهند.

کلودیو کاستا
کلودیو کاستا
کلودیو کاستا رئیس واحد مشاوره تجاری در سلبتی است.
مقالات مرتبط

ارسال پاسخ

لطفا نظر خود را وارد کنید!
لطفا نام خود را اینجا وارد کنید

اخیر

محبوب‌ترین‌ها

[elfsight_cookie_consent id="1"]