Начало Статии Развитието на изкуствения интелект изисква стратегия за управление

Развитието на изкуствения интелект изисква стратегия за управление

Факт е: компаниите в Бразилия са включили изкуствен интелект в своите бизнес стратегии – поне 98% от тях, според проучване, проведено в края на 2024 г. Проблемът обаче е, че само 25% от организациите са декларирали, че са готови да внедрят ИИ. Останалите страдат от инфраструктурни ограничения, управление на данни и недостиг на специализирани таланти. Но това не означава, че останалите 75% чакат идеални условия, за да развият проектите си: напротив, тези компании продължават да внедряват технологията.

Проблемът е, че само една от всеки пет компании е в състояние да интегрира изкуствен интелект в бизнеса си – според наскоро публикуван глобален доклад, изготвен от Qlik в партньорство с ESG. Освен това, само 47% от компаниите съобщават, че са внедрили политики за управление на данните. Тези цифри са глобални – и не би било изненадващо, ако бразилската статистика беше още по-висока. И въпреки че изкуственият интелект в момента се прилага изолирано, а „входната точка“ на технологията обикновено е обслужването на клиентите, все още съществуват финансови, регулаторни и репутационни рискове.

Компаниите, които избират да внедрят ИИ без подходяща подготовка, се сблъскват с много препятствия. Казуси показват, че лошо управляваните алгоритми могат да увековечат предубежденията или да компрометират поверителността, което води до репутационни и финансови щети. Управлението на ИИ не е само технологичен въпрос, но и въпрос на изпълнение и надлежна проверка: без добре дефинирана стратегия рисковете нарастват в съответствие с възможностите – от нарушения на поверителността и злоупотреба с данни до непрозрачни или предубедени автоматизирани решения, които генерират недоверие.

Регулаторен натиск и съответствие: Основи на управлението на ИИ

Необходимостта от установяване на управление на изкуствения интелект не възникна само от бизнес гледна точка: появяват се нови регулации и напредъкът е бърз, включително в Бразилия.  

През декември 2024 г. Федералният сенат одобри законопроект 2338/2023 , който предлага регулаторна рамка за изкуствения интелект с насоки за отговорно използване. Законопроектът възприема подход, основан на риска , подобен на този в Европейския съюз, класифицирайки системите с изкуствен интелект според потенциала им да навредят на основните права. Приложенията, представляващи прекомерен риск, като например автономни алгоритми за оръжия или инструменти за масово наблюдение, ще бъдат забранени , генеративните и универсални системи ще трябва да преминат през предварителни оценки на риска, преди да достигнат до пазара.

Съществуват и изисквания за прозрачност, например, изискващи от разработчиците да разкриват дали са използвали съдържание, защитено с авторски права, при обучението на модели. Същевременно се водят дискусии за възлагане на Националния орган за защита на данните (ANPD) на централна роля в координирането на управлението на ИИ в страната, като се използва съществуващата рамка за защита на данните. Тези законодателни инициативи сигнализират, че компаниите скоро ще имат ясни задължения по отношение на разработването и използването на ИИ – от практики за докладване и смекчаване на рисковете до отчитане на алгоритмичните въздействия.

В Съединените щати и Европа регулаторните органи засилиха контрола върху алгоритмите, особено след популяризирането на генеративните инструменти за изкуствен интелект, което предизвика обществен дебат. Законът за изкуствения интелект (AI ACT) вече влезе в сила в ЕС, а прилагането му е планирано да приключи на 2 август 2026 г., когато повечето от задълженията на стандарта стават приложими, включително изискванията за високорискови системи с изкуствен интелект и модели с общ характер на изкуствения интелект.  

Прозрачност, етика и алгоритмична отчетност

Отвъд правния аспект, управлението на ИИ обхваща етични и отговорни принципи, които надхвърлят просто „спазване на закона“. Компаниите осъзнават, че за да спечелят доверието на клиентите, инвеститорите и обществото като цяло, прозрачността относно начина, по който се използва ИИ, е от съществено значение. Това включва приемането на редица вътрешни практики, като например предварителна оценка на алгоритмичното въздействие, стриктно управление на качеството на данните и независим одит на моделите.  

Също така е изключително важно да се прилагат политики за управление на данните, които внимателно филтрират и подбират данните за обучение, като се избягват дискриминационни предубеждения, които могат да бъдат вградени в събраната информация.  

След като даден модел с изкуствен интелект заработи, компанията трябва да провежда периодични тестове, валидиране и одити на своите алгоритми, документирайки използваните решения и критерии. Този запис има две предимства: той помага да се обясни как работи системата и позволява отчетност в случай на повреда или неправилен резултат.

Управление: иновации с конкурентна стойност

Често срещано погрешно схващане е, че управлението на ИИ ограничава иновациите. Напротив, добрата стратегия за управление позволява безопасни иновации, отключвайки пълния потенциал на ИИ отговорно. Компаниите, които структурират своите рамки за управление рано, могат да смекчат рисковете, преди те да се превърнат в проблеми, избягвайки преработка или скандали, които биха забавили проектите.  

В резултат на това тези организации извличат по-голяма стойност по-бързо от своите инициативи. Пазарните данни потвърждават тази корелация: глобално проучване установи, че компании с активен ръководен надзор върху управлението на ИИ отчитат по-добри финансови последици от използването на усъвършенстван ИИ.

Освен това, живеем във време, когато потребителите и инвеститорите са все по-наясно с етичното използване на технологиите – и демонстрирането на този ангажимент към управлението може да диференцира една компания от конкуренцията.  

На практика, организациите със зряло управление отчитат подобрения не само в сигурността, но и в ефективността на разработката – ръководителите посочват намаляване на времето за цикъл на проекти с изкуствен интелект благодарение на ясните стандарти от самото начало. Тоест, когато изискванията за поверителност, обяснимост и качество се вземат предвид в началото на фазата на проектиране, се избягват скъпоструващи корекции по-късно.  

Следователно, управлението действа като ръководство за устойчиви иновации, като насочва къде да се инвестира и как да се мащабират решенията отговорно. И като съгласува инициативите за изкуствен интелект с корпоративната стратегия и ценности на компанията, управлението гарантира, че иновациите винаги служат на по-големите бизнес и репутационни цели, вместо да следват изолиран или потенциално вреден път.  

Разработването на стратегия за управление на ИИ е преди всичко стратегически ход за конкурентно позициониране. В днешната екосистема, където държавите и компаниите са вкопчени в технологична надпревара, тези, които внедряват иновации с увереност и надеждност, водят пътя. Големите компании, които установяват ефикасни системи за управление, са в състояние да балансират смекчаването на риска с максимизиране на ползите от ИИ, вместо да жертват едното за другото.  

И накрая, управлението на изкуствения интелект вече не е по избор, а стратегически императив. За големите компании създаването на стратегия за управление вече означава определяне на стандартите, контролите и ценностите, които ще ръководят използването на изкуствен интелект през следващите години. Това включва всичко - от спазване на нововъзникващите разпоредби до създаване на вътрешни механизми за етика и прозрачност, целящи минимизиране на риска и максимизиране на стойността по балансиран начин. Тези, които действат своевременно, ще пожънат ползите от постоянни иновации и солидна репутация, позиционирайки се напред на един все по-ориентиран към изкуствения интелект пазар.

Клаудио Коста
Клаудио Коста
Клаудио Коста е ръководител на звеното за бизнес консултации в Selbetti.
СВЪРЗАНИ СТАТИИ

ОСТАВЕТЕ ОТГОВОР

Моля, въведете коментара си!
Моля, въведете името си тук

ПОСЛЕДНИ

НАЙ-ПОПУЛЯРНИ

[elfsight_cookie_consent id="1"]