Süni intellektin sürətli təkamülü ilə onun istifadəsinin tənzimlənməsi Braziliyada mərkəzi və aktual məsələyə çevrildi. Yeni texnologiya müxtəlif sektorları innovasiya etmək və transformasiya etmək üçün böyük potensial təklif edir, eyni zamanda etika, şəffaflıq və idarəetmə ilə bağlı kritik suallar doğurur. Rəqəmsal transformasiyanın sürətlə irəlilədiyi Braziliya kontekstində süni innovasiyanın davamlı və məsuliyyətli inkişafını təmin etmək üçün innovasiya və müvafiq tənzimləmə arasında tarazlığın tapılması vacibdir.
Eksklüziv müsahibədə Performa_IT şirkətinin COO-su Samir Kərəm texnologiya sektorunda innovasiya və etika tarazlığının vacibliyini vurğulayaraq, süni intellektin tənzimlənməsində problemlərin və ortaya çıxan həllərin dərin təhlilini təklif edir.
Braziliyada süni intellekt tənzimlənməsi hələ də strukturlaşma mərhələsindədir ki, bu da həm çətinliklər, həm də imkanlar gətirir. " Bir tərəfdən, tənzimləmə texnologiyanın məsuliyyətli istifadəsi, şəffaflıq və etika kimi prinsipləri təmin etmək üçün daha aydın təlimatlar yaradır. Digər tərəfdən, innovasiyanı ləngidə bilən həddindən artıq bürokratlaşma riski var. Tənzimləmə və innovasiya azadlığı arasındakı tarazlıq Braziliyanın qlobal səhnədə rəqabət qabiliyyətini qoruyub saxlaması üçün vacibdir , deyə Karaforma COO-dan başlayır . həllər təminatçısı və rəqəmsal transformasiya və süni intellekt sahəsində liderdir.
Shadow AI və Deepfakes : Risklər və Həll yolları
Samir Kərəmin müzakirə etdiyi ən narahatedici anlayışlardan biri də müvafiq nəzarət və ya nəzarət olmadan təşkilat daxilində süni intellektin istifadəsinə aid olan kölgə AI Bu təcrübə məlumat sızması, qərəzli qərarlar və təhlükəsizlik riskləri kimi bir sıra problemlərə səbəb ola bilər.
Məsələn, bir marketinq qrupunun İT təsdiqi və ya uyğunluq . Şirkəti hüquqi risklərə məruz qoymaqla yanaşı, bu texnologiyanın tənzimlənməmiş istifadəsi həssas məlumatların qeyri-adekvat toplanması və təhlili ilə nəticələnə bilər, istifadəçi məxfiliyini pozur.
Başqa bir ssenari işə götürmə qərarları üçün AI alqoritmlərinin inkişafıdır, adekvat nəzarət olmadan təlim məlumatlarında mövcud olan şüursuz qərəzləri təkrarlaya bilər və nəticədə ədalətsiz və ayrı-seçkilik xarakterli qərarlar verilir.
Süni intellektdən istifadə edilməklə yaradılmış video və ya audioların insanın şəkillərini, səslərini və hərəkətlərini manipulyasiya etdiyi deepfakes vəziyyətində olduğu kimi, onları əslində heç vaxt baş verməmiş bir şeyi deyir və ya edirmiş kimi göstərir. Bu texnologiyadan dezinformasiya yaymaq, insanları təqlid etmək və onların reputasiyasına xələl gətirmək üçün qəsdən istifadə oluna bilər.
süni intellekt və dərin saxtakarlığı üçün həllər güclü süni intellekt idarəetmə siyasətlərinin yaradılmasına əsaslanır:
Bu siyasətlərə AI təcrübələrinin təşkilatın etika və şəffaflıq qaydalarına uyğun olmasını təmin etmək üçün tez-tez yoxlamaların həyata keçirilməsi daxildir. Bundan əlavə, sui-istifadənin qarşısını almaq və məlumatların təhlükəsizliyini təmin etmək üçün icazəsiz fəaliyyəti aşkar edən və süni intellekt sistemlərinə davamlı olaraq nəzarət edən vasitələrdən istifadə etmək vacibdir.
Samir vurğulayır ki, bu tədbirlər olmadan süni intellektdən nəzarətsiz istifadə nəinki istehlakçıların inamını sarsıda bilər, həm də təşkilatları ciddi hüquqi və reputasiya fəsadlarına məruz qoya bilər.
Süni intellektdə saxta xəbərlər
Süni intellekt tərəfindən yaradılan saxta xəbərlərin yayılması " Süni intellekt tərəfindən yaradılan saxta xəbərlərlə mübarizə texnologiya və təhsilin birləşməsini tələb edir. Avtomatlaşdırılmış yoxlama vasitələri, şəkillərdə və mətnlərdə sintetik nümunələrin müəyyən edilməsi və süni intellekt tərəfindən yaradılan məzmunun etiketlənməsi mühüm addımlardır. Amma biz həm də ictimai məlumatlılığa sərmayə qoymalıyıq, insanlara etibarlı mənbələri və şübhəli məzmunu necə müəyyənləşdirməyi öyrətməliyik", - Samir deyir.
Süni intellektin inkişafında şəffaflığın və etikanın təmin edilməsi Samirin müdafiə etdiyi sütunlardan biridir. O vurğulayır ki, " bəzi ən yaxşı təcrübələrə izah edilə bilən AI (XAI) modellərinin qəbulu, müstəqil auditlər, qərəzdən qaçmaq üçün müxtəlif məlumatlardan istifadə və AI etika komitələrinin yaradılması daxildir".
fişinq kimi mürəkkəb hücumları əhatə edir - cinayətkarların rəqəmsal rabitədə etibarlı qurumlar kimi təqdim edərək, parollar və bank məlumatları kimi həssas məlumatları üzə çıxarmaq üçün fərdləri aldatmağa cəhd edən hücum texnikası. Bu hücumlar süni intellektlə birləşdirildikdə daha mürəkkəb ola bilər, fərdiləşdirilmiş e-poçtlar və realdan ayırd etmək çətin olan mesajlar yaradır. Bu riskləri azaltmaq üçün Samir təklif edir ki, “ AI əsaslı aşkarlama həllərinə sərmayə qoymaq, çoxfaktorlu autentifikasiyanı həyata keçirmək və AI modellərinin manipulyasiya cəhdlərini aşkar etmək və azaltmaq üçün öyrədilməsini təmin etmək çox
Effektiv AI Siyasətləri üçün əməkdaşlıq
Şirkətlər, hökumətlər və akademiya arasında əməkdaşlıq effektiv süni intellekt siyasətinin formalaşdırılması üçün çox vacibdir. Samir vurğulayır ki, " Süni intellekt bir çox sektora təsir edir, ona görə də tənzimləmənin birgə işlənib hazırlanması lazımdır. Şirkətlər texnologiyanın istifadəsi ilə bağlı praktiki anlayışlar təqdim edir, hökumətlər təhlükəsizlik və məxfilik qaydaları müəyyən edir, akademiya isə daha təhlükəsiz və daha etik inkişaf üçün tədqiqat və metodologiyalara töhfə verir."
Süni intellektin çoxşaxəli təbiəti o deməkdir ki, onun təsirləri və tətbiqləri səhiyyədən tutmuş təhsilə, maliyyəyə və ictimai təhlükəsizliyə qədər müxtəlif sektorlarda geniş şəkildə dəyişir. Buna görə də, effektiv siyasətlərin yaradılması bütün bu dəyişənləri nəzərə alan inteqrasiya olunmuş yanaşma tələb edir.
Şirkətlər bu prosesdə həlledici rol oynayırlar, çünki AI-ni geniş miqyasda tətbiq edən və istifadə edən şirkətlərdir. Onlar bazar ehtiyacları, praktiki problemlər və ən son texnoloji yeniliklər haqqında məlumat Özəl sektorun məlumatı süni intellekt siyasətlərinin real dünya kontekstlərində tətbiq oluna biləcəyini və müvafiq olmasını təmin edir.
Hökumətlər , öz növbəsində, vətəndaşları qoruyan və süni intellektdən etik istifadəni təmin edən təlimatlar yaratmağa borcludurlar. Onlar təhlükəsizlik, məxfilik və insan hüquqları məsələlərini həll edən qaydalar yaradırlar. Bundan əlavə, hökumətlər müxtəlif maraqlı tərəflər arasında əməkdaşlığı asanlaşdıra və süni intellekt tədqiqatları üçün maliyyələşdirmə proqramlarını təşviq edə bilər.
Akademiya bu tapmacanın üçüncü vacib hissəsidir. Universitetlər və tədqiqat institutları AI-nin təhlükəsiz və etik şəkildə inkişaf etdirilməsini təmin etmək üçün möhkəm nəzəri baza təmin edir və yeni metodologiyalar hazırlayır. Akademik tədqiqat həmçinin AI alqoritmlərində qərəzlərin müəyyən edilməsində və yumşaldılmasında, texnologiyaların ədalətli və ədalətli olmasını təmin etməkdə mühüm rol oynayır.
Bu üçtərəfli əməkdaşlıq süni intellekt siyasətlərinin möhkəm və uyğunlaşa bilən olmasına imkan verir, texnologiyanın istifadəsi ilə bağlı həm faydaları, həm də riskləri həll edir. Bu əməkdaşlığın praktiki nümunəsini dövlət-özəl tərəfdaşlıq proqramlarında görmək olar, burada texnologiya şirkətləri təhlükəsizlik və məxfilik standartlarına uyğun süni intellekt həlləri hazırlamaq üçün akademik institutlar və dövlət qurumları ilə birlikdə işləyirlər.
Samir vurğulayır ki, bu əməkdaşlıq yanaşması olmadan praktiki reallıqdan ayrılan və ya innovasiyaya mane olan qaydaların yaradılması riski var. “Riskləri minimuma endirməklə yanaşı, süni intellektin faydalarını maksimuma çatdırmaq üçün tənzimləmə və innovasiya azadlığı arasında tarazlıq tapmaq vacibdir”, o, yekunlaşdırır.
Süni intellekt mifləri
Süni intellektin (AI) gündəlik həyatımızda getdikcə daha çox yer aldığı indiki ssenaridə onun işləməsi və təsiri ilə bağlı çoxlu miflər və anlaşılmazlıqlar yaranır.
Bu məqamları aydınlaşdırmaq, aydınlaşdırmaq və müsahibəni yekunlaşdırmaq üçün Samir Kərəm stolüstü tennis formatında bir neçə suala cavab verib, ən çox yayılmış miflərə toxunub və süni intellekt reallığı haqqında fikirlər
- Süni intellektlə bağlı ən çox rastlaşdığınız miflər hansılardır və onları necə aradan qaldırırsınız?
Ən böyük miflərdən biri süni intellektin səhvsiz və tamamilə qərəzsiz olmasıdır. Əslində, o, öyrədildiyi məlumatları əks etdirir və bu məlumatlarda qərəzlər varsa, AI onları çoxalda bilər. Digər ümumi mif budur ki, süni intellekt tam avtomatlaşdırma deməkdir, halbuki əslində bir çox proqramlar sadəcə qərar qəbul edən köməkçilərdir.
- Süni intellekt həqiqətən bütün insan işlərini əvəz edə bilərmi? Reallıq nədir?
Süni intellekt bütün işləri əvəz etməyəcək, lakin onların bir çoxunu dəyişdirəcək. Peşəkarlardan yeni bacarıqlar inkişaf etdirməyi tələb edən yeni rollar yaranacaq. Ən çox ehtimal olunan ssenari insanlar və süni intellekt arasında əməkdaşlıqdır, burada texnologiya təkrarlanan tapşırıqları avtomatlaşdırır və insanların diqqəti yaradıcılıq və tənqidi mühakimə tələb edənlərə yönəldir.
- Elmi fantastika filmlərində gördüyümüz kimi süni intellektin şüurlu ola biləcəyi və bəşəriyyəti ələ keçirə biləcəyi doğrudurmu?
Hazırda süni intellektin şüurlu ola biləcəyinə dair heç bir elmi sübut yoxdur. Mövcud modellər cavablar yaratmaq üçün məlumatları emal edən, lakin heç bir idrak forması və ya öz niyyəti olmadan inkişaf etmiş statistik alətlərdir.
- Bütün süni intellektlər təhlükəlidirmi və ya zərərli məqsədlər üçün istifadə edilə bilərmi? Onlar haqqında nə bilməliyik?
Hər hansı bir texnologiya kimi, AI yaxşı və ya pis üçün istifadə edilə bilər. Təhlükə AI-nin özündə deyil, onun istifadəsindədir. Buna görə tənzimləmə və məsuliyyətli istifadə çox vacibdir.
- Süni intellektin qüsursuz olduğu barədə bir fikir var. Süni intellektin əsl məhdudiyyətləri hansılardır?
Süni intellekt, xüsusən məhdud və ya qərəzli məlumatlarla öyrədildikdə səhv edə bilər. Bundan əlavə, süni intellekt modelləri düşmən hücumları ilə asanlıqla aldana bilər, burada kiçik məlumat manipulyasiyaları gözlənilməz nəticələrə səbəb ola bilər.
- Süni intellekt sadəcə bir dəbdir, yoxsa burada qalacaq bir texnologiyadır?
AI qalmaq üçün buradadır. Onun təsiri elektrik və internetin təsiri ilə müqayisə edilə bilər. Bununla belə, onun inkişafı daim inkişaf edir və biz növbəti illərdə çoxlu dəyişikliklərin şahidi olacağıq.
- Süni intellekt sistemləri həqiqətən də tamamilə qərəzsiz qərarlar qəbul etməyə qadirdirmi? Qərəzlər alqoritmlərə necə təsir edə bilər?
Heç bir AI tamamilə qərəzsiz deyil. Əgər onu öyrətmək üçün istifadə edilən məlumatlar qərəzli olarsa, nəticələr də qərəzli olacaqdır. İdeal olaraq, şirkətlər qərəzliliyin azaldılması təcrübələrini qəbul etməli və müntəzəm auditlər aparmalıdırlar.
- Bütün süni intellekt tətbiqləri nəzarət və şəxsi məlumatların toplanmasını əhatə edirmi? İnsanlar məxfilik və AI haqqında nə bilməlidirlər?
Bütün AI nəzarəti əhatə etmir, lakin məlumatların toplanması bir çox tətbiqlərdə realdır. Ən əsası odur ki, istifadəçilər hansı məlumatların toplandığını bilsinlər və ona nəzarət etsinlər. Şəffaflıq və LGPD (Ümumi Məlumatların Qorunması Qanunu) və GDPR (Ümumi Məlumatların Qorunması Qaydası) kimi qaydalara uyğunluq vacibdir.