Erthyglau Cartref Mae datblygiad deallusrwydd artiffisial yn galw am strategaeth lywodraethu

Mae datblygiad AI yn galw am strategaeth lywodraethu

Mae'n ffaith: mae cwmnïau ym Mrasil wedi ymgorffori Deallusrwydd Artiffisial yn eu strategaethau busnes—o leiaf 98% ohonynt, yn ôl ymchwil a gynhaliwyd ddiwedd 2024. Y broblem, fodd bynnag, yw mai dim ond 25% o sefydliadau a ddatganodd eu bod yn barod i weithredu Deallusrwydd Artiffisial. Mae'r gweddill yn dioddef o gyfyngiadau seilwaith, rheoli data, a phrinder talent arbenigol. Ond nid yw hyn yn golygu bod y 75% sy'n weddill yn aros am amodau delfrydol i ddatblygu eu prosiectau: i'r gwrthwyneb, mae'r cwmnïau hyn yn parhau i weithredu'r dechnoleg.

Y broblem yw mai dim ond un o bob pump cwmni sy'n gallu integreiddio AI i'w busnes—yn ôl adroddiad byd-eang a gyhoeddwyd yn ddiweddar a baratowyd gan Qlik mewn partneriaeth ag ESG. Ar ben hynny, dim ond 47% o gwmnïau a nododd eu bod yn gweithredu polisïau llywodraethu data. Mae'r ffigurau hyn yn fyd-eang—ac ni fyddai'n syndod pe bai ystadegau Brasil hyd yn oed yn uwch. Ac er bod AI yn cael ei gymhwyso mewn silos ar hyn o bryd, a bod "pwynt mynediad" y dechnoleg fel arfer yn wasanaeth cwsmeriaid, mae risgiau ariannol, rheoleiddiol ac enw da yn dal i fodoli.

Mae cwmnïau sy'n dewis gweithredu AI heb baratoi'n briodol yn wynebu llawer o rwystrau. Mae astudiaethau achos wedi dangos y gall algorithmau sy'n cael eu rheoli'n wael barhau â rhagfarnau neu beryglu preifatrwydd, gan arwain at niwed i enw da a difrod ariannol. Nid mater technolegol yn unig yw llywodraethu AI, ond hefyd un o weithredu a diwydrwydd dyladwy: heb strategaeth wedi'i diffinio'n dda, mae risgiau'n tyfu yn unol â chyfleoedd—o dorri preifatrwydd a chamddefnyddio data i benderfyniadau awtomataidd anhryloyw neu ragfarnllyd sy'n creu diffyg ymddiriedaeth.

Pwysau Rheoleiddiol a Chydymffurfiaeth: Seiliau Llywodraethu Deallusrwydd Artiffisial

Nid o safbwynt busnes yn unig y cododd yr angen i sefydlu llywodraethiant AI: mae rheoliadau newydd yn dod i'r amlwg, ac mae cynnydd wedi bod yn gyflym, gan gynnwys ym Mrasil.  

Ym mis Rhagfyr 2024, cymeradwyodd y Senedd Ffederal Fil 2338/2023 , sy'n cynnig fframwaith rheoleiddio ar gyfer AI gyda chanllawiau ar gyfer defnydd cyfrifol. Mae'r bil yn mabwysiadu dull sy'n seiliedig ar risg , yn debyg i ddull yr Undeb Ewropeaidd, gan ddosbarthu systemau AI yn ôl eu potensial i niweidio hawliau sylfaenol. Bydd cymwysiadau sy'n peri risg ormodol, fel algorithmau arfau ymreolaethol neu offer gwyliadwriaeth torfol, yn cael eu gwahardd , systemau AI cynhyrchiol a chyffredinol gael asesiadau risg ymlaen llaw cyn cyrraedd y farchnad.

Mae gofynion tryloywder hefyd, er enghraifft, sy'n ei gwneud yn ofynnol i ddatblygwyr ddatgelu a wnaethant ddefnyddio cynnwys hawlfraint wrth hyfforddi modelau. Ar yr un pryd, mae trafodaethau ynghylch neilltuo rôl ganolog i'r Awdurdod Diogelu Data Cenedlaethol (ANPD) wrth gydlynu llywodraethu AI yn y wlad, gan fanteisio ar y fframwaith diogelu data presennol. Mae'r mentrau deddfwriaethol hyn yn arwydd y bydd gan gwmnïau rwymedigaethau clir yn fuan ynghylch datblygu a defnyddio AI—o arferion adrodd a lliniaru risgiau i gyfrif am effeithiau algorithmig.

Yn yr Unol Daleithiau ac Ewrop, mae rheoleiddwyr wedi cynyddu craffu ar algorithmau, yn enwedig ar ôl poblogeiddio offer AI cynhyrchiol, a ysgogodd ddadl gyhoeddus. Mae'r Ddeddf AI eisoes wedi dod i rym yn yr UE, a disgwylir i'w gweithrediad ddod i ben ar Awst 2, 2026, pan fydd y rhan fwyaf o rwymedigaethau'r safon yn dod yn berthnasol, gan gynnwys gofynion ar gyfer systemau AI risg uchel a modelau AI pwrpas cyffredinol.  

Tryloywder, moeseg ac atebolrwydd algorithmig

Y tu hwnt i'r agwedd gyfreithiol, mae llywodraethu AI yn cwmpasu egwyddorion moesegol a chyfrifoldeb sy'n mynd y tu hwnt i "gydymffurfio â'r gyfraith" yn unig. Mae cwmnïau'n sylweddoli, er mwyn ennill ymddiriedaeth cwsmeriaid, buddsoddwyr a chymdeithas gyfan, bod tryloywder ynghylch sut mae AI yn cael ei ddefnyddio yn hanfodol. Mae hyn yn golygu mabwysiadu cyfres o arferion mewnol, megis asesiad ymlaen llaw o effaith algorithmig, rheoli ansawdd data trylwyr, ac archwilio modelau annibynnol.  

Mae hefyd yn hanfodol gweithredu polisïau llywodraethu data sy'n hidlo ac yn dewis data hyfforddi yn ofalus, gan osgoi rhagfarnau gwahaniaethol a allai fod wedi'u hymgorffori yn y wybodaeth a gesglir.  

Unwaith y bydd model AI ar waith, rhaid i'r cwmni gynnal profion, dilysu ac archwiliadau cyfnodol o'i algorithmau, gan ddogfennu'r penderfyniadau a'r meini prawf a ddefnyddir. Mae gan y cofnod hwn ddau fantais: mae'n helpu i esbonio sut mae'r system yn gweithio ac yn galluogi atebolrwydd rhag ofn methiant neu ganlyniad amhriodol.

Llywodraethu: arloesedd â gwerth cystadleuol

Camsyniad cyffredin yw bod llywodraethu AI yn cyfyngu arloesedd. I'r gwrthwyneb, mae strategaeth lywodraethu dda yn galluogi arloesedd diogel, gan ddatgloi potensial llawn AI yn gyfrifol. Gall cwmnïau sy'n strwythuro eu fframweithiau llywodraethu'n gynnar liniaru risgiau cyn iddynt ddod yn broblemau, gan osgoi ailweithio neu sgandalau a fyddai'n gohirio prosiectau.  

O ganlyniad, mae'r sefydliadau hyn yn medi mwy o werth yn gyflymach o'u mentrau. Mae tystiolaeth y farchnad yn atgyfnerthu'r gydberthynas hon: canfu arolwg byd-eang fod cwmnïau sydd â goruchwyliaeth arweinyddiaeth weithredol o lywodraethu AI yn nodi effeithiau ariannol gwell o ddefnyddio AI uwch.

Ar ben hynny, rydym mewn cyfnod pan fo defnyddwyr a buddsoddwyr yn gynyddol ymwybodol o ddefnydd moesegol technoleg – a gall dangos yr ymrwymiad hwn i lywodraethu wahaniaethu cwmni oddi wrth y gystadleuaeth.  

Yn ymarferol, mae sefydliadau â llywodraethu aeddfed yn adrodd am welliannau nid yn unig o ran diogelwch ond hefyd o ran effeithlonrwydd datblygu – mae swyddogion gweithredol yn tynnu sylw at ostyngiadau yn amser cylchred prosiect AI diolch i safonau clir o'r cychwyn cyntaf. Hynny yw, pan ystyrir preifatrwydd, esboniadwyedd, a gofynion ansawdd yn gynnar yn y cyfnod dylunio, mae cywiriadau costus yn cael eu hosgoi yn ddiweddarach.  

Felly, mae llywodraethu yn gweithredu fel canllaw ar gyfer arloesi cynaliadwy, gan arwain ble i fuddsoddi a sut i raddio atebion yn gyfrifol. A thrwy alinio mentrau AI â strategaeth a gwerthoedd corfforaethol y cwmni, mae llywodraethu yn sicrhau bod arloesi bob amser yn gwasanaethu'r busnes ehangach ac amcanion enw da, yn hytrach na dilyn llwybr ynysig neu a allai fod yn niweidiol.  

Mae datblygu strategaeth llywodraethu AI, yn anad dim, yn gam strategol ar gyfer safle cystadleuol. Yn ecosystem heddiw, lle mae gwledydd a chwmnïau wedi'u cloi mewn ras dechnolegol, y rhai sy'n arloesi gyda hyder a hygrededd sy'n arwain y ffordd. Mae cwmnïau mawr sy'n sefydlu systemau llywodraethu effeithlon yn gallu cydbwyso lliniaru risg â gwneud y mwyaf o fanteision AI, yn hytrach nag aberthu un er mwyn y llall.  

Yn olaf, nid yw llywodraethu AI bellach yn ddewisol ond yn orchymyn strategol. I gwmnïau mawr, mae creu strategaeth lywodraethu bellach yn golygu diffinio'r safonau, y rheolaethau a'r gwerthoedd a fydd yn arwain y defnydd o ddeallusrwydd artiffisial yn y blynyddoedd i ddod. Mae hyn yn cynnwys popeth o gydymffurfio â rheoliadau sy'n dod i'r amlwg i greu mecanweithiau moeseg a thryloywder mewnol, gyda'r nod o leihau risg a chynyddu gwerth mewn modd cytbwys. Bydd y rhai sy'n gweithredu'n brydlon yn medi'r gwobrau mewn arloesedd cyson ac enw da cadarn, gan osod eu hunain ar y blaen mewn marchnad sy'n cael ei gyrru fwyfwy gan AI.

Claudio Costa
Claudio Costa
Claudio Costa yw Pennaeth yr Uned Fusnes Ymgynghori Busnes yn Selbetti.
ERTHYGLAU CYSYLLTIEDIG

GADEWCH ATEB

Rhowch eich sylw!
Rhowch eich enw yma

DIWEDDAR

MWYAF POBLOGAIDD

[elfsight_cookie_consent id="1"]