Faktanya: perusahaan-perusahaan di Brasil telah mengintegrasikan Kecerdasan Buatan ke dalam strategi bisnis mereka—setidaknya 98% di antaranya, menurut riset yang dilakukan pada akhir tahun 2024. Namun, masalahnya, hanya 25% organisasi yang menyatakan siap menerapkan AI. Sisanya menghadapi keterbatasan infrastruktur, manajemen data, dan kekurangan talenta khusus. Namun, ini tidak berarti 75% sisanya menunggu kondisi ideal untuk memajukan proyek mereka: justru sebaliknya, perusahaan-perusahaan ini terus menerapkan teknologi tersebut.
Masalahnya adalah hanya satu dari lima perusahaan yang mampu mengintegrasikan AI ke dalam bisnis mereka—menurut laporan global yang baru-baru ini dirilis dan disusun oleh Qlik bekerja sama dengan ESG. Lebih lanjut, hanya 47% perusahaan yang melaporkan penerapan kebijakan tata kelola data. Angka-angka ini bersifat global—dan tidak mengherankan jika statistik Brasil bahkan lebih tinggi lagi. Meskipun AI saat ini diterapkan secara terpisah, dan "titik masuk" teknologi ini biasanya adalah layanan pelanggan, risiko finansial, regulasi, dan reputasi tetap ada.
Perusahaan yang memilih untuk menerapkan AI tanpa persiapan yang matang menghadapi banyak kendala. Studi kasus menunjukkan bahwa algoritma yang dikelola dengan buruk dapat melanggengkan bias atau mengorbankan privasi, yang mengakibatkan kerugian reputasi dan finansial. Tata kelola AI bukan hanya masalah teknologi, tetapi juga masalah eksekusi dan uji tuntas: tanpa strategi yang terdefinisi dengan baik, risiko tumbuh seiring dengan peluang—mulai dari pelanggaran privasi dan penyalahgunaan data hingga keputusan otomatis yang tidak transparan atau bias yang menimbulkan ketidakpercayaan.
Tekanan Regulasi dan Kepatuhan: Fondasi Tata Kelola AI
Kebutuhan untuk membangun tata kelola AI tidak hanya muncul dari sisi bisnis: regulasi baru pun bermunculan, dan kemajuannya pun pesat, termasuk di Brasil.
Pada bulan Desember 2024, Senat Federal menyetujui RUU 2338/2023 , yang mengusulkan kerangka regulasi untuk AI dengan pedoman penggunaan yang bertanggung jawab. RUU ini mengadopsi pendekatan berbasis risiko , serupa dengan pendekatan Uni Eropa, yang mengklasifikasikan sistem AI berdasarkan potensinya untuk merugikan hak-hak asasi. Aplikasi yang menimbulkan risiko berlebihan, seperti algoritma senjata otonom atau alat pengawasan massal, akan dilarang , sistem AI generatif dan serbaguna akan diwajibkan untuk menjalani penilaian risiko terlebih dahulu sebelum memasuki pasar.
Terdapat pula persyaratan transparansi, misalnya, yang mewajibkan pengembang untuk mengungkapkan apakah mereka menggunakan konten berhak cipta saat melatih model. Di saat yang sama, terdapat diskusi tentang penugasan Otoritas Perlindungan Data Nasional (ANPD) sebagai peran sentral dalam mengoordinasikan tata kelola AI di negara ini, dengan memanfaatkan kerangka kerja perlindungan data yang ada. Inisiatif legislatif ini menandakan bahwa perusahaan akan segera memiliki kewajiban yang jelas terkait pengembangan dan penggunaan AI—mulai dari praktik pelaporan dan mitigasi risiko hingga memperhitungkan dampak algoritmik.
Di Amerika Serikat dan Eropa, regulator telah meningkatkan pengawasan terhadap algoritma, terutama setelah mempopulerkan perangkat AI generatif, yang memicu perdebatan publik. Undang-Undang AI telah mulai berlaku di Uni Eropa, dan implementasinya dijadwalkan berakhir pada 2 Agustus 2026, ketika sebagian besar kewajiban standar mulai berlaku, termasuk persyaratan untuk sistem AI berisiko tinggi dan model AI untuk keperluan umum.
Transparansi, etika dan akuntabilitas algoritmik
Di luar aspek hukum, tata kelola AI mencakup prinsip-prinsip etika dan tanggung jawab yang melampaui sekadar "kepatuhan terhadap hukum". Perusahaan menyadari bahwa, untuk mendapatkan kepercayaan pelanggan, investor, dan masyarakat secara keseluruhan, transparansi tentang bagaimana AI digunakan sangatlah penting. Hal ini memerlukan penerapan serangkaian praktik internal, seperti penilaian awal terhadap dampak algoritmik, manajemen kualitas data yang ketat, dan audit model yang independen.
Penting juga untuk menerapkan kebijakan tata kelola data yang secara hati-hati menyaring dan memilih data pelatihan, menghindari bias diskriminatif yang mungkin tertanam dalam informasi yang dikumpulkan.
Setelah model AI beroperasi, perusahaan harus melakukan pengujian, validasi, dan audit berkala terhadap algoritmanya, mendokumentasikan keputusan dan kriteria yang digunakan. Catatan ini memiliki dua manfaat: membantu menjelaskan cara kerja sistem dan memungkinkan akuntabilitas jika terjadi kegagalan atau hasil yang tidak sesuai.
Tata Kelola: Inovasi dengan Nilai Kompetitif
Kesalahpahaman umum adalah bahwa tata kelola AI membatasi inovasi. Sebaliknya, strategi tata kelola yang baik memungkinkan inovasi yang aman, yang membuka potensi penuh AI secara bertanggung jawab. Perusahaan yang menyusun kerangka tata kelola mereka sejak dini dapat memitigasi risiko sebelum menjadi masalah, sehingga menghindari pengerjaan ulang atau skandal yang dapat menunda proyek.
Hasilnya, organisasi-organisasi ini memperoleh nilai lebih besar dengan lebih cepat dari inisiatif mereka. Bukti pasar memperkuat korelasi ini: sebuah survei global menemukan bahwa perusahaan dengan pengawasan aktif dari pimpinan atas tata kelola AI melaporkan dampak finansial yang lebih unggul dari penggunaan AI canggih.
Lebih jauh lagi, kita berada di masa ketika konsumen dan investor semakin sadar akan etika penggunaan teknologi – dan menunjukkan komitmen terhadap tata kelola ini dapat membedakan perusahaan dari pesaing.
Secara praktis, organisasi dengan tata kelola yang matang melaporkan peningkatan tidak hanya dalam hal keamanan tetapi juga efisiensi pengembangan – para eksekutif menunjukkan pengurangan waktu siklus proyek AI berkat standar yang jelas sejak awal. Artinya, ketika persyaratan privasi, kemudahan dijelaskan, dan kualitas dipertimbangkan sejak awal dalam fase desain, koreksi yang mahal dapat dihindari di kemudian hari.
Tata kelola, dengan demikian, bertindak sebagai panduan untuk inovasi berkelanjutan, memandu di mana berinvestasi dan bagaimana meningkatkan skala solusi secara bertanggung jawab. Dan dengan menyelaraskan inisiatif AI dengan strategi dan nilai-nilai perusahaan, tata kelola memastikan bahwa inovasi selalu melayani tujuan bisnis dan reputasi yang lebih besar, alih-alih mengikuti jalur yang terisolasi atau berpotensi merugikan.
Mengembangkan strategi tata kelola AI, terutama, merupakan langkah strategis untuk memposisikan diri secara kompetitif. Dalam ekosistem saat ini, di mana negara dan perusahaan terkunci dalam persaingan teknologi, mereka yang berinovasi dengan keyakinan dan kredibilitaslah yang memimpin. Perusahaan besar yang membangun sistem tata kelola yang efisien mampu menyeimbangkan mitigasi risiko dengan memaksimalkan manfaat AI, alih-alih mengorbankan salah satunya.
Akhirnya, tata kelola AI bukan lagi pilihan, melainkan keharusan strategis. Bagi perusahaan besar, menyusun strategi tata kelola kini berarti mendefinisikan standar, kontrol, dan nilai-nilai yang akan memandu penggunaan kecerdasan buatan di tahun-tahun mendatang. Hal ini mencakup berbagai hal, mulai dari mematuhi peraturan yang berlaku hingga menciptakan mekanisme etika dan transparansi internal, yang bertujuan meminimalkan risiko dan memaksimalkan nilai secara seimbang. Mereka yang bertindak cepat akan menuai hasilnya dalam bentuk inovasi yang konsisten dan reputasi yang solid, memposisikan diri mereka sebagai yang terdepan di pasar yang semakin didorong oleh AI.