TOTVS کی ایک تحقیق کے مطابق، برازیل کی 36% کمپنیاں اب بھی سائبر حملوں اور ڈیٹا کی خلاف ورزی کے خوف سے مصنوعی ذہانت میں سرمایہ کاری کرنے سے ہچکچا رہی ہیں۔ تاہم، موروثی طور پر محفوظ پلیٹ فارمز کی ترقی، جیسے کہ گوگل کا جیمنی، جو دنیا کے سب سے مضبوط کلاؤڈ انفراسٹرکچر پر میزبانی کرتا ہے، اس تمثیل کو بدل رہا ہے۔ L8 گروپ کے ماہرین کے لیے، ایک معروف ٹیکنالوجی اور سائبرسیکیوریٹی کمپنی، جدت کو محفوظ بنانے کی کلید یہ جاننا ہے کہ یہ پلیٹ فارم پہلے سے پیش کردہ تحفظ کی صلاحیتوں کو کیسے استعمال کریں۔
"حساس ڈیٹا کے سامنے آنے اور خطرات کے لیے نئے دروازے کھولنے کا خوف AI کو اپنانے کی راہ میں سب سے بڑی رکاوٹ ہے؛ تاہم، ٹیکنالوجی پلیٹ فارم کا انتخاب ان خطرات کو کم کرنے میں ایک فیصلہ کن عنصر ہے۔ کمپنیوں کا خوف سمجھ میں آتا ہے، لیکن یہ اس خیال سے پیدا ہوتا ہے کہ AI ایک کمزور بلیک باکس ہے۔ یہ سچ نہیں ہے جب ہم بات کرتے ہیں کہ یہ ایک جیمنی ٹول کے اندر کام کرتا ہے۔ کلاؤڈ ایکو سسٹم، جس میں پہلے سے ہی عالمی معیار کی حفاظتی تہیں موجود ہیں،" ایل 8 کے سی ٹی او گلہرم فرانکو بتاتے ہیں۔
اس کا مطلب ہے کہ کسٹمر ڈیٹا کو ایڈوانس انکرپشن، سخت پرائیویسی پالیسیوں سے محفوظ کیا جاتا ہے جو پبلک ماڈلز کی تربیت کے لیے اس کے استعمال کو روکتی ہیں، اور کنٹرول ٹولز کے ایک ہتھیار۔ فرانکو کے مطابق، سیکورٹی کوئی اضافہ نہیں ہے؛ یہ وہ فاؤنڈیشن ہے، جسے مزید اپنی مرضی کے مطابق بنایا جا سکتا ہے جب کمپنیاں پہلے سے ہی Google Workspace کا استعمال کرتی ہیں، مثال کے طور پر اسے Vault کی ڈیٹا برقرار رکھنے کی پالیسیوں کے ساتھ ضم کر کے۔
جیمنی کا استعمال کرتے ہوئے محفوظ طریقے سے AI میں سرمایہ کاری کرنے والی کمپنیوں کے لیے، L8 گروپ اس بات پر زور دیتا ہے کہ کامیابی کا انحصار مناسب ترتیب اور گوگل کلاؤڈ پلیٹ فارم پر دستیاب سیکیورٹی خصوصیات کو زیادہ سے زیادہ کرنے پر ہے۔ سائبرسیکیوریٹی ماہر گیلہرم فرانکو کی طرف سے اٹھائے گئے کچھ نکات یہ ہیں:
- بنیادی ڈھانچے کو بطور ڈیفالٹ محفوظ بنائیں: جیمنی کو اسی بنیادی ڈھانچے سے فائدہ ہوتا ہے جو Gmail، تلاش اور YouTube کی حفاظت کرتا ہے۔ اس میں ڈینیئل آف سروس (DDoS) تحفظ، دخل اندازی کا پتہ لگانا، اور ایک نجی، خفیہ کردہ عالمی نیٹ ورک شامل ہے۔
- ڈیٹا اور رسائی کنٹرول (IAM اور VPC-SC): Google Cloud Identity and Access Management (IAM) آپ کو قطعی طور پر اس بات کی وضاحت کرنے کی اجازت دیتا ہے کہ کون AI ماڈلز اور ڈیٹا تک رسائی حاصل کر سکتا ہے۔ مزید برآں، VPC سروس کنٹرولز کے ساتھ، کمپنیاں ڈیٹا لیک ہونے سے روکنے کے لیے ایک ورچوئل سیکیورٹی کا دائرہ بنا سکتی ہیں، اس بات کو یقینی بناتے ہوئے کہ حساس معلومات کنٹرول شدہ ماحول سے باہر نہ جائیں۔
- Google Workspace کے صارفین کے لیے، Gemini رسائی کی ان ہی سطحوں کا احترام کرتی ہے جو پہلے کمپنی کے مواد تک رسائی کے لیے بیان کی گئی تھیں، جیسے کہ Google Drive، بغیر کسی اضافی کنفیگریشن کے۔
- اسے گوگل ورک اسپیس کے علاوہ دیگر پلیٹ فارمز استعمال کرنے والے صارفین تک بڑھایا جا سکتا ہے، جیسے کہ مائیکروسافٹ، جب ایڈوانسڈ IAM کے ساتھ گوگل ایجنٹ اسپیس استعمال کرتے ہیں۔
- رازداری اور رازداری: Google معاہدے کے مطابق اس بات کی ضمانت دیتا ہے کہ Google Cloud کے ذریعے Gemini میں داخل کردہ کارپوریٹ ڈیٹا عوامی طور پر قابل رسائی ماڈلز کو تربیت دینے کے لیے استعمال نہیں کیا جائے گا۔ ڈیٹا کا کنٹرول اور ملکیت مکمل طور پر کلائنٹ کمپنی کے پاس رہتی ہے۔
- ذمہ دار AI سیفٹی اور فلٹرز: جیمنی پلیٹ فارم میں ہی نامناسب، خطرناک یا متعصب مواد کی تخلیق کو کم کرنے کے لیے
- "مقامی" ڈیٹا: دوسروں کے درمیان، نوٹ بک ایل ایم جیسے ٹولز کا استعمال کرنا ممکن ہے، جو صارف کی منتخب کردہ فائلوں کو پڑھ کر مواد کا اندازہ لگاتے ہیں، بغیر کسی بیرونی سرچ ڈیٹا بیس، جیسے کہ انٹرنیٹ کا استعمال کیے، فریب کاری کو کم کرتے ہیں اور زیادہ رازداری کو یقینی بناتے ہیں۔
آخر میں، ماہر نے خبردار کیا: "سوال اب یہ نہیں ہے کہ 'اگر' ہم AI کو اپنائیں گے، بلکہ 'کیسے' ہم اسے محفوظ طریقے سے اور توسیعی طریقے سے کریں گے۔ جیمنی جیسے پلیٹ فارمز بنیادی طور پر سیکیورٹی کی بہت سی پیچیدگیوں کو حل کرتے ہیں۔ مثال کے طور پر، L8 پر ہمارا کام ایک اسٹریٹجک پارٹنر کے طور پر کام کرنا ہے جو تحفظ کی ان تہوں کو اپنی مرضی کے مطابق اور لاگو کرتا ہے: IAM، VPC، حقیقی ڈیٹا کی ضروریات کے مطابق، ہم ہر کاروباری ڈیٹا کو منتقل کرتے ہیں۔ AI کی خام طاقت ایک محفوظ اور مستقبل کے لیے تیار مسابقتی فائدہ کے لیے سب سے اہم بات یہ ہے کہ ہم ایسے منصوبے بناتے ہیں جو واقعی کام کرتے ہیں، کیونکہ MIT کے ایک حالیہ مطالعے سے پتہ چلتا ہے کہ 95% AI پروجیکٹس ناکام ہو جاتے ہیں۔
وہ یہ بھی خبردار کرتا ہے کہ سائبر سیکیورٹی کے حوالے سے، پہلے سے معروف اصطلاح ShadowIT کے علاوہ، ShadowAI بھی ہے، جس میں صارفین غیر منظور شدہ اور غیر محفوظ AI ٹولز استعمال کرتے ہیں۔ "دوسرے پلیٹ فارمز اپنے AIs کو صارف کے ان پٹ کی بنیاد پر تربیت دیتے ہیں، بشمول حساس ڈیٹا، LGPD کی خلاف ورزی کرتے ہوئے۔ حالیہ Grok کیس پر غور کریں، جس نے 370,000 سے زیادہ نجی بات چیت کو لیک کیا تھا۔ ShadowIT اور ShadowAI کے استعمال کا پتہ لگانے اور اسے روکنے میں مدد کرنے کے لیے، L8 گروپ ایسے حل پیش کرتا ہے جو کہ رسائی حاصل کی جا رہی ہے اس پر مرئیت اور کنٹرول فراہم کرتا ہے" نتیجہ اخذ کرتا ہے