จากการศึกษาของ TOTVS พบว่า 36% ของบริษัทในบราซิลยังคงลังเลที่จะลงทุนในปัญญาประดิษฐ์ (AI) เนื่องจากกลัวการโจมตีทางไซเบอร์และการละเมิดข้อมูล อย่างไรก็ตาม ความก้าวหน้าของแพลตฟอร์มที่มีความปลอดภัยโดยธรรมชาติ เช่น Gemini ของ Google ซึ่งโฮสต์อยู่บนหนึ่งในโครงสร้างพื้นฐานคลาวด์ที่แข็งแกร่งที่สุดในโลก กำลังเปลี่ยนแปลงกระบวนทัศน์นี้ สำหรับผู้เชี่ยวชาญของ L8 Group บริษัทเทคโนโลยีและความปลอดภัยทางไซเบอร์ชั้นนำ กุญแจสำคัญในการสร้างนวัตกรรมที่ปลอดภัยคือการรู้วิธีใช้ประโยชน์จากความสามารถในการป้องกันที่แพลตฟอร์มเหล่านี้มีอยู่แล้ว
“ความกลัวในการเปิดเผยข้อมูลสำคัญและเปิดประตูสู่ภัยคุกคามใหม่ๆ เป็นอุปสรรคหลักต่อการนำ AI มาใช้ อย่างไรก็ตาม การเลือกแพลตฟอร์มเทคโนโลยีถือเป็นปัจจัยสำคัญในการลดความเสี่ยงเหล่านี้ ความกลัวของบริษัทต่างๆ เป็นเรื่องที่เข้าใจได้ แต่เกิดจากการรับรู้ว่า AI เป็นกล่องดำที่มีความเสี่ยง ซึ่งไม่เป็นความจริงเมื่อเราพูดถึงโมเดลอย่าง Gemini AI ไม่ใช่เครื่องมือแบบสแตนด์อโลน แต่ทำงานภายในระบบนิเวศของ Google Cloud ซึ่งมีระบบรักษาความปลอดภัยระดับโลกอยู่แล้ว” กิลเฮอร์เม ฟรังโก ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของ L8 อธิบาย
ซึ่งหมายความว่าข้อมูลของลูกค้าจะได้รับการปกป้องด้วยการเข้ารหัสขั้นสูง นโยบายความเป็นส่วนตัวที่เข้มงวดซึ่งป้องกันไม่ให้ข้อมูลถูกนำไปใช้ในการฝึกอบรมโมเดลสาธารณะ และเครื่องมือควบคุมมากมาย Franco ระบุว่าความปลอดภัยไม่ใช่สิ่งที่เพิ่มเข้ามา แต่เป็นรากฐานที่สามารถปรับแต่งเพิ่มเติมได้เมื่อบริษัทต่างๆ ใช้ Google Workspace อยู่แล้ว เช่น การผสานรวมเข้ากับนโยบายการเก็บรักษาข้อมูลของ Vault
สำหรับบริษัทที่ต้องการลงทุนใน AI อย่างปลอดภัยโดยใช้ Gemini ทาง L8 Group เน้นย้ำว่าความสำเร็จขึ้นอยู่กับการกำหนดค่าที่เหมาะสมและการเพิ่มประสิทธิภาพฟีเจอร์ด้านความปลอดภัยที่มีอยู่บนแพลตฟอร์ม Google Cloud นี่คือประเด็นบางประการที่ Guilherme Franco ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ได้ยกขึ้นมา:
- โครงสร้างพื้นฐานที่ปลอดภัยตามค่าเริ่มต้น: Gemini ได้รับประโยชน์จากโครงสร้างพื้นฐานเดียวกับที่ใช้ปกป้อง Gmail, Search และ YouTube ซึ่งรวมถึงการป้องกันการปฏิเสธการให้บริการ (DDoS) การตรวจจับการบุกรุก และเครือข่ายทั่วโลกที่เข้ารหัสและเป็นส่วนตัว
- การควบคุมข้อมูลและการเข้าถึง (IAM และ VPC-SC): Google Cloud Identity and Access Management (IAM) ช่วยให้คุณกำหนดได้อย่างแม่นยำว่าใครสามารถเข้าถึงโมเดลและข้อมูล AI ได้บ้าง นอกจากนี้ ด้วย VPC Service Controls บริษัทต่างๆ สามารถสร้างขอบเขตความปลอดภัยเสมือนเพื่อป้องกันการรั่วไหลของข้อมูล มั่นใจได้ว่าข้อมูลสำคัญจะไม่หลุดออกจากสภาพแวดล้อมที่ได้รับการควบคุม
- สำหรับผู้ใช้ Google Workspace Gemini เคารพระดับการเข้าถึงแบบเดียวกับที่กำหนดไว้ก่อนหน้านี้สำหรับการเข้าถึงเนื้อหาของบริษัท เช่น Google Drive โดยไม่จำเป็นต้องมีการกำหนดค่าเพิ่มเติม
- สามารถขยายสิ่งเดียวกันนี้ไปยังผู้ใช้ที่ใช้แพลตฟอร์มอื่นนอกเหนือจาก Google Workspace เช่น Microsoft เมื่อใช้ Google Agentspaces ร่วมกับ IAM ขั้นสูง
- ความเป็นส่วนตัวและความลับ: Google รับประกันตามสัญญาว่าข้อมูลขององค์กรที่ป้อนเข้าสู่ Gemini ผ่าน Google Cloud จะไม่ถูกนำไปใช้ในการฝึกอบรมโมเดลที่เข้าถึงได้สาธารณะ การควบคุมและความเป็นเจ้าของข้อมูลยังคงเป็นของบริษัทลูกค้าแต่เพียงผู้เดียว
- ความปลอดภัยและตัวกรอง AI ที่มีความรับผิดชอบ: แพลตฟอร์ม Gemini นั้นมีตัวกรองความปลอดภัยในตัว เพื่อ ลดการสร้างเนื้อหาที่ไม่เหมาะสม อันตราย หรือลำเอียง ช่วยปกป้องไม่เพียงแต่ข้อมูลเท่านั้น แต่ยังรวมถึงชื่อเสียงของแบรนด์ด้วย
- ข้อมูล "ท้องถิ่น": สามารถใช้เครื่องมือต่างๆ เช่น NotebookLM เป็นต้น ซึ่งใช้ในการอนุมานเนื้อหาโดยการอ่านไฟล์ที่ผู้ใช้เลือก โดยไม่ต้องใช้ฐานข้อมูลการค้นหาภายนอก เช่น อินเทอร์เน็ต ซึ่งจะช่วยลดอาการประสาทหลอนและทำให้มีความเป็นส่วนตัวมากขึ้น
สุดท้ายนี้ ผู้เชี่ยวชาญเตือนว่า “คำถามไม่ได้อยู่ที่ ‘เราจะนำ AI มาใช้หรือไม่’ อีกต่อไป แต่เป็น ‘เราจะนำ AI มาใช้อย่างปลอดภัยและปรับขนาดได้อย่างไร’ แพลตฟอร์มอย่าง Gemini ช่วยแก้ปัญหาความซับซ้อนด้านความปลอดภัยที่เป็นแกนหลักได้อย่างมาก ตัวอย่างเช่น งานของเราที่ L8 คือการทำหน้าที่เป็นพันธมิตรเชิงกลยุทธ์ที่ปรับแต่งและนำการป้องกันเหล่านี้ไปใช้: IAM, VPC, การกำกับดูแลข้อมูล ให้สอดคล้องกับความเป็นจริงและความต้องการของแต่ละธุรกิจ เราเปลี่ยนพลังอันทรงพลังของ AI ให้เป็นข้อได้เปรียบในการแข่งขันที่ปลอดภัยและพร้อมสำหรับอนาคต ที่สำคัญที่สุดคือ เราสร้างโครงการที่ใช้งานได้จริง เพราะผลการศึกษาของ MIT เมื่อเร็ว ๆ นี้เผยให้เห็นว่าโครงการ AI 95% ล้มเหลว” Franco กล่าวเสริม
เขายังเตือนด้วยว่า ในด้านความมั่นคงปลอดภัยไซเบอร์ นอกจากคำว่า ShadowIT ที่รู้จักกันดีอยู่แล้ว ยังมี ShadowAI ซึ่งผู้ใช้ใช้เครื่องมือ AI ที่ไม่ได้รับอนุมัติและไม่ปลอดภัยอีกด้วย “แพลตฟอร์มอื่นๆ ฝึกฝน AI ของตนโดยอิงจากข้อมูลที่ผู้ใช้ป้อน รวมถึงข้อมูลที่ละเอียดอ่อน ซึ่งละเมิดกฎหมาย LGPD ลองพิจารณากรณี Grok ที่เพิ่งเกิดขึ้น ซึ่งทำให้เกิดการรั่วไหลของบทสนทนาส่วนตัวมากกว่า 370,000 รายการ เพื่อช่วยตรวจจับและบล็อกการใช้ ShadowIT และ ShadowAI ทาง L8 Group จึงนำเสนอโซลูชันที่ให้การมองเห็นและควบคุมสิ่งที่ถูกเข้าถึงได้ตามนโยบายความมั่นคงปลอดภัยไซเบอร์” เขากล่าวสรุป