ปัจจุบันอัตราการใช้งานปัญญาประดิษฐ์ หรือ AI Agentic AI เพื่ออำนวยความสะดวกในการดำเนินงานต่างๆ
เติบโตอย่างก้าวกระโดดโดยเฉพาะระบบ Agentic AI หรือ AI agents ซึ่งเป็นระบบที่ไม่ต้องพึ่งพามนุษย์ในการควบคุมหรือสั่งการใดๆ สามารถทำงานได้เร็วกว่าเทคโนโลยีรุ่นก่อนที่ใช้โมเดลภาษาขนาดใหญ่ (LLMs) และมีความเป็นอิสระสูงโดยระบบแบบ agentic จะเลือกใช้โมเดล AI จากนั้นส่งต่อข้อมูลหรือผลลัพธ์ไปยังเครื่องมือ AI ตัวอื่นๆ โดยไม่ต้องผ่านการอนุมัติจากมนุษย์ นอกจากนี้ยังสามารถเรียนรู้ขณะปฏิบัติงานได้ โดยปรับเปลี่ยนโมเดลที่ใช้งาน รวมถึงคำสั่งหรือพรอมต์ (prompt) ที่ใช้ได้อย่างต่อเนื่อง แน่นอนว่าสิ่งที่จะตามมาเมื่อมีการใช้งาน AI คือ ความเสี่ยงด้านความมั่นคงและการควบคุมด้านความปลอดภัยที่เพิ่มสูงขึ้น หากองค์กรเชื่อม AI เข้าด้วยกันเช่น Generative AI หรือแชตบอต โดยไม่มีการเพิ่มกระบวนการตรวจสอบ หรือเมื่อปล่อยให้ AI agents ตัดสินใจด้วยตนเอง ซึ่งเหตุการณ์ลักษณะนี้กำลังเกิดขึ้นแล้วในวงการไอที เช่น การตั้งค่าระบบและการเขียนโค้ด เพราะช่วยเร่งกระบวนการสร้างโค้ดให้เร็วขึ้นส่วนในธุรกิจอื่นๆ หลายองค์กรใช้ agent
เพื่อพัฒนางานบริการลูกค้าและระบบอัตโนมัติเมื่อระบบทำงานอัตโนมัติอาจมีการเลือกใช้คำสั่งที่เป็นอันตราย การส่งข้อมูลที่ผิดพลาด มีอคติ หรือถูกบิดเบือนไปยัง agent ตัวอื่นแม้จะมีอัตราความผิดพลาดค่อนข้างต่ำเพียงไม่กี่เปอร์เซ็นต์ก็ตาม แต่หากข้อผิดพลาดนั้นถูกส่งต่อและสะสมในหลายระบบย่อย ก็อาจกลายเป็นข้อผิดพลาดที่มีนัยสำคัญได้ เพราะอย่างที่ทราบกันดีว่า อินเทอร์เฟซเหล่านี้ไม่ใช่แค่ตัวเชื่อมทางเทคนิคธรรมดา แต่เป็นเสมือนเส้นเลือดหลักที่ทำให้ agent AI สามารถเข้าถึงข้อมูล ดำเนินงาน และผสานระบบข้ามแพลตฟอร์มได้หากไม่มีการรักษาความปลอดภัย API อย่างแข็งแรง ต่อให้ AI จะล้ำหน้าแค่ไหน ก็อาจกลายเป็นช่องโหว่ แทนที่จะเป็นทรัพย์สินได้ ทั้งนี้ ความเสี่ยงจากระบบ AgenticAI ไม่ได้มาจากแต่ละองค์ประกอบเพียงอย่างเดียว แต่เกิดขึ้นเมื่อมีการใช้องค์ประกอบเหล่านั้นร่วมกันผู้เชี่ยวชาญเผยว่า การนำ AgenticAI มาใช้อย่างรวดเร็ว กำลังผลักดันให้องค์กรต่างๆ ต้องเข้มงวดกับนโยบายและการควบคุมด้านความมั่นคงมากขึ้น
รวมถึงต้องพิจารณาว่าระบบ Agentic นั้นได้เพิ่มพื้นที่เสี่ยงต่อการโจมตี มากน้อยเพียงใดโดยงานวิจัยแสดงให้เห็นว่า มีเพียง 31% ขององค์กรที่นำ AI ไปใช้งานมีความพร้อมเต็มที่แล้ว และ องค์กรกว่า 76% ได้ใช้งาน Agentic AI แล้ว หรือมีแผนจะใช้งานภายในปีนี้ ขณะที่มีเพียง 56% เท่านั้นที่มีความเข้าใจในความเสี่ยงในระดับปานกลาง นอกจากนี้ยังพบอีกว่า การกำกับดูแล AI ในองค์กรต่างๆ ยังมีความล่าช้ากว่าการพัฒนาด้านนวัตกรรม AIการนำ AI ไปใช้งานจะไม่เหมือนกับการใช้เทคโนโลยีเดิมที่ผ่านมาอีกต่อไป เพราะแทนที่ AI จะพูดคุยโดยตรงกับมนุษย์ ตอนนี้กลับพูดกับระบบ AI ตัวอื่นแทน บวกกับการพัฒนาอย่างรวดเร็วของ AgenticAI ทำให้ทีมรักษาความมั่นคงปลอดภัยต้องดำเนินการอย่างรวดเร็วในการระบุและรายงานความเสี่ยงที่อาจเกิดขึ้นดังนั้นการกำกับดูแลและการควบคุมจำเป็นต้องก้าวให้ทันกับการลงทุนในฟังก์ชันของ AI และการมีชั้นความปลอดภัยถือเป็นสิ่งสำคัญโดยเฉพาะอย่างยิ่งในกรณีที่มีการรวบรวมหรือดึงข้อมูลมาจากภายนอก svong-1