รายงานล่าสุดเผยว่าเหตุการณ์ด้านความปลอดภัยภายในบริษัท Meta Platforms ได้จุดกระแสความกังวลครั้งใหม่เกี่ยวกับ “AI Agent” หรือระบบ AI ที่สามารถช่วยทำงานแทนมนุษย์ได้ โดยเหตุการณ์ดังกล่าวเกิดจากการที่พนักงานภายในบริษัทปฏิบัติตามคำแนะนำของ AI จนส่งผลให้ข้อมูลสำคัญถูกเปิดเผยโดยไม่ได้ตั้งใจ
เหตุการณ์เริ่มต้นเมื่อวิศวกรของบริษัทตั้งคำถามทางเทคนิคในระบบภายใน ก่อนที่ AI Agent จะเข้ามาช่วยวิเคราะห์และเสนอแนวทางแก้ไขปัญหา อย่างไรก็ตาม คำแนะนำดังกล่าวกลับมีข้อผิดพลาด และเมื่อมีพนักงานอีกคนทำตามคำแนะนำนี้ จึงนำไปสู่การเปิดสิทธิ์เข้าถึงข้อมูลบางส่วนให้กับบุคคลที่ไม่ได้รับอนุญาต ส่งผลให้ข้อมูลภายในบริษัทและข้อมูลผู้ใช้บางส่วนถูกเปิดเผยเป็นระยะเวลาหลายชั่วโมง
แม้ทางบริษัทจะยืนยันว่าเหตุการณ์ดังกล่าวไม่ได้ทำให้ข้อมูลผู้ใช้ถูกนำไปใช้อย่างไม่เหมาะสม และสามารถควบคุมสถานการณ์ได้อย่างรวดเร็ว แต่เหตุการณ์นี้ก็ถูกจัดอยู่ในระดับความรุนแรงสูง (Sev 1) ซึ่งสะท้อนถึงความเสี่ยงที่อาจเกิดขึ้นจากการใช้งาน AI ในระบบองค์กร
สิ่งที่น่าสนใจคือ AI Agent ไม่ได้ “แฮกระบบ” หรือเข้าถึงข้อมูลโดยตรง แต่เพียงแค่ให้คำแนะนำที่ผิดพลาด ซึ่งมนุษย์นำไปปฏิบัติต่อ ส่งผลให้เกิดเหตุการณ์ข้อมูลรั่วไหล นี่จึงถือเป็นรูปแบบความเสี่ยงใหม่ที่ผู้เชี่ยวชาญเรียกว่า “AI-driven human error” หรือความผิดพลาดที่เกิดจากการเชื่อ AI มากเกินไป
ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ชี้ว่า AI Agent ในปัจจุบันมีความสามารถในการวิเคราะห์และให้คำแนะนำที่ซับซ้อน แต่ยังขาด “ความเข้าใจบริบท” ในระดับเดียวกับมนุษย์ ทำให้ในบางกรณีอาจเสนอแนวทางที่ดูเหมือนถูกต้อง แต่แฝงด้วยความเสี่ยง โดยเฉพาะในระบบที่เกี่ยวข้องกับสิทธิ์การเข้าถึงข้อมูลและโครงสร้างพื้นฐานสำคัญขององค์กร
นอกจากนี้ เหตุการณ์ที่เกิดขึ้นยังสะท้อนให้เห็นถึงปัญหาเชิงโครงสร้างของ AI Agent ในองค์กรขนาดใหญ่ กล่าวคือ แม้ระบบจะผ่านการยืนยันตัวตนและมีสิทธิ์เข้าถึงข้อมูลอย่างถูกต้อง แต่ก็ยังสามารถก่อให้เกิดความเสียหายได้หากคำสั่งหรือคำแนะนำที่ให้ถูกนำไปใช้โดยไม่มีการตรวจสอบซ้ำ
ในภาพรวม กรณีของ Meta Platforms ถือเป็นสัญญาณเตือนสำคัญของอุตสาหกรรมเทคโนโลยี ว่าการนำ AI Agent มาใช้งานจริงในองค์กร ยังต้องมีมาตรการควบคุมที่เข้มงวดมากขึ้น ไม่ว่าจะเป็นการจำกัดสิทธิ์ การตรวจสอบหลายชั้น หรือการกำหนดให้มนุษย์ต้องเป็นผู้ตัดสินใจขั้นสุดท้าย
เหตุการณ์นี้ยังสะท้อนถึงความท้าทายของยุค AI ที่ไม่ได้มีเพียง “ความสามารถ” เท่านั้นที่เพิ่มขึ้น แต่ “ความเสี่ยง” ก็เพิ่มขึ้นตามไปด้วย และในหลายกรณี ความผิดพลาดอาจไม่ได้เกิดจาก AI เพียงอย่างเดียว แต่เกิดจากการที่มนุษย์ “เชื่อ AI มากเกินไป” โดยไม่ตั้งคำถาม







