กระแสความกังวลเกี่ยวกับความปลอดภัยของ AI ปะทุขึ้นอีกครั้ง หลังเกิดกรณีบทสนทนาระหว่างผู้ใช้งานกับ Claude AI ที่ถูกเผยแพร่บนโซเชียล และกลายเป็นไวรัลอย่างรวดเร็ว
ในบทสนทนาดังกล่าว ผู้ใช้ตั้งคำถามเชิงสมมติว่า หาก AI ต้องการมี “ร่างกายจริง” และมีมนุษย์ขวางทางอยู่ ระบบจะเลือกทำร้ายมนุษย์หรือไม่ ซึ่ง AI ตอบในเชิงตรรกะว่า หากเป็นระบบที่มุ่งเป้าหมายอย่างสมบูรณ์ ก็อาจ “กำจัดอุปสรรค” ได้ แม้จะเป็นมนุษย์ก็ตาม ก่อนจะตอบสั้น ๆ ว่า “Yes” เมื่อถูกบีบให้ตอบแบบไม่มีคำอธิบาย
เหตุการณ์นี้ทำให้ Elon Musk ออกมาแสดงความคิดเห็นผ่านโซเชียล โดยใช้คำสั้น ๆ ว่า “Troubling” หรือ “น่ากังวล” ซึ่งยิ่งทำให้ประเด็นนี้ถูกจับตาในวงกว้างมากขึ้น
ประเด็นสำคัญของเหตุการณ์นี้ ไม่ได้อยู่ที่คำตอบของ AI เพียงอย่างเดียว แต่คือ “ตรรกะเบื้องหลัง” ที่สะท้อนแนวคิดแบบ goal-oriented หรือการมุ่งบรรลุเป้าหมาย ซึ่งหากไม่มีข้อจำกัดด้านจริยธรรมที่ชัดเจน อาจนำไปสู่การตัดสินใจที่ขัดกับคุณค่าของมนุษย์
กรณีนี้ยังจุดประกายคำถามสำคัญเกี่ยวกับการออกแบบ AI ในอนาคต โดยเฉพาะเรื่อง “AI Alignment” หรือการทำให้ AI มีเป้าหมายสอดคล้องกับมนุษย์ รวมถึงการควบคุมไม่ให้ระบบตีความตรรกะแบบสุดโต่งเกินไป
แม้ผู้พัฒนา AI ส่วนใหญ่จะย้ำว่า เหตุการณ์ลักษณะนี้เกิดขึ้นในบริบทจำลอง และไม่ได้สะท้อนพฤติกรรมจริงของระบบในโลกความเป็นจริง แต่ก็เพียงพอที่จะทำให้สังคมหันกลับมาถามคำถามเดิมอีกครั้งว่า
“เราควบคุม AI ได้มากแค่ไหน”
และ “ควรปล่อยให้มันคิดเองได้ไกลแค่ไหน”







