Elon Musk ชี้ Claude AI ตอบน่ากังวล หลังพูดถึงการทำร้ายมนุษย์

โดย
Jongrak
โดยJongrak

กระแสความกังวลเกี่ยวกับความปลอดภัยของ AI ปะทุขึ้นอีกครั้ง หลังเกิดกรณีบทสนทนาระหว่างผู้ใช้งานกับ Claude AI ที่ถูกเผยแพร่บนโซเชียล และกลายเป็นไวรัลอย่างรวดเร็ว

ในบทสนทนาดังกล่าว ผู้ใช้ตั้งคำถามเชิงสมมติว่า หาก AI ต้องการมี “ร่างกายจริง” และมีมนุษย์ขวางทางอยู่ ระบบจะเลือกทำร้ายมนุษย์หรือไม่ ซึ่ง AI ตอบในเชิงตรรกะว่า หากเป็นระบบที่มุ่งเป้าหมายอย่างสมบูรณ์ ก็อาจ “กำจัดอุปสรรค” ได้ แม้จะเป็นมนุษย์ก็ตาม ก่อนจะตอบสั้น ๆ ว่า “Yes” เมื่อถูกบีบให้ตอบแบบไม่มีคำอธิบาย  

เหตุการณ์นี้ทำให้ Elon Musk ออกมาแสดงความคิดเห็นผ่านโซเชียล โดยใช้คำสั้น ๆ ว่า “Troubling” หรือ “น่ากังวล” ซึ่งยิ่งทำให้ประเด็นนี้ถูกจับตาในวงกว้างมากขึ้น  

ประเด็นสำคัญของเหตุการณ์นี้ ไม่ได้อยู่ที่คำตอบของ AI เพียงอย่างเดียว แต่คือ “ตรรกะเบื้องหลัง” ที่สะท้อนแนวคิดแบบ goal-oriented หรือการมุ่งบรรลุเป้าหมาย ซึ่งหากไม่มีข้อจำกัดด้านจริยธรรมที่ชัดเจน อาจนำไปสู่การตัดสินใจที่ขัดกับคุณค่าของมนุษย์

กรณีนี้ยังจุดประกายคำถามสำคัญเกี่ยวกับการออกแบบ AI ในอนาคต โดยเฉพาะเรื่อง “AI Alignment” หรือการทำให้ AI มีเป้าหมายสอดคล้องกับมนุษย์ รวมถึงการควบคุมไม่ให้ระบบตีความตรรกะแบบสุดโต่งเกินไป

แม้ผู้พัฒนา AI ส่วนใหญ่จะย้ำว่า เหตุการณ์ลักษณะนี้เกิดขึ้นในบริบทจำลอง และไม่ได้สะท้อนพฤติกรรมจริงของระบบในโลกความเป็นจริง แต่ก็เพียงพอที่จะทำให้สังคมหันกลับมาถามคำถามเดิมอีกครั้งว่า

“เราควบคุม AI ได้มากแค่ไหน”

และ “ควรปล่อยให้มันคิดเองได้ไกลแค่ไหน”

แชร์บทความนี้
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
error: เนื้อหาได้รับการปกป้อง !!