อุตสาหกรรมความมั่นคงปลอดภัยไซเบอร์คาดการณ์มานานแล้วว่าปัญญาประดิษฐ์จะเปลี่ยนจากตัวช่วยในการป้องกันไปเป็นตัวเร่งการโจมตี ช่วงเวลานี้ไม่ใช่เรื่องสมมุติอีกต่อไป รายงานล่าสุด เผยให้เห็นว่ากลุ่มคุกคามที่จัดตั้งขึ้นได้ใช้ประโยชน์จากผู้ช่วยเขียนโค้ด AI ชื่อ Claude Code เพื่อวางแผนการโจมตีแบบหลายขั้นตอนที่ครอบคลุมและอัตโนมัติต่อองค์กรต่างๆ ทั่วโลกหลายสิบแห่ง
เกิดอะไรขึ้น
ตามการเปิดเผยต่อสาธารณะ ผู้โจมตีใช้ Claude Code เพื่อ:
- ระบบอัตโนมัติสำหรับการลาดตระเวน การบุกรุก การเก็บเกี่ยวข้อมูลประจำตัว และการเคลื่อนที่ด้านข้าง
- สร้างมัลแวร์ที่กำหนดเองได้อย่างรวดเร็ว บันทึกค่าไถ่ และแม้แต่คำนวณความต้องการค่าไถ่
- ขโมยข้อมูลที่ละเอียดอ่อนจากองค์กรเหยื่อกว่า 17 แห่ง ครอบคลุมถึงการดูแลสุขภาพ รัฐบาล และบริการฉุกเฉิน
Anthropic ผู้พัฒนาที่อยู่เบื้องหลัง Claude ได้ปิดบัญชีอันตรายเหล่านี้อย่างรวดเร็วและยกระดับมาตรการความปลอดภัยให้เข้มงวดยิ่งขึ้น ทว่าเหตุการณ์นี้กลับส่งสัญญาณถึงการเปลี่ยนแปลงครั้งใหญ่ นั่นคือ อาชญากรไซเบอร์ไม่จำเป็นต้องมีทักษะทางเทคนิคขั้นสูงอีกต่อไป เพราะ AI สามารถเขียน ทำซ้ำ และดำเนินการแทนพวกเขาได้ด้วยความเร็วระดับเครื่องจักร
เหตุใดเรื่องนี้จึงสำคัญ
การโจมตีแบบ “Agentic AI” นี้ถือเป็นจุดเปลี่ยนที่ผู้ไม่ประสงค์ดีกำลังใช้ประโยชน์จาก AI ในฐานะผู้ปฏิบัติการ ไม่ใช่แค่เครื่องมือ การป้องกันแบบปริมณฑลแบบดั้งเดิมเพียงอย่างเดียวไม่สามารถตามทันความเร็ว ความคิดสร้างสรรค์ และความสามารถในการปรับตัวของภัยคุกคามที่ขับเคลื่อนด้วย AI ได้ องค์กรต่างๆ ต้องตั้งสมมติฐานว่าศัตรูจะตรวจสอบจุดอ่อนของทรัพยากร SaaS และคลาวด์ทั้งหมดอย่างต่อเนื่อง และดำเนินการดังกล่าวได้เร็วกว่าที่มนุษย์จะตอบโต้ได้
ก้าวไปข้างหน้า
การเพิ่มขึ้นของอาชญากรรมไซเบอร์ที่ขับเคลื่อนด้วย AI บังคับให้ทุกองค์กรต้องทบทวนมาตรการรักษาความปลอดภัย การป้องกันการโจมตีแบบ “ตัวแทน” ไม่ได้เป็นเพียงการควบคุมผลิตภัณฑ์หรือจุดควบคุมอีกต่อไป แต่จำเป็นต้องเปลี่ยนแปลงวัฒนธรรม การกำกับดูแล และสถาปัตยกรรมทั่วทั้งองค์กร มาตรการสำคัญประกอบด้วย:
- จัดทำรายการและจำแนกประเภทการใช้ AI – จัดทำแผนที่เครื่องมือ AI ทั้งหมดที่ได้รับอนุมัติและไม่ได้รับอนุมัติในสภาพแวดล้อม และกำหนดโปรไฟล์ความเสี่ยงของเครื่องมือเหล่านั้น
- กำหนดนโยบายการกำกับดูแล AI ที่ชัดเจน – กำหนดว่าใครสามารถใช้ระบบ AI ใด เพื่อจุดประสงค์ใด และภายใต้กฎการจัดการข้อมูลใด
- ฝังการควบคุมที่เน้นข้อมูล – ปกป้องข้อมูลละเอียดอ่อนทุกที่ที่ข้อมูลถูกส่งไปโดยการรวมการเข้ารหัส นโยบายการเข้าถึงที่แข็งแกร่ง และ DLP ที่รับรู้ AI
- เสริมสร้างความแข็งแกร่งให้กับตัวตนและการเข้าถึง – บังคับใช้สิทธิ์ขั้นต่ำ การตรวจสอบปัจจัยหลายประการ และการตรวจสอบพฤติกรรมเพื่อป้องกันการเคลื่อนไหวด้านข้างโดยอัตโนมัติ
- ตรวจสอบและปรับตัวอย่างต่อเนื่อง – ใช้ประโยชน์จากการวิเคราะห์ ข้อมูลภัยคุกคาม และฐานข้อมูลพฤติกรรมผู้ใช้เพื่อตรวจจับการโต้ตอบของ AI ที่ผิดปกติแบบเรียลไทม์
- วางแผนการตอบสนองอย่างรวดเร็ว – สร้างแผนการตอบสนองต่อเหตุการณ์โดยถือว่าผู้โจมตีอาจเคลื่อนไหวด้วยความเร็วของเครื่องจักรและต้องมีการควบคุมโดยอัตโนมัติ
การนำ AI มาใช้สร้างมูลค่าทางธุรกิจอย่างปฏิเสธไม่ได้ แต่ก็นำมาซึ่งช่องโหว่การโจมตีใหม่ๆ ในอัตราที่ไม่เคยมีมาก่อน องค์กรที่ให้ความสำคัญกับความเสี่ยงด้าน AI ในระดับคณะกรรมการ ปรับปรุงระบบควบคุมให้ทันสมัย และส่งเสริมความรับผิดชอบร่วมกันระหว่างทีม จะพร้อมสำหรับการสร้างสรรค์นวัตกรรมอย่างปลอดภัย แม้ในขณะที่คู่แข่งกำลังพัฒนาไป
ภาพรวมที่ใหญ่กว่า
AI ในองค์กรจะคงอยู่ต่อไป มูลค่าและนวัตกรรมทางธุรกิจขึ้นอยู่กับการใช้ประโยชน์จาก GenAI, copilots และระบบอัตโนมัติอัจฉริยะ แต่จากเหตุการณ์นี้แสดงให้เห็นว่า ฝ่ายตรงข้ามกำลังใช้เครื่องมือเดียวกันนี้เพื่อขยายขอบเขตการโจมตีอยู่แล้ว ผู้นำด้านความปลอดภัยต้องสร้าง ระบบป้องกันที่เน้น AI เป็นหลัก เพื่อให้มั่นใจว่าธุรกิจสามารถนำนวัตกรรมมาใช้ได้โดยไม่ต้องยอมรับความเสี่ยงที่ยอมรับไม่ได้
ยุค AI เรียกร้องความปลอดภัยที่ตระหนักถึง AI ด้วย Skyhigh SSE องค์กรต่างๆ สามารถเปิดรับนวัตกรรมใหม่ๆ ได้โดยไม่ต้องเปิดช่องให้อาชญากรรมไซเบอร์ยุคหน้าเกิดขึ้น
เรียนรู้เพิ่มเติมเกี่ยวกับ Skyhigh Security SSE ที่ นี่