ข้ามไปที่เนื้อหาหลัก
ข่าวกรองย่อย

เมื่อ AI กลายเป็นปฏิปักษ์: บทเรียนจากอาชญากรรมไซเบอร์ที่ขับเคลื่อนโดย Claude

โดย Sarang Wardukar - ผู้จัดการฝ่ายการตลาดผลิตภัณฑ์เทคนิคอาวุโส

5 กันยายน 2568 อ่าน 7 นาที

อุตสาหกรรมความมั่นคงปลอดภัยไซเบอร์คาดการณ์มานานแล้วว่าปัญญาประดิษฐ์จะเปลี่ยนจากตัวช่วยในการป้องกันไปเป็นตัวเร่งการโจมตี ช่วงเวลานี้ไม่ใช่เรื่องสมมุติอีกต่อไป รายงานล่าสุด เผยให้เห็นว่ากลุ่มคุกคามที่จัดตั้งขึ้นได้ใช้ประโยชน์จากผู้ช่วยเขียนโค้ด AI ชื่อ Claude Code เพื่อวางแผนการโจมตีแบบหลายขั้นตอนที่ครอบคลุมและอัตโนมัติต่อองค์กรต่างๆ ทั่วโลกหลายสิบแห่ง

เกิดอะไรขึ้น

ตามการเปิดเผยต่อสาธารณะ ผู้โจมตีใช้ Claude Code เพื่อ:

  • ระบบอัตโนมัติสำหรับการลาดตระเวน การบุกรุก การเก็บเกี่ยวข้อมูลประจำตัว และการเคลื่อนที่ด้านข้าง
  • สร้างมัลแวร์ที่กำหนดเองได้อย่างรวดเร็ว บันทึกค่าไถ่ และแม้แต่คำนวณความต้องการค่าไถ่
  • ขโมยข้อมูลที่ละเอียดอ่อนจากองค์กรเหยื่อกว่า 17 แห่ง ครอบคลุมถึงการดูแลสุขภาพ รัฐบาล และบริการฉุกเฉิน

Anthropic ผู้พัฒนาที่อยู่เบื้องหลัง Claude ได้ปิดบัญชีอันตรายเหล่านี้อย่างรวดเร็วและยกระดับมาตรการความปลอดภัยให้เข้มงวดยิ่งขึ้น ทว่าเหตุการณ์นี้กลับส่งสัญญาณถึงการเปลี่ยนแปลงครั้งใหญ่ นั่นคือ อาชญากรไซเบอร์ไม่จำเป็นต้องมีทักษะทางเทคนิคขั้นสูงอีกต่อไป เพราะ AI สามารถเขียน ทำซ้ำ และดำเนินการแทนพวกเขาได้ด้วยความเร็วระดับเครื่องจักร

เหตุใดเรื่องนี้จึงสำคัญ

การโจมตีแบบ “Agentic AI” นี้ถือเป็นจุดเปลี่ยนที่ผู้ไม่ประสงค์ดีกำลังใช้ประโยชน์จาก AI ในฐานะผู้ปฏิบัติการ ไม่ใช่แค่เครื่องมือ การป้องกันแบบปริมณฑลแบบดั้งเดิมเพียงอย่างเดียวไม่สามารถตามทันความเร็ว ความคิดสร้างสรรค์ และความสามารถในการปรับตัวของภัยคุกคามที่ขับเคลื่อนด้วย AI ได้ องค์กรต่างๆ ต้องตั้งสมมติฐานว่าศัตรูจะตรวจสอบจุดอ่อนของทรัพยากร SaaS และคลาวด์ทั้งหมดอย่างต่อเนื่อง และดำเนินการดังกล่าวได้เร็วกว่าที่มนุษย์จะตอบโต้ได้

ก้าวไปข้างหน้า

การเพิ่มขึ้นของอาชญากรรมไซเบอร์ที่ขับเคลื่อนด้วย AI บังคับให้ทุกองค์กรต้องทบทวนมาตรการรักษาความปลอดภัย การป้องกันการโจมตีแบบ “ตัวแทน” ไม่ได้เป็นเพียงการควบคุมผลิตภัณฑ์หรือจุดควบคุมอีกต่อไป แต่จำเป็นต้องเปลี่ยนแปลงวัฒนธรรม การกำกับดูแล และสถาปัตยกรรมทั่วทั้งองค์กร มาตรการสำคัญประกอบด้วย:

  1. จัดทำรายการและจำแนกประเภทการใช้ AI – จัดทำแผนที่เครื่องมือ AI ทั้งหมดที่ได้รับอนุมัติและไม่ได้รับอนุมัติในสภาพแวดล้อม และกำหนดโปรไฟล์ความเสี่ยงของเครื่องมือเหล่านั้น
  2. กำหนดนโยบายการกำกับดูแล AI ที่ชัดเจน – กำหนดว่าใครสามารถใช้ระบบ AI ใด เพื่อจุดประสงค์ใด และภายใต้กฎการจัดการข้อมูลใด
  3. ฝังการควบคุมที่เน้นข้อมูล – ปกป้องข้อมูลละเอียดอ่อนทุกที่ที่ข้อมูลถูกส่งไปโดยการรวมการเข้ารหัส นโยบายการเข้าถึงที่แข็งแกร่ง และ DLP ที่รับรู้ AI
  4. เสริมสร้างความแข็งแกร่งให้กับตัวตนและการเข้าถึง – บังคับใช้สิทธิ์ขั้นต่ำ การตรวจสอบปัจจัยหลายประการ และการตรวจสอบพฤติกรรมเพื่อป้องกันการเคลื่อนไหวด้านข้างโดยอัตโนมัติ
  5. ตรวจสอบและปรับตัวอย่างต่อเนื่อง – ใช้ประโยชน์จากการวิเคราะห์ ข้อมูลภัยคุกคาม และฐานข้อมูลพฤติกรรมผู้ใช้เพื่อตรวจจับการโต้ตอบของ AI ที่ผิดปกติแบบเรียลไทม์
  6. วางแผนการตอบสนองอย่างรวดเร็ว – สร้างแผนการตอบสนองต่อเหตุการณ์โดยถือว่าผู้โจมตีอาจเคลื่อนไหวด้วยความเร็วของเครื่องจักรและต้องมีการควบคุมโดยอัตโนมัติ

การนำ AI มาใช้สร้างมูลค่าทางธุรกิจอย่างปฏิเสธไม่ได้ แต่ก็นำมาซึ่งช่องโหว่การโจมตีใหม่ๆ ในอัตราที่ไม่เคยมีมาก่อน องค์กรที่ให้ความสำคัญกับความเสี่ยงด้าน AI ในระดับคณะกรรมการ ปรับปรุงระบบควบคุมให้ทันสมัย และส่งเสริมความรับผิดชอบร่วมกันระหว่างทีม จะพร้อมสำหรับการสร้างสรรค์นวัตกรรมอย่างปลอดภัย แม้ในขณะที่คู่แข่งกำลังพัฒนาไป

ภาพรวมที่ใหญ่กว่า

AI ในองค์กรจะคงอยู่ต่อไป มูลค่าและนวัตกรรมทางธุรกิจขึ้นอยู่กับการใช้ประโยชน์จาก GenAI, copilots และระบบอัตโนมัติอัจฉริยะ แต่จากเหตุการณ์นี้แสดงให้เห็นว่า ฝ่ายตรงข้ามกำลังใช้เครื่องมือเดียวกันนี้เพื่อขยายขอบเขตการโจมตีอยู่แล้ว ผู้นำด้านความปลอดภัยต้องสร้าง ระบบป้องกันที่เน้น AI เป็นหลัก เพื่อให้มั่นใจว่าธุรกิจสามารถนำนวัตกรรมมาใช้ได้โดยไม่ต้องยอมรับความเสี่ยงที่ยอมรับไม่ได้

ยุค AI เรียกร้องความปลอดภัยที่ตระหนักถึง AI ด้วย Skyhigh SSE องค์กรต่างๆ สามารถเปิดรับนวัตกรรมใหม่ๆ ได้โดยไม่ต้องเปิดช่องให้อาชญากรรมไซเบอร์ยุคหน้าเกิดขึ้น

เรียนรู้เพิ่มเติมเกี่ยวกับ Skyhigh Security SSE ที่ นี่

ยังไง Skyhigh Security SSE ปกป้ององค์กร

แพลตฟอร์ม Security Service Edge (SSE) ของ Skyhigh Security ถูกสร้างขึ้นเพื่อรองรับสภาพแวดล้อมที่กำลังเปลี่ยนแปลงนี้ แม้ว่าจะไม่มีการควบคุมแบบเดียวที่สามารถขจัดความเสี่ยงได้ทั้งหมด แต่แนวทางแบบหลายชั้นที่คำนึงถึง AI จะช่วยเปลี่ยนแปลงสถานการณ์ ความสามารถหลักๆ ประกอบด้วย:

  1. การค้นพบ AI เงา
    การตรวจสอบสินค้าคงคลังอย่างต่อเนื่องและการให้คะแนนความเสี่ยงของแอป AI และ SaaS ทั้งหมด ไม่ว่าจะได้รับอนุมัติหรือไม่ก็ตาม เพื่อให้ทีมงานด้านความปลอดภัยสามารถมองเห็นความเสี่ยงที่เกิดขึ้นก่อนที่จะนำมาใช้เป็นอาวุธ
  2. การกำกับดูแลการใช้งาน AI
    การบังคับใช้นโยบายแบบรวมศูนย์เพื่อ บล็อก ลงโทษ หรือจำกัด เครื่องมือ AI ตามความเสี่ยงทางธุรกิจ เพื่อให้แน่ใจว่ามีการใช้เฉพาะบริการที่เชื่อถือได้กับข้อมูลที่ละเอียดอ่อนเท่านั้น
  3. Data Loss Prevention (DLP) ที่รับรู้ด้วย AI
    การตรวจสอบข้อความ รหัส และเอกสารอย่างละเอียดที่ไหลเข้าหรือออกจากเครื่องมือ AI เพื่อป้องกันการรั่วไหลของข้อมูลที่เป็นความลับ แม้กระทั่งในระหว่างการแจ้งเตือนและการตอบกลับ
  4. การป้องกันแบบทันทีและการฉีด
    การฆ่าเชื้อและการตรวจสอบอินพุตเพื่อหยุดคำสั่งที่ซ่อนอยู่หรือเป็นอันตรายที่ออกแบบมาเพื่อแย่งชิงเวิร์กโฟลว์ของ AI
  5. การวิเคราะห์พฤติกรรมผู้ใช้และเอนทิตี (UEBA)
    การประเมินพฤติกรรมอย่างต่อเนื่องในแอป SaaS และ AI เพื่อระบุความผิดปกติ เช่น การเข้าถึงไฟล์จำนวนมาก การยกระดับสิทธิ์ที่น่าสงสัย หรือการอัปโหลดโค้ดที่ขับเคลื่อนโดย AI อย่างกะทันหัน
  6. การวิเคราะห์ภัยคุกคามแบบบูรณาการและการตอบสนองต่อภัยคุกคาม

เวิร์กโฟลว์การตรวจจับและการแก้ไขอัตโนมัติ ช่วยให้ทีมงานด้านความปลอดภัยสามารถ แยก บล็อก และควบคุม เหตุการณ์ก่อนที่จะส่งผลกระทบเป็นวงกว้าง

ซารัง วาร์ดูการ์

เกี่ยวกับผู้เขียน

ซารัง วาร์ดูการ์

ผู้จัดการฝ่ายการตลาดผลิตภัณฑ์เทคนิคอาวุโส

Sarang Warudkar เป็นผู้จัดการฝ่ายการตลาดผลิตภัณฑ์ที่มีประสบการณ์มากกว่า 10 ปีในด้านความปลอดภัยทางไซเบอร์ มีความเชี่ยวชาญในการจัดแนวนวัตกรรมทางเทคนิคให้สอดคล้องกับความต้องการของตลาด เขามีความเชี่ยวชาญอย่างลึกซึ้งในโซลูชันต่างๆ เช่น CASB, DLP และการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI ซึ่งขับเคลื่อนกลยุทธ์การออกสู่ตลาดที่มีประสิทธิผลและการมีส่วนร่วมของลูกค้า Sarang สำเร็จการศึกษาระดับปริญญาโทสาขาบริหารธุรกิจจาก IIM Bangalore และปริญญาทางวิศวกรรมศาสตร์จาก Pune University โดยผสมผสานความรู้เชิงเทคนิคและเชิงกลยุทธ์เข้าด้วยกัน

ไฮไลท์การโจมตี

  • กลุ่มคุกคามที่รวมตัวกันใช้ประโยชน์จากผู้ช่วยการเข้ารหัส AI – Claude Code – เพื่อวางแผนการโจมตีแบบหลายขั้นตอนที่กว้างขวางโดยอัตโนมัติ
  • ผู้โจมตีใช้ Claude Code เพื่อ:
    • ระบบอัตโนมัติสำหรับการลาดตระเวน การบุกรุก การเก็บเกี่ยวข้อมูลประจำตัว และการเคลื่อนที่ด้านข้าง
    • สร้างมัลแวร์ที่กำหนดเองได้อย่างรวดเร็ว บันทึกค่าไถ่ และแม้แต่คำนวณความต้องการค่าไถ่
    • ขโมยข้อมูลที่ละเอียดอ่อนจากองค์กรเหยื่อกว่า 17 แห่ง ครอบคลุมถึงการดูแลสุขภาพ รัฐบาล และบริการฉุกเฉิน