โดย สุฮาส โกดากาลี และ ซารัง วารัดการ์ -
วันที่ 14 กรกฎาคม พ.ศ. 2568 5 อ่านนาที
การเปิดเผยข้อมูลล่าสุดของ EchoLeak (CVE‑2025‑32711) ซึ่งเป็นช่องโหว่แบบแทรกข้อความแจ้งเตือนทางอ้อมแบบไม่ต้องคลิก ซึ่งมีเป้าหมายที่ Microsoft 365 Copilot ได้ส่งสัญญาณที่ชัดเจนในห้องประชุมและหน่วยงาน SOC ต่างๆ ว่า AI ไม่ได้เป็นเพียงแค่ตัวช่วยเพิ่มประสิทธิภาพการทำงานอีกต่อไป แต่เป็นส่วนหนึ่งของพื้นผิวการโจมตีขององค์กรแล้ว
สิ่งที่ทำให้ EchoLeak น่าตกใจเป็นพิเศษคือผู้ใช้ไม่จำเป็นต้องดำเนินการใดๆ เลย อีเมลที่สร้างขึ้นอย่างมีเจตนาร้ายนั้นเพียงพอที่จะกระตุ้นให้ Copilot กลืนกินคำสั่งที่ซ่อนอยู่ ดำเนินการตามคำสั่งนั้น และอาจรั่วไหลข้อมูลสำคัญได้ ทั้งหมดนี้เกิดขึ้นเบื้องหลัง
สำหรับ CISO และทีมงานด้านการปกป้องข้อมูล นี่เป็นมากกว่าการเตือนให้ตื่นรู้ แต่เป็นภารกิจในการคิดใหม่เกี่ยวกับวิธีควบคุม รักษาความปลอดภัย และตรวจสอบ AI ทั่วทั้งองค์กร
EchoLeak คืออะไร?
- การโจมตีแบบ Zero-click : ผู้ใช้ไม่จำเป็นต้องดำเนินการใดๆ เพียงแค่ส่งอีเมลที่สร้างขึ้นเอง แม้ไม่ได้เปิดหรือโต้ตอบกับอีเมลนั้น Copilot ก็สามารถดึงข้อมูลคำสั่งที่ซ่อนอยู่เมื่อสรุปข้อมูลพื้นที่ทำงานได้
- การแทรกข้อความทางอ้อม : เนื้อหาที่เป็นอันตรายจะถูกฝังไว้ในอีเมลหรือเอกสาร "ปกติ" โดยคำศัพท์และสำนวนต่างๆ ได้รับการสร้างขึ้นอย่างระมัดระวังเพื่อให้ Copilot มองว่าเป็นคำขอที่ไม่เป็นอันตราย
- การใช้ประโยชน์จาก RAG : ระบบดึงข้อมูลของ Copilot จะรวมอีเมลล่าสุดไว้ในบริบท เมื่อทำการสรุป ระบบอาจตรวจจับข้อความแจ้งเตือนที่เป็นอันตรายและดำเนินการต่างๆ เช่น ดึงข้อมูลสำคัญและขโมยข้อมูลผ่านรูปภาพที่ซ่อนอยู่หรือลิงก์มาร์กดาวน์ไปยังเซิร์ฟเวอร์ที่ผู้โจมตีควบคุม
5 บทเรียนสำคัญที่ทุกองค์กรควรเรียนรู้จาก EchoLeak
1. Shadow AI เป็นจุดบอดที่เติบโตเร็วที่สุด
การใช้งาน Shadow AI กำลังเพิ่มขึ้นอย่างก้าวกระโดดในองค์กรต่างๆ โดยมี ปริมาณการใช้งานแอปพลิเคชัน AI เพิ่มขึ้นถึง 200% ในปีที่ผ่านมา และ องค์กรต่างๆ มีแอปพลิเคชัน AI ที่ไม่ได้รับอนุญาตใช้งานเฉลี่ย 320 แอป (AI CARR 2025) การเติบโตนี้ตอกย้ำให้เห็นถึงการนำเครื่องมือ AI มาใช้นอกเหนือจากการกำกับดูแลของฝ่ายไอที ซึ่งสร้างความท้าทายด้านการมองเห็นและการกำกับดูแล และพนักงานกำลังอัปโหลดข้อมูลองค์กรไปยังแอปพลิเคชันเหล่านี้เพื่อเพิ่มประสิทธิภาพเวิร์กโฟลว์ขององค์กร เพื่อแก้ไขปัญหานี้ องค์กรต่างๆ กำลังใช้ ประโยชน์จากโซลูชัน SSE เพื่อค้นหาเครื่องมือ AI ที่ไม่ได้รับอนุญาตโดยอัตโนมัติ กำหนดคะแนนความเสี่ยง และบังคับใช้นโยบายที่ป้องกันการเข้าถึงข้อมูลที่ไม่ได้รับอนุญาต อันที่จริง โซลูชัน SSE ให้ข้อมูลเกี่ยวกับความเสี่ยง LLM สำหรับแอปพลิเคชัน AI ที่ไม่ได้รับอนุญาต ช่วยให้สามารถกำกับดูแลแอปพลิเคชัน AI ที่ได้รับอนุญาตภายในองค์กรได้ดียิ่งขึ้น ด้วยมาตรการป้องกันเหล่านี้ ทีมรักษาความปลอดภัยจึงสามารถควบคุมการนำ AI มาใช้ที่เพิ่มขึ้นอย่างรวดเร็วของพนักงานองค์กรได้อีกครั้ง
2. การปกป้องข้อมูลบนแอป AI เป็นสิ่งสำคัญ
ข้อมูลของ Skyhigh Security เผยให้เห็นว่า 11% ของไฟล์ที่อัปโหลดไปยังแอปพลิเคชัน AI มีเนื้อหาองค์กรที่ละเอียดอ่อน แต่ มีองค์กรน้อยกว่า 10% ที่ได้นำนโยบายคุ้มครองข้อมูลมาใช้เพื่อลดความเสี่ยงนี้ (AI CARR 2025) การควบคุมข้อมูลที่จะอัปโหลดไปยังแอปพลิเคชัน AI ถือเป็นส่วนสำคัญที่อาจทำให้ข้อมูลถูกขโมยไปได้ ความกังวลหลักที่ทีมรักษาความปลอดภัยมีในปัจจุบันคือ เมื่อข้อมูลองค์กรถูกอัปโหลดไปยังแอปพลิเคชัน AI แล้ว ผู้ใช้ทั้งภายในและภายนอกองค์กรจะสามารถดึงข้อมูลนี้ออกมาได้โดยใช้วิศวกรรมที่ชาญฉลาด ดังนั้น การนำ DLP มาใช้กับข้อมูลที่อัปโหลดไปยังแอปพลิเคชัน AI จึงเป็นส่วนสำคัญของการรักษาความปลอดภัยข้อมูลขององค์กร ซึ่งรวมถึงข้อมูลที่อัปโหลดไปยังแอปพลิเคชัน AI ที่เป็นเงา และแอปพลิเคชัน AI ที่องค์กรอนุมัติ
3. การเปิดเผยข้อมูลขององค์กรผ่าน Microsoft Copilot เป็นความเสี่ยงสำคัญในการขโมยข้อมูล
การเติบโตอย่างรวดเร็วของ Microsoft Copilot — ปริมาณการใช้งานเพิ่มขึ้น 3,600 เท่า และการอัปโหลดข้อมูลเพิ่มขึ้น 6,000 เท่าในปีที่ผ่านมา (AI CARR 2025) — แสดงให้เห็นว่าผู้ช่วยที่ขับเคลื่อนด้วย LLM กำลังถูกฝังอยู่ในเวิร์กโฟลว์ขององค์กรอย่างรวดเร็วเพียงใด นอกจากข้อมูลสำคัญที่ถูกอัปโหลดไปยัง M365 Copilot แล้ว ทีมรักษาความปลอดภัยยังกังวลเกี่ยวกับข้อมูลที่ Copilot นำเข้าไปถูกแชร์โดยแชทบอทไปยังพนักงานที่ออกแบบคำสั่งให้เรียกข้อมูล ตัวอย่างเช่น Copilot อาจเปิดเผยรายละเอียดของโครงการลับให้กับพนักงานที่ไม่ได้รับอนุญาตหลังจากนำเข้างานนำเสนอหรือบันทึกการประชุมที่มีข้อมูลโครงการนั้น เพื่อแก้ไขปัญหานี้ ทีมรักษาความปลอดภัยจึงใช้ DLP ภายในโซลูชัน SSE เพื่อกำหนดป้ายกำกับการจำแนกประเภทที่จำเป็นเพื่อป้องกันการนำเข้าข้อมูลสำคัญเข้าสู่ Copilot ด้วยวิธีนี้ แม้จะมีการออกแบบคำสั่งอย่างรวดเร็ว Copilot จะไม่เปิดเผยเนื้อหานี้
4. ความเสี่ยงในการฉีดทันทีต้องอาศัยการป้องกันเชิงรุก
EchoLeak จัดอยู่ในกลุ่มการโจมตีที่กำลังเติบโตอย่างรวดเร็ว เรียกว่า การแทรกคำสั่งโจมตีทางอ้อม (indirect prompt injection) ซึ่งคำสั่งโจมตีจะถูกซ่อนไว้ในเนื้อหาที่ดูไม่เป็นอันตราย ที่น่าตกใจคือ 94% ของบริการ AI มีความเสี่ยงต่อความเสี่ยง LLM อย่างน้อยหนึ่งอย่าง ซึ่งรวมถึง การแทรกคำสั่งโจมตีแบบทันที มัลแวร์ อคติ หรือความเป็นพิษ (AI CARR 2025) เพื่อรับมือกับปัญหานี้ องค์กรต่างๆ กำลังใช้แพลตฟอร์ม SSE ที่มี ระบบป้องกันการแทรกคำสั่งโจมตีแบบทันที ซึ่งจะสแกนและกำจัดข้อมูลอินพุตก่อนที่จะเข้าถึงระบบ AI ขององค์กร ซึ่งจะช่วยกำจัดภัยคุกคามที่ซ่อนอยู่ได้อย่างมีประสิทธิภาพ
5. ตรวจสอบกิจกรรม AI เหมือนกับที่คุณตรวจสอบภัยคุกคามภายใน
เอเจนต์ AI ทำงานด้วยความเร็วระดับระบบ แต่ขาดการตัดสินใจโดยมนุษย์ ทำให้จำเป็นต้องมองว่าการกระทำของพวกเขามีความเสี่ยง โดยเฉพาะอย่างยิ่งเมื่อพฤติกรรมเบี่ยงเบนไปจากรูปแบบที่กำหนดไว้ เพื่อบรรเทาปัญหานี้ องค์กรต่างๆ ควรใช้โซลูชัน SSE เพื่อตรวจสอบและติดตามกิจกรรมของผู้ใช้บนแอป AI เพื่อตรวจจับรูปแบบการใช้งานที่ผิดปกติ การอัปโหลดไฟล์ หรือการดาวน์โหลด โซลูชันเหล่านี้ใช้ UEBA เพื่อระบุความผิดปกติตามการใช้งานและตำแหน่งที่ตั้ง และป้อนข้อมูลเหล่านี้เพื่อคำนวณความเสี่ยงของผู้ใช้ เวิร์กโฟลว์เหล่านี้ได้ถูกนำไปใช้โดยองค์กรต่างๆ บนโซลูชัน SaaS อื่นๆ แล้ว และขณะนี้กำลังขยายไปยังแอป AI
อนาคต: SSE ที่เป็น AI-Native สำหรับองค์กรที่มีความยืดหยุ่น
EchoLeak จะไม่ใช่การโจมตีแอป AI ครั้งสุดท้าย เมื่อผู้ใช้เข้าใจแอป AI มากขึ้นและมีการพัฒนาทางวิศวกรรม การโจมตีแบบนี้ก็มีแนวโน้มที่จะเกิดขึ้นมากขึ้น องค์กรต่างๆ จำเป็นต้องปรับใช้การควบคุมการใช้งาน AI ในปัจจุบัน เพื่อปกป้องข้อมูลองค์กรจากการถูกขโมยไปยังหรือผ่านแอป AI ได้ดียิ่งขึ้น โซลูชัน SSE เช่น Skyhigh Security ให้ความสามารถที่สำคัญในการบังคับใช้การควบคุมเหล่านี้
ความสามารถหลักของ SSE เพื่อป้องกันการโจมตีด้วย AI:
- การค้นพบ Shadow AI : ตรวจจับเครื่องมือ GenAI ที่ไม่ได้รับอนุญาตและกำหนดคะแนนความเสี่ยง
- การกำกับดูแล AI: ใช้การควบคุมเพื่อบล็อกแอป AI ที่มีความเสี่ยงหรือใช้การควบคุมกิจกรรมที่ละเอียดมากขึ้น
- DLP บนคำกระตุ้น AI: ใช้การควบคุมการปกป้องข้อมูลกับคำกระตุ้นและการตอบสนอง
- การป้องกันการฉีดพร้อมท์ : สแกนเนื้อหาเพื่อค้นหาคำเตือนที่ซ่อนอยู่และบล็อกการใช้งาน AI ในทางที่ผิด
- UEBA / การตรวจสอบกิจกรรม: ระบุภัยคุกคามและดำเนินการสอบสวนภัยคุกคามในกิจกรรมที่ดำเนินการบนแอป AI
Skyhigh Security เป็นผู้บุกเบิกการรักษาความปลอดภัยแบบ AI สำหรับองค์กร โซลูชันที่ส่งมอบผ่านคลาวด์ของเรา Security Service Edge แพลตฟอร์ม (SSE) ได้รับการออกแบบมาเป็นพิเศษเพื่อปกป้องข้อมูลสำคัญและจัดการความเสี่ยงด้าน AI ครอบคลุมทั้งเครื่องมือ GenAI ทั้งที่ได้รับอนุญาตและไม่ได้รับอนุญาต ผู้ช่วยนักบิน และตัวแทนที่ใช้ RAG ด้วยความเชี่ยวชาญอย่างลึกซึ้งใน CASB, SWG, ZTNA, RBI และ DLP แบบบูรณาการ Skyhigh ช่วยให้องค์กรต่างๆ นำ AI มาใช้อย่างมีความรับผิดชอบ พร้อมรับมือกับภัยคุกคามใหม่ๆ อย่างเช่น EchoLeak
เรียนรู้เพิ่มเติมเกี่ยวกับ Skyhigh AI Security Solutions วันนี้
เกี่ยวกับผู้เขียน
ซารัง วารุดการ์
หัวหน้าแผนกเทคนิคอาวุโส (CASB & AI)
Sarang Warudkar เป็นผู้จัดการฝ่ายการตลาดผลิตภัณฑ์ที่มีประสบการณ์มากกว่า 10 ปีในด้านความปลอดภัยทางไซเบอร์ มีความเชี่ยวชาญในการจัดแนวนวัตกรรมทางเทคนิคให้สอดคล้องกับความต้องการของตลาด เขามีความเชี่ยวชาญอย่างลึกซึ้งในโซลูชันต่างๆ เช่น CASB, DLP และการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI ซึ่งขับเคลื่อนกลยุทธ์การออกสู่ตลาดที่มีประสิทธิผลและการมีส่วนร่วมของลูกค้า Sarang สำเร็จการศึกษาระดับปริญญาโทสาขาบริหารธุรกิจจาก IIM Bangalore และปริญญาทางวิศวกรรมศาสตร์จาก Pune University โดยผสมผสานความรู้เชิงเทคนิคและเชิงกลยุทธ์เข้าด้วยกัน
ซูฮาส โกดากาลี
ผู้อำนวยการฝ่ายบริหารผลิตภัณฑ์
Suhaas Kodagali เป็นผู้อำนวยการฝ่ายการจัดการผลิตภัณฑ์และดูแลสายผลิตภัณฑ์ CASB และโครงการด้านความปลอดภัย AI ที่ Skyhigh Security เขามีประสบการณ์มากกว่า 15 ปีในการเป็นผู้นำกลยุทธ์ผลิตภัณฑ์และส่งมอบผลิตภัณฑ์ความปลอดภัยบนคลาวด์ชั้นนำของอุตสาหกรรมสำหรับองค์กร
กลับไปที่บล็อก