โดย Sarang Warudkar - อาวุโสฝ่ายเทคนิค PMM (CASB & AI) Skyhigh Security
8 พฤษภาคม 2568 5 อ่านนาที
เมื่อ 12 เดือนที่แล้ว CFO ของคุณยังคงสงสัยแชทบ็อต วันนี้ พวกเขากำลังถามว่าคุณ "ให้ ChatGPT จัดการบันทึกการประชุมคณะกรรมการได้หรือไม่" จากความอยากรู้อยากเห็นอย่างระมัดระวังไปจนถึงสเปรดชีตที่ขับเคลื่อนด้วย Copilot องค์กรต่างๆ ต่างก็ทุ่มสุดตัวกับ AI และแม้ว่าผลลัพธ์ที่ได้จะเป็นจริง—ความเร็ว ขนาด และความคิดสร้างสรรค์—ความเสี่ยง...? โอ้ ความเสี่ยงก็มี จริง เช่นกัน
มาดูเทรนด์ใหญ่ๆ ภัยคุกคาม และเหตุการณ์ที่น่าตกใจจาก Skyhigh Security รายงานการนำระบบคลาวด์มาใช้และความเสี่ยงประจำปี 2025 ของเรา พร้อมข้อมูลเชิงลึกจากผู้ใช้กว่า 3 ล้านรายและกิจกรรมเกี่ยวกับระบบคลาวด์รายวันกว่า 2 พันล้านรายการ เตรียมตัวให้พร้อม
ปัจจุบัน AI ถือเป็น MVP ของออฟฟิศ จากการศึกษาของ MIT เมื่อไม่นานนี้ พบว่า ChatGPT ช่วยลดเวลาในการเขียนได้ถึง 40% ซึ่งเท่ากับเวลาที่เราเคยใช้ในการสงสัยว่าไฟล์ถูกบันทึกไว้ที่ไหน วิศวกร ของ JPMorgan มีประสิทธิภาพการทำงานเพิ่มขึ้น 20% และมีข่าวลือว่านักศึกษาฝึกงานคนหนึ่งขอให้ Copilot เขียนจดหมายลาออก ก่อน วันทำงานวันแรก
ที่ Skyhigh เราได้เห็นการเติบโตของ AI ด้วยตนเอง จากข้อมูลของเรา พบว่าปริมาณการใช้งานแอป AI พุ่งสูงขึ้นอย่างรวดเร็ว โดยเพิ่มขึ้นมากกว่าสามเท่า ขณะที่การอัปโหลดข้อมูลที่ละเอียดอ่อนไปยังแพลตฟอร์มเหล่านี้ก็เพิ่มขึ้นอย่างรวดเร็ว ในขณะเดียวกัน แอปธุรกิจแบบ "ไม่ใช่ AI" แบบดั้งเดิมก็แทบจะตามไม่ทัน สถานที่ทำงานไม่ได้แค่นำ AI มาใช้เท่านั้น แต่ยังเร่งพัฒนาต่อไปอีกด้วย
การแปล: AI กำลังชนะ ไฟร์วอลล์ของคุณเหรอ? ไม่ค่อยดีนัก
“Shadow AI” อาจฟังดูเหมือนเป็นซีรีส์เรื่องต่อไปของ Netflix ที่ต้องดู แต่เรื่องนี้กำลังเกิดขึ้นแบบเรียลไทม์ในองค์กรต่างๆ ทั่วโลก ลองนึกภาพพนักงานพิมพ์แชท GPT, Claude, DeepSeek และเครื่องมือ AI อื่นๆ อีกหลายสิบรายการอย่างเงียบๆ โดยที่ฝ่ายไอทีไม่รู้เรื่องเลย เรื่องนี้ก็เหมือนกับการแอบนำขนมเข้าไปในโรงภาพยนตร์ เพียงแต่คราวนี้ขนมนั้นเป็นข้อมูลของลูกค้า ข้อมูลทางการเงิน และทรัพย์สินทางปัญญา
ตัวเลขดังกล่าวทำให้ต้องตะลึง: องค์กรทั่วไปมีแอปพลิเคชัน AI มากถึง 320 รายการ ผู้ต้องสงสัยตามปกติ ได้แก่ ChatGPT, Gemini, Poe, Claude, Beautiful.AI ซึ่งเป็นเครื่องมือที่มีประสิทธิภาพแต่ยังไม่ได้รับการอนุมัติ ไม่ได้รับการอนุมัติ ไม่ได้รับการตรวจสอบ และหากไม่มีใครเอ่ยคำว่า "ตรวจสอบ" ออกมา ก็อาจหยุดไม่อยู่
แอป AI นั้นสนุก—จนกระทั่งค่าปรับ GDPR ปรากฏขึ้นเหมือนแขกที่ไม่ได้รับเชิญที่งานนอกสถานที่ของทีม ข้อมูลของ Skyhigh เผยให้เห็นด้านที่ไม่ค่อยดีนักของความกระตือรือร้นด้าน AI ทั้งหมดนี้ ปรากฏว่าแอป AI 95% ตกอยู่ในโซนความเสี่ยงปานกลางถึงสูงภายใต้ GDPR ซึ่งโดยพื้นฐานแล้วเป็นสัญญาณเตือนภัยที่มี UI ที่เป็นมิตร
เมื่อต้องปฏิบัติตามมาตรฐานการปฏิบัติตามกฎหมายที่เข้มงวด เช่น HIPAA, PCI หรือ ISO มีเพียง 22% เท่านั้นที่ผ่านเกณฑ์ ส่วนที่เหลือก็ทำได้แค่ผ่านๆ ไป การเข้ารหัสที่เหลือ? แอป AI ส่วนใหญ่ไม่คำนึงถึงเรื่องนี้—84% ไม่สนใจ และการตรวจสอบสิทธิ์หลายปัจจัย? 83% บอกว่าไม่ขอบคุณ แต่ไม่ต้องกังวล แอปส่วนใหญ่รองรับอีโมจิ ลำดับความสำคัญ
หน่วยงานกำกับดูแลกำลังเฝ้าดูอยู่ และไม่เหมือนกับเจ้านายของคุณ พวกเขา อ่านรายงานฉบับ เต็ม
จำวิศวกรของ Samsung ที่ป้อนโค้ดที่มีข้อบกพร่องให้กับ ChatGPT และส่งมอบความลับของเซมิคอนดักเตอร์ให้โดยไม่ได้ตั้งใจได้ไหม เรื่องนี้ไม่ใช่แค่เรื่องเตือนใจอีกต่อไป แต่เป็นเพียงตัวอย่างการฝึกอบรมเท่านั้น
ตามรายงานของ Skyhigh พบว่า 11% ของไฟล์ที่อัพโหลดไปยังแอพ AI มีเนื้อหาที่ละเอียดอ่อน ปัจจัยสำคัญคือ มีบริษัทไม่ถึง 1 ใน 10 แห่งที่มีเนื้อหาที่เหมาะสม data loss prevention (DLP) อยู่ในสถานที่ควบคุม ในขณะเดียวกัน พนักงานก็ออกมาขอให้คล็อดเขียนแผนเปิดตัวผลิตภัณฑ์โดยใช้เอกสารกลยุทธ์ไตรมาส 3 เหมือนกับว่าเป็นเพียงวันธรรมดาๆ ทั่วไป เพราะอะไรจะผิดพลาดได้อีก
DeepSeek เข้ามามีบทบาทในปี 2025 ด้วยยอดดาวน์โหลด กระแสตอบรับ และปริมาณข้อมูลที่น่าทึ่ง รวมถึงการอัปโหลดขององค์กร 176 GB ในเดือนเดียวจากลูกค้า Skyhigh เท่านั้น น่าประทับใจหรือไม่? อย่างแน่นอน น่าตกใจหรือไม่? อย่างแน่นอน นี่คือข้อความเล็กๆ น้อยๆ:
มีลักษณะทันสมัย รวดเร็ว และได้รับความนิยมอย่างล้นหลามในหมู่นักศึกษา สำหรับการตรวจสอบ SOC 2 ของคุณ นี่คือกับระเบิดดิจิทัล
หาก Shadow AI คือเด็กวัยรุ่นหัวรั้นที่แอบหนีออกไปหลังเวลาเคอร์ฟิว Copilot ก็คือเด็กอัจฉริยะที่เก่งกาจ เป็นที่นิยม และอยู่ในเส้นทางผู้นำมาแล้ว ปัจจุบันมีองค์กรถึง 82% ที่ใช้ Shadow AI โดยมีปริมาณการใช้งานเพิ่มขึ้น 3,600 เท่าและมีการอัปโหลดเพิ่มขึ้น 6,000 เท่า พูดตามตรงแล้ว Shadow AI ทำงานได้ดีกว่าเด็กฝึกงาน 5 คนล่าสุดของคุณเสียอีก และไม่ต้องพักเบรกด้วยซ้ำ
แต่แม้แต่เด็กนักเรียนที่เก่งกาจก็ยังต้องการการดูแล บริษัทที่ชาญฉลาดคอยตรวจสอบ Copilot โดยการสแกนทุกสิ่งที่สัมผัส ห่อคำสั่งและเอาต์พุตใน DLP และตรวจสอบให้แน่ใจว่าจะไม่ "เรียนรู้" อะไรที่เป็นความลับ (ขออภัย Copilot—ไม่มีการเปิดเผยแผนงาน Q4)
Large Language Models (LLMs) เปรียบเสมือนเด็กวัยเตาะแตะที่ได้ปริญญาเอก อัจฉริยะในช่วงหนึ่ง แต่อีกช่วงหนึ่งวุ่นวายสุดๆ ความเสี่ยงหลักๆ ของ LLM:
สถิติที่สำคัญ:
ไม่ใช่เรื่องน่าหวาดระแวงหาก AI ของคุณกำลังรั่วไหลความลับและเขียนแรนซัมแวร์ Skyhigh พบว่าแอป AI 94% มีความเสี่ยงจากโมเดลภาษาขนาดใหญ่ (LLM) อย่างน้อยหนึ่งอย่าง ซึ่งเกือบทั้งหมดเป็นความเสี่ยงจากโมเดลภาษาขนาดใหญ่
แย่กว่านั้นอีก 90% เสี่ยงต่อการเจลเบรก ซึ่งหมายความว่าผู้ใช้สามารถหลอกล่อให้ทำในสิ่งที่ไม่ควรทำ และ 76% เสี่ยงต่อการสร้างมัลแวร์ตามคำสั่ง ดังนั้นแอปเดียวกันที่ช่วยร่างบันทึกการประชุมของคุณอาจทำหน้าที่เป็นเด็กฝึกงานของอาชญากรไซเบอร์ก็ได้
องค์กรต่างๆ กำลังกล่าวว่า "เหตุใดจึงไว้วางใจเครื่องมือสาธารณะ ในเมื่อคุณสามารถสร้างเครื่องมือของตัวเองได้"
แอป AI ส่วนตัวตอนนี้จัดการ:
สถิติที่สำคัญ:
ปัจจุบันลูกค้า 78% รันแอป AI ส่วนตัวของตนเอง เนื่องจากหากคุณจะทดลองใช้ปัญญาประดิษฐ์ คุณก็ควรทำแบบปิดประตูเช่นกัน ลูกค้าสองในสามรายกำลังสร้างบน AWS (ต้องขอบคุณ Bedrock และ SageMaker อย่างแน่นอน) ซึ่งเทียบเท่ากับชุมชนที่มีประตูรั้ว
แต่ "ส่วนตัว" ไม่ได้หมายความว่าไม่มีปัญหา บอทเหล่านี้อาจสร้างขึ้นเองภายในองค์กร แต่ก็ยังสามารถสร้างปัญหาได้ นั่นคือเหตุผลที่บริษัทที่ชาญฉลาดจึงเปิดตัวโซลูชัน SSE ด้วย Private Access และ DLP—เพื่อสอดส่อง AI ภายในของพวกเขาอย่างสุภาพและอ่อนโยนก่อนที่บางอย่างจะผิดปกติไปอย่างมาก
ขอให้ชัดเจนว่า AI ไม่ใช่ศัตรู แต่ เป็น AI ที่ไม่ได้รับการจัดการ ต่างหาก
รายงานของ Skyhigh ในปี 2025 แสดงให้เห็นว่าเรากำลังเผชิญกับการเปลี่ยนแปลงทางเทคโนโลยีสำหรับองค์กรที่เกิดขึ้นเพียงครั้งเดียวในแต่ละรุ่น แต่ประเด็นสำคัญคือความปลอดภัยไม่ได้เกี่ยวกับการชะลอการสร้างสรรค์นวัตกรรม แต่เป็นเรื่องของการทำให้แน่ใจว่า AI ที่คุณใช้จะไม่ส่งบอร์ดของคุณไปที่ Reddit ดังนั้น หายใจเข้าลึกๆ อ่านรายงาน และจำไว้ว่า:
เพราะอนาคตขับเคลื่อนด้วย AI และด้วยเครื่องมือที่เหมาะสม จึงสามารถป้องกันความเสี่ยงได้เช่นกัน
โบนัส: ดาวน์โหลด รายงานการนำระบบคลาวด์และความเสี่ยงมาใช้ในปี 2025 ฉบับสมบูรณ์ หรือขอให้ผู้ช่วย AI สรุปรายงานให้คุณ เพียงอย่าอัปโหลดไปยัง DeepSeek
เกี่ยวกับผู้เขียน

Sarang Warudkar เป็นผู้จัดการฝ่ายการตลาดผลิตภัณฑ์ที่มีประสบการณ์มากกว่า 10 ปีในด้านความปลอดภัยทางไซเบอร์ มีความเชี่ยวชาญในการจัดแนวนวัตกรรมทางเทคนิคให้สอดคล้องกับความต้องการของตลาด เขามีความเชี่ยวชาญอย่างลึกซึ้งในโซลูชันต่างๆ เช่น CASB, DLP และการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI ซึ่งขับเคลื่อนกลยุทธ์การออกสู่ตลาดที่มีประสิทธิผลและการมีส่วนร่วมของลูกค้า Sarang สำเร็จการศึกษาระดับปริญญาโทสาขาบริหารธุรกิจจาก IIM Bangalore และปริญญาทางวิศวกรรมศาสตร์จาก Pune University โดยผสมผสานความรู้เชิงเทคนิคและเชิงกลยุทธ์เข้าด้วยกัน
สารัง วารุดการ์ 18 กุมภาพันธ์ 2569
นิฮาริกา เรย์ และซารัง วารัดการ์ วันที่ 12 กุมภาพันธ์ พ.ศ. 2569
ไทอากา วาสุเดวัน 21 มกราคม 2569
เจสซี กรินเดแลนด์ 18 ธันวาคม 2025