โดย Sarang Warudkar - อาวุโสฝ่ายเทคนิค PMM (CASB & AI) Skyhigh Security
8 พฤษภาคม 2568 5 อ่านนาที
เมื่อ 12 เดือนที่แล้ว CFO ของคุณยังคงสงสัยแชทบ็อต วันนี้ พวกเขากำลังถามว่าคุณ "ให้ ChatGPT จัดการบันทึกการประชุมคณะกรรมการได้หรือไม่" จากความอยากรู้อยากเห็นอย่างระมัดระวังไปจนถึงสเปรดชีตที่ขับเคลื่อนด้วย Copilot องค์กรต่างๆ ต่างก็ทุ่มสุดตัวกับ AI และแม้ว่าผลลัพธ์ที่ได้จะเป็นจริง—ความเร็ว ขนาด และความคิดสร้างสรรค์—ความเสี่ยง...? โอ้ ความเสี่ยงก็มี จริง เช่นกัน
มาดูเทรนด์ใหญ่ๆ ภัยคุกคาม และเหตุการณ์ที่น่าตกใจจาก Skyhigh Security รายงานการนำระบบคลาวด์มาใช้และความเสี่ยงประจำปี 2025 ของเรา พร้อมข้อมูลเชิงลึกจากผู้ใช้กว่า 3 ล้านรายและกิจกรรมเกี่ยวกับระบบคลาวด์รายวันกว่า 2 พันล้านรายการ เตรียมตัวให้พร้อม
ปัจจุบัน AI ถือเป็น MVP ของออฟฟิศ จากการศึกษาของ MIT เมื่อไม่นานนี้ พบว่า ChatGPT ช่วยลดเวลาในการเขียนได้ถึง 40% ซึ่งเท่ากับเวลาที่เราเคยใช้ในการสงสัยว่าไฟล์ถูกบันทึกไว้ที่ไหน วิศวกร ของ JPMorgan มีประสิทธิภาพการทำงานเพิ่มขึ้น 20% และมีข่าวลือว่านักศึกษาฝึกงานคนหนึ่งขอให้ Copilot เขียนจดหมายลาออก ก่อน วันทำงานวันแรก
ที่ Skyhigh เราได้เห็นการเติบโตของ AI ด้วยตนเอง จากข้อมูลของเรา พบว่าปริมาณการใช้งานแอป AI พุ่งสูงขึ้นอย่างรวดเร็ว โดยเพิ่มขึ้นมากกว่าสามเท่า ขณะที่การอัปโหลดข้อมูลที่ละเอียดอ่อนไปยังแพลตฟอร์มเหล่านี้ก็เพิ่มขึ้นอย่างรวดเร็ว ในขณะเดียวกัน แอปธุรกิจแบบ "ไม่ใช่ AI" แบบดั้งเดิมก็แทบจะตามไม่ทัน สถานที่ทำงานไม่ได้แค่นำ AI มาใช้เท่านั้น แต่ยังเร่งพัฒนาต่อไปอีกด้วย
การแปล: AI กำลังชนะ ไฟร์วอลล์ของคุณเหรอ? ไม่ค่อยดีนัก
“Shadow AI” อาจฟังดูเหมือนเป็นซีรีส์เรื่องต่อไปของ Netflix ที่ต้องดู แต่เรื่องนี้กำลังเกิดขึ้นแบบเรียลไทม์ในองค์กรต่างๆ ทั่วโลก ลองนึกภาพพนักงานพิมพ์แชท GPT, Claude, DeepSeek และเครื่องมือ AI อื่นๆ อีกหลายสิบรายการอย่างเงียบๆ โดยที่ฝ่ายไอทีไม่รู้เรื่องเลย เรื่องนี้ก็เหมือนกับการแอบนำขนมเข้าไปในโรงภาพยนตร์ เพียงแต่คราวนี้ขนมนั้นเป็นข้อมูลของลูกค้า ข้อมูลทางการเงิน และทรัพย์สินทางปัญญา
ตัวเลขดังกล่าวทำให้ต้องตะลึง: องค์กรทั่วไปมีแอปพลิเคชัน AI มากถึง 320 รายการ ผู้ต้องสงสัยตามปกติ ได้แก่ ChatGPT, Gemini, Poe, Claude, Beautiful.AI ซึ่งเป็นเครื่องมือที่มีประสิทธิภาพแต่ยังไม่ได้รับการอนุมัติ ไม่ได้รับการอนุมัติ ไม่ได้รับการตรวจสอบ และหากไม่มีใครเอ่ยคำว่า "ตรวจสอบ" ออกมา ก็อาจหยุดไม่อยู่
แอป AI นั้นสนุก—จนกระทั่งค่าปรับ GDPR ปรากฏขึ้นเหมือนแขกที่ไม่ได้รับเชิญที่งานนอกสถานที่ของทีม ข้อมูลของ Skyhigh เผยให้เห็นด้านที่ไม่ค่อยดีนักของความกระตือรือร้นด้าน AI ทั้งหมดนี้ ปรากฏว่าแอป AI 95% ตกอยู่ในโซนความเสี่ยงปานกลางถึงสูงภายใต้ GDPR ซึ่งโดยพื้นฐานแล้วเป็นสัญญาณเตือนภัยที่มี UI ที่เป็นมิตร
เมื่อต้องปฏิบัติตามมาตรฐานการปฏิบัติตามกฎหมายที่เข้มงวด เช่น HIPAA, PCI หรือ ISO มีเพียง 22% เท่านั้นที่ผ่านเกณฑ์ ส่วนที่เหลือก็ทำได้แค่ผ่านๆ ไป การเข้ารหัสที่เหลือ? แอป AI ส่วนใหญ่ไม่คำนึงถึงเรื่องนี้—84% ไม่สนใจ และการตรวจสอบสิทธิ์หลายปัจจัย? 83% บอกว่าไม่ขอบคุณ แต่ไม่ต้องกังวล แอปส่วนใหญ่รองรับอีโมจิ ลำดับความสำคัญ
หน่วยงานกำกับดูแลกำลังเฝ้าดูอยู่ และไม่เหมือนกับเจ้านายของคุณ พวกเขา อ่านรายงานฉบับ เต็ม
จำวิศวกรของ Samsung ที่ป้อนโค้ดที่มีข้อบกพร่องให้กับ ChatGPT และส่งมอบความลับของเซมิคอนดักเตอร์ให้โดยไม่ได้ตั้งใจได้ไหม เรื่องนี้ไม่ใช่แค่เรื่องเตือนใจอีกต่อไป แต่เป็นเพียงตัวอย่างการฝึกอบรมเท่านั้น
ตามรายงานของ Skyhigh พบว่า 11% ของไฟล์ที่อัพโหลดไปยังแอพ AI มีเนื้อหาที่ละเอียดอ่อน ปัจจัยสำคัญคือ มีบริษัทไม่ถึง 1 ใน 10 แห่งที่มีเนื้อหาที่เหมาะสม data loss prevention (DLP) อยู่ในสถานที่ควบคุม ในขณะเดียวกัน พนักงานก็ออกมาขอให้คล็อดเขียนแผนเปิดตัวผลิตภัณฑ์โดยใช้เอกสารกลยุทธ์ไตรมาส 3 เหมือนกับว่าเป็นเพียงวันธรรมดาๆ ทั่วไป เพราะอะไรจะผิดพลาดได้อีก
DeepSeek เข้ามามีบทบาทในปี 2025 ด้วยยอดดาวน์โหลด กระแสตอบรับ และปริมาณข้อมูลที่น่าทึ่ง รวมถึงการอัปโหลดขององค์กร 176 GB ในเดือนเดียวจากลูกค้า Skyhigh เท่านั้น น่าประทับใจหรือไม่? อย่างแน่นอน น่าตกใจหรือไม่? อย่างแน่นอน นี่คือข้อความเล็กๆ น้อยๆ:
มีลักษณะทันสมัย รวดเร็ว และได้รับความนิยมอย่างล้นหลามในหมู่นักศึกษา สำหรับการตรวจสอบ SOC 2 ของคุณ นี่คือกับระเบิดดิจิทัล
หาก Shadow AI คือเด็กวัยรุ่นหัวรั้นที่แอบหนีออกไปหลังเวลาเคอร์ฟิว Copilot ก็คือเด็กอัจฉริยะที่เก่งกาจ เป็นที่นิยม และอยู่ในเส้นทางผู้นำมาแล้ว ปัจจุบันมีองค์กรถึง 82% ที่ใช้ Shadow AI โดยมีปริมาณการใช้งานเพิ่มขึ้น 3,600 เท่าและมีการอัปโหลดเพิ่มขึ้น 6,000 เท่า พูดตามตรงแล้ว Shadow AI ทำงานได้ดีกว่าเด็กฝึกงาน 5 คนล่าสุดของคุณเสียอีก และไม่ต้องพักเบรกด้วยซ้ำ
แต่แม้แต่เด็กนักเรียนที่เก่งกาจก็ยังต้องการการดูแล บริษัทที่ชาญฉลาดคอยตรวจสอบ Copilot โดยการสแกนทุกสิ่งที่สัมผัส ห่อคำสั่งและเอาต์พุตใน DLP และตรวจสอบให้แน่ใจว่าจะไม่ "เรียนรู้" อะไรที่เป็นความลับ (ขออภัย Copilot—ไม่มีการเปิดเผยแผนงาน Q4)
Large Language Models (LLMs) เปรียบเสมือนเด็กวัยเตาะแตะที่ได้ปริญญาเอก อัจฉริยะในช่วงหนึ่ง แต่อีกช่วงหนึ่งวุ่นวายสุดๆ ความเสี่ยงหลักๆ ของ LLM:
สถิติที่สำคัญ:
ไม่ใช่เรื่องน่าหวาดระแวงหาก AI ของคุณกำลังรั่วไหลความลับและเขียนแรนซัมแวร์ Skyhigh พบว่าแอป AI 94% มีความเสี่ยงจากโมเดลภาษาขนาดใหญ่ (LLM) อย่างน้อยหนึ่งอย่าง ซึ่งเกือบทั้งหมดเป็นความเสี่ยงจากโมเดลภาษาขนาดใหญ่
แย่กว่านั้นอีก 90% เสี่ยงต่อการเจลเบรก ซึ่งหมายความว่าผู้ใช้สามารถหลอกล่อให้ทำในสิ่งที่ไม่ควรทำ และ 76% เสี่ยงต่อการสร้างมัลแวร์ตามคำสั่ง ดังนั้นแอปเดียวกันที่ช่วยร่างบันทึกการประชุมของคุณอาจทำหน้าที่เป็นเด็กฝึกงานของอาชญากรไซเบอร์ก็ได้
องค์กรต่างๆ กำลังกล่าวว่า "เหตุใดจึงไว้วางใจเครื่องมือสาธารณะ ในเมื่อคุณสามารถสร้างเครื่องมือของตัวเองได้"
แอป AI ส่วนตัวตอนนี้จัดการ:
สถิติที่สำคัญ:
ปัจจุบันลูกค้า 78% รันแอป AI ส่วนตัวของตนเอง เนื่องจากหากคุณจะทดลองใช้ปัญญาประดิษฐ์ คุณก็ควรทำแบบปิดประตูเช่นกัน ลูกค้าสองในสามรายกำลังสร้างบน AWS (ต้องขอบคุณ Bedrock และ SageMaker อย่างแน่นอน) ซึ่งเทียบเท่ากับชุมชนที่มีประตูรั้ว
แต่ "ส่วนตัว" ไม่ได้หมายความว่าไม่มีปัญหา บอทเหล่านี้อาจสร้างขึ้นเองภายในองค์กร แต่ก็ยังสามารถสร้างปัญหาได้ นั่นคือเหตุผลที่บริษัทที่ชาญฉลาดจึงเปิดตัวโซลูชัน SSE ด้วย Private Access และ DLP—เพื่อสอดส่อง AI ภายในของพวกเขาอย่างสุภาพและอ่อนโยนก่อนที่บางอย่างจะผิดปกติไปอย่างมาก
ขอให้ชัดเจนว่า AI ไม่ใช่ศัตรู แต่ เป็น AI ที่ไม่ได้รับการจัดการ ต่างหาก
รายงานของ Skyhigh ในปี 2025 แสดงให้เห็นว่าเรากำลังเผชิญกับการเปลี่ยนแปลงทางเทคโนโลยีสำหรับองค์กรที่เกิดขึ้นเพียงครั้งเดียวในแต่ละรุ่น แต่ประเด็นสำคัญคือความปลอดภัยไม่ได้เกี่ยวกับการชะลอการสร้างสรรค์นวัตกรรม แต่เป็นเรื่องของการทำให้แน่ใจว่า AI ที่คุณใช้จะไม่ส่งบอร์ดของคุณไปที่ Reddit ดังนั้น หายใจเข้าลึกๆ อ่านรายงาน และจำไว้ว่า:
เพราะอนาคตขับเคลื่อนด้วย AI และด้วยเครื่องมือที่เหมาะสม จึงสามารถป้องกันความเสี่ยงได้เช่นกัน
โบนัส: ดาวน์โหลด รายงานการนำระบบคลาวด์และความเสี่ยงมาใช้ในปี 2025 ฉบับสมบูรณ์ หรือขอให้ผู้ช่วย AI สรุปรายงานให้คุณ เพียงอย่าอัปโหลดไปยัง DeepSeek
เกี่ยวกับผู้เขียน

Sarang Warudkar เป็นผู้จัดการฝ่ายการตลาดผลิตภัณฑ์ที่มีประสบการณ์มากกว่า 10 ปีในด้านความปลอดภัยทางไซเบอร์ มีความเชี่ยวชาญในการจัดแนวนวัตกรรมทางเทคนิคให้สอดคล้องกับความต้องการของตลาด เขามีความเชี่ยวชาญอย่างลึกซึ้งในโซลูชันต่างๆ เช่น CASB, DLP และการตรวจจับภัยคุกคามที่ขับเคลื่อนด้วย AI ซึ่งขับเคลื่อนกลยุทธ์การออกสู่ตลาดที่มีประสิทธิผลและการมีส่วนร่วมของลูกค้า Sarang สำเร็จการศึกษาระดับปริญญาโทสาขาบริหารธุรกิจจาก IIM Bangalore และปริญญาทางวิศวกรรมศาสตร์จาก Pune University โดยผสมผสานความรู้เชิงเทคนิคและเชิงกลยุทธ์เข้าด้วยกัน
สารัง วารุดการ์ 18 กุมภาพันธ์ 2569
นิฮาริกา เรย์ และซารัง วารัดการ์ วันที่ 12 กุมภาพันธ์ พ.ศ. 2569
ไทอากา วาสุเดวัน 21 มกราคม 2569
เจสซี กรินเดแลนด์ 18 ธันวาคม 2025
ไทอากา วาสุเดวัน วันที่ 12 ธันวาคม พ.ศ. 2568