작성자: Sarang Warudkar - 선임 기술 PMM(CASB & AI)
2026년 2월 18일 5 분 읽기
인공지능 도구는 이제 글쓰기, 분석, 회의 자동화, 소프트웨어 개발 등 일상 업무 전반에 영향을 미칩니다. 이러한 급속한 도입은 생산성 향상을 가져오지만, 대규모 언어 모델(LLM)의 동작으로 인해 새로운 보안 취약점을 발생시킵니다. 기존의 SaaS 점검만으로는 더 이상 충분하지 않습니다. 최고정보보안책임자(CISO)들은 이제 애플리케이션과 그 기반이 되는 모델을 동등한 주의로 평가합니다.
이 블로그는 기업 리스크를 형성하는 LLM 속성과 보안 리더들이 이를 통제하기 위해 활용할 수 있는 실질적인 단계를 설명합니다.

대부분의 AI SaaS 제품은 타사 대규모 언어 모델(LLM)을 내장합니다. 이는 이중 의존성을 초래합니다. 앱이 모든 보안 검사를 통과하더라도, 그 밑에 있는 모델은 여전히 데이터를 노출하거나 안전하지 않은 코드를 생성하거나 민감한 워크플로를 유출할 수 있습니다. LLM 계층에 대한 명확한 가시성은 이러한 격차를 해소하고 AI 거버넌스를 현대적 위협에 부합하도록 합니다.
1. 애플리케이션 수준 AI 위험: 기초
모델을 검토하기 전에, AI SaaS 애플리케이션이 기업에서 기대하는 핵심 요구사항을 충족하는지 확인하십시오.

검증할 기준 속성
이러한 검증은 여전히 필수적입니다. 이는 서비스 자체에 대한 신뢰를 구축하고 안전한 AI 도입의 기반을 마련합니다.
2. LLM 행동: 새로운 위험 표면의 근원
LLM 속성은 실제 사용자와 적대적 프롬프트에 대한 애플리케이션의 반응 방식에 직접적인 영향을 미칩니다. CISO는 이제 모든 내장 모델에서 다음과 같은 행동을 추적합니다.
GenAI 및 LLM 통합
정확한 모델, 호스팅 지역, 업데이트 패턴을 확인하고 공급업체가 고객 데이터를 활용하여 모델을 미세 조정하는지 여부를 파악하십시오.
탈옥 노출
탈옥(Jailbreak)은 사용자가 LLM 안전 제어 기능을 우회하기 위해 프롬프트를 조작할 때 발생합니다. 흔히 사용되는 기법으로는 역할극, 계층적 지시문, 허구적 프레임 설정, 간접적 또는 암호화된 언어 사용 등이 있습니다. 이러한 상호작용은 정상적인 사용과 유사하기 때문에 기본적인 제어 기능을 종종 회피합니다. 탈옥 시도를 추적하면 보안 팀이 오용을 조기에 탐지하고, 안전 장치를 강화하며, 감사 시 선제적 거버넌스를 입증하는 데 도움이 됩니다.
예시
악성코드 및 유해 코드 생성
LLM은 때때로 숨겨진 실행 경로나 정보 유출 루틴을 포함하는 코드를 생성합니다.
예시
독성, 편향 및 CBRN 배출 위험
모델은 민감하거나 적대적인 프롬프트를 제공받을 경우 안전하지 않은 텍스트를 생성할 수 있습니다. 안전, 규정 준수 또는 물리적 위험이 고려 대상인 사업부에서 이러한 행동을 추적하십시오.
예시
NIST는 생성형 AI 프로파일을 발표했으며, 이는 책임 있는 AI 위험 관리의 기준이 되기 위해 빠르게 자리 잡고 있습니다. 보안 및 규정 준수 팀은 이제 모든 대규모 언어 모델 기반 애플리케이션이 이러한 기대 사항에 명확히 부합할 것을 요구하고 있습니다.
기업들은 직접적인 질문을 던지고 있다
이러한 질문에 명확한 답변이 없을 경우 감사 위험이 급격히 증가합니다. 의료 및 금융 서비스와 같은 규제 산업에서는 NIST 지침과의 불일치가 데이터 유출, 규제 벌금, 감사 실패 가능성을 높입니다.
동시에, OWASP LLM 애플리케이션 상위 10대 취약점은 기존 애플리케이션 보안 문제를 넘어서는 새로운 유형의 취약점을 기록하고 있습니다. 여기에는 프롬프트 주입, 안전하지 않은 출력 처리, 훈련 데이터 중독, 안전하지 않은 통합 등이 포함됩니다.
실제 사건들은 이미 이러한 위험을 반영하고 있습니다. 한 사례에서 SaaS 애플리케이션은 사용자가 AI 처리를 위해 문서를 업로드할 수 있도록 허용했습니다. 공격자가 파일 내에 숨겨진 명령어를 삽입하자 모델이 이를 실행했고, 결과적으로 기업의 민감한 데이터가 노출되었습니다. 이러한 시나리오들은 실제 운영 환경에서 발생하고 있으며, 이를 적극적으로 추적하고 완화하지 않는 조직은 중대한 보안 위험에 직면하게 됩니다.
예시

현대적인 AI 거버넌스 프로그램은 애플리케이션 검사와 모델 인식 제어 기능을 결합합니다.
Skyhigh Security 다음과 같은 프레임워크를Skyhigh Security .
1. AI 애플리케이션 및 대규모 언어 모델(LLM)의 완전한 목록 구축
승인된 도구, 섀도 AI 및 내부 AI 워크로드를 포함합니다.
모델, 버전, 공급자 및 데이터 처리 관행을 기록하십시오.
2. 측정 가능한 LLM 속성을 사용하여 각 모델을 평가합니다.
탈옥 방지, 악성코드 행동, 교육 출처, 보존 관행 및 규정 준수 정렬을 포함합니다. 이러한 점수를 활용하여 민감한 부서의 사용 범위를 설정하십시오.
3. 프롬프트 계층에서 고급 데이터 보호 적용
AI 프롬프트에는 종종 엄격히 규제되는 문서에서 발췌한 텍스트 조각이 포함됩니다. 프린트핑거링 및 강화된 DLP를 활용하여 프롬프트 텍스트가 무해해 보일 때에도 민감한 콘텐츠를 식별하십시오.
4. 지속적 모델 테스트 실행
모델 또는 애플리케이션이 업데이트될 때마다 프롬프트 주입 검사 및 적대적 평가를 자동화하십시오. 이러한 테스트를 일회성 공급업체 평가가 아닌 반복적인 라이프사이클 이벤트로 취급하십시오.
5. 공급업체 위험 관리 프로그램 확대: 대규모 언어 모델(LLM) 투명성 포함
모델 선택, 훈련 관행 및 프롬프트 보존을 계약상 기대 사항에 포함시키십시오. 이를 통해 AI 공급망이 SaaS 환경의 나머지 부분과 동일한 거버넌스 구조로 통합됩니다.
LLM은 기업이 AI를 활용하는 방식을 재편하며, CISO가 위험을 평가하는 방식도 재편합니다.
전통적인 애플리케이션 거버넌스에서 보안 팀은 두 가지 관심사를 분리합니다. 애플리케이션은 접근 제어, 데이터 보호, 로깅 및 규정 준수에 대한 기업 표준을 충족해야 합니다. 별도로, 기반 플랫폼은 신뢰성, 보안 및 운영 기대치를 충족해야 합니다.
LLM은 동일한 두 계층의 책임을 도입하지만, 더 높은 위험을 수반한다.
데이터 사용량, 안전성 행동, 가드레일 적용 범위, 실패 패턴과 같은 대규모 언어 모델(LLM) 속성을 추적함으로써 보안 책임자들은 성숙한 애플리케이션 프로그램에서 기대하는 것과 동일한 신뢰도를 확보할 수 있습니다. 이러한 가시성을 바탕으로 최고정보보안책임자(CISO)는 기업 전반에 걸쳐 보안, 개인정보 보호 및 규제 준수 약속을 유지하면서 더 광범위한 AI 도입을 지원할 수 있습니다.
저자 소개

Sarang Warudkar는 사이버 보안 분야에서 10년 이상 경력을 쌓은 노련한 제품 마케팅 관리자로, 기술 혁신을 시장의 요구사항에 맞추는 데 능숙합니다. 그는 CASB, DLP, AI 기반 위협 탐지와 같은 솔루션에 대한 깊은 전문 지식을 바탕으로 영향력 있는 시장 진출 전략과 고객 참여를 주도합니다. Sarang은 IIM 방갈로르에서 MBA를, 푸네 대학교에서 공학 학위를 취득하여 기술 및 전략적 통찰력을 겸비하고 있습니다.
티야가 바수데반 2026년 1월 21일