By Thyaga Vasudevan - プロダクト担当エグゼクティブ・バイス・プレジデント
2025年2月3日 6 分で読む
2023年に設立された中国の人工知能スタートアップ、DeepSeekの人気はこの1週間で急上昇した。米国のApp StoreでChatGPTを抜いて最も評価の高い無料アプリになっただけでなく、このAIアシスタントは市場にも大きな影響を与え、主要テクノロジー株が大幅な下落に見舞われた。AIチップの大手メーカーであるエヌビディアの株価は17%近く急落し、その結果、時価総額で約5,890億ドルの損失となり、ウォール街史上最大の1日の損失となった。
DeepSeekをめぐるイノベーションは、AIの民主化を促進するものであり、人類全体にとって良いことである。このAI企業のイノベーションは、既存のプラットフォームに匹敵する性能を持ちながら、コスト効率とエネルギー効率に優れたオープンソースのAIモデルを提供することにつながった。このアプリのユーザーフレンドリーなインターフェースと透明性の高い「thinking out loud」機能は、その魅力をさらに高め、ユーザーはAIの推論プロセスを追うことができる。
独自のLLMモデルを持つ新たなAIチャットボットの出現は、企業、特に大企業がAI投資を拡大する際にも重要な問題を提起する。企業は新しいAIチャットボットをどのように評価すべきなのか?従業員がAIアプリケーションを消費し、企業が採用するメリットとデメリットを決定する要素は何だろうか?最近の報告や実際の事件から、特定のLLM、特に強固なセキュリティフレームワークを持たないオープンソースの亜種が、データセキュリティ、規制遵守、ブランドの評判に重大な脅威をもたらすことが明らかになっている。
このブログでは、それを探る:
- ディープシークのようなリスクの高いLLMの台頭
- AIに関連する主なセキュリティの脆弱性
- 企業が新しいAIチャットボットを評価、管理、保護する方法
- Skyhigh Security SSEのような統合アプローチが重要な理由
リスキーなLLMとチャットボットの台頭
DeepSeekのようなオープンソースのLLMは、興奮と懸念の両方を巻き起こしている。企業によって検証されたAIソリューションとは異なり、オープンソースのLLMには、機密性の高いビジネスデータを保護するために必要な強固なセキュリティ管理が欠けていることが多い:
- 同等モデルの3倍の偏り
- 安全でないコードを生成する可能性が4倍高い
- 有害なコンテンツが11倍多い
このような問題にもかかわらず、DeepSeekはアップルApp Storeのトップに躍り出、わずか24時間(2025年1月28日)で260万ダウンロードを達成し、ChatGPTをも上回った。この爆発的な普及は、根本的な緊張を浮き彫りにしている:AIは猛烈なスピードで進歩しているが、セキュリティ監視はしばしば遅れ、企業は潜在的なデータ漏えい、コンプライアンス違反、風評被害にさらされている。
AIチャットボットを評価する際の主なリスク領域
スカイハイのAIセキュリティ・ブログで取り上げたように、企業はAIがもたらす固有のリスクを認識する必要があります:
- 利用データの不足:セキュリティチームは、企業内でどれだけのユーザーがシャドーAIアプリを使用して業務を行っているのか把握していない。
- LLMリスクへの理解が限定的:どのAIアプリやLLMモデルがリスクが高いかを理解することがガバナンスの鍵であるが、この情報を得ることは容易ではない。
- データの流出:仕事をこなす過程で、ユーザーは企業データをAIアプリにアップロードし、これが機密データの流出につながる可能性がある。
- 敵対的なプロンプト:AIチャットボットはしばしば、偏った、有害な、または単に正しくない(幻覚)応答を提供することができます。さらに、マルウェアを含むコードを提供することもある。このような応答を消費すると、企業に問題が生じる可能性がある。
- データ汚染:企業は、自社のビジネス・ニーズに合わせて、公開または非公開のカスタムAIアプリケーションを作成している。これらのアプリケーションは、企業データを使用してトレーニングされ、調整されます。学習データが不注意または悪意によって漏洩すると、カスタムAIアプリが誤った情報を提供することにつながります。
- コンプライアンスと規制リスク:AIアプリの使用は、データの流出、機密データの暴露、カスタムAIチャットボットに関連する不正確なプロンプトや敵対的なプロンプトのいずれかに起因する、より大きなコンプライアンスと規制のリスクに企業を開放する。
統合アプローチが重要な理由:Skyhigh Security SSE
企業が新しいAIアプリケーションやチャットボットを評価する際には、企業資産を保護するために必要なコントロールを適用するツールがあるかどうかを検討する必要がある。自社のセキュリティ・スタックが、AIアプリケーションに制御を適用するためだけでなく、これらのアプリケーションから発生する悪意のある活動や脅威を評価し、対応するためにも配置されていることを確認する必要がある。
Skyhigh Security ようなセキュリティ・サービス・エッジ(SSE)ソリューションは、企業のAIセキュリティの重要な構成要素である。これらのツールは、企業がオンプレミとクラウドのトラフィックを保護したように、すでに企業のセキュリティスタックと統合されている。セキュリティチームはすでにガバナンスとデータ保護ポリシーを定義しており、これらをAIアプリケーションに簡単に拡張することができる。そして最後に、柔軟な展開モードによってウェブ、シャドー・アプリ、公認アプリ、プライベート・アプリをカバーすることで、SSEソリューションは企業内のAIフットプリントのスペクトルをカバーし、包括的なセキュリティを提供することができる。
以下は、企業がAIアプリに適用しようとしているトップコントロールである:
- シャドーAIのガバナンス:シャドーAIアプリケーションのガバナンスを推進するには、AIアプリケーションの使用状況とリスクを理解し、コントロールを適用する必要があります。主要なSSEソリューションは、シャドーAIアプリケーションを包括的に可視化します。さらに、ジェイルブレイク、バイアス、毒性、マルウェアなどのリスクに対して、基礎となるLLMモデルがどの程度危険であるかなど、AIリスクを深く理解することができます。最後に、これらのアプリケーションを検出、グループ化し、手動介入を必要とせずに制御を実施することができます。
- データ保護:AIアプリに関して企業が抱える最大の懸念は、従業員がAIによってもたらされる大幅な生産性向上を利用しようとするあまり、認可されていないリスクの高いAIアプリに企業の機密データが流出してしまうことだ。この問題は他のシャドーアプリケーションと変わりませんが、AIアプリが短期間で大きく成長したため、注目されるようになりました。SSEソリューションを使用することで、企業は既存のデータ保護制御をAIアプリに拡張することができる。ソリューションによっては、APIを介して統合された企業公認のアプリに対してのみこうした機能を提供するものもありますが、Skyhigh Securityような主要なSSEソリューションは、統一されたデータ保護コントロールを提供します。つまり、シャドーアプリ、公認アプリ、プライベートアプリに同じポリシーを適用できます。
- 敵対的プロンプトのコントロールLLMモデルの出現は、敵対的プロンプトという新たなリスクベクトルを生み出した。これは、エンドユーザーがLLMモデルを操作して、ジェイルブレイクやプロンプトインジェクションなど、望ましくない情報や違法な情報を提供しようとすることを指す。また、AIアプリが有害、偏った、危険、NSFW、または不正確なコンテンツを回答に提供することも考えられる。いずれの場合も、企業はこのコンテンツが企業資料内で使用され、規制、ガバナンス、風評リスクに対して脆弱になるリスクがある。企業は、DLPと同様に、リスクのあるプロンプトを検出し、修正するためのコントロールを適用しようとしている。
- データポイズニングの修復OpenAI GPTやCustom Copilotsを使用してカスタムAIチャットボットを作成する企業が増加するにつれ、これらのチャットボットを訓練するために使用される訓練データの神聖さは、セキュリティの観点から重要性を増しています。この訓練データのコーパスにアクセスできる何者かが、不正確な入力や悪意のある入力で「毒」を盛ると、チャットボットの応答に影響を与える可能性が高い。これは、特にチャットボットが一般に公開されている場合、企業が法的リスクやその他のビジネスリスクにさらされる可能性がある。企業はすでにオンデマンド(またはデータアットレスト)DLPスキャンをトレーニングデータに対して実行し、機密データを除去している。また、潜在的なプロンプトインジェクションやデータポイズニングの試みを特定するために、同様のスキャンを実行しようとしています。
- コンプライアンスと規制の実施:企業はSSEソリューションを利用して、特にクラウドアプリにアップロードされたり外部と共有されたりするデータについて、ガバナンスと規制コンプライアンスを強化している。複数の企業ユースケースでAIを採用する中、これらのコントロールをAIアプリに拡張し、従業員へのアクセスを引き続き可能にするために、SSEソリューションに注目している。
AIセキュリティの未来
AIの急速な進化は、新しいセキュリティパラダイムを要求している。LLMの活用を検討している企業は、新たな脅威から保護するAIセキュリティフレームワークを採用し、慎重に行う必要があります。
Skyhigh Security、企業が最も重要な資産を守りながらAIを安全に導入できるよう支援することをお約束します。リスクの高いAIの利用から組織を守る方法については、スカイハイのAIセキュリティブログで最新の知見をご覧ください。
著者について
ティヤーガ・ヴァスデヴァン
プロダクト担当エグゼクティブ・バイス・プレジデント
Thyaga Vasudevanは、現在Skyhigh Security製品担当上級副社長として、製品管理、デザイン、製品マーケティング、GTM戦略を指揮する、精力的なソフトウェアのプロフェッショナルです。豊富な経験を生かし、SAASベースのエンタープライズソフトウェア(Oracle、Hightail - 旧YouSendIt、WebEx、Vitalect)とコンシューマーインターネット(Yahoo!)エンドユーザーの根本的な問題やユースケースを特定するプロセスに専念し、これらの課題に対処するためのハイテク製品やサービスの仕様策定と開発をリードすることに誇りを持っており、組織がリスクと機会の微妙なバランスをうまく調整できるよう支援することも含まれる。Thyagaは教育と指導を好み、RSA、Trellix Xpand、MPOWER、AWS Re:invent、Microsoft Ignite、BoxWorks、Blackhatなどの著名なイベントで講演する機会に恵まれている。彼はテクノロジーと問題解決の交差点で成功を収め、現在の課題に対処するだけでなく、将来のニーズを予測したイノベーションを推進することを目指しています。
ブログへ戻る