IT部門の監視外で稼働するAIツールは、データを高速にクロールする能力と相まって、リスクを飛躍的に高めます。その結果、セキュリティとAIの間の溝は拡大し続けています。
機密データはこれまで以上に高速かつ予測不能な方法で移動しており、従来型の防御策ではこのような現実に対応できません。AIは生産性向上というメリットがある一方で、機密データを数秒で抽出可能な状態にさらす危険性があります。
AIを安全に活用するには、組織はセキュリティの焦点を、実際にリスクが存在する場所であるデータそのものへ移す必要があります。この記事では、なぜデータセキュリティがAIセキュリティの基盤となるのか、そして手遅れになる前にAIパイプラインをどのように保護すべきかを解説します。
AIセキュリティの課題
エンタープライズにおけるAI導入は、多くの組織が対処しきれていない課題を生み出しました。その例として次のようなものがあります。
- 適切なガバナンスなしに機密データへアクセスするAIエージェント
- 高速で新たな機密データを生成する生成AIソリューション
- ITやセキュリティ部門の承認なしに導入されるシャドーAIツール
- ガードレールが十分に整備されないまま分散したデータを接続するAIコパイロット
- モデルの完全性を脅かすデータやモデル汚染
アラートが過剰に発生し、AIが稼働する新しいデータストアを十分にサポートできないことも多いため従来のセキュリティ手法やDLPソリューションでは、これらの課題に対応できません。最新のデータセキュリティソリューションでは、アイデンティティ、クラウド、エンドポイント、そしてSaaS環境を保護対象に含める必要があります。
データセキュリティがAIセキュリティの基盤である理由
AIシステムは本質的にデータ駆動型です。AIが学習し、稼働し、継続的に習得していくためには、大量のデータが必要になります。こうしたデータは双方向のセキュリティ課題を生み出し、AIシステムに入力されるデータとAIシステムから出力されるデータの両方を効果的に監視・管理する必要があります。
組織は、機密情報が誤ってAIモデルに入力されないようにしなければなりません(これはデータ漏えいやコンプライアンス違反につながる可能性があります)。また、AIが生成する出力に機密情報が含まれたり、新たなセキュリティ脆弱性を生み出したりしないようにすることも重要です。
さらに、組織はAIによって拡大する可能性のある「被害範囲にも注意を払う必要があります。被害範囲とは、AIシステムが侵害されたり悪用されたりした場合に想定される損害が及ぶ範囲を指します。
AIアクセスが制御されていない場合、小さな過ちを壊滅的なデータ侵害へと変えてしまう可能性があります。権限を制限し、設定を監視することで、組織はインシデントの被害範囲を狭め、影響を大幅に軽減できます。
AIパイプラインの保護:包括的なアプローチ
AIからデータを効果的に保護するには、データの取り込みから出力の管理まで、AIパイプライン全体に対応する包括的なアプローチが必要です。この戦略により、データセキュリティを考慮したAIの導入を実現できます。
機密データへのAIのアクセスを視覚化する
AIリスクを管理するための最初のステップは、AIツールやエージェントがアクセス可能な機密データリポジトリを把握することです。たとえば、Microsoft 365 Copilotがユーザーの権限を利用することを理解するのは、組織でこれを有効化する際に重要です。ツールを有効化する前に権限を制限し、AIがアクセスできる可能性のある範囲を可視化することで、潜在的なデータ流出を把握できます。その上で、各データストアに関連するリスクレベルを評価し、緩和策の優先順位を決め、適切なアクセス制御を実装することができます。
過剰な権限を取り消す
AIシステムはしばしば必要以上の権限を付与されるため、AIツールやサービスに対して最小権限アクセスを実装することが極めて重要です。たとえば、営業予測のAIツールが業務を行うのに人事データへアクセスする必要はありません。過剰な権限でトレーニングされたエージェントは、無関係な応答を返すことがあり、その結果としてデータ侵害が発生した際の影響を拡大させる可能性もあります。最小権限の適用を徹底しなければ、AIは数秒でテラバイト単位のデータを流出させ得る「強化された内部脅威」となりかねません。

リスクのあるAIの設定ミスを修正する
AIシステムの設定を定期的に監査することで、プロンプト制約の確認、認証メカニズムの修正、不適切なデータ統合ポイントへの対応など、セキュリティ上の不備を特定し是正できます。定期的な監査を積極的に実施することは、進化するコンプライアンス要件への適応を可能にし、強固なAIガバナンス戦略を強化することにつながります。
AIが作成したデータを監視する
AIシステムは組織向けに膨大な新しいデータを生成する可能性があり、その一部は機密性を持ち、セキュリティ監督が必要です。新しいデータが生成される際には、それがAIによる生成データかどうかを分類し、機密ラベルを適用し、不審な活動を監視する必要があります。
AI生成コンテンツを分類する際には、機密レベルに基づいてコンテンツを自動的に識別・分類するのが最も効果的です。たとえば、カスタマーサービス用のAIチャットボットが出力する内容は、顧客情報や財務データなどの機密情報を含むかどうかに応じて分類すべきでしょう。
さらに、すべてのAI生成コンテンツに適切な機密ラベルを付与し、そのアクセス、共有、利用方法を管理できるようにします。これには、AIアシスタントが生成したドキュメントに「機密情報」や「公開情報」など自動的にラベル付けすることも含まれます。
不審なAI利用を監視する
AIとのすべてのユーザーのやり取りを監視し、疑わしいプロンプトや不正利用の可能性を特定する必要があります。たとえば、ユーザーがAIアシスタントから顧客のクレジットカード情報を繰り返し取得しようとしている場合、自動監視によってセキュリティチームにアラートを送信し、そのユーザーをロックダウンしてデータ侵害を防ぐことができます。
機密データをAIシステムに入れない
AIデータリスクを管理する上で最も効果的な戦略の1つは、機密データをAIシステムにまったく取り込ませないことです。これを実現するには、多角的なアプローチが必要です。
まず、シャドーAIの増加によって被害範囲が知らないうちに拡大し、脆弱性が持ち込まれる可能性があるため、隠れたAIワークロードを発見することが重要です。次に、データがAIシステム内や組織全体でどのように流れるかをマッピングし、機密データのフローを特定する必要があります。これにより、潜在的な露出ポイントを突き止め、適切な制御を実装できるようになります。
最後に、機密データへアクセスできるAIサービスアカウントをマッピングすることが不可欠です。どのアカウントが特定のリポジトリにアクセスできるのかを把握することで、適切なアクセス制御を適用できます。
安全なAI導入戦略の確立
AIを組織に安全に導入するために、次の実践的なステップを踏むことが重要です。
- リスクの特定:現在のAI導入状況におけるセキュリティの不備を把握するため、AIセキュリティ評価を実施します。
- データの分類:包括的なデータ発見と分類を行い、すべてのデータが特定・分類されていることを確認します。
- AIガバナンスポリシーの確立:どのデータをどの目的で、どのツールで使用できるかを明確にするAIガバナンスポリシーを定義し、ユーザー間で認識を揃えます。
- 技術的制御の実施:アクセス制御、DLP、監視を徹底するために、適切なセキュリティ対策を導入します。
- 社内研修の実施:すべてのユーザーに、安全かつセキュアな使用のためのAIのベストプラクティスを教育します。
- 監視と改善:AIセキュリティは一度きりのプロジェクトではありません。変化し続けるセキュリティ環境に対応するため、継続的な監視と改善が必要です。
VaronisでAIパイプラインを保護
一般公開されているAIツールの数は急増しており、それに伴い組織が直面するリスクもかつてない規模に拡大しています。たった1つのプロンプトや設定ミスのあるAIエージェントが、数秒で機密データを流出させてしまう可能性があります。
私たちの最新の調査により、 99%の組織がAI によって簡単に明らかにできる機密データを公開しているという厳しい真実が明らかになりました。実際の環境で100億ファイル近くを分析した結果をまとめた、データセキュリティの現状レポートでは広範な脆弱性を明らかにしました。シャドーAIや多要素認証(MFA)の未導入から、ゴーストユーザーやラベル付けされていないファイルまで、リスクは日々増大しています。このレポートでは、こうした脅威を浮き彫りにすると同時に、AI導入に備えてデータを保護するための実践的な手順やツールも紹介しています。
Varonis AI Securityは、AIリスクを継続的に特定し、進行中のコンプライアンス違反にフラグを立て、露出を自動的に修正することで、組織がAIを安全に活用できるようにします。

AIは急速に進化していますが、エンタープライズでの導入という点では、まだ始まったばかりです。防御を最新化するのを後回しにしたり、従来型のセキュリティに固執したりする組織は、ますます拡大する重大なセキュリティリスクを抱えることになります。
データを最優先に据えたAIセキュリティ戦略を早期に取り入れることで、組織は安全かつ持続的にイノベーションを推進できるようになります。
AIセキュリティはデータセキュリティから始まります:よくある質問
なぜデータセキュリティがAIセキュリティにとって重要なのですか?
AIシステムはデータ駆動型です。トレーニング、稼働、出力のために大量の機密データに依存しています。強固なデータセキュリティがなければ、プロンプトや出力、設定ミスによるアクセスを通じて、そのデータが意図せず流出する可能性があります。
AIコパイロットやエージェントにおける最大のリスクは何ですか?
主なリスクは機密データの過剰な露出です。コパイロットは、これまで分離されていたデータソースを接続し、本来アクセスできない情報をユーザーやAIエージェントに提供してしまう可能性があります。多くの場合、侵害が発生するまで誰もその事実に気づきません。
「シャドーAI」とは何ですか?なぜ危険なのですか?
シャドーAIとは、IT部門やセキュリティ部門の監督外で導入されたAIツールやサービスを指します。監視されていないこれらのシステムは、機密データとやり取りし、コンプライアンス違反を引き起こし、組織の攻撃対象領域を拡大させる可能性があります。
機密データをLLMに入れないようにするにはどうすべきですか?
まず、環境全体に存在するすべての機密データを発見し、分類することが必要です。その上で、どのAIシステムやユーザーがアクセスできるかを制御します。Varonis AI Securityのようなソリューションは、機密データのフローを自動的に検知し、AIモデルやプロンプトに取り込まれるのを防ぎます。
注:このブログはAI翻訳され、当社日本チームによってレビューされました
