大規模言語モデル(LLM)の市場は成長を続けており、それぞれに独自の機能があります。たとえば、MicrosoftのCopilotを使用すると、カスタムエージェントを作成してワークフローを調整できます。同様に、OpenAIのChatGPT4を使用すると、ユーザーはカスタムGPTを作成して、職場内外で生産性を向上させることができます。
生産性の利点があるにもかかわらず、データへの接続はセキュリティリスクを生じさせます。適切な保護策が講じられていない場合、誤って機密情報を漏洩する可能性があります。
この記事では、カスタムGPTとは何か、そしてそれらをワークフローに安全に実装する方法について説明します。
カスタムGPTとは何ですか?
GPT(Generative Pre-trained Transformer)は、人間のようなテキストを理解し生成できる強力な言語モデルです。職場の文脈では、カスタムGPTは、ユーザーが既存のLLM上に構築できる特化型エージェントです。
これを使用する利点は、カスタムの指示やデータを追加して、デフォルトモデルと比較して特定のタスクでより良いパフォーマンスが得られるようにエージェントを調整できることです。アップロードしたファイルを使用してカスタムGPTをさらに構成できます。セッション間で情報を記憶する機能と組み合わせることで、カスタムGPTは特定のワークフロー、社内用語、ユーザーの好みを理解する強力なツールとなります。
カスタムGPTのリスクとは?
GPTをカスタマイズすると、より堅牢なエクスペリエンスが得られますが、セキュリティリスクも高まります。カスタムGPTは、ベースGPTと同じ問題を抱えています。
ガードレールがない場合、カスタムGPTには次のようなリスクがあります。
- データ漏洩:従業員の個人情報、契約書、社内戦略文書などの機密データが漏洩する可能性があります。
- モデルメモリの誤用:永続メモリがユーザーやセッション間で機密のプロンプトや文書を保持する場合
- シャドウAI:従業員がITチームの知らないうちにAIツールを使用してカスタムAIエージェントを作成する場合
- 内部者脅威:悪意のある従業員、または意図せずにアップロードされた企業データを抽出または不正使用するGPTを作成する従業員
- 法的およびコンプライアンス上のリスク:GPTが適切に保護されていない場合、業界によってはコンプライアンス法(HIPAA、GDPR、PCI DSSなど)に違反する可能性があります。
安全なGPTを構築する方法
カスタムGPTにはリスクが伴いますが、セキュリティと生産性のバランスを取りながらカスタムGPTを構築して使用することは可能です。
AIエージェントを使用する際は、その機能に必要な情報のみを提供し、機密データは特定の期間のみ保持することが重要です。
ここでは、カスタムGPTを構築する際の注意点をご紹介します。
- ユースケースを固める:機密データを必要としないカスタムGPTの明確な目標から始め、その後、必要に応じて徐々に範囲を拡大します。
- 指示の設計を理解する: システム指示に機密情報を記載しないようにします。また、行ってはならないことを明確に記述します。指示の例としては、「顧客情報を保持しないでください」などが挙げられます。
- メモリ設定:必要がない限りメモリを無効にしてください 。有効にしている場合は、定期的にメモリの使用状況を監査してください。
- データ衛生管理:テストやプロンプトを行う際には、合成データまたは匿名化されたデータを使用し、未加工のスプレッドシート、CRMレコード、未編集のレポートをアップロードしないでください。
- 権限:GPTは適切な組織単位内でのみ 共有できるようにします。たとえば、HR GPTはHRチームと連携し、マーケティングGPTはマーケティングチームと連携するべきです。
- 監査:ログ、入力/出力、およびモデルの動作を定期的に確認し、データが安全に共有されているかどうかを判断します。AIツールの監査と継続的な監視は、迅速なインジェクションのテストやAIの限界を押し広げるユーザーの表面化にも役立ちます。
- 教育:組織内でGPTを構築および使用するためのガイドラインを作成します。機密システムに接続されたGPTには、セキュリティレビューと承認が必要です。

以下は、AIエージェントを実装する際に、ユーザーと組織が参照できるベストプラクティスのチェックリストです。
カスタムGPTのベストプラクティスチェックリスト
- プロンプトメモリはオフになっていますか、それとも厳密に管理されていますか?
- 指示はサニタイズされていますか?
- アクセスは必要なユーザーに限定されていますか?
- 使用されているデータは機密性についてレビューされていますか?
- 出力はハルシネーション、偏見やポリシー違反についてテストされていますか?
Varonisが企業のAIツールを保護する方法
組織は、データをリスクにさらすことなくAIツールをフルスケールで使用するために、機密データがどこにあるのか、誰がアクセスできるのか、どのように保護されているのかを深く継続的に可視化する必要があります。しかし、これを手動で達成することはできません。組織にはデータを自動的に保護するツールが必要であり、Varonisがそのお手伝いをします。
組織は機密データがどのように使用され、アクセスされているかを完全に把握できるようになります。また、Varonis は露出度の高いデータを自動的に修正し、GPT とそのユーザーが閲覧を許可されているデータにのみアクセスできるようにします。
Varonis for ChatGPT Enterprise
Varonis for ChatGPT Enterpriseは、組織内のシャドーAIのリスクを軽減するだけでなく、以下のことも可能にします。
GPTインタラクションの監査
Varonisは、機密データがアップロードされていないことを確認するために、すべてのChatGPT Enterpriseのプロンプトと応答を監視します。このプラットフォームは、AIイベントのライブで包括的なフィードを提供し、簡単に検索でき、会話にアップロードされたファイルの完全な履歴を提供します。
異常動作を監視
Varonis に組み込まれた脅威検出機能は、構成を必要とせずに、セキュリティチームに潜在的な脅威を自動的に警告します。したがって、以下のような場合でも…
- 機密ファイルはOneDrive上でChatGPTを使用して操作されます
- ChatGPTに大量のファイルがアップロード
- 新しい所有者または管理者がChatGPTに割り当てられます
Varonisはチームに通知し、これらの状況を迅速に改善できるようにします。
「爆発範囲」を縮小
より多くの攻撃者が古いハッキング手段(フィッシング、マルウェア、ソフトウェアの脆弱性など)ではなく、エンタープライズアカウントにログインしているため、アカウントを保護する重要性が大幅に増しています。
従業員の大部分が資産全体のすべての機密データに不必要にアクセスしている場合、アクセスが厳しく監視され、各アカウントが職務を遂行するために必要なデータにのみアクセスできるシナリオと比較して、データ侵害のリスクは倍増します。
Varonisは、ChatGPTと共有された機密データをプロンプトとその後の出力で常に検出して分類し、業界をリードする精度とスケールを維持します。Varonisは、組織がどのCopilot対応ユーザーとAIアカウントが機密データにアクセスできるかを理解できるよう支援し、ビジネスを中断することなく、古い権限や過剰な権限を自動的に取り消します。
Varonis for Microsoft Copilot
Varonis for Microsoft Copilotは、既存のMicrosoft 365セキュリティスイートを基に構築されており、チームがMicrosoftのAIを活用した生産性向上ツールを安全に導入できるよう支援します。
Varonisは、セキュリティポリシーを継続的に適用し、Copilotの機密情報へのアクセスを制限し、チームに使用状況データをリアルタイムで表示し、異常または疑わしいやり取りについて通知を送信することができます。
安全なCopilot導入成功のための実用的な推奨事項を得るには、無料のMicrosoft 365 Copilotセキュリティスキャンにアクセスしてください。
悲観的なことばかりではありません
カスタムAIエージェントは変革をもたらす可能性がありますが、最初から安全に実装する必要があります。
カスタムエージェントは、他の内部ツールと同様に注意深く取り扱うべきです。ITチームやセキュリティチームと協力しながら、従業員が責任を持って使用できるように支援し、教育することで、機密データのセキュリティを確保できます。
AIセキュリティに関する知識を深めるには、Varonisの無料AIセキュリティ基礎コースの受講を検討してください。さまざまなAI解決策を理解し、各タイプのAIに関連するリスクを学び、データを安全に保つための効果的な方法を学べます。
What should I do now?
