ChatGPT Enterpriseのセキュリティ周りを確認してみた
OpenAI社は2023年の8月にChatGPTの企業向けエディションである「ChatGPT Enterprise」を発表しました。企業向けということで、さまざまな面で安全性が向上していることが売りとなっています。
最も重要なのは、「入力が学習されないこと」で、これが企業利用におけるWeb版ChatGPTの入力における懸念であったと思います。
個人でChatGPTをWebで利用する場合でも入力を学習しなうようオプトアウトすること自体は可能ですが、オプトアウトすると入力情報の保存自体が行われないため履歴が保存されず、利便性の面では若干課題がありました。ChatGPT Enterpriseでは入力を学習しないけれど履歴は保持されるので、これだけでも利点はあるかと思います。
ただChatGPT Enterpriseはそれ以外でもセキュリティ・プライバシーへの対応の強化が行われています。一体どういった対応となっているのか、OpenAI社が公開するドキュメントから深堀りしてみたいと思います。
主に参照するドキュメント
Enterprise privacy at OpenAI
- ChatGPT Enterprise、および小規模チーム向けのChatGPT Teamのプライバシーに関する情報を記載したドキュメントです。
ChatGPT Enterprise FAQページ
- OpenAIのHelpサイト(https://help.openai.com)内のChatGPT Enterpriseに関するFAQのコレクションのページです。ChatGPT Entetpriseについてのよくある質問がまとまっています。
おさらい:OpenAIの料金プランの種類
まずは、そもそもChatGPT Enterpriseとはどんなことができるプランなのかを確認しましょう。
料金プランに関しては下記のページに情報がまとまっています。
ChatGPT Enterpriseについては、以下の機能があると説明されています。
- Teamプランで行える機能全て
- GPT-4, GPT-4o, GPT-4o mini, および DALL·E, web browsing, data analysis などの各ツールへの無制限・高速なアクセス
- 長い入力のための拡張されたコンテキストウィンドウ
- デフォルトでの企業のデータの学習からの除外、データ保持ウィンドウのカスタム
- 管理者によるコントロール、ドメイン検証、分析
「データの学習からの除外」「データ保持ウィンドウのカスタム」「管理者によるコントロール、ドメイン検証、分析」あたりがセキュリティや管理に関連する部分になります。以後の説明で、これらの詳細についても掘り下げていきたいと思います。
基礎知識: ChatGPT Enterpriseのユーザー権限
機能について見ていく前に、軽くChatGPT Enterpriseのユーザー権限について解説しておきます。
公式のドキュメントの説明は以下です:
簡単に言うと、
- 権限には「Member(メンバー)」「Admin(管理者)」「Owner(所有者)」の3種類がある
- メンバーは通常のユーザー
- 管理者はおもにユーザーやグループの追加・削除が行える
- 所有者は組織のワークスペース全体の設定やSSOの設定が可能
といった感じです。
管理者の権限では意外に設定できるところが少ないのですが、管理者が「ユーザーの管理ができる」という位置づけなのかな、という印象です。これから説明する設定はおおむねOwner=所有者の権限がないと設定ができません。その代わり、Owner権限は複数のユーザーに割り当てることができるようになっています。
この点踏まえて以下、セキュリティ周りの情報を見ていきます。
データの扱いについて
データの扱いについて、学習には利用されないことは最初に触れました。
「Enterprise privacy at OpenAI」では、データの扱いについてもう少し詳しく箇条書きで書いてあります。
Ownership: You own and control your data
- We do not train on your business data (data from ChatGPT Team, ChatGPT Enterprise, or our API Platform)
- You own your inputs and outputs (where allowed by law)
- You control how long your data is retained (ChatGPT Enterprise)
日本語で簡単に紹介しておくと下記の通りです。
- ChatGPT Team/EnterpriseおよびOpenAIのAPIプラットフォームのデータは学習には利用しない
- 入力するデータ・出力されるデータのいずれも、(法律に認められる範囲で)顧客が所有権を持つ
- ChatGPT Enterpriseでは、データをどれくらい保持するかを自身で制御できる
上記のうち、データの所有権とデータ保持期間の管理について簡単に説明します。
データの所有権
データの所有権について、正確な情報としては、Business term(=ビジネス利用規約)に以下のように記載されています。
3.1 Customer Content. You and End Users may provide input to the Services (“Input”), and receive output from the Services based on the Input (“Output”). We call Input and Output together “Customer Content.” As between you and OpenAI, and to the extent permitted by applicable law, you (a) retain all ownership rights in Input and (b) own all Output. We hereby assign to you all our right, title, and interest, if any, in and to Output.
3.1お客様のコンテンツ。お客様およびエンドユーザーは、本サービスにインプット(以下「インプット」といいます)を提供し、インプットに基づいて本サービスからアウトプット(以下「アウトプット」といいます)を受け取ることができます。当社は、インプットとアウトプットを合わせて「カスタマーコンテンツ」と呼びます。お客様と OpenAI との間において、適用される法律で認められる範囲において、お客様は、(a) インプットに関するすべての所有権を保持し、(b) すべてのアウトプットを所有します。当社は、インプットとアウトプットに関するすべての権利、権原、および権益(もしあれば)をお客様に譲渡します。
この理由もあってか、「データの学習は行わない」ことが明言されています。
ちなみに上記のBusiness termはChatGPT Enterprise、ChatGPT Teamに加えてOpenAIのAPIもスコープに入っているので、APIでもこの扱い自体は同様となります。(実際APIでも学習はされませんね)
データ保持期間の管理
ChatGPT Enterpriseのみの機能として、データ保持期間の管理があります。デフォルトは無制限のようです(設定のFAQのスクリーンショットで設定値が「Infinite」となっていることを確認できます :
期限を設定することで、データがOpenAIに残り続けることを防ぐことができますが、注意点として以下が説明されています。
- 削除された会話は法的な要求がない限り30日以内にOpenAIのシステムから除去(remove)される (=削除の操作をしても即時にシステムから消えるわけではない)
- データの保持期間は会話の履歴などに関係してくるため、短くしすぎると利用体験を損なう可能性がある
このためいわゆるZero Data Retention(全くデータを保持しない)設定ができるわけではなく、利便性からもある程度適切な保持期間を設定したほうが良さそうです。
またこのポリシー保持期限の変更については、上記Helpページでは以下のように「アカウントマネージャーにコンタクトして設定を変更するように」と記載されており、容易な変更はできないようです。
Retention policy
- Please contact your account manager to adjust this setting.
ただ、現状、ChatGPT Enterpriseのユーザー権限に「アカウントマネージャー」というロールはないので、この「アカウントマネージャー」とは具体的に誰を指すのかがちょっとこのドキュメントだけでは分かりませんでした。分かったら後で追記することにします。
アクセスの制御
「Enterprise privacy at OpenAI」では、「誰がアクセスできるか」を自身で決められる、として制御について以下のように説明しています。
Control: You decide who has access
- Enterprise-level authentication through SAML SSO (ChatGPT Enterprise and API)
- Fine-grained control over access and available features
- Custom models are yours alone to use and are not shared with anyone else
日本語で簡単に紹介しておくと下記の通りです。
- SAML SSOによるエンタープライズレベルの認証(ChatGPT EnterpriseとAPI)
- アクセスや利用可能な機能のきめ細かなコントロール
- カスタムモデルの専有(他の誰とも共有されない)
SSO
ChatGPT EnterpriseではSSOが利用できます。
SSO周りの設定については下記のHelpページに項目がまとまっています。
ドメイン検証機能やSSOの強制オプションにより、ユーザーが組織のメールアドレスで個人契約した(パーソナルアカウント)ChatGPT利用を防ぐことも可能なので、統制の観点で有効に利用できるかと思います。
ただ、ドメイン検証を有効(※SSOの有効化のためには必須)にすると、新規にユーザーがパーソナルアカウントを作成すること自体が不可能になるようなので、逆にChatGPT Enterpriseとパーソナルアカウントの併用を許容したい場合は注意が必要です。
ワークスペースの各種制御設定
ChatGPT Enterpriseのワークスペースでは、さまざまな制御の設定ができるようになっています。
具体的な項目は下記Helpページに記載されています。
具体的には下記のような設定があります:
- ChatGPTチャットの共有可能な範囲の設定
- ChatGPTでは、自分が行ったAIとのチャットでのやり取りを、URLにより他のメンバーと共有する機能があります。出力結果を他人に見せたい場合など非常に有用な機能ですが、外部とも共有可能な場合、機密に抵触するやり取りが第三者に漏洩するおそれが生じます。この対策としてChatGPT Enterpriseでは、このチャットの共有する範囲をEnterpriseワークスペースのメンバー内のみなど制限することができます。
- データ保持期間の設定
- こちらは上で紹介したものです。チャット履歴をどの程度保持できるかを設定可能です。
- 接続するアプリ
- Enterpriseワークスペースで接続できるアプリの設定です。2024年7月現在では、GoodleドライブとMicrosoft OneDrive(Personal および work/school)について、それぞれ接続の許可/拒否が設定可能です。
GPTs周りの設定の制御
ChatGPT EnterpriseではGPTs周りの設定の制御も可能です。設定を解説したHelpページは下記です。
具体的な設定は下記です:
- GPTsの共有可能な範囲の設定
- 前述のチャット共有と同様で、社内で作成したGPTsをどこまで共有可能とするかの制御設定です。有する範囲をEnterpriseワークスペースのメンバー内のみとすることで、社内の業務利用に特化したGPTsを外部への漏洩を心配することなく利用することができます。
- GPTsで利用できる機能の制御
- 社内で作成するGPTsで、どういった機能を利用可能可能かの制御設定です。2024年7月現在では、「BingによるWebブラウジング」「GPTアクションの利用」「サードパーティ製GPTsの利用」についてそれぞれ有効/無効の設定が可能です。
- 「GPTアクション」は、サードパーティのAPIをGPTで呼び出すことができる機能です。管理者は呼び出すAPIのドメインを制御することができます。このあたりの説明は下記Helpページに別途詳しく記述されています:
- サードパーティ製GPTsの利用については、「許可しない」「オーナーが承認したもののみ許可」「すべて許可」からポリシーを選択することができます。
GPTアクションやサードパーティ製GPTsの利用は、サードパーティベンダへ入力情報を渡すことになるので、利用規約など確認しないと機密情報の漏洩につながりかねないリスクがあります。このあたりの制御ができるのはうれしいポイントですね。
その他セキュリティ周りの情報
「Enterprise privacy at OpenAI」ではこのほか、セキュリティに関する情報として以下を記載しています。
Security: Comprehensive compliance
- We’ve been audited for SOC 2 compliance (ChatGPT Enterprise and API)
- Data encryption at rest (AES-256) and in transit (TLS 1.2+)
- Visit our Security Portal to understand more about our security measures
- ChatGPT EnterpriseとAPIを対象としてSOC2監査を受けている
- データ転送においてAES-256による暗号化を行っている
- セキュリティポータルにおいてセキュリティに関する詳しい情報の掲載
SOC2
SOC2は、クラウドサービスの統制に関するフレームワークで、内部統制・システムに関する情報(システム記述書)と評価結果を記した報告書(SOC報告書)が外部監査を経て作成されます。このSOC報告書は顧客が要求すれば閲覧することが可能なドキュメントです。
OpenAIの場合は後述のセキュリティポータルに登録することで入手できます。なおSOC報告書の入手は一般的にNDAもしくは覚書などが必要になることが多く、OpenAIでもセキュリティポータル登録時にNDAの締結が必要となっています。
セキュリティポータル
OpenAIのセキュリティポータルは、OpenAIの取り組んでいるセキュリティに関する情報が閲覧できるサイトです。
このポータルについては筆者が以前ブログで紹介したことがありますので、気になった方はそちらもご参照ください。
上記のSOC報告書のほか、セルフアセスメントの情報、ペネトレーションテストの結果レポートなど、さまざまな情報を確認することができます。前述のように各ドキュメントの閲覧にはNDAの締結が必要なので、ここで公開されているドキュメントについては詳しく紹介はできないのですが、このように専用のサイトの情報を作って、セキュリティの情報の発信に努めることで透明性を高めているといえるかと思います。
おわりに
というわけで、ざっとChatGPT Enterpriseのセキュリティ周りの情報について、公式ドキュメントをもとに紹介してみました。
ChatGPT Enterpriseの利用の検討に際してご参考になればと思います。
ではでは。