廣瀬製紙株式会社

Employees' Blog

ChatGPT セキュリティガイドライン(非公式)

公開日:2025.03.23 更新日:2025.03.24
生成AIを使いながら疑問を持つ人のイラスト

ChatGPT活用におけるセキュリティの注意点

こんにちは。廣瀬製紙株式会社 稼働率向上PJチームのA.Mです。

みなさんはChatGPTは使っていますか?

ChatGPTを使うにあたっては、様々なセキュリティリスクがつきまといます。
ですが前提として、筆者はどんどんChatGPT等の生成AIを使っていくべきという立場です。

かつて職場にパソコンが初めて導入されたり、インターネットが導入されたりといったタイミングでビジネスに大きな革新が起きたことと思いますが、生成AIがもたらす変化はそれらと同様、あるいはそれ以上の革新的な変化をもたらす可能性を秘めていると考えているからです。

「セキュリティ上のリスクがある」という理由で、活用を避けるという選択は得策とは言えません。

むしろ、そのリスクを正しく理解し、適切な対策を講じたうえで積極的に活用していく姿勢が重要です。
これを活用しないことは、ビジネスの競争力を自ら低下させることにもなりかねません。

そこで大切なのは、「どうしたら安全に使えるのか」という視点です。セキュリティリスクを把握し、それを最小限に抑えながら、ChatGPTの持つ可能性を最大限に引き出すことが求められています。

技術の進歩は止められません。重要なのは、その技術をいかに賢く、安全に活用していくかということです。
ChatGPTについても、リスクを理解したうえで、適切な対策を講じながら活用していく――それが現代のビジネスに求められる姿勢といえるでしょう。

なお、ガイドラインなどと大仰なタイトルにしていますが、あくまで著者個人の見解に基づくものですので、参考程度にお読みください。

機密情報を入力するとどうなるの?

職場でChatGPTを活用する際に、最も気になるのが機密情報の取り扱いではないでしょうか。

ChatGPTに機密情報を入力したからといって、即座にその情報が外部に流出してしまうわけではありません。例えば掲示板やSNSに機密情報を投稿してしまうといったレベルの話ではありませんので、そこは過度に恐れる必要もないです。

プロンプトとしてChatGPTに投げた文章等は、OpenAIのサーバーに送信され、保存されることになります。さらに、無料プラン・Plusプランにおいては設定次第で入力内容が大規模言語モデルの学習データとして利用されます。

OpenAIは当然、収集・保存したデータを高度なセキュリティ体制のもとで管理しています。なので入力した内容が第三者に即座に公開されてだだ漏れ、というわけではありませんが、生成AIの特性上、学習した機密情報を予期せぬタイミングで、無関係な第三者との会話の中で露呈させてしまう可能性は否定できません(もちろんそうならないようOpenAI側もあらゆる努力をしているでしょうが)。

ただ、入力した文章をモデルに学習させないという点で言えば、とても簡単な設定をすることで回避できます。アカウントの設定欄から、データコントロール>すべての人のためにモデルを改善するをオフにすれば良いのです。

ChatGPTのセキュリティ設定画面

それは企業でChatGPTを活用するにあたって確実に対応しておくべきことですが、その設定をすることでOpenAIによる「データ収集・データ保存」そのものを防げるわけではないということは認識しておく必要があります。

ChatGPTのセキュリティを考える2つの視点

ChatGPTのセキュリティについて考える際、「モデルのトレーニングに使用されるか否か」「データ収集されサーバーに保存されるか否か」という2つの異なる視点から理解する必要があります。

多くの方が「トレーニングをオフにすれば安全」と考えがちですが、それほど単純な話ではありません。設定でモデルトレーニングをオフにしたとしても、入力された情報はOpenAIのサーバーに保存される仕組みになっているためです。

現状、プロンプトをサーバーに保存させない方法はおそらくありません。これはChatGPTの無料プランに限らず、Plusプラン、Teamプラン、Enterpriseプランにおいても同様だと思います。

とはいえ、この点においても殊更にリスクを恐れる必要はありません。

OpenAIのサーバーでは高度な暗号化が施されており、高い安全性が確保されています。万が一流出したとしても、よっぽどの設定や運用ミスがない限りは暗号化が解読されるといったことはないと思われます。

そもそもそんなことを言い出したら、ビジネス向けのほとんどのクラウドサービスにおいて、顧客情報などの重要な情報を外部のサーバーに保存している限りは同じ条件だと言えます。生成AIだから特別にサーバーに保存される、というわけではないのです。

ただ一方で、こちらのWiredの記事では、OpenAIが収集・保存するデータの範囲や、利用目的に関して不明瞭な点がある旨を指摘されています。

記事が書かれた2024年1月時点のOpenAIの利用規約においては、収集されたデータは関連会社やベンダー、サービスプロバイダー、法執行機関と共有できると定められているため、その行き先を追うのは困難だと記事では指摘されています。

Open AI says this data is used to train the AI model and improve its responses, but the terms allow the firm to share your personal information with affiliates, vendors, service providers, and law enforcement. “So it’s hard to know where your data will end up,” says Love.

O’Flaherty, K. (2024, July 31). Can GPT-4o be trusted with your private data? Wired.

(その点で言えば、APIベースにはなりますがMicrosoftが提供しているAzure OpenAIのほうが明確に指針を示していると言えそうです)

だからこそ、より厳密にセキュリティを確保するためには、「そもそも保存させない」という観点からの対策も考えられます(そのあたりは程度問題ですので、諸々の条件を検討したうえで方針を決めればよいかなと思います)。

具体的な対策として、まず最も基本的なのは「重要な情報をプロンプトに含めない」というシンプルなルールです。そもそも入力していない内容は保存されることはありません(当たり前ですが)。
ですが、会社において多くの従業員が使うにあたっては、このルールを徹底させることも難しいものがあります。

次の策として、原則「一時チャットモードの活用をする」という手があります。このモードでは、たとえデータが収集・保存されても30日でOpenAI側のサーバーから自動的に削除される仕組みになっています。いったん保存はされますが、一定期間が経ったら削除されるため、残り続けるよりは安心です。

ChatGPTの一時チャットモード

また、一時チャットモードを使わなかった通常の会話履歴についても、必要がなくなった時点で削除することで、基本的には30日経過後にOpenAIのサーバーから削除されます(例外あり)。

最も手軽な方法は、不要になったアカウントそのものを削除することです。特に退職した社員のアカウントについては、セキュリティリスクを防ぐため、速やかに削除することが望ましいでしょう。

このように、ChatGPTのセキュリティ対策は単一の設定だけでなく、複数の視点から総合的に考える必要があります。特に企業での利用においては、これらの対策を組み合わせることで、より安全な運用が可能となります。

ChatGPTの暗号化方式について

ここまでで気になったのが、ChatGPTのプランごとに暗号化方式に違いはあるのだろうか? という点です。

「OpenAI におけるエンタープライズプライバシー」を見ると、「OpenAI は ChatGPT Team、ChatGPT Enterprise、ChatGPT Edu、そして API プラットフォームを利用する際、ビジネスデータ(入出力データ)に対してお客様に所有権と管理権を提供し、さらに、コンプライアンス要件を満たすための支援もしています。」と書かれています。

そのうえで、「データ保存時の暗号化(AES-256)と、データ転送時の暗号化(TLS 1.2+)(OpenAI とユーザー間、及び OpenAI とサービスプロバイダー間)」とその詳細について書かれています。

AES-256がサーバーにデータを保存するうえでの暗号化方式、TLS 1.2+がサーバーとの間でデータを送受信する際の暗号化方式となりますが、どちらもとても信頼性の高いものです。

上記の説明では無料プランやPlusプランについて明記されていないのがやや気になりますが、おそらく単純にこのページが法人向けに作られたページだから明記していないだけだと思います。

わざわざ無料プラン、Plusプランでそれより劣った暗号化方式を使う意味もないでしょう。

また、こちらのサイトにおける「Data Security」の欄を見ると、暗号化やデータ削除の方針について説明されています。

Encryption-at-restという欄を見てみると、「All customer data is encrypted at-rest using AES-256.」ので、All customerというのを字義通りに受け取れば無料プラン、Plusプランにおいても同じ暗号化方式を採用していると考えてよいのではないでしょうか。

無料プラン・PlusプランよりもTeamプラン・Enterpriseプランは安全なの?

ここまで考えたうえで、じゃTeamプランとかEnterpriseプランってあるけどそれって無料プラン・Plusプランに比べてなにが安全なの? という疑問が出てくることと思います。

基本的には、セキュリティ面における技術性能そのものが高いというよりは、全体的な管理運用面で安全を確保できるようになっている、という理解をするのが正しいのではないでしょうか。

モデルの学習がデフォルトでオフになっていたり、アカウントの管理を一括ででき、権限周りの設定をより詳細にカスタムできるなど。

サインイン等に関しても同様です。

いくつかのWeb記事を参照したところ、「EnterpriseプランはSSO(シングルサインオン)に対応してるので安全」と解説されていましたが、無料プランやPlusプランだってGoogleアカウントやMicrosoft、AppleアカウントからログインできるためSSOには対応していると言えます。

ただしそれはOAuth 2.0 / OIDC系のSSOで、EnterpriseではSAML系のSSOや、SSOと組み合わせて使うプロトコルであるSCIMが利用されているため、厳密に言えば使われているSSOの種類が違う、というのが正しいです。

ではOAuth 2.0 / OIDC系のSSOよりもSAMLやSCIMの方がセキュリティ的に堅牢なのか?というと一概にはそうとも言えません。

確かにOAuth 2.0 / OIDCにはSNSそのものを乗っ取られるとマズイという弱点はあるものの、正しく管理されれば安全性は高いです。

ここでもやはり、技術それ自体の安全性というよりは、どのような運用をするかが要件になり変わってくるものと言えます。
個人でのログインをするならOAuth 2.0 / OIDCが便利だし、多数の従業員を抱える企業が一括で運用管理するのであれば、SAMLやSCIMが向いているよね、ということです。
管理運用面でのミスを極力減らせるような設計になっているということでしょう。

コンプライアンス面での安全性

またEnterpriseプランに関しては、セキュリティとは別にコンプライアンス面での安全性を謳っています。

SOC 2 Type 2、GDPR、CCPAなど欧米での法規制基準から、日本の個人情報保護法を含む、各国のプライバシー・データセキュリティ基準を満たし、監査における対応もされているとのことです。

つまり他のプランと比較して、企業が求めるコンプライアンス要件や監査証跡、データ利用ポリシーの厳密なコントロール、サポート体制などが、Enterpriseプランで追加的に保証されているのが大きな違いです。

ざっくりといってしまえば、よりプライバシーやデータセキュリティに関して細かくコントロールできるし、サポートも手厚いよ、ということだろうと私は理解しています。

その認識が正しければ、「監査・認証や法令順守上の契約/運用プロセス面で企業の要件に対応できるか」という差が、コンプライアンスにおいての、Enterpriseプランと他のプランとの大きな相違点と言えます。

ちなみにセキュリティ面を別にすれば、「ワークスペース」などチームで生産性を高めるための機能があったり、一部のモデルにおいてチャット回数の上限が無料プラン・Plusプランよりも高かったりというメリットがTeamプラン、Enterpriseプランには追加で存在しますが、それは今回の記事の趣旨とは別になりますので割愛します。

リスクを減らすためにするべきこと

企業でChatGPTを活用する際、セキュリティリスクを最小限に抑えるためには、いくつかの具体的な対策を講じる必要があります。

まず最も重要なのは、無料プランやPlusプランを使用している場合、必ず「すべての人のためにモデルを改善する」機能をオフにすることです。
この設定により、入力された情報がOpenAIの言語モデルの学習データとして使用されることを防ぐことができます。

次に、可能ならば一時チャットモードを活用しましょう。

一時チャットモードでは、会話データは30日後に自動的に削除されるため、長期的なセキュリティリスクを軽減できます。また、通常の会話履歴についても、用が済んだら積極的に削除することをお勧めします。

これらの対策を確実に実施するためには、社内でChatGPT利用に関するガイドラインを策定し、全従業員に周知徹底することが大切です。

ガイドラインには、機密情報の取り扱い方法や、設定の確認手順などを具体的に記載しておくとよいでしょう。

ただし、個々の従業員に設定やガイドラインの遵守を任せるというのは難しい面もあります。

いくら「こういう使い方をしてね」と定めていても、継続的にそのルールを遵守させていくことは時に難しいこともあります(新しく入社した従業員に伝えきれていないなど)。

そこで、可能であればTeamプラン以上の契約への移行をお勧めします。

Teamプランでは、「すべての人のためにモデルを改善する」機能がデフォルトでオフになっているうえ、管理者が一括して権限設定やアカウント管理を行えるため、セキュリティ管理が格段に容易になります。

また、退職者のアカウント管理も重要です。
従業員が退職する際は、速やかにアカウントを削除するなど、適切なアカウント管理を行うことで、情報漏洩のリスクを最小限に抑えることができます。

このように、適切な設定とガイドラインの整備、そして可能な限り高度なプランの活用を組み合わせることで、ChatGPTを安全に、かつ効果的に活用することが可能になります。

余談:やはりオンプレが最強か?

少し論点が外れますが、なんとしてでも外部のサーバーにデータを保存させたくない、といった場合には、オープンソースのLLMをオンプレで(自社サーバー上で)稼働させることも選択肢となります(現時点ではChatGPTはオープンソースを提供していませんが)。

その場合、外部サーバーにデータが残されないという点での安心感はありますが、一方で自社で高いセキュリティ要件を満たしたうえで運用する必要がある、という点があります。

オンプレにしたはいいものの、外部からアクセスされ放題で結局ダダ漏れ、では目も当てられません。そのあたりは自社にきちんとセキュリティを担保できるだけのスキルセットやノウハウがあるか、という点を考慮に入れなければなりません。

またオンプレのもう一点のメリットとして、いくら生成AIを稼働させても従量課金的に費用が発生しないという点があります。

AIエージェントの採用が現実的になりつつある中で、24時間無賃で働き続けるAIエージェントが爆誕することになります(笑)
(電気代等はかかります)

まとめ

会社でChatGPTを使うなら

絶対に対応したいこと

  • ・ガイドラインを策定しよう
  • ・機密情報はプロンプトに含めないルールにする
  • ・「すべての人のためにモデルを改善する」をオフに
  • ・退職者のアカウントは削除する(会社管理の場合)

可能であれば対応したいこと

  • ・できればTeamプラン以上を契約する
  • ・原則一次チャットを使うようにする
  • ・定期的に過去のチャット履歴を削除

なお、本記事の内容は情報提供を目的としたものであり、正確性や完全性を保証するものではありません。
公開されている情報からの推測も多分に含まれておりますので、その点はご留意ください。
なお、記事を参考にして生じた損害や不利益について、当社および著者は一切の責任を負いかねます。
実施される場合は、ご自身の判断と責任において行ってください。