組織の規模に応じた、AI利用セキュリティのベストプラクティス
「危ないサービス」より「危ない使い方」のほうが問題の本質です。どのサービスを使うかの前に、まず「どんなデータを入力するか」を3段階に分類します。この分類は、組織の規模に関係なく全員に共通する基本原則です。
すでに公開されている情報、または自分だけに関わる一般的な情報。
社内向けの情報だが、漏洩しても致命的ではないもの。法人プランまたはオプトアウト設定の確認が前提。
個人を特定できる情報、契約上の機密情報、認証情報。どんなサービス・プランでも原則入力禁止。
「このデータが万が一AIサービスから漏洩したとき、誰かに損害が発生するか?」と自問してください。答えがYesなら、マスキングするか入力しない。
すべての対策を全組織がやる必要はありません。組織の規模とリソースに応じて、優先すべき対策のレベルが異なります。必須は最低限やるべきこと、推奨はできればやりたいこと、理想はリソースがあればやるべきことです。
法人プランを使えないなら、入れてよい情報の境界を企業より厳しくする。大企業はシステムで守れるが、フリーランスは自分の行動だけが防御線。
同じサービスでも、契約プランによってデータの扱いが大きく異なります。以下は「顧客の非公開情報を扱えるか」を基準にした分類です。
| 分類 | サービス / プラン | 理由 |
|---|---|---|
| 🟢 緑 | OpenAI Business / Enterprise / API |
学習不使用がデフォルト。テナント分離、SSO/MFA、RBAC、データレジデンシー制御。企業向けDPA(データ処理契約)あり。 |
| 🟢 緑 | Anthropic commercial / API |
入力データを学習に使わないポリシー。API経由はデフォルトで学習OFF。SOC 2 Type II取得。 |
| 🟢 緑 | Google Workspace with Gemini |
Workspace契約内のGeminiは学習に使われない。Google Cloudのセキュリティ基盤。 |
| 🟢 緑 | Microsoft 365 Copilot | Microsoft 365のセキュリティ基盤。テナント内データ処理。学習不使用。 |
| 🟡 黄 | Napkin AI | SOC 2 Type II取得。Teamspaceで学習OFF可(デフォルトはON)。AI subprocessorsへのデータ共有あり。公開情報・匿名化済みデータなら可。 |
| 🟡 黄 | Gamma | SOC 2 Type II、DPA提供あり。ただし一般向けポリシーでは研究開発・AIモデル訓練への利用を記載。ビジネスプランで確認が必要。 |
| 🟡 黄 | イルシル | ISO 27001取得。法人向けは送信先を大手クラウドに限定。2段階認証/IP制限あり。比較的透明性が高い。 |
| 🟡 黄 | ChatGPT Plus(個人有料) | 学習OFFに設定可能だが、エンタープライズ級の管理機能はない。黄データまでに限定して使用するのが安全。 |
| 🔴 赤 | 無料プラン全般 | ChatGPT Free、Gemini Free等。データがモデル改善に使われるデフォルト設定。オプトアウトが不完全なものも。 |
| 🔴 赤 | 運営主体・保存国が 不明なサービス |
利用規約が読めない、運営企業が特定できない、データの保存国が明記されていないサービスは使用禁止。 |
| 🔴 赤 | DeepSeek (Webアプリ版) |
中国サーバーにデータ送信。国家情報法により中国政府の情報提供要請を拒否できない構造的リスク。米政府機関では使用禁止。オープンソース版をローカルで動かすなら別扱い。 |
「中国企業は全部ダメ」ではなく、「顧客情報を入れてよい条件を満たしていないサービスは、国籍に関係なくダメ」が正しい判断基準です。ただし中国の国家情報法(2017年)により、中国企業・市民に対して国家の情報活動への協力義務があることは構造的リスクとして認識しておく必要があります。
| 設定項目 | 何が変わるか | OFFにしたときの影響 |
|---|---|---|
| 学習(Model Training) Improve the model for everyone |
入力データがAIモデルの改善に使われるかどうか | OFFにしても不便にならない。履歴もメモリも別設定で維持可能。業務利用なら必ずOFFにする。 |
| 履歴(Chat History) Reference chat history |
過去のチャットを参照して回答に活用するかどうか | 「前に話したあれ」が効かなくなる。学習とは別概念。ONでもOFFでもセキュリティ上の影響は小さい。 |
| メモリ(Memory) | AIがユーザーの好みや過去の指示を記憶するかどうか | OFFにすると毎回初対面の状態になる。利便性は下がるが機密情報が蓄積されるリスクは減る。 |
学習OFFにしても不便にはなりません。履歴もメモリも別設定で維持できます。まず「学習OFF」だけは全員やる。詳細な設定手順は別途配布の「設定手順書」を参照してください。
Geminiは「学習OFF」と「履歴OFF」が連動しています(オール・オア・ナッシング)。学習をOFFにすると履歴も見られなくなります。回避策:Google Workspace契約(法人向け)を利用するか、API経由で利用する。
| Webアプリ利用 | API利用 | |
|---|---|---|
| データの送信先 | サービス提供側のサーバー | 同じくサービス提供側のサーバー |
| 画面・UI | 提供側が用意 | 自分で作る(またはツールが用意) |
| 履歴・保存 | 提供側が管理 | 自分で管理できる |
| 学習利用 | プランによる(無料=ON、法人=OFF等) | デフォルトOFF(OpenAI API等) |
| データ保持 | プランによる | 最長30日保持される場合あり |
Webアプリ利用 = 「完成品のAIサービスをそのまま使う」。API利用 = 「自分のアプリからAI会社のエンジンを呼び出す」。どちらもエンジン本体は相手側にあり、データは送信されます。違いは「自分がどこまで手元で画面・保存・制御を持つか」。APIのほうがコントロールの自由度は高いですが、「データが外に出ない」わけではありません。