AI 倫理ガイドライン
制定日:2026年5月11日 対象サービス:任期制自衛官試験対策 作成者:CLO(Chief Legal Officer) 承認者:CEO(荒川 拓也)
【CEO向けコメント】 本ガイドラインは、**AI ソロプレナー(一人事業主・AI完結型)**で運営する本サービスにおいて、AI 機能の利用および AI 生成物の取扱いに関する倫理原則・運用ルールを定めるものです。 利用規約および プライバシーポリシーと連動し、利用者に対する透明性確保・ハルシネーション対策・不適切回答への対応フローを明確化します。 個人情報保護委員会の「生成 AI サービスの利用に関する注意喚起等」(2023年6月)、内閣府「AI 戦略 2022」、総務省「AI 利活用ガイドライン」を参照しています。
第1章 基本理念
1.1 目的
本サービスは、AI(Anthropic Claude API)を中核とする学習支援サービスです。AI の力を活用して、利用者一人ひとりに最適化された質の高い学習体験を、低価格で提供することを目指します。同時に、AI の特性(ハルシネーション、確率的応答、知識のカットオフ等)を踏まえ、利用者の安全・利益を最大限に守るため、本ガイドラインを策定します。
1.2 適用範囲
本ガイドラインは、以下の場合に適用されます。
- 本サービスにおける AI 機能(学習解説生成、AI チャット質問応答、AI 問い合わせ Bot、添削、出題等)の運用
- AI 生成物(解説、問題、回答、添削結果、チャット応答等)の取扱い
- 利用者の学習データ・質問内容・解答履歴の AI 学習目的での利用
- AI 機能に起因する不適切回答・ハルシネーション発生時の対応
1.3 関連書類
- 01_利用規約.md(特に第10条〜第12条)
- 02_プライバシーポリシー.md(特に第4条第7号、第5条第4項、第6条、第12条)
- 03_特定商取引法に基づく表記.md(特に「サービス運営形態」「表現および商品に関する注意書き」)
第2章 AI 利用の基本原則
2.1 透明性の原則
運営者は、本サービスにおける AI 利用の範囲・限界・性質について、利用者に対し透明に開示します。
運用ルール:
- 利用規約・プライバシーポリシー・特商法表記に、AI 機能の利用範囲を明記する。
- LP(ランディングページ)・申込みフォームに、AI ソロプレナー運営である旨を明示する。
- AI 出力には、必要に応じて「AI による生成物である旨」を明示する。
- 利用者が AI 機能を利用する前に、AI の特性(ハルシネーション、確率的応答等)を理解できる説明を提供する。
2.2 説明可能性の原則
AI による応答・出題・添削について、利用者が結果に疑問を持った場合、可能な範囲で根拠を説明します。
運用ルール:
- AI 解説では、出典(防衛省過去問題・公式試験範囲表等)を可能な範囲で明示する。
- AI チャット応答で「自信がない」「不確か」と思われる回答には、その旨を AI に出力させるプロンプトを採用する。
- 利用者からの「なぜこの回答になったか」の照会には、運営者が AI ログを確認の上、誠実に対応する。
2.3 公平性の原則
AI が出力する内容には、特定の思想・宗教・政治的立場・特定個人への偏見・差別的表現が含まれないよう運用します。
運用ルール:
- システムプロンプトで「中立・公平な観点で回答すること」を明示する。
- 不適切回答(差別的・偏向的)が報告された場合、即時にプロンプト調整・モデル切替を行う。
2.4 利用者の自己決定の原則
最終的な学習判断・受験判断は、利用者自身の責任において行われるべきものであり、AI はあくまで学習支援のツールにとどまります。
運用ルール:
- AI 出力の冒頭または末尾に、必要に応じて「最終的な判断は公式情報源を確認の上、ご自身で行ってください」の注記を含める。
- 重要な判断(受験申込み、進路選択等)については、AI による断定的助言を行わない。
2.5 安全性の原則
AI が利用者または第三者に危害を加える可能性のある出力(自殺示唆、違法行為の教唆、医療助言の断定的提供等)を行わないよう運用します。
運用ルール:
- Anthropic 社の Claude のガードレール機能を最大限活用する。
- 利用者から自殺・自傷・違法行為等に関する相談があった場合、AI 応答ではなく、運営者による個別対応または公的機関への案内(厚労省「いのちの電話」等)を行う。
第3章 AI 出力の品質管理とハルシネーション対策
3.1 ハルシネーション(誤情報生成)への対策
AI(特に大規模言語モデル)は、確率的な性質上、事実と異なる情報を生成する「ハルシネーション」を起こす可能性があります。本サービスでは、以下の対策を実施します。
プロンプト設計レベルの対策:
- システムプロンプトで「不確かな情報は推測せず、『情報がありません』と回答すること」を明示する。
- 防衛省過去問・公式試験範囲に関しては、運営者が事前に正解データを準備し、Prompt Caching に保管する。
- 試験本番に関わる重要事項(試験日程・出題範囲等)については、AI 単独で回答させず、公式情報へのリンクを併記する。
運用レベルの対策:
- AI チャット質問のログを運営者が定期的にサンプリングレビューする(月1回、20件程度)。
- 利用者から「回答が誤っている」との指摘があった場合、運営者が即時に確認・修正対応する。
- 重大な誤情報が発見された場合、影響を受けた利用者全員に対し訂正通知を行う。
モデル選択レベルの対策:
- 試験対策の重要な領域(解説生成)には、より高精度なモデル(Claude Sonnet 4.5)を使用する。
- 軽量なサポート応答(AI 問い合わせ Bot)には Claude Haiku 4.5 を使用しつつ、誤情報リスクを許容範囲に抑える。
3.2 引用・出典の明示
AI 生成物には、可能な範囲で出典を明示します。
運用ルール:
- 防衛省過去問は引用形式(出所明示)で利用し、AI による解説は完全に運営者の創作物として明示する。
- AI 解説の末尾に「※本解説は AI(Claude)により生成されたものです。公式情報と照合のうえご参照ください」の注記を含める。
- 外部情報(防衛省公式サイト等)を参照した場合は、リンクを併記する。
3.3 不適切回答が出た場合の対応フロー
利用者から「AI 応答が不適切・誤っている」との報告があった場合、運営者は以下のフローで対応します。
┌─ Step 1 ─────────────────────────────┐
│ 利用者からの報告受領(お問い合わせ │
│ フォームまたは AI 問い合わせ Bot 経由) │
└─────────────────────────┬───────────┘
▼
┌─ Step 2 ─────────────────────────────┐
│ 運営者による事実確認(AI ログの確認・ │
│ 正解情報との照合) │
│ → 目標:48時間以内 │
└─────────────────────────┬───────────┘
▼
┌────────────────┴────────────────┐
▼ ▼
┌─ Step 3a ─────────┐ ┌─ Step 3b ──────────┐
│ 軽微な誤りの場合 │ │ 重大な誤りの場合 │
│ → 利用者に訂正 │ │ → 利用者に訂正+ │
│ 回答を返信 │ │ プロンプト改修 │
└────────────┬──────┘ └─────────┬──────────┘
│ │
└──────────┬───────────────┘
▼
┌─ Step 4 ─────────────────────────────┐
│ 影響範囲の確認(同様の誤回答が他の利用 │
│ 者にも出ている可能性の有無) │
└─────────────────────────┬───────────┘
▼
┌─ Step 5 ─────────────────────────────┐
│ 必要に応じて影響を受けた利用者全員に │
│ 訂正通知(メール送信) │
└─────────────────────────┬───────────┘
▼
┌─ Step 6 ─────────────────────────────┐
│ 再発防止策の記録(CLO 管理ログ) │
└─────────────────────────────────────┘
3.4 AI が判断困難な照会への対応
AI 問い合わせ Bot が以下のいずれかに該当する照会を受けた場合は、AI による回答を行わず、運営者へ自動エスカレーションします。
- 返金・解約に関する具体的なクレーム
- 個人情報の開示・削除請求
- 健康・医療・法律・税務等の専門的助言を求める照会
- 自殺・自傷・違法行為に関する相談
- AI 自身の能力・限界に関する哲学的・倫理的照会
- 運営者の責任を問う内容
第4章 AI 生成物の著作権と二次利用
4.1 AI 生成物の著作権帰属
本サービスにおいて AI 機能により生成された解説、問題、添削、回答その他の AI 生成物に関する著作権その他の知的財産権は、運営者に帰属します(利用規約第12条第3項参照)。
運用ルール:
- AI 生成物の権利保護のため、本サービスへのスクレイピング・自動取得行為を禁止する。
- 利用規約第14条(禁止事項)に、AI 生成物を他の生成 AI の学習データとして利用する行為を禁止する旨を明記する。
4.2 利用者による二次利用の範囲
利用者は、AI 生成物を以下の範囲で利用できます。
可能な利用:
- 本サービス内での閲覧・学習目的の利用
- 個人的な学習ノートへの転記(公開を伴わないもの)
禁止される利用:
- SNS(X、Instagram、YouTube、TikTok 等)への投稿
- ブログ・note・個人サイト等での公開
- 教材作成・問題集作成への利用(有償・無償を問わず)
- 他の生成 AI(ChatGPT 等)の学習データとしての利用
- 他者への譲渡・販売
4.3 防衛省過去問題の引用
防衛省実施試験の過去問題は、著作権法第32条の「引用」要件(出所明示・必要性・主従関係)に従って利用します。
運用ルール:
- 引用部分には「【防衛省過去問】〇〇試験 平成〇〇年〇月実施分」等の出所明示を必ず含める。
- 解説部分が主、引用部分が従となるよう、解説を十分な分量で記述する。
- 防衛省の名誉・信用を毀損する解説を行わない。
第5章 AI 学習目的でのデータ利用
5.1 利用者データの AI 学習目的での利用範囲
運営者は、サービス改善目的で、利用者の解答履歴・AI チャット質問内容・AI 問い合わせ Bot への質問内容を以下のとおり利用します。
利用範囲:
- AI 応答品質の評価(運営者の管理下でのサンプリングレビュー)
- プロンプト改善のための分析
- ハルシネーション検出のための統計分析
- 不適切回答の検出
- 教材改善のための弱点分野の傾向分析(匿名化・統計化)
利用しない範囲:
- 利用者の個人情報を特定可能な状態で、第三者の AI モデル(Anthropic Claude を含む)の学習データに使用すること
- 利用者個人の趣味・嗜好・思想に基づくマーケティング目的のプロファイリング
5.2 Anthropic Claude API のデータ取扱い
利用者の AI チャット質問・AI 問い合わせ Bot への入力内容は、Claude API 呼び出し時に Anthropic, PBC に送信されます。
- Anthropic 社の Commercial Terms of Service により、API 経由で送信されたデータは、Anthropic の AI モデルの学習・訓練データとして使用されません。
- Anthropic 社のデータは、原則として30日以内に削除されます(信頼性・安全性確保のための一時保管を除く)。
- 詳細は Anthropic 社のプライバシーポリシーを参照のこと。
5.3 利用者の選択権
利用者は、自らの学習データを AI モデル評価(サービス改善目的)に使用しないよう請求することができます。請求はプライバシーポリシー第10条の手続により行います。
第6章 AI ログの管理
6.1 AI ログの内容
運営者は、以下の AI ログを保管します。
- AI チャット質問の入力内容および AI 出力
- AI 問い合わせ Bot への質問内容および AI 応答
- AI 解説生成のリクエスト・レスポンス(運営者側の管理ログとして)
6.2 AI ログの保管期間
- 会員登録期間中:サーバ内(Cloudflare D1 等)に保管
- 退会後:180日間保管(運営者の内部評価・サービス改善目的)。180日経過後は復元不可能な方法で削除。
- 退会後の保管期間中は、個人を特定できる情報を匿名化処理した上で統計分析にのみ使用。
6.3 AI ログへのアクセス制限
- AI ログへのアクセスは、運営者本人(荒川 拓也)のみが行います。
- アクセスログを記録し、第三者によるアクセスがないことを定期的に確認します。
- 外部委託業者(弁護士、税理士等)に AI ログを開示する必要が生じた場合は、事前に秘密保持契約を締結し、必要最小限の範囲で開示します。
第7章 AI 倫理ガイドラインの運用体制
7.1 責任者
- 総括責任者:CEO(荒川 拓也)
- 実務責任者:CLO(Chief Legal Officer)
- 技術的実装:CTO(Chief Technology Officer)と連携
7.2 定期見直し
- 四半期ごと:AI ログのサンプリングレビュー(不適切回答の有無確認)
- 半期ごと:本ガイドラインの内容見直し(法令改正・技術動向を踏まえる)
- 年次:弁護士による定期レビュー(推奨)
7.3 利用者からのフィードバック窓口
- 本サービス内のお問い合わせフォーム
- AI 問い合わせ Bot 経由でのエスカレーション
- 重大事項(差別的回答、生命の危険を示唆する回答等)は、運営者が48時間以内に対応
第8章 緊急時対応
8.1 AI 機能に起因する重大インシデント発生時
以下のような重大インシデントが発生した場合、運営者は迅速に対応します。
- AI による差別的・名誉毀損的回答が出力された
- AI による誤情報により利用者が重大な不利益を被った
- AI ログの漏洩等が発生した
対応フロー:
- インシデント検知後、即時に該当機能の停止検討
- 影響範囲の特定(4時間以内)
- 利用者への通知(24時間以内)
- 必要に応じて個人情報保護委員会への報告(個人情報漏洩の場合)
- 再発防止策の策定および公表
8.2 Claude API の障害・終了対応
Anthropic 社の Claude API の障害・利用制限・サービス終了等により本サービスの AI 機能が継続困難となった場合、以下の対応を行います。
- 利用者への即時通知
- 代替モデル(OpenAI GPT、Google Gemini 等)への切り替え検討
- 切替が困難な場合、サービスの一時停止または終了(利用規約第17条に基づく)
第9章 法令遵守
本ガイドラインは、以下の法令・指針に整合するよう運用します。
- 個人情報の保護に関する法律(個人情報保護法、2022年4月施行の改正法)
- 個人情報保護委員会「生成 AI サービスの利用に関する注意喚起等」(2023年6月)
- 特定商取引に関する法律(特商法、2022年6月施行の改正法)
- 消費者契約法
- 著作権法
- 不正競争防止法
- 内閣府「AI 戦略 2022」「人間中心の AI 社会原則」
- 総務省「AI 利活用ガイドライン」
- 経済産業省「AI 事業者ガイドライン」(2024年4月公表)
法令改正・指針改訂があった場合は、本ガイドラインを速やかに更新します。
第10章 利用者への約束
最後に、本サービスは、AI を活用しつつも、利用者の権利・利益を最優先に運営することをお約束します。
- 誠実な情報開示:AI 利用の範囲・限界を隠さず開示します。
- 利用者の自己決定の尊重:AI による断定的助言を行わず、最終判断を利用者に委ねます。
- 誤りへの真摯な対応:AI の誤りが判明した場合、隠蔽せず、速やかに訂正・補償を行います。
- 個人情報の保護:利用者の学習データは、運営者の管理下で厳格に保護し、第三者の AI 学習に使用しません。
- 継続的改善:AI 技術の進化・法令改正に応じて、本ガイドラインを継続的に更新します。
作成者:CLO(Chief Legal Officer) 承認者:CEO(荒川 拓也) 制定日:2026年5月11日 次回見直し予定:2026年11月11日(半期見直し)
【CEO向けコメント・次回協議事項】 本ガイドラインは、AI ソロプレナー型サービスとして業界先駆的な内容となっています。一方で、AI 技術の進化が速いため、以下の項目について継続的な議論が必要です:
- 生成 AI に関する法令・指針の動向(個人情報保護委員会のガイドラインアップデート)
- AI モデル(Claude)のバージョンアップ・新機能リリース時の対応
- 利用者からのフィードバックに基づくプロンプト改善ノウハウの蓄積
- 国内の生成 AI 関連訴訟事例・裁判例の動向
以上