ai-ethics
AIの倫理的な開発と運用を支援し、AIバイアスの評価や公平性の確保、人間らしい価値観との整合性を図るSkill。
📜 元の英語説明(参考)
Responsible AI development and ethical considerations. Use when evaluating AI bias, implementing fairness measures, conducting ethical assessments, or ensuring AI systems align with human values.
🇯🇵 日本人クリエイター向け解説
AIの倫理的な開発と運用を支援し、AIバイアスの評価や公平性の確保、人間らしい価値観との整合性を図るSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
[Skill 名] ai-ethics
AI倫理
バイアス検出、公平性評価、責任あるAI開発、規制遵守を網羅する包括的なAI倫理スキルです。
このスキルを使用する場面
- AIモデルのバイアス評価
- 公平性対策の実装
- 倫理的影響評価の実施
- 規制遵守の確保(EU AI Actなど)
- ヒューマン・イン・ザ・ループシステムの設計
- AI透明性文書の作成
- AIガバナンスフレームワークの開発
倫理原則
AI倫理の核となる原則
| 原則 | 説明 |
|---|---|
| 公平性 | AIは個人やグループを差別すべきではありません |
| 透明性 | AIの決定は説明可能であるべきです |
| プライバシー | 個人データは保護されなければなりません |
| 説明責任 | AIの結果に対する明確な責任 |
| 安全性 | AIは危害を引き起こすべきではありません |
| 人間の主体性 | 人間は制御を維持すべきです |
ステークホルダーの考慮事項
- ユーザー: システムを使用する人々にどのような影響がありますか?
- 対象者: AIが決定を下す人々にはどのような影響がありますか?
- 社会: より広範な社会的影響は何ですか?
- 環境: 環境への影響は何ですか?
バイアス検出と軽減
AIバイアスの種類
| バイアスの種類 | 出典 | 例 |
|---|---|---|
| 履歴的 | 訓練データが過去の差別を反映している | 男性候補者を優遇する採用モデル |
| 表現 | 訓練データにおける過小評価されたグループ | 肌の色の濃い人に対する顔認識の失敗 |
| 測定 | 保護された属性の代理変数 | 郵便番号と人種との相関 |
| 集計 | 多様な人口に対する単一モデル | 特定の民族のみで訓練された医療モデル |
| 評価 | 偏った評価指標 | 異なる影響を隠す精度 |
公平性指標
グループ公平性:
- Demographic Parity: グループ間で等しい陽性率
- Equalized Odds: グループ間で等しいTPRとFPR
- Predictive Parity: グループ間で等しい精度
個人公平性:
- 類似する個人は類似する予測を受けるべきです
- Counterfactual fairness: 保護された属性が異なれば結果は変わるか?
バイアス軽減戦略
前処理:
- 訓練データの再サンプリング/再重み付け
- 偏った特徴の削除
- 過小評価されたグループのためのデータ拡張
処理中:
- 損失関数における公平性制約
- 敵対的デバイアス
- 公平な表現学習
後処理:
- グループごとの閾値調整
- キャリブレーション
- 拒否オプション分類
説明可能性と透明性
説明の種類
| 種類 | 対象者 | 目的 |
|---|---|---|
| グローバル | 開発者 | モデル全体の動作を理解する |
| ローカル | エンドユーザー | 特定の決定を説明する |
| 反事実 | 関係者 | 異なる結果を得るために何を変える必要があるか |
説明可能性技術
- SHAP: 特徴量の重要度値
- LIME: ローカルな解釈可能な説明
- Attention maps: ニューラルネットワーク用
- Decision trees: 本質的に解釈可能
- Feature importance: グローバルなモデル理解
モデルカード
各モデルの文書:
- モデルの目的と意図された用途
- 訓練データの記述
- サブグループごとの性能指標
- 制限事項と倫理的考慮事項
- バージョンと更新履歴
AIガバナンス
AIリスク評価
リスクカテゴリ(EU AI Act):
| リスクレベル | 例 | 要件 |
|---|---|---|
| 許容できない | ソーシャルスコアリング、操作 | 禁止 |
| 高 | ヘルスケア、雇用、信用 | 厳格な要件 |
| 限定的 | チャットボット | 透明性義務 |
| 最小限 | スパムフィルター | 要件なし |
ガバナンスフレームワーク
- ポリシー: 倫理原則と境界を定義する
- プロセス: レビューと承認のワークフロー
- 人材: 役割と責任(倫理委員会)
- テクノロジー: 監視と実施のためのツール
文書化要件
- データ来歴と系統
- モデル訓練の文書化
- テストと検証の結果
- デプロイメントと監視計画
- インシデント対応手順
人間による監視
ヒューマン・イン・ザ・ループのパターン
| パターン | ユースケース | 例 |
|---|---|---|
| Human-in-the-Loop | 重要な決定 | 医療診断の確認 |
| Human-on-the-Loop | 介入を伴う監視 | コンテンツモデレーションのエスカレーション |
| Human-out-of-Loop | 低リスク、大量処理 | スパムフィルタリング |
人間による制御のための設計
- 明確なエスカレーションパス
- オーバーライド機能
- 自動化のための信頼度閾値
- 監査証跡
- フィードバックメカニズム
プライバシーに関する考慮事項
データ最小化
- 必要なデータのみを収集する
- 可能な場合は匿名化する
- 個別データではなく集計データを使用する
- 不要になったデータは削除する
プライバシー保護技術
- Differential privacy
- Federated learning
- Secure multi-party computation
- Homomorphic encryption
環境への影響
考慮事項
- 訓練計算要件
- 推論エネルギー消費
- ハードウェアのライフサイクル
- データセンターのエネルギー源
軽減策
- 効率的なアーキテクチャ
- モデル蒸留
- 転移学習
- グリーンホスティングプロバイダー
参照ファイル
references/bias_assessment.md- 詳細なバイアス評価方法論references/regulatory_compliance.md- AI規制要件
他のスキルとの統合
- machine-learning - モデル開発用
- testing - バイアステスト用
- documentation - モデルカード用
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
AI Ethics
Comprehensive AI ethics skill covering bias detection, fairness assessment, responsible AI development, and regulatory compliance.
When to Use This Skill
- Evaluating AI models for bias
- Implementing fairness measures
- Conducting ethical impact assessments
- Ensuring regulatory compliance (EU AI Act, etc.)
- Designing human-in-the-loop systems
- Creating AI transparency documentation
- Developing AI governance frameworks
Ethical Principles
Core AI Ethics Principles
| Principle | Description |
|---|---|
| Fairness | AI should not discriminate against individuals or groups |
| Transparency | AI decisions should be explainable |
| Privacy | Personal data must be protected |
| Accountability | Clear responsibility for AI outcomes |
| Safety | AI should not cause harm |
| Human Agency | Humans should maintain control |
Stakeholder Considerations
- Users: How does this affect people using the system?
- Subjects: How does this affect people the AI makes decisions about?
- Society: What are broader societal implications?
- Environment: What is the environmental impact?
Bias Detection & Mitigation
Types of AI Bias
| Bias Type | Source | Example |
|---|---|---|
| Historical | Training data reflects past discrimination | Hiring models favoring male candidates |
| Representation | Underrepresented groups in training data | Face recognition failing on darker skin |
| Measurement | Proxy variables for protected attributes | ZIP code correlating with race |
| Aggregation | One model for diverse populations | Medical model trained only on one ethnicity |
| Evaluation | Biased evaluation metrics | Accuracy hiding disparate impact |
Fairness Metrics
Group Fairness:
- Demographic Parity: Equal positive rates across groups
- Equalized Odds: Equal TPR and FPR across groups
- Predictive Parity: Equal precision across groups
Individual Fairness:
- Similar individuals should receive similar predictions
- Counterfactual fairness: Would outcome change if protected attribute differed?
Bias Mitigation Strategies
Pre-processing:
- Resampling/reweighting training data
- Removing biased features
- Data augmentation for underrepresented groups
In-processing:
- Fairness constraints in loss function
- Adversarial debiasing
- Fair representation learning
Post-processing:
- Threshold adjustment per group
- Calibration
- Reject option classification
Explainability & Transparency
Explanation Types
| Type | Audience | Purpose |
|---|---|---|
| Global | Developers | Understand overall model behavior |
| Local | End users | Explain specific decisions |
| Counterfactual | Affected parties | What would need to change for different outcome |
Explainability Techniques
- SHAP: Feature importance values
- LIME: Local interpretable explanations
- Attention maps: For neural networks
- Decision trees: Inherently interpretable
- Feature importance: Global model understanding
Model Cards
Document for each model:
- Model purpose and intended use
- Training data description
- Performance metrics by subgroup
- Limitations and ethical considerations
- Version and update history
AI Governance
AI Risk Assessment
Risk Categories (EU AI Act):
| Risk Level | Examples | Requirements |
|---|---|---|
| Unacceptable | Social scoring, manipulation | Prohibited |
| High | Healthcare, employment, credit | Strict requirements |
| Limited | Chatbots | Transparency obligations |
| Minimal | Spam filters | No requirements |
Governance Framework
- Policy: Define ethical principles and boundaries
- Process: Review and approval workflows
- People: Roles and responsibilities (ethics board)
- Technology: Tools for monitoring and enforcement
Documentation Requirements
- Data provenance and lineage
- Model training documentation
- Testing and validation results
- Deployment and monitoring plans
- Incident response procedures
Human Oversight
Human-in-the-Loop Patterns
| Pattern | Use Case | Example |
|---|---|---|
| Human-in-the-Loop | High-stakes decisions | Medical diagnosis confirmation |
| Human-on-the-Loop | Monitoring with intervention | Content moderation escalation |
| Human-out-of-Loop | Low-risk, high-volume | Spam filtering |
Designing for Human Control
- Clear escalation paths
- Override capabilities
- Confidence thresholds for automation
- Audit trails
- Feedback mechanisms
Privacy Considerations
Data Minimization
- Collect only necessary data
- Anonymize when possible
- Aggregate rather than individual data
- Delete data when no longer needed
Privacy-Preserving Techniques
- Differential privacy
- Federated learning
- Secure multi-party computation
- Homomorphic encryption
Environmental Impact
Considerations
- Training compute requirements
- Inference energy consumption
- Hardware lifecycle
- Data center energy sources
Mitigation
- Efficient architectures
- Model distillation
- Transfer learning
- Green hosting providers
Reference Files
references/bias_assessment.md- Detailed bias evaluation methodologyreferences/regulatory_compliance.md- AI regulation requirements
Integration with Other Skills
- machine-learning - For model development
- testing - For bias testing
- documentation - For model cards