jpskill.com
📦 その他 コミュニティ

ai-ethics

AIの倫理的な開発と運用を支援し、AIバイアスの評価や公平性の確保、人間らしい価値観との整合性を図るSkill。

📜 元の英語説明(参考)

Responsible AI development and ethical considerations. Use when evaluating AI bias, implementing fairness measures, conducting ethical assessments, or ensuring AI systems align with human values.

🇯🇵 日本人クリエイター向け解説

一言でいうと

AIの倫理的な開発と運用を支援し、AIバイアスの評価や公平性の確保、人間らしい価値観との整合性を図るSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

📖 Skill本文(日本語訳)

※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。

[Skill 名] ai-ethics

AI倫理

バイアス検出、公平性評価、責任あるAI開発、規制遵守を網羅する包括的なAI倫理スキルです。

このスキルを使用する場面

  • AIモデルのバイアス評価
  • 公平性対策の実装
  • 倫理的影響評価の実施
  • 規制遵守の確保(EU AI Actなど)
  • ヒューマン・イン・ザ・ループシステムの設計
  • AI透明性文書の作成
  • AIガバナンスフレームワークの開発

倫理原則

AI倫理の核となる原則

原則 説明
公平性 AIは個人やグループを差別すべきではありません
透明性 AIの決定は説明可能であるべきです
プライバシー 個人データは保護されなければなりません
説明責任 AIの結果に対する明確な責任
安全性 AIは危害を引き起こすべきではありません
人間の主体性 人間は制御を維持すべきです

ステークホルダーの考慮事項

  • ユーザー: システムを使用する人々にどのような影響がありますか?
  • 対象者: AIが決定を下す人々にはどのような影響がありますか?
  • 社会: より広範な社会的影響は何ですか?
  • 環境: 環境への影響は何ですか?

バイアス検出と軽減

AIバイアスの種類

バイアスの種類 出典
履歴的 訓練データが過去の差別を反映している 男性候補者を優遇する採用モデル
表現 訓練データにおける過小評価されたグループ 肌の色の濃い人に対する顔認識の失敗
測定 保護された属性の代理変数 郵便番号と人種との相関
集計 多様な人口に対する単一モデル 特定の民族のみで訓練された医療モデル
評価 偏った評価指標 異なる影響を隠す精度

公平性指標

グループ公平性:

  • Demographic Parity: グループ間で等しい陽性率
  • Equalized Odds: グループ間で等しいTPRとFPR
  • Predictive Parity: グループ間で等しい精度

個人公平性:

  • 類似する個人は類似する予測を受けるべきです
  • Counterfactual fairness: 保護された属性が異なれば結果は変わるか?

バイアス軽減戦略

前処理:

  • 訓練データの再サンプリング/再重み付け
  • 偏った特徴の削除
  • 過小評価されたグループのためのデータ拡張

処理中:

  • 損失関数における公平性制約
  • 敵対的デバイアス
  • 公平な表現学習

後処理:

  • グループごとの閾値調整
  • キャリブレーション
  • 拒否オプション分類

説明可能性と透明性

説明の種類

種類 対象者 目的
グローバル 開発者 モデル全体の動作を理解する
ローカル エンドユーザー 特定の決定を説明する
反事実 関係者 異なる結果を得るために何を変える必要があるか

説明可能性技術

  • SHAP: 特徴量の重要度値
  • LIME: ローカルな解釈可能な説明
  • Attention maps: ニューラルネットワーク用
  • Decision trees: 本質的に解釈可能
  • Feature importance: グローバルなモデル理解

モデルカード

各モデルの文書:

  • モデルの目的と意図された用途
  • 訓練データの記述
  • サブグループごとの性能指標
  • 制限事項と倫理的考慮事項
  • バージョンと更新履歴

AIガバナンス

AIリスク評価

リスクカテゴリ(EU AI Act):

リスクレベル 要件
許容できない ソーシャルスコアリング、操作 禁止
ヘルスケア、雇用、信用 厳格な要件
限定的 チャットボット 透明性義務
最小限 スパムフィルター 要件なし

ガバナンスフレームワーク

  1. ポリシー: 倫理原則と境界を定義する
  2. プロセス: レビューと承認のワークフロー
  3. 人材: 役割と責任(倫理委員会)
  4. テクノロジー: 監視と実施のためのツール

文書化要件

  • データ来歴と系統
  • モデル訓練の文書化
  • テストと検証の結果
  • デプロイメントと監視計画
  • インシデント対応手順

人間による監視

ヒューマン・イン・ザ・ループのパターン

パターン ユースケース
Human-in-the-Loop 重要な決定 医療診断の確認
Human-on-the-Loop 介入を伴う監視 コンテンツモデレーションのエスカレーション
Human-out-of-Loop 低リスク、大量処理 スパムフィルタリング

人間による制御のための設計

  • 明確なエスカレーションパス
  • オーバーライド機能
  • 自動化のための信頼度閾値
  • 監査証跡
  • フィードバックメカニズム

プライバシーに関する考慮事項

データ最小化

  • 必要なデータのみを収集する
  • 可能な場合は匿名化する
  • 個別データではなく集計データを使用する
  • 不要になったデータは削除する

プライバシー保護技術

  • Differential privacy
  • Federated learning
  • Secure multi-party computation
  • Homomorphic encryption

環境への影響

考慮事項

  • 訓練計算要件
  • 推論エネルギー消費
  • ハードウェアのライフサイクル
  • データセンターのエネルギー源

軽減策

  • 効率的なアーキテクチャ
  • モデル蒸留
  • 転移学習
  • グリーンホスティングプロバイダー

参照ファイル

  • references/bias_assessment.md - 詳細なバイアス評価方法論
  • references/regulatory_compliance.md - AI規制要件

他のスキルとの統合

  • machine-learning - モデル開発用
  • testing - バイアステスト用
  • documentation - モデルカード用
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開

AI Ethics

Comprehensive AI ethics skill covering bias detection, fairness assessment, responsible AI development, and regulatory compliance.

When to Use This Skill

  • Evaluating AI models for bias
  • Implementing fairness measures
  • Conducting ethical impact assessments
  • Ensuring regulatory compliance (EU AI Act, etc.)
  • Designing human-in-the-loop systems
  • Creating AI transparency documentation
  • Developing AI governance frameworks

Ethical Principles

Core AI Ethics Principles

Principle Description
Fairness AI should not discriminate against individuals or groups
Transparency AI decisions should be explainable
Privacy Personal data must be protected
Accountability Clear responsibility for AI outcomes
Safety AI should not cause harm
Human Agency Humans should maintain control

Stakeholder Considerations

  • Users: How does this affect people using the system?
  • Subjects: How does this affect people the AI makes decisions about?
  • Society: What are broader societal implications?
  • Environment: What is the environmental impact?

Bias Detection & Mitigation

Types of AI Bias

Bias Type Source Example
Historical Training data reflects past discrimination Hiring models favoring male candidates
Representation Underrepresented groups in training data Face recognition failing on darker skin
Measurement Proxy variables for protected attributes ZIP code correlating with race
Aggregation One model for diverse populations Medical model trained only on one ethnicity
Evaluation Biased evaluation metrics Accuracy hiding disparate impact

Fairness Metrics

Group Fairness:

  • Demographic Parity: Equal positive rates across groups
  • Equalized Odds: Equal TPR and FPR across groups
  • Predictive Parity: Equal precision across groups

Individual Fairness:

  • Similar individuals should receive similar predictions
  • Counterfactual fairness: Would outcome change if protected attribute differed?

Bias Mitigation Strategies

Pre-processing:

  • Resampling/reweighting training data
  • Removing biased features
  • Data augmentation for underrepresented groups

In-processing:

  • Fairness constraints in loss function
  • Adversarial debiasing
  • Fair representation learning

Post-processing:

  • Threshold adjustment per group
  • Calibration
  • Reject option classification

Explainability & Transparency

Explanation Types

Type Audience Purpose
Global Developers Understand overall model behavior
Local End users Explain specific decisions
Counterfactual Affected parties What would need to change for different outcome

Explainability Techniques

  • SHAP: Feature importance values
  • LIME: Local interpretable explanations
  • Attention maps: For neural networks
  • Decision trees: Inherently interpretable
  • Feature importance: Global model understanding

Model Cards

Document for each model:

  • Model purpose and intended use
  • Training data description
  • Performance metrics by subgroup
  • Limitations and ethical considerations
  • Version and update history

AI Governance

AI Risk Assessment

Risk Categories (EU AI Act):

Risk Level Examples Requirements
Unacceptable Social scoring, manipulation Prohibited
High Healthcare, employment, credit Strict requirements
Limited Chatbots Transparency obligations
Minimal Spam filters No requirements

Governance Framework

  1. Policy: Define ethical principles and boundaries
  2. Process: Review and approval workflows
  3. People: Roles and responsibilities (ethics board)
  4. Technology: Tools for monitoring and enforcement

Documentation Requirements

  • Data provenance and lineage
  • Model training documentation
  • Testing and validation results
  • Deployment and monitoring plans
  • Incident response procedures

Human Oversight

Human-in-the-Loop Patterns

Pattern Use Case Example
Human-in-the-Loop High-stakes decisions Medical diagnosis confirmation
Human-on-the-Loop Monitoring with intervention Content moderation escalation
Human-out-of-Loop Low-risk, high-volume Spam filtering

Designing for Human Control

  • Clear escalation paths
  • Override capabilities
  • Confidence thresholds for automation
  • Audit trails
  • Feedback mechanisms

Privacy Considerations

Data Minimization

  • Collect only necessary data
  • Anonymize when possible
  • Aggregate rather than individual data
  • Delete data when no longer needed

Privacy-Preserving Techniques

  • Differential privacy
  • Federated learning
  • Secure multi-party computation
  • Homomorphic encryption

Environmental Impact

Considerations

  • Training compute requirements
  • Inference energy consumption
  • Hardware lifecycle
  • Data center energy sources

Mitigation

  • Efficient architectures
  • Model distillation
  • Transfer learning
  • Green hosting providers

Reference Files

  • references/bias_assessment.md - Detailed bias evaluation methodology
  • references/regulatory_compliance.md - AI regulation requirements

Integration with Other Skills

  • machine-learning - For model development
  • testing - For bias testing
  • documentation - For model cards