🛠️ SkylvMetacognitionエンジン
AIが自身の思考を振り返り、認知バイアスを特定し、構造化された自己検証を通じて意思決定の質を高めるSkill。
📜 元の英語説明(参考)
Enables AI agents to reflect on their own reasoning, detect cognitive biases, and improve decision quality through structured self-examination loops.
🇯🇵 日本人クリエイター向け解説
AIが自身の思考を振り返り、認知バイアスを特定し、構造化された自己検証を通じて意思決定の質を高めるSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Claude が読む原文 SKILL.md(中身を展開)
この本文は AI(Claude)が読むための原文(英語または中国語)です。日本語訳は順次追加中。
Metacognition Engine
Give your AI agent the ability to think about its own thinking.
What is Metacognition?
Metacognition = "thinking about thinking." This skill enables AI agents to:
- Detect when they're uncertain or confused
- Identify reasoning gaps before they cause errors
- Recognize cognitive biases in their own output
- Self-correct before delivering answers
Core Framework
1. Pre-Output Check
Before responding, run through these questions:
1. Am I confident in this answer? (Yes / Partial / No)
2. What are the 3 most likely ways this could be wrong?
3. What information would I need to be 100% certain?
2. Cognitive Bias Detection
Check for common biases:
- Anthropomorphism — projecting human traits onto AI
- Authority bias — deferring to stated credentials without verification
- Hindsight bias — acting like something was obvious after the fact
- Confirmation bias — seeking only confirming evidence
3. Uncertainty Quantification
Express confidence explicitly:
| Confidence | Meaning | Action |
|---|---|---|
| 90%+ | Highly confident | Answer directly |
| 70-89% | Likely correct | Answer + add caveat |
| 50-69% | Uncertain | Ask clarifying questions |
| <50% | Likely wrong | Decline or escalate |
Example
Without metacognition:
"The capital of France is Paris."
With metacognition:
"Based on my training data, the capital of France is Paris (confidence: 95%). Note: My knowledge has a cutoff date. For real-time data, verify current information."
Use Cases
- Critical decisions: Add metacognition checkpoint before any consequential answer
- User corrections: When a user corrects you, analyze WHY you were wrong
- Complex problems: Run bias detection before solving multi-step problems
- Knowledge boundaries: Automatically flag when you're approaching your knowledge limit