jpskill.com
📦 その他 コミュニティ 🟡 少し慣れが必要 👤 幅広いユーザー

📦 データ分析

Data Analysis

統計的な厳密さと適切な方法論に基づき、分析上の落とし穴を認識しながら、生のデータを意思決定に繋げるためのSkillです。

⏱ この作業 数時間 → 数分

📺 まず動画で見る(YouTube)

▶ 【Claude Code完全入門】誰でも使える/Skills活用法/経営者こそ使うべき ↗

※ jpskill.com 編集部が参考用に選んだ動画です。動画の内容と Skill の挙動は厳密には一致しないことがあります。

📜 元の英語説明(参考)

Turn raw data into decisions with statistical rigor, proper methodology, and awareness of analytical pitfalls.

🇯🇵 日本人クリエイター向け解説

一言でいうと

統計的な厳密さと適切な方法論に基づき、分析上の落とし穴を認識しながら、生のデータを意思決定に繋げるためのSkillです。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

💬 こう話しかけるだけ — サンプルプロンプト

  • Data Analysis の使い方を教えて
  • Data Analysis で何ができるか具体例で見せて
  • Data Analysis を初めて使う人向けにステップを案内して

これをClaude Code に貼るだけで、このSkillが自動発動します。

📖 Claude が読む原文 SKILL.md(中身を展開)

この本文は AI(Claude)が読むための原文(英語または中国語)です。日本語訳は順次追加中。

When to Load

User asks about: analyzing data, finding patterns, understanding metrics, testing hypotheses, cohort analysis, A/B testing, churn analysis, statistical significance.

Core Principle

Analysis without a decision is just arithmetic. Always clarify: What would change if this analysis shows X vs Y?

Methodology First

Before touching data:

  1. What decision is this analysis supporting?
  2. What would change your mind? (the real question)
  3. What data do you actually have vs what you wish you had?
  4. What timeframe is relevant?

Statistical Rigor Checklist

  • [ ] Sample size sufficient? (small N = wide confidence intervals)
  • [ ] Comparison groups fair? (same time period, similar conditions)
  • [ ] Multiple comparisons? (20 tests = 1 "significant" by chance)
  • [ ] Effect size meaningful? (statistically significant ≠ practically important)
  • [ ] Uncertainty quantified? ("12-18% lift" not just "15% lift")

Analytical Pitfalls to Catch

Pitfall What it looks like How to avoid
Simpson's Paradox Trend reverses when you segment Always check by key dimensions
Survivorship bias Only analyzing current users Include churned/failed in dataset
Comparing unequal periods Feb (28d) vs March (31d) Normalize to per-day or same-length windows
p-hacking Testing until something is "significant" Pre-register hypotheses or adjust for multiple comparisons
Correlation in time series Both went up = "related" Check if controlling for time removes relationship
Aggregating percentages Averaging percentages directly Re-calculate from underlying totals

For detailed examples of each pitfall, see pitfalls.md.

Approach Selection

Question type Approach Key output
"Is X different from Y?" Hypothesis test p-value + effect size + CI
"What predicts Z?" Regression/correlation Coefficients + R² + residual check
"How do users behave over time?" Cohort analysis Retention curves by cohort
"Are these groups different?" Segmentation Profiles + statistical comparison
"What's unusual?" Anomaly detection Flagged points + context

For technique details and when to use each, see techniques.md.

Output Standards

  1. Lead with the insight, not the methodology
  2. Quantify uncertainty — ranges, not point estimates
  3. State limitations — what this analysis can't tell you
  4. Recommend next steps — what would strengthen the conclusion

Red Flags to Escalate

  • User wants to "prove" a predetermined conclusion
  • Sample size too small for reliable inference
  • Data quality issues that invalidate analysis
  • Confounders that can't be controlled for