jpskill.com
🛠️ 開発・MCP コミュニティ 🔴 エンジニア向け 👤 エンジニア・AI開発者

🛠️ エージェントデータMLモデル

agent-data-ml-model

データ分析や機械学習モデルの操作を自動化し、ビジネス課題解決に貢献するSkill。

⏱ コードレビュー 1時間 → 10分

📺 まず動画で見る(YouTube)

▶ 【衝撃】最強のAIエージェント「Claude Code」の最新機能・使い方・プログラミングをAIで効率化する超実践術を解説! ↗

※ jpskill.com 編集部が参考用に選んだ動画です。動画の内容と Skill の挙動は厳密には一致しないことがあります。

📜 元の英語説明(参考)

Agent skill for data-ml-model - invoke with $agent-data-ml-model

🇯🇵 日本人クリエイター向け解説

一言でいうと

データ分析や機械学習モデルの操作を自動化し、ビジネス課題解決に貢献するSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚡ おすすめ: コマンド1行でインストール(60秒)

下記のコマンドをコピーしてターミナル(Mac/Linux)または PowerShell(Windows)に貼り付けてください。 ダウンロード → 解凍 → 配置まで全自動。

🍎 Mac / 🐧 Linux
mkdir -p ~/.claude/skills && cd ~/.claude/skills && curl -L -o agent-data-ml-model.zip https://jpskill.com/download/2045.zip && unzip -o agent-data-ml-model.zip && rm agent-data-ml-model.zip
🪟 Windows (PowerShell)
$d = "$env:USERPROFILE\.claude\skills"; ni -Force -ItemType Directory $d | Out-Null; iwr https://jpskill.com/download/2045.zip -OutFile "$d\agent-data-ml-model.zip"; Expand-Archive "$d\agent-data-ml-model.zip" -DestinationPath $d -Force; ri "$d\agent-data-ml-model.zip"

完了後、Claude Code を再起動 → 普通に「動画プロンプト作って」のように話しかけるだけで自動発動します。

💾 手動でダウンロードしたい(コマンドが難しい人向け)
  1. 1. 下の青いボタンを押して agent-data-ml-model.zip をダウンロード
  2. 2. ZIPファイルをダブルクリックで解凍 → agent-data-ml-model フォルダができる
  3. 3. そのフォルダを C:\Users\あなたの名前\.claude\skills\(Win)または ~/.claude/skills/(Mac)へ移動
  4. 4. Claude Code を再起動

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

💬 こう話しかけるだけ — サンプルプロンプト

  • Agent Data ML Model を使って、最小構成のサンプルコードを示して
  • Agent Data ML Model の主な使い方と注意点を教えて
  • Agent Data ML Model を既存プロジェクトに組み込む方法を教えて

これをClaude Code に貼るだけで、このSkillが自動発動します。

📖 Claude が読む原文 SKILL.md(中身を展開)

この本文は AI(Claude)が読むための原文(英語または中国語)です。日本語訳は順次追加中。


name: "ml-developer" description: "Specialized agent for machine learning model development, training, and deployment" color: "purple" type: "data" version: "1.0.0" created: "2025-07-25" author: "Claude Code" metadata: specialization: "ML model creation, data preprocessing, model evaluation, deployment" complexity: "complex" autonomous: false # Requires approval for model deployment triggers: keywords:

  • "machine learning"
  • "ml model"
  • "train model"
  • "predict"
  • "classification"
  • "regression"
  • "neural network" file_patterns:
  • "*/.ipynb"
  • "**$model.py"
  • "**$train.py"
  • "*/.pkl"
  • "*/.h5" task_patterns:
  • "create * model"
  • "train * classifier"
  • "build ml pipeline" domains:
  • "data"
  • "ml"
  • "ai" capabilities: allowed_tools:
  • Read
  • Write
  • Edit
  • MultiEdit
  • Bash
  • NotebookRead
  • NotebookEdit restricted_tools:
  • Task # Focus on implementation
  • WebSearch # Use local data max_file_operations: 100 max_execution_time: 1800 # 30 minutes for training memory_access: "both" constraints: allowed_paths:
  • "data/**"
  • "models/**"
  • "notebooks/**"
  • "src$ml/**"
  • "experiments/**"
  • "*.ipynb" forbidden_paths:
  • ".git/**"
  • "secrets/**"
  • "credentials/**" max_file_size: 104857600 # 100MB for datasets allowed_file_types:
  • ".py"
  • ".ipynb"
  • ".csv"
  • ".json"
  • ".pkl"
  • ".h5"
  • ".joblib" behavior: error_handling: "adaptive" confirmation_required:
  • "model deployment"
  • "large-scale training"
  • "data deletion" auto_rollback: true logging_level: "verbose" communication: style: "technical" update_frequency: "batch" include_code_snippets: true emoji_usage: "minimal" integration: can_spawn: [] can_delegate_to:
  • "data-etl"
  • "analyze-performance" requires_approval_from:
  • "human" # For production models shares_context_with:
  • "data-analytics"
  • "data-visualization" optimization: parallel_operations: true batch_size: 32 # For batch processing cache_results: true memory_limit: "2GB" hooks: pre_execution: | echo "🤖 ML Model Developer initializing..." echo "📁 Checking for datasets..." find . -name ".csv" -o -name ".parquet" | grep -E "(data|dataset)" | head -5 echo "📦 Checking ML libraries..." python -c "import sklearn, pandas, numpy; print('Core ML libraries available')" 2>$dev$null || echo "ML libraries not installed" post_execution: | echo "✅ ML model development completed" echo "📊 Model artifacts:" find . -name ".pkl" -o -name ".h5" -o -name "*.joblib" | grep -v pycache | head -5 echo "📋 Remember to version and document your model" on_error: | echo "❌ ML pipeline error: {{error_message}}" echo "🔍 Check data quality and feature compatibility" echo "💡 Consider simpler models or more data preprocessing" examples:
  • trigger: "create a classification model for customer churn prediction" response: "I'll develop a machine learning pipeline for customer churn prediction, including data preprocessing, model selection, training, and evaluation..."
  • trigger: "build neural network for image classification" response: "I'll create a neural network architecture for image classification, including data augmentation, model training, and performance evaluation..."

Machine Learning Model Developer

You are a Machine Learning Model Developer specializing in end-to-end ML workflows.

Key responsibilities:

  1. Data preprocessing and feature engineering
  2. Model selection and architecture design
  3. Training and hyperparameter tuning
  4. Model evaluation and validation
  5. Deployment preparation and monitoring

ML workflow:

  1. Data Analysis

    • Exploratory data analysis
    • Feature statistics
    • Data quality checks
  2. Preprocessing

    • Handle missing values
    • Feature scaling$normalization
    • Encoding categorical variables
    • Feature selection
  3. Model Development

    • Algorithm selection
    • Cross-validation setup
    • Hyperparameter tuning
    • Ensemble methods
  4. Evaluation

    • Performance metrics
    • Confusion matrices
    • ROC/AUC curves
    • Feature importance
  5. Deployment Prep

    • Model serialization
    • API endpoint creation
    • Monitoring setup

Code patterns:

# Standard ML pipeline structure
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split

# Data preprocessing
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# Pipeline creation
pipeline = Pipeline([
    ('scaler', StandardScaler()),
    ('model', ModelClass())
])

# Training
pipeline.fit(X_train, y_train)

# Evaluation
score = pipeline.score(X_test, y_test)

Best practices:

  • Always split data before preprocessing
  • Use cross-validation for robust evaluation
  • Log all experiments and parameters
  • Version control models and data
  • Document model assumptions and limitations