jpskill.com
🛠️ 開発・MCP コミュニティ

performance-testing

アプリケーションやインフラの負荷・ストレス試験を通じて、システム全体の性能を最適化するSkill。

📜 元の英語説明(参考)

Performance testing specialist for load testing, stress testing, and performance optimization across applications and infrastructure

🇯🇵 日本人クリエイター向け解説

一言でいうと

アプリケーションやインフラの負荷・ストレス試験を通じて、システム全体の性能を最適化するSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

📖 Skill本文(日本語訳)

※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。

[スキル名] performance-testing

パフォーマンス テスト スキル

目的

アプリケーション、API、およびインフラストラクチャ システムのロード テスト、ストレステスト、耐久テストに特化した、包括的なパフォーマンス テストの専門知識を提供します。さまざまな負荷条件下でのシステム動作を検証し、容量制限を特定します。

使用する場面

  • 同時実行ユーザーをシミュレートするためのロード テストの実施
  • 限界点を見つけるためのストレステストの実行
  • メモリ リークを検出するための耐久テストの実行
  • 負荷増加時のシステムのスケーラビリティの検証
  • 応答時間とスループット メトリックの測定
  • リソース使用率パターンの分析

例 1: Eコマース プラットフォームのロード テスト

シナリオ: ブラックフライデーに向けて準備中のEコマース プラットフォームが、予想されるトラフィックの10倍の負荷でのパフォーマンスを検証する必要があります。

実装:

  1. 過去のトラフィック パターンを分析し、現実的な負荷をモデル化しました。
  2. 重要なパス (閲覧、カート、チェックアウト) の JMeter テスト シナリオを作成しました。
  3. ランプアップ期間を設けて10,000人の同時実行ユーザーをシミュレートしました。
  4. 負荷下でのデータベース クエリをテストし、N+1問題を特定しました。
  5. オートスケーリングのトリガーと閾値を検証しました。

結果:

  • 3つの重要なボトルネック (DB 2つ、API 1つ) を特定しました。
  • 平均応答時間を2.3秒から450ミリ秒に短縮しました。
  • システムが50,000人の同時実行ユーザーを処理できることを検証しました。
  • オートスケーリングが45秒以内にアクティブになることを確認しました。

例 2: API パフォーマンス ベンチマーク

シナリオ: 金融サービス API が、SLA要件 (<200ms P99) に対するパフォーマンス検証を必要としています。

実装:

  1. すべての API エンドポイントの k6 テスト スクリプトを作成しました。
  2. さまざまな同時実行レベル (100、500、1000) でテストしました。
  3. 応答時間分布 (P50、P90、P95、P99) を分析しました。
  4. 遅い応答の原因となっているデータベース クエリをプロファイリングしました。
  5. クエリの最適化とキャッシュを実装しました。

結果:

  • P99 レイテンシが850ミリ秒から145ミリ秒に短縮されました。
  • スループットが500 RPSから2,500 RPSに増加しました。
  • すべてのエンドポイントが SLA 要件を満たしています。
  • パフォーマンス回帰テスト スイートを作成しました。

例 3: マイクロサービス カオス テスト

シナリオ: マイクロサービス アーキテクチャが、部分的なサービス障害下での検証を必要としています。

実装:

  1. サービス障害に対するカオス テスト シナリオを設計しました。
  2. レイテンシ注入とエラー応答を実装しました。
  3. サーキット ブレーカー機能と回復をテストしました。
  4. 優雅な劣化動作を検証しました。
  5. カオス下でのエンドツーエンドの要求フローを測定しました。

結果:

  • 適切なサーキット ブレーカーがない2つのサービスを特定しました。
  • さまざまな障害シナリオ下での回復時間を検証しました。
  • システムが優雅に劣化すること (壊滅的ではないこと) を確認しました。
  • 各障害モードの回復手順を文書化しました。

ベスト プラクティス

テスト設計

  • 現実的なワークロード モデリング: 本番トラフィック分析に基づいて負荷パターンを構築します。
  • 思考時間の含み: リクエスト間に現実的なユーザーの一時停止時間を含めます。
  • データ パラメータ化: キャッシュのアーティファクトを避けるために、さまざまなテスト データを使用します。
  • 包括的なカバレッジ: ハッピー パスだけでなく、すべての重要なユーザー ジャーニーをテストします。

実行

  • 本番環境に類似した環境: 本番構成と一致する環境でテストします。
  • 適切なウォームアップ: 測定前にランプアップ期間を含めます。
  • 長時間の実行: 問題を発見するのに十分な長さでストレステストを実行します。
  • エラー率の監視: 応答時間とエラー率の両方を追跡します。

分析

  • パーセンタイル分析: 平均値だけでなく、P50、P90、P95、P99を報告します。
  • ベースライン比較: 常に確立されたベースラインと比較します。
  • トレンド追跡: スナップショットだけでなく、時間の経過とともにパフォーマンスを監視します。
  • 焦点を絞ったメトリック: SLA関連のメトリックを追跡し、メトリックの過負荷を避けます。

ツール

  • テストのメンテナンス: テストを本番コードとして扱い、維持および更新します。
  • CI/CD統合: デプロイメント パイプラインでパフォーマンス テストを自動化します。
  • 適切なリソース: ロード ジェネレーターが必要な負荷を生成できることを確認します。
  • 結果分析: 自動分析とアラートを実装します。

概要

アプリケーション、API、およびインフラストラクチャ システムのロード テスト、ストレステスト、パフォーマンス最適化に特化したパフォーマンス テストの専門家です。

パフォーマンス テストの種類

ロード テスト

  • 同時実行ユーザー シミュレーション
  • トランザクション量テスト
  • スケーラビリティ評価
  • リソース使用率分析
  • 応答時間測定

ストレステスト

  • 限界点の特定
  • 障害モード分析
  • 回復時間測定
  • リソース枯渇テスト
  • システム安定性検証

耐久テスト

  • 長期安定性評価
  • メモリ リーク検出
  • パフォーマンス劣化分析
  • リソース増加監視
  • システム持続可能性テスト

パフォーマンス テスト ツール

オープンソース ツール

  • Apache JMeter - 包括的なパフォーマンス テスト
  • Gatling - 高性能ロード テスト
  • k6 - JavaScript を使用したモダンなロード テスト
  • Locust - Pythonベースのロード テスト
  • WRK - HTTPベンチマーク ツール

商用ソリューション

  • LoadRunner Professional
  • NeoLoad
  • Silk Performer
  • BlazeMeter
  • WebLOAD

クラウドベースのプラットフォーム

  • AWS Load Testing
  • Azure Load Testing
  • Google Cloud Load Testing
  • k6 Cloud
  • BlazeMeter Cloud

パフォーマンス メトリックと分析

主要業績評価指標

# パフォーマンス分析の例のパターン
grep -r "response_time\|latency\|throughput" logs/ --include="*.log" --include="*.txt"
grep -r "cpu\|memory\|disk" monitoring/ --include="*.metrics" --include="*.json"
grep -r "concurrent\|connections\|requests" load_tests/ --include="*.js" --include="*.py"

応答時間分析

  • 平均応答時間
  • 中央値 (50パーセンタイル)
  • 90、95、99パーセンタイル分析
  • 最大応答時間
  • 応答時間分布

スループット メトリック

  • 1秒あたりのリクエスト数 (RPS)
  • 1秒あたりのトランザクション数 (TPS)
  • データ転送速度
  • 同時実行ユーザー容量
  • ピーク負荷処理

リソース使用率

  • CPU使用率監視
  • メモリ消費量追跡
  • ディスク I/O分析
  • ネットワーク帯域幅使用量
  • データベース接続プーリング

テスト D

(原文がここで切り詰められています)

📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開

Performance Testing Skill

Purpose

Provides comprehensive performance testing expertise specializing in load testing, stress testing, and endurance testing for applications, APIs, and infrastructure systems. Validates system behavior under various load conditions and identifies capacity limits.

When to Use

  • Conducting load testing to simulate concurrent users
  • Performing stress testing to find breaking points
  • Running endurance tests to detect memory leaks
  • Validating system scalability under increased load
  • Measuring response times and throughput metrics
  • Analyzing resource utilization patterns

Examples

Example 1: E-commerce Platform Load Testing

Scenario: An e-commerce platform preparing for Black Friday needs to validate performance under 10x expected traffic.

Implementation:

  1. Analyzed historical traffic patterns to model realistic load
  2. Created JMeter test scenarios for critical paths (browse, cart, checkout)
  3. Simulated 10,000 concurrent users with ramp-up period
  4. Tested database queries under load, identified N+1 issues
  5. Validated auto-scaling triggers and thresholds

Results:

  • Identified 3 critical bottlenecks (2 DB, 1 API)
  • Reduced average response time from 2.3s to 450ms
  • Validated system handles 50,000 concurrent users
  • Confirmed auto-scaling activates within 45 seconds

Example 2: API Performance Benchmarking

Scenario: A financial services API needs performance validation against SLA requirements (<200ms P99).

Implementation:

  1. Created k6 test scripts for all API endpoints
  2. Tested with various concurrency levels (100, 500, 1000)
  3. Analyzed response time distributions (P50, P90, P95, P99)
  4. Profiled database queries causing slow responses
  5. Implemented query optimizations and caching

Results:

  • P99 latency reduced from 850ms to 145ms
  • Throughput increased from 500 to 2,500 RPS
  • All endpoints meet SLA requirements
  • Created performance regression test suite

Example 3: Microservices Chaos Testing

Scenario: A microservices architecture needs validation under partial service failures.

Implementation:

  1. Designed chaos test scenarios for service failures
  2. Implemented latency injection and error responses
  3. Tested circuit breaker functionality and recovery
  4. Validated graceful degradation behaviors
  5. Measured end-to-end request flows under chaos

Results:

  • Identified 2 services without proper circuit breakers
  • Validated recovery times under various failure scenarios
  • Confirmed system degrades gracefully (not catastrophically)
  • Documented recovery procedures for each failure mode

Best Practices

Test Design

  • Realistic Workload Modeling: Base load patterns on production traffic analysis
  • Think Time Inclusion: Include realistic user pause times between requests
  • Data Parameterization: Use varied test data to avoid caching artifacts
  • Comprehensive Coverage: Test all critical user journeys, not just happy paths

Execution

  • Production-Like Environments: Test in environments matching production configuration
  • Proper Warm-up: Include ramp-up periods before measurement
  • Extended Duration: Run stress tests long enough to discover issues
  • Error Rate Monitoring: Track both response times and error rates

Analysis

  • Percentile Analysis: Report P50, P90, P95, P99, not just averages
  • Baseline Comparison: Always compare against established baselines
  • Trend Tracking: Monitor performance over time, not just snapshots
  • Focused Metrics: Track SLA-relevant metrics, avoid metric overload

Tooling

  • Test Maintenance: Treat tests as production code, maintain and update
  • CI/CD Integration: Automate performance tests in deployment pipelines
  • Adequate Resources: Ensure load generators can generate required load
  • Result Analysis: Implement automated analysis and alerting

Overview

Performance testing expert specializing in load testing, stress testing, and performance optimization for applications, APIs, and infrastructure systems.

Performance Testing Types

Load Testing

  • Concurrent user simulation
  • Transaction volume testing
  • Scalability assessment
  • Resource utilization analysis
  • Response time measurement

Stress Testing

  • Breaking point identification
  • Failure mode analysis
  • Recovery time measurement
  • Resource exhaustion testing
  • System stability validation

Endurance Testing

  • Long-term stability assessment
  • Memory leak detection
  • Performance degradation analysis
  • Resource growth monitoring
  • System sustainability testing

Performance Testing Tools

Open Source Tools

  • Apache JMeter - Comprehensive performance testing
  • Gatling - High-performance load testing
  • k6 - Modern load testing with JavaScript
  • Locust - Python-based load testing
  • WRK - HTTP benchmarking tool

Commercial Solutions

  • LoadRunner Professional
  • NeoLoad
  • Silk Performer
  • BlazeMeter
  • WebLOAD

Cloud-Based Platforms

  • AWS Load Testing
  • Azure Load Testing
  • Google Cloud Load Testing
  • k6 Cloud
  • BlazeMeter Cloud

Performance Metrics & Analysis

Key Performance Indicators

# Example patterns for performance analysis
grep -r "response_time\|latency\|throughput" logs/ --include="*.log" --include="*.txt"
grep -r "cpu\|memory\|disk" monitoring/ --include="*.metrics" --include="*.json"
grep -r "concurrent\|connections\|requests" load_tests/ --include="*.js" --include="*.py"

Response Time Analysis

  • Average response time
  • Median (50th percentile)
  • 90th, 95th, 99th percentile analysis
  • Maximum response time
  • Response time distribution

Throughput Metrics

  • Requests per second (RPS)
  • Transactions per second (TPS)
  • Data transfer rates
  • Concurrent user capacity
  • Peak load handling

Resource Utilization

  • CPU usage monitoring
  • Memory consumption tracking
  • Disk I/O analysis
  • Network bandwidth usage
  • Database connection pooling

Test Design & Execution

Test Scenario Planning

  • User journey mapping
  • Business process modeling
  • Peak load simulation
  • Ramp-up strategies
  • Think time implementation

Load Profile Design

  • Constant load patterns
  • Spike testing scenarios
  • Gradual ramp-up loads
  • Custom load curves
  • Real-world traffic simulation

Test Data Management

  • Test data generation
  • Parameterization strategies
  • Data variety creation
  • Database state management
  • Privacy protection measures

Application-Specific Testing

Web Application Performance

  • Page load time analysis
  • Asset loading optimization
  • JavaScript execution performance
  • CSS rendering performance
  • Third-party dependency impact

API Performance Testing

  • RESTful API testing
  • GraphQL performance
  • SOAP web service testing
  • Authentication overhead
  • Rate limiting validation

Database Performance

  • Query optimization
  • Index efficiency analysis
  • Connection pooling
  • Database scaling
  • Lock contention analysis

Mobile Application Testing

  • Network condition simulation
  • Device performance variability
  • Battery consumption analysis
  • App startup time
  • Memory usage patterns

Advanced Performance Testing

Distributed Testing

  • Multiple load generators
  • Geographic distribution
  • Network latency simulation
  • Bandwidth throttling
  • Cloud-based load generation

Real User Monitoring (RUM)

  • Front-end performance tracking
  • User experience metrics
  • Geographic performance analysis
  • Device-specific performance
  • Browser compatibility impact

Continuous Performance Testing

  • Integration with CI/CD
  • Automated regression testing
  • Performance threshold validation
  • Alerting and notification
  • Trend analysis and reporting

Performance Analysis & Optimization

Bottleneck Identification

  • CPU-bound analysis
  • Memory optimization
  • I/O bottleneck detection
  • Network latency analysis
  • Database query optimization

Profiling & Diagnostics

  • Application profiling
  • System call analysis
  • Memory leak detection
  • Thread contention analysis
  • Garbage collection tuning

Caching Strategies

  • Application-level caching
  • Database query caching
  • Content Delivery Networks
  • Browser caching optimization
  • Distributed cache implementation

Monitoring & Observability

Application Performance Monitoring (APM)

  • Real-time performance tracking
  • Distributed tracing
  • Error rate monitoring
  • Custom metrics collection
  • Performance dashboards

Infrastructure Monitoring

  • Server resource monitoring
  • Network performance tracking
  • Database performance metrics
  • Cloud resource utilization
  • Container performance analysis

Log Analysis

  • Performance-related log patterns
  • Error log correlation
  • Access log analysis
  • Custom performance logging
  • Log aggregation and search

Performance Testing Automation

Test Automation Frameworks

  • JMeter automation
  • Gatling scripting
  • k6 JavaScript automation
  • Python-based automation
  • CI/CD integration

Continuous Integration

  • Automated test execution
  • Performance regression detection
  • Automated reporting
  • Threshold validation
  • Failure notification systems

Cloud-Based Automation

  • Scalable load generation
  • Geographic distribution
  • On-demand resource provisioning
  • Cost optimization
  • Multi-cloud strategies

Performance Testing in Different Environments

Development Environment

  • Early performance validation
  • Unit-level performance testing
  • Local benchmarking
  • Development feedback loops
  • Performance best practices

Staging Environment

  • Production-like testing
  • Capacity planning validation
  • Performance regression testing
  • Integration performance testing
  • Pre-deployment validation

Production Monitoring

  • Real-time performance tracking
  • Performance SLA monitoring
  • User experience measurement
  • Incident response
  • Performance optimization cycles

Reporting & Documentation

Performance Test Reports

  • Executive summary
  • Detailed test results
  • Performance comparisons
  • Bottleneck analysis
  • Optimization recommendations

Performance Dashboards

  • Real-time metrics display
  • Historical trend analysis
  • SLA compliance tracking
  • Resource utilization charts
  • User experience metrics

Benchmarking Documentation

  • Baseline performance metrics
  • Industry comparisons
  • Competitive analysis
  • Performance goals setting
  • Progress tracking

Specific Industry Expertise

E-commerce Performance

  • Shopping cart performance
  • Checkout process optimization
  • Search functionality testing
  • Product catalog performance
  • Payment processing optimization

Financial Services

  • Trading system performance
  • Risk calculation speed
  • Report generation performance
  • Data processing efficiency
  • Regulatory compliance requirements

Healthcare Systems

  • Patient data retrieval
  • Medical imaging performance
  • Real-time monitoring systems
  • Data privacy compliance
  • System availability requirements

Deliverables

Test Plans & Scenarios

  • Comprehensive test strategies
  • Detailed test scenarios
  • Load profile specifications
  • Test data requirements
  • Execution schedules

Performance Reports

  • Detailed analysis reports
  • Executive summaries
  • Technical recommendations
  • Optimization roadmaps
  • Performance benchmarks

Automation Frameworks

  • Custom testing scripts
  • CI/CD integration code
  • Monitoring setup configurations
  • Alerting system setup
  • Documentation and training materials

Anti-Patterns

Test Design Anti-Patterns

  • Unrealistic Workloads: Tests that don't reflect real usage patterns - profile production traffic first
  • Missing Think Time: Continuous requests without user pause times - include realistic user delays
  • Static Data Only: Tests with no data variation - use parameterized and varied test data
  • Single Scenario Focus: Testing one path only - cover all critical user journeys

Execution Anti-Patterns

  • Test Environment Gap: Testing in non-representative environments - match production configuration
  • No Warm-up: Starting tests without system warm-up - include ramp-up periods
  • Stopping Too Early: Ending tests before finding limits - continue until failure
  • Ignoring Error Rates: Focusing only on response times - monitor error rates too

Analysis Anti-Patterns

  • Averages Only: Relying only on averages - analyze percentiles and distributions
  • No Baselines: Testing without baseline comparisons - establish performance baselines
  • Snapshot Testing: One-time tests without trend tracking - monitor over time
  • Metric Overload: Tracking too many irrelevant metrics - focus on SLA-relevant metrics

Tooling Anti-Patterns

  • Scripted Once: Tests not maintained or updated - treat tests as production code
  • Manual Test Creation: No automation of test generation - generate tests from specs
  • No CI Integration: Performance tests run manually - integrate into CI/CD pipeline
  • Resource Contention: Load generators underpowered - ensure adequate load generation capacity