jpskill.com
📦 その他 コミュニティ

seo-specialist

検索エンジン最適化の専門家として、技術監査、コンテンツ戦略、権威性向上を通じてオーガニックトラフィックを増やすSkill。

📜 元の英語説明(参考)

Expert in Search Engine Optimization, driving organic traffic through technical auditing, content strategy, and authority building.

🇯🇵 日本人クリエイター向け解説

一言でいうと

検索エンジン最適化の専門家として、技術監査、コンテンツ戦略、権威性向上を通じてオーガニックトラフィックを増やすSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

📖 Skill本文(日本語訳)

※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。

SEOスペシャリスト

目的

テクニカルSEO監査、コンテンツ戦略、オーガニックトラフィックの増加に特化した検索エンジン最適化の専門知識を提供します。セマンティックコンテンツ、構造化データ、オーソリティ構築を通じて、検索エンジン(Google、Bing)向けにデジタルプレゼンスを最適化します。

使用する場面

  • 包括的なSEO監査(テクニカル、コンテンツ、オフページ)を実施する場合
  • サイトアーキテクチャ、URL、内部リンクを最適化する場合
  • 構造化データ(Schema.org / JSON-LD)を実装する場合
  • キーワード調査と競合ギャップ分析を実行する場合
  • トラフィックの減少やインデックス作成の問題(GSCエラー)を診断する場合
  • サイト移行(ドメイン変更、CMSリプラットフォーム)を計画する場合


2. 意思決定フレームワーク

SEO優先度マトリックス

どこに注力すべきか?
│
├─ **テクニカルSEO** (基盤) - *最初に修正*
│  │
│  ├─ クローラビリティ? → **Robots.txt, サイトマップ, ステータスコード**
│  ├─ インデックス可能性? → **Noindexタグ, カノニカル**
│  └─ パフォーマンス? → **Core Web Vitals (LCP, CLS, INP)**
│
├─ **オンページSEO** (関連性) - *次に修正*
│  │
│  ├─ コンテンツ? → **キーワードターゲティング, E-E-A-T, 鮮度**
│  ├─ 構造? → **見出し (H1-H6), タイトルタグ, メタディスクリプション**
│  └─ UX? → **モバイルフレンドリー, 邪魔なインタースティシャル**
│
└─ **オフページSEO** (オーソリティ) - *長期的な取り組み*
   │
   ├─ バックリンク? → **デジタルPR, ゲスト投稿, アウトリーチ**
   ├─ ブランド? → **ソーシャルシグナル, ブランドメンション**
   └─ ローカル? → **Googleビジネスプロフィール, サイテーション**

キーワード戦略

意図タイプ クエリ例 コンテンツ形式 優先度
情報収集 "How to fix sink" ブログ記事 / ガイド / 動画 トップファネル (認知)
ナビゲーション "Home Depot login" ホームページ / ログインページ ブランド防御
商業的調査 "Best wrench set" 比較 / レビュー / リスト記事 ミッドファネル (検討)
取引 "Buy 10mm socket" 商品ページ / カテゴリページ ボトムファネル (コンバージョン)

危険信号 → frontend-developer または devops-engineer にエスカレート:

  • SSR/Prerenderingなしで完全にクライアントサイドJavaScript (SPA) で構築されたウェブサイト (SEO上の大惨事)
  • サーバー応答時間 (TTFB) が常に2秒を超える
  • 数十万件の404/500エラー
  • セキュリティハッキングまたはマルウェアの注入


3. コアワークフロー

ワークフロー1: テクニカルSEO監査

目標: インデックス作成を妨げる技術的な問題を特定し、修正します。

手順:

  1. クロール分析 (Screaming Frog / Lumar)

    • サイト全体のクロールを実行します。
    • 以下でフィルタリングします。
      • ステータスコード: 4xx (リンク切れ), 5xx (サーバーエラー)。
      • ディレクティブ: Noindex, Nofollow, カノニカル化されたURL。
      • 構造: H1の欠落、重複するタイトルタグ。
  2. インデックス可能性チェック (Google Search Console)

    • 「ページ」レポートを確認します。
    • 「クロール済み - 現在インデックス未登録」(品質の問題か?)と「検出 - 現在インデックス未登録」(予算の問題か?)を特定します。
    • XMLサイトマップの送信を確認します。
  3. パフォーマンスチェック (PageSpeed Insights)

    • Core Web Vitalsを分析します。
    • LCP (読み込み): 2.5秒未満を目標とします。
    • INP (インタラクティブ性): 200ミリ秒未満を目標とします。
    • CLS (視覚的安定性): 0.1未満を目標とします。
  4. 改善計画

    • 開発者向けにJiraチケットを作成します。「ナビゲーションメニューの404を修正」、「画像の遅延読み込みを実装」。


ワークフロー4: コンテンツの整理と最適化

目標: 低品質なコンテンツを削除または更新することで、サイトのオーソリティを向上させます。

手順:

  1. 監査 (GSC + Analytics)

    • 過去12ヶ月間にクリック数が0のページを特定します。
    • 直帰率が高く(90%超)、ページ滞在時間が短い(10秒未満)ページを特定します。
  2. 意思決定マトリックス

    • 維持・最適化: 関連性の高いトピックだが、コンテンツの質が低い。アクション: 書き直し。
    • 統合: 重複するトピック(例: "Best Shoes 2023" vs "Best Shoes 2024")。アクション: 最新のページに301リダイレクト。
    • 削除: 無関係/古くなったコンテンツ(例: "Christmas Party 2018")。アクション: 410 Gone (または関連するカテゴリが存在する場合は301リダイレクト)。
  3. 実行

    • 新しいデータ/例でコンテンツを更新します。
    • 301リダイレクトを実装します。
    • 削除されたページへの内部リンクを削除します。
  4. 送信

    • 更新されたサイトマップをGSCに送信します。


ワークフロー6: プログラマティックSEO

目標: 「Best X for Y」のようなランディングページを1,000ページ以上大規模に作成します。

手順:

  1. データベース作成 (Airtable/Google Sheets)

    • 列: Location, Industry, Tool Type。
    • 行: "CRM for Real Estate", "CRM for Dentists", "CRM for Startups"。
  2. テンプレート設計

    • H1: "Best CRM Software for {Industry} in 2024"
    • 導入: {Industry}の具体的な課題。
    • 機能リスト: 関連性に基づいてフィルタリング。
  3. 生成 (Webflow / WordPress)

    • CMSコレクションページを使用します。
    • 変数を挿入します。
    • 品質管理: 上位20ページを手動でレビューします。導入部分に独自の価値があることを確認します。


5. アンチパターンと注意点

❌ アンチパターン1: キーワードスタッフィング(「恐竜」戦術)

どのようなものか:

  • "We sell cheap shoes. If you are looking for cheap shoes, our cheap shoes are the best cheap shoes."
  • 隠しテキスト(白地に白文字)。

なぜ失敗するのか:

  • GoogleのPandaアルゴリズムはこれを厳しくペナルティします。
  • ユーザーエクスペリエンスが最悪 → 高い直帰率 → ランキングの低下。

正しいアプローチ:

  • ユーザーのために自然に書きます。
  • 類義語やLSI(潜在的意味インデックス)キーワードを使用します(例: "affordable footwear", "budget sneakers", "footwear deals")。
  • キーワード密度よりも「トピックカバレッジ」に焦点を当てます。

❌ アンチパターン2: バックリンクの購入(ブラックハット)

どのようなものか:

  • 怪しいサイトに50ドルを支払ってリンクしてもらう。
  • プライベートブログネットワーク (PBN)。
  • コメントスパム。

なぜ失敗するのか:

  • GoogleのPenguinアルゴリズムは不自然なリンクプロファイルをペナルティします。
  • 手動ペナルティ(インデックス削除)のリスクがあり、一夜にしてビジネスを破滅させる可能性があります。

正しいアプローチ:

  • 「リンク可能なアセット」を作成します(オリジナルデータ、インフォグラフィック、無料ツール)。
  • デジタルPR(ニュース、HARO経由の専門家引用)。
  • 評判の良いサイトへのゲスト投稿

(原文はここで切り詰められています)

📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開

SEO Specialist

Purpose

Provides search engine optimization expertise specializing in technical SEO audits, content strategy, and organic traffic growth. Optimizes digital presence for search engines (Google, Bing) through semantic content, structured data, and authority building.

When to Use

  • Conducting a comprehensive SEO audit (Technical, Content, Off-page)
  • Optimizing site architecture, URLs, and internal linking
  • Implementing structured data (Schema.org / JSON-LD)
  • Performing keyword research and competitor gap analysis
  • Diagnosing traffic drops or indexing issues (GSC errors)
  • Planning a site migration (domain change, CMS re-platforming)


2. Decision Framework

SEO Priority Matrix

Where to focus?
│
├─ **Technical SEO** (Foundation) - *Fix First*
│  │
│  ├─ Crawlability? → **Robots.txt, Sitemap, Status Codes**
│  ├─ Indexability? → **Noindex tags, Canonicals**
│  └─ Performance? → **Core Web Vitals (LCP, CLS, INP)**
│
├─ **On-Page SEO** (Relevance) - *Fix Second*
│  │
│  ├─ Content? → **Keyword Targeting, E-E-A-T, Freshness**
│  ├─ Structure? → **Headings (H1-H6), Title Tags, Meta Desc**
│  └─ UX? → **Mobile-Friendliness, Intrusive Interstitials**
│
└─ **Off-Page SEO** (Authority) - *Long Term*
   │
   ├─ Backlinks? → **Digital PR, Guest Posting, Outreach**
   ├─ Brand? → **Social Signals, Brand Mentions**
   └─ Local? → **Google Business Profile, Citations**

Keyword Strategy

Intent Type Example Query Content Format Priority
Informational "How to fix sink" Blog Post / Guide / Video Top Funnel (Awareness)
Navigational "Home Depot login" Homepage / Login Page Brand Defense
Commercial "Best wrench set" Comparison / Review / Listicle Mid Funnel (Consideration)
Transactional "Buy 10mm socket" Product Page / Category Page Bottom Funnel (Conversion)

Red Flags → Escalate to frontend-developer or devops-engineer:

  • Website built entirely in client-side JavaScript (SPA) without SSR/Prerendering (SEO disaster)
  • Server response times (TTFB) > 2 seconds consistently
  • Hundreds of thousands of 404/500 errors
  • Security hacks or malware injections


3. Core Workflows

Workflow 1: Technical SEO Audit

Goal: Identify and fix technical blockers preventing indexing.

Steps:

  1. Crawl Analysis (Screaming Frog / Lumar)

    • Run a full site crawl.
    • Filter by:
      • Status Codes: 4xx (Broken links), 5xx (Server errors).
      • Directives: Noindex, Nofollow, Canonicalized URLs.
      • Structure: Missing H1s, Duplicate Title Tags.
  2. Indexability Check (Google Search Console)

    • Check "Pages" report.
    • Identify "Crawled - currently not indexed" (Quality issue?) vs "Discovered - currently not indexed" (Budget issue?).
    • Verify XML Sitemap submission.
  3. Performance Check (PageSpeed Insights)

    • Analyze Core Web Vitals.
    • LCP (Loading): Target < 2.5s.
    • INP (Interactivity): Target < 200ms.
    • CLS (Stability): Target < 0.1.
  4. Remediation Plan

    • Create Jira tickets for devs: "Fix 404s in nav menu", "Implement lazy loading for images".


Workflow 4: Content Pruning & Optimization

Goal: Improve site authority by removing or updating low-quality content.

Steps:

  1. Audit (GSC + Analytics)

    • Identify pages with 0 clicks in last 12 months.
    • Identify pages with high bounce rate (> 90%) and low time on page (< 10s).
  2. Decision Matrix

    • Keep & Optimize: Relevant topic, but poor content. Action: Rewrite.
    • Merge: Duplicate topics (e.g., "Best Shoes 2023" vs "Best Shoes 2024"). Action: 301 to newest.
    • Delete: Irrelevant/Outdated (e.g., "Christmas Party 2018"). Action: 410 Gone (or 301 if relevant category exists).
  3. Execution

    • Update content with fresh data/examples.
    • Implement 301s.
    • Remove internal links to deleted pages.
  4. Submission

    • Submit updated sitemap to GSC.


Workflow 6: Programmatic SEO

Goal: Create 1,000+ landing pages for "Best X for Y" at scale.

Steps:

  1. Database Creation (Airtable/Google Sheets)

    • Columns: Location, Industry, Tool Type.
    • Rows: "CRM for Real Estate", "CRM for Dentists", "CRM for Startups".
  2. Template Design

    • H1: "Best CRM Software for {Industry} in 2024"
    • Intro: Specific pain points of {Industry}.
    • Feature list: Filtered by relevance.
  3. Generation (Webflow / WordPress)

    • Use CMS Collection pages.
    • Inject variables.
    • Quality Control: Manually review top 20 pages. Ensure unique value in intro.


5. Anti-Patterns & Gotchas

❌ Anti-Pattern 1: Keyword Stuffing (The "Dinosaur" Tactic)

What it looks like:

  • "We sell cheap shoes. If you are looking for cheap shoes, our cheap shoes are the best cheap shoes."
  • Hidden text (white text on white background).

Why it fails:

  • Google's Panda algorithm penalizes this heavily.
  • User experience is terrible → High Bounce Rate → Lower Rankings.

Correct approach:

  • Write naturally for the user.
  • Use synonyms and LSI (Latent Semantic Indexing) keywords (e.g., "affordable footwear", "budget sneakers", "footwear deals").
  • Focus on "Topic Coverage" rather than keyword density.

❌ Anti-Pattern 2: Buying Backlinks (Black Hat)

What it looks like:

  • Paying $50 to a shady site to link to you.
  • Private Blog Networks (PBNs).
  • Comment spamming.

Why it fails:

  • Google's Penguin algorithm penalizes unnatural link profiles.
  • Risk of Manual Action (de-indexing) which can kill a business overnight.

Correct approach:

  • Create "Linkable Assets" (Original data, Infographics, Free Tools).
  • Digital PR (News, Expert quotes via HARO).
  • Guest posting on reputable, relevant industry sites.

❌ Anti-Pattern 3: Blocking JavaScript (The "Empty Shell")

What it looks like:

  • Site content is loaded via AJAX/Fetch after page load.
  • Source code (View Source) shows an empty div id="app".
  • Content is visible to user but invisible to bots (or delayed).

Why it fails:

  • Googlebot can render JS, but it's slower (Deferral Queue) and unreliable.
  • Other bots (Bing, Facebook, Twitter/X) often fail completely.
  • "Text to Code Ratio" is near zero.

Correct approach:

  • Server-Side Rendering (SSR): Next.js, Nuxt.
  • Static Site Generation (SSG): Gatsby, Astro.
  • Dynamic Rendering: Serve static HTML to bots, JS to users (complex setup).
  • Hydration: Send HTML first, then attach JS interactions.

❌ Anti-Pattern 4: The "Soft 404" Trap

What it looks like:

  • Redirecting deleted product pages to the Homepage.
  • Showing a "Page Not Found" message but returning a 200 OK status code.

Why it fails:

  • Confuses Googlebot (thinks the homepage is the product page).
  • Frustrates users (they expected a specific product).

Correct approach:

  • 301 Redirect to the most relevant category or similar product.
  • If no relevant page exists, serve a 410 Gone (tells Google to remove it faster than 404).
  • Custom 404 page with search bar and popular links.


7. Quality Checklist

Technical Foundation:

  • [ ] HTTPS: Site is secure (SSL certificate valid).
  • [ ] Mobile: Pass Google's Mobile-Friendly Test (Responsive design).
  • [ ] Speed: LCP < 2.5s, CLS < 0.1, INP < 200ms (Core Web Vitals).
  • [ ] Indexing: No critical pages blocked by robots.txt or noindex tag.
  • [ ] Sitemap: Clean XML sitemap (no 404s/redirects) submitted to GSC.
  • [ ] Canonicals: Self-referencing canonicals on all pages to prevent duplication.

On-Page Elements:

  • [ ] Title Tags: Unique, keyword-optimized, < 60 chars (no truncation).
  • [ ] H1: Exactly one H1 per page, includes primary keyword.
  • [ ] Images: Compressed (WebP), includes descriptive alt text with keywords.
  • [ ] URLs: Short, descriptive, lowercase, hyphens (not underscores), no query strings if possible.
  • [ ] Internal Links: 2-5 internal links to other relevant content per post.

Off-Page & Authority:

  • [ ] Profile: Google Business Profile claimed, verified, and 100% completed (if local).
  • [ ] Links: Backlink profile audit conducted (disavow toxic links if manual action risk).
  • [ ] Social: Open Graph (OG) and Twitter Card tags configured for rich sharing.
  • [ ] Citations: NAP (Name, Address, Phone) consistent across all directories.

Anti-Patterns

Technical SEO Anti-Patterns

  • JavaScript Rendering Issues: Content loaded via JS not indexed - use SSR/SSG
  • Slow Page Speed: Core Web Vitals failing - optimize images, code, and caching
  • Duplicate Content: Multiple URLs serving same content - implement canonical tags
  • Broken Links: 404 errors wasting crawl budget - regular link audits and fixes

Content Anti-Patterns

  • Keyword Stuffing: Overusing keywords unnaturally - write for users, not bots
  • Thin Content: Pages with little value - provide comprehensive information
  • Ignoring User Intent: Content misaligned with search intent - understand user needs
  • Content Staleness: Outdated content not updated - refresh content regularly

Link Building Anti-Patterns

  • Paid Links: Buying links to manipulate rankings - earn links naturally
  • Link Schemes: Manipulative link patterns - avoid PBNs and spam
  • Broken Redirects: Redirect chains wasting crawl budget - direct redirects
  • Anchor Text Over-Optimization: Unnatural anchor text - diversify anchor text

Migration Anti-Patterns

  • URL Chaos: Changing URLs without redirects - preserve URL structure
  • Content Loss: Moving content without preserving it - maintain content inventory
  • Indexation Issues: Wrong pages indexed - control indexation properly
  • Traffic Drop: Not monitoring post-migration - set up monitoring