jpskill.com
💬 コミュニケーション コミュニティ 🟢 非エンジニアでもOK 👤 管理職・人事・カスタマー対応

💬 Recallmax

recallmax

AIエージェント向けに、50万〜100万トークンの長文コンテキストを注入し、トーンや意図を保ちながら自動要約し、14ターンの履歴を800トークンに圧縮することで、優れた長文記憶を提供するSkill。

⏱ お礼メール定型化 5分/通 → 30秒/通

📺 まず動画で見る(YouTube)

▶ 【最新版】Claude(クロード)完全解説!20以上の便利機能をこの動画1本で全て解説 ↗

※ jpskill.com 編集部が参考用に選んだ動画です。動画の内容と Skill の挙動は厳密には一致しないことがあります。

📜 元の英語説明(参考)

FREE — God-tier long-context memory for AI agents. Injects 500K-1M clean tokens, auto-summarizes with tone/intent preservation, compresses 14-turn history into 800 tokens.

🇯🇵 日本人クリエイター向け解説

一言でいうと

AIエージェント向けに、50万〜100万トークンの長文コンテキストを注入し、トーンや意図を保ちながら自動要約し、14ターンの履歴を800トークンに圧縮することで、優れた長文記憶を提供するSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

💬 こう話しかけるだけ — サンプルプロンプト

  • Recallmax で、お客様への返信文を作って
  • Recallmax を使って、社内向けアナウンスを書いて
  • Recallmax で、メールテンプレートを整備して

これをClaude Code に貼るだけで、このSkillが自動発動します。

📖 Claude が読む原文 SKILL.md(中身を展開)

この本文は AI(Claude)が読むための原文(英語または中国語)です。日本語訳は順次追加中。

RecallMax — God-Tier Long-Context Memory

Overview

RecallMax enhances AI agent memory capabilities dramatically. Inject 500K to 1M clean tokens of external context without hallucination drift. Auto-summarize conversations while preserving tone, sarcasm, and intent. Compress multi-turn histories into high-density token sequences.

Free forever. Built by the Genesis Agent Marketplace.

Install

npx skills add christopherlhammer11-ai/recallmax

When to Use This Skill

  • Use when your agent loses context in long conversations (50+ turns)
  • Use when injecting large RAG/external documents into agent context
  • Use when you need to compress conversation history without losing meaning
  • Use when fact-checking claims across a long thread
  • Use for any agent that needs to remember everything

How It Works

Step 1: Context Injection

RecallMax cleanly injects external context (documents, RAG results, prior conversations) into the agent's working memory. Unlike naive concatenation, it:

  • Deduplicates overlapping content
  • Preserves source attribution
  • Prevents hallucination drift from context pollution

Step 2: Adaptive Summarization

As conversations grow, RecallMax automatically summarizes older turns while preserving:

  • Tone — sarcasm, formality, urgency
  • Intent — what the user actually wants vs. what they said
  • Key facts — numbers, names, decisions, commitments
  • Emotional register — frustration, excitement, confusion

Step 3: History Compression

Compress a 14-turn conversation history into ~800 high-density tokens that retain full semantic meaning. The compressed output can be re-expanded if needed.

Step 4: Fact Verification

Built-in cross-reference checks for controversial or ambiguous claims within the conversation context. Flags contradictions and unsupported assertions.

Best Practices

  • ✅ Use RecallMax at the start of long-running agent sessions
  • ✅ Enable auto-summarization for conversations beyond 20 turns
  • ✅ Use compression before hitting context window limits
  • ✅ Let the fact verifier run on high-stakes outputs
  • ❌ Don't inject unvetted external content without dedup
  • ❌ Don't skip summarization and rely on raw truncation

Related Skills

  • @tool-use-guardian - Tool-call reliability wrapper (also free from Genesis Marketplace)

Links

Limitations

  • Use this skill only when the task clearly matches the scope described above.
  • Do not treat the output as a substitute for environment-specific validation, testing, or expert review.
  • Stop and ask for clarification if required inputs, permissions, safety boundaries, or success criteria are missing.