mongodb-query-patterns
Use when writing ANY Mongoose query (.find, .findOne, .findById, .aggregate, .populate), adding database operations to services or controllers, wiring data between services, building endpoints that read or write to MongoDB, or reviewing code that chains service calls. TRIGGER especially when about to write a new findById or pass an ID where a document could be passed instead.
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
[Skill 名] mongodb-query-patterns
MongoDB クエリパターン
概要
最良のクエリは、決して実行しないクエリです。次に良いのは、必要なものだけを1回のラウンドトリップで取得するクエリです。
データベース呼び出しを記述する前に、次のことを自問してください。このデータは現在のリクエストチェーンのどこかにすでに存在しますか? コントローラーがドキュメントを取得し、その後3つのサービスを呼び出す場合、それらのサービスはドキュメントを受け取るべきであり、再取得すべきではありません。IDではなくドキュメントを渡してください。
個々のクエリではなく、データフローで考えてください。 リクエスト(コントローラー → サービス → レスポンス)を通じてデータがどのように移動するかをトレースし、各ドキュメントがそのジャーニーを正確に1回だけ行うようにしてください。
使用するタイミング
- サービスまたはコントローラーに新しいデータベース操作を追加する場合
- データを読み書きする新しいエンドポイントを構築する場合
- コントローラーまたはオーケストレーション関数でサービス呼び出しを連携させる場合
- Mongoose スキーマを追加または変更する場合
- 複数のサービス呼び出しを連結するコードをレビューする場合
データフローの原則
1. まずリクエストチェーンをトレースする
コードを記述する前に、データフローをマッピングしてください。
リクエスト → コントローラー → サービス A → サービス B → サービス C → レスポンス
↓ ↓ ↓
doc X doc X doc X
が必要 が必要 が必要
複数の停止点で同じドキュメントが必要な場合は、上部で一度取得し、下流に渡してください。呼び出し元がすでに持っているものを各サービスが個別にクエリしないようにしてください。
2. 上部で広く取得し、下部で狭く取得する
チェーンの最初のサービスは、より広範なプロジェクションを必要とする場合があります。下流のサービスは、独自のより狭いプロジェクションで再クエリするのではなく、すでに取得されたドキュメントを受け入れるべきです。メモリ内のいくつかの余分なフィールドは、余分なデータベースラウンドトリップと比較してコストはかかりません。
3. すべてのクエリはその存在を正当化する必要がある
findById または findOne を記述しようとしているときは、次のことを自問してください。
- このドキュメントは呼び出し元からすでに利用可能ですか? → パラメーターとして受け入れる
- これはコードの別のブランチが取得するのと同じドキュメントですか? → ブランチの上に持ち上げる
- ループ内でN個のドキュメントを1つずつクエリしていますか? →
$inでバッチ処理する - カウントまたは集計のためだけにクエリしていますか? → すでに持っているデータから導き出せませんか?
これらのいずれも当てはまらない場合、クエリは正当化されます。効率的に記述してください。
クエリ効率のルール
クエリが正当化される場合は、無駄をなくしてください。
| ルール | 方法 | 理由 |
|---|---|---|
| 必要なフィールドのみをプロジェクションする | .select('name email status') |
完全なドキュメントはすべてのフィールドを保持します。呼び出し元が必要とするものを正確にリストし、「念のため」広げないでください。 |
| 読み取りにはプレーンオブジェクトを返す | .lean() |
Mongoose のハイドレーションをスキップします。読み取り専用パスでは2〜5倍高速です。 |
| フィルターフィールドにインデックスがあることを確認する | schema.index({ field: 1 }) |
インデックスがないと、MongoDB はすべてのドキュメントをスキャンします (COLLSCAN)。 |
| 関連する読み取りをバッチ処理する | .find({ _id: { $in: ids } }) + Map |
N回のラウンドトリップが1回に集約されます。 |
| 関連する書き込みをバッチ処理する | Model.bulkWrite([...]) |
N回のシーケンシャルな更新が1回に集約されます。 |
パターン
サービス境界を介してデータを渡す
最も一般的な無駄の原因は、呼び出し元がすでに持っているドキュメントをサービスが再取得することです。
// 間違い — 各サービスが同じドキュメントを個別にクエリする
async function checkout(orderId: string) {
const order = await Order.findById(orderId).lean();
await validateInventory(orderId); // order を再度取得する
await calculateTax(orderId); // order を再度取得する
await processPayment(orderId); // order を再度取得する
}
// 正しい — 一度取得し、渡す。常に DB フォールバックを提供する
async function validateInventory(orderId: string, prefetched?: IOrder) {
const order = prefetched
|| await Order.findById(orderId).select('items quantities').lean();
// ...
}
async function checkout(orderId: string) {
const order = await Order.findById(orderId).lean();
await validateInventory(orderId, order);
await calculateTax(orderId, order);
await processPayment(orderId, order);
}
常に DB フォールバックを保持してください。 一部の呼び出し元(ウェブフック、cron ジョブ、バックグラウンドワーカー)は、事前に取得されたデータを持っていません。
ループの代わりにバッチ処理する
アイテムのリストに関連するデータが必要な場合は、1つのクエリですべてを取得し、Map でインデックスを作成してください。
// 間違い — N+1: アイテムごとに1つのクエリ
for (const order of orders) {
const product = await Product.findById(order.productId);
// ...
}
// 正しい — 1つのクエリ + O(1) ルックアップ
const productIds = orders.map(o => o.productId);
const products = await Product.find({ _id: { $in: productIds } })
.select('name price image')
.lean();
const productMap = new Map(products.map(p => [p._id.toString(), p]));
for (const order of orders) {
const product = productMap.get(order.productId.toString());
// ...
}
ルックアップには常に Map を使用してください — ループ内で array.find() を使用しないでください (O(n²))。
共通クエリを持ち上げる
同じクエリが複数のコードブランチに現れる場合、ブランチの前に一度実行されるべきです。
// 間違い — 両方のブランチで同一のクエリ
if (userProvidedId) {
const doc = await Order.findById(orderId).select('status').lean();
// 検証...
} else {
const doc = await Order.findById(orderId).select('status').lean();
// 直接使用...
}
// 正しい — 一度クエリする
const doc = await Order.findById(orderId).select('status').lean();
if (userProvidedId) { /* 検証 */ } else { /* 使用 */ }
同一コレクションのクエリを統合する
同じコレクションから複数の集計が必要な場合は、データを一度取得し、メモリ内で計算してください。
// 間違い — 同じコレクションへの2回のラウンドトリップ
const totalCount = await Booking.countDocuments({ eventId });
const perTypeCount = await Booking.aggregate([
{ $match: { eventId } },
{ $group: { _id: '$ticketType', count: { $sum: 1 } } },
]);
// 正しい — 1回の取得で両方を導出する
const bookings = await Booking.find({ eventId })
.select('ticketType')
.lean();
const totalCount = bookings.length;
const perTypeCount = new Map();
for (const b of bookings) {
perTypeCount.set(b.ticketType, (perTypeCount.get(b. 📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
MongoDB Query Patterns
Overview
The best query is the one you never make. The second best is the one that fetches only what it needs in a single round-trip.
Before writing any database call, ask: does this data already exist somewhere in the current request chain? If a controller fetched a document and then calls three services, those services should receive the document — not re-fetch it. Pass documents, not IDs.
Think in data flow, not individual queries. Trace how data moves through the request (controller → services → response) and ensure each document makes that journey exactly once.
When to Use
- Adding any new database operation to a service or controller
- Building a new endpoint that reads or writes data
- Wiring service calls together in a controller or orchestration function
- Adding or modifying Mongoose schemas
- Reviewing code that chains multiple service calls
Data Flow Principles
1. Trace the Request Chain First
Before writing code, map the data flow:
Request → Controller → Service A → Service B → Service C → Response
↓ ↓ ↓
needs needs needs
doc X doc X doc X
If multiple stops need the same document, fetch it once at the top and pass it down. Don't let each service independently query for what the caller already has.
2. Fetch Wide at the Top, Narrow Below
The first service in the chain may need a broader projection. Downstream services should accept the already-fetched document rather than re-querying with their own narrower projection. A few extra fields in memory cost nothing compared to an extra database round-trip.
3. Every Query Must Justify Its Existence
When you're about to write a findById or findOne, ask:
- Is this document already available from the caller? → Accept it as a parameter
- Is this the same document another branch of the code fetches? → Hoist it above the branch
- Am I querying N documents one at a time in a loop? → Batch with
$in - Am I querying just to count or aggregate? → Can I derive it from data I already have?
If none of these apply, the query is justified — write it efficiently.
Query Efficiency Rules
When a query is justified, make it lean:
| Rule | How | Why |
|---|---|---|
| Project only needed fields | .select('name email status') |
Full documents carry every field — list exactly what the caller needs, never widen "just in case" |
| Return plain objects for reads | .lean() |
Skips Mongoose hydration — 2-5x faster for read-only paths |
| Ensure filter fields are indexed | schema.index({ field: 1 }) |
Without an index, MongoDB scans every document (COLLSCAN) |
| Batch related reads | .find({ _id: { $in: ids } }) + Map |
N round-trips collapse to 1 |
| Batch related writes | Model.bulkWrite([...]) |
N sequential updates collapse to 1 |
Patterns
Pass Data Through Service Boundaries
The most common source of waste: services that re-fetch documents the caller already has.
// WRONG — each service queries the same document independently
async function checkout(orderId: string) {
const order = await Order.findById(orderId).lean();
await validateInventory(orderId); // fetches order again
await calculateTax(orderId); // fetches order again
await processPayment(orderId); // fetches order again
}
// RIGHT — fetch once, pass through, always provide DB fallback
async function validateInventory(orderId: string, prefetched?: IOrder) {
const order = prefetched
|| await Order.findById(orderId).select('items quantities').lean();
// ...
}
async function checkout(orderId: string) {
const order = await Order.findById(orderId).lean();
await validateInventory(orderId, order);
await calculateTax(orderId, order);
await processPayment(orderId, order);
}
Always keep the DB fallback. Some callers (webhooks, cron jobs, background workers) won't have pre-fetched data.
Batch Instead of Loop
When you need related data for a list of items, fetch everything in one query and index with a Map.
// WRONG — N+1: one query per item
for (const order of orders) {
const product = await Product.findById(order.productId);
// ...
}
// RIGHT — 1 query + O(1) lookups
const productIds = orders.map(o => o.productId);
const products = await Product.find({ _id: { $in: productIds } })
.select('name price image')
.lean();
const productMap = new Map(products.map(p => [p._id.toString(), p]));
for (const order of orders) {
const product = productMap.get(order.productId.toString());
// ...
}
Always use a Map for lookups — never array.find() inside a loop (O(n²)).
Hoist Common Queries
When the same query appears in multiple code branches, it should execute once before the branch.
// WRONG — identical query in both branches
if (userProvidedId) {
const doc = await Order.findById(orderId).select('status').lean();
// validate...
} else {
const doc = await Order.findById(orderId).select('status').lean();
// use directly...
}
// RIGHT — query once
const doc = await Order.findById(orderId).select('status').lean();
if (userProvidedId) { /* validate */ } else { /* use */ }
Consolidate Same-Collection Queries
If you need multiple aggregates from the same collection, fetch the data once and compute in memory.
// WRONG — two round-trips to the same collection
const totalCount = await Booking.countDocuments({ eventId });
const perTypeCount = await Booking.aggregate([
{ $match: { eventId } },
{ $group: { _id: '$ticketType', count: { $sum: 1 } } },
]);
// RIGHT — one fetch, derive both
const bookings = await Booking.find({ eventId })
.select('ticketType')
.lean();
const totalCount = bookings.length;
const perTypeCount = new Map();
for (const b of bookings) {
perTypeCount.set(b.ticketType, (perTypeCount.get(b.ticketType) || 0) + 1);
}
For bounded collections (e.g., bookings per event) this is safe. For unbounded collections, keep aggregation server-side.
Bulk Writes Over Loops
// WRONG — N sequential round-trips
for (const item of items) {
await Item.findByIdAndUpdate(item._id, { $set: { archived: true } });
}
// RIGHT — 1 round-trip
await Item.bulkWrite(
items.map(i => ({
updateOne: {
filter: { _id: i._id },
update: { $set: { archived: true } },
},
}))
);
Avoid Hidden N+1 from .populate()
.populate() fires a separate query per populated path. Nested or chained populates on lists are silent N+1 bombs.
// WRONG — if orders has 50 items, this fires 50+ hidden queries
const orders = await Order.find({ userId })
.populate('product')
.populate('seller')
.populate('reviews');
// RIGHT — batch manually
const orders = await Order.find({ userId }).select('product seller').lean();
const productIds = orders.map(o => o.product);
const sellerIds = orders.map(o => o.seller);
const [products, sellers] = await Promise.all([
Product.find({ _id: { $in: productIds } }).select('name price').lean(),
Seller.find({ _id: { $in: sellerIds } }).select('name rating').lean(),
]);
const productMap = new Map(products.map(p => [p._id.toString(), p]));
const sellerMap = new Map(sellers.map(s => [s._id.toString(), s]));
.populate() is fine for single-document lookups. Avoid it when populating across a list.
Update Directly — Don't Fetch to Modify
When updating a field, don't fetch the whole document just to change it and save it back.
// WRONG — 2 round-trips, fetches entire document
const user = await User.findById(userId);
user.lastLogin = new Date();
await user.save();
// RIGHT — 1 round-trip, touches only the field
await User.updateOne(
{ _id: userId },
{ $set: { lastLogin: new Date() } }
);
Use findById + .save() only when you need validation, middleware hooks, or optimistic concurrency.
Run Independent Queries Concurrently
When you need data from multiple collections and the queries don't depend on each other, run them in parallel.
// WRONG — sequential, each waits for the previous
const users = await User.find({ _id: { $in: userIds } }).select('name email').lean();
const responses = await FormResponse.find({ eventId }).select('userId answers').lean();
const reviews = await Review.find({ eventId }).select('userId rating').lean();
// RIGHT — concurrent, all fire at once
const [users, responses, reviews] = await Promise.all([
User.find({ _id: { $in: userIds } }).select('name email').lean(),
FormResponse.find({ eventId }).select('userId answers').lean(),
Review.find({ eventId }).select('userId rating').lean(),
]);
Use Promise.all whenever queries don't depend on each other's results. Three 100ms queries run concurrently take 100ms total, not 300ms.
Index Every Filter Field
schema.index({ order_id: 1 }); // single field
schema.index({ userId: 1, status: 1 }); // compound — high-selectivity field first
schema.index({ event_id: 1, type: 1 }); // compound for filtered aggregations
- Mongoose auto-creates indexes on connection (
autoIndex: true) createIndex()is idempotent — safe to define even if the index exists- Verify with
explain('executionStats')— look forIXSCAN, notCOLLSCAN - Don't index write-only fields — indexes slow inserts and updates
Checklist
Before committing any code that touches the database:
[ ] Traced the request chain — no document is fetched more than once across the call stack
[ ] Services accept pre-fetched documents as optional params with DB fallback
[ ] Passing documents between functions, not just IDs
[ ] No query executes inside a loop — batched with $in where needed
[ ] No .populate() on a list of documents — batch manually with $in + Map
[ ] Every read query has .select() with only needed fields
[ ] Every read-only query has .lean()
[ ] Updates that don't need hooks use updateOne/bulkWrite, not findById + save
[ ] Filter fields have corresponding schema.index() definitions
[ ] Multiple writes use bulkWrite, not a loop
[ ] Independent queries run concurrently with Promise.all
[ ] Same query doesn't appear in multiple code branches — hoisted above
[ ] .select() lists exactly the fields needed — not widened "just in case"
Common Mistakes
| Mistake | Why It Breaks |
|---|---|
| Passing IDs between services instead of documents | Forces every downstream service to re-query — pass the document |
.populate() on a list of documents |
Each populate fires a separate query per document — silent N+1 |
findById + modify + .save() for simple field update |
2 round-trips + full document fetch — use updateOne directly |
.select() without .lean() |
Still returns Mongoose document with full change tracking overhead |
.lean() then calling .save() |
.lean() returns plain objects — no Mongoose methods available |
Batch $in + array.find() for lookup |
O(n²) — always use a Map for O(1) lookups |
| Prefetch param without DB fallback | Breaks webhook/cron callers that don't have the pre-fetched data |
| Sequential independent queries | Use Promise.all — 3 queries at 100ms each take 100ms, not 300ms |
Widening .select() "just in case" |
Fetch only what the caller actually uses — extra fields waste bandwidth |
Unbounded .find() without limit |
Risk of loading entire collection into memory |
| Index on rarely-queried field | Indexes slow every write for no read benefit |