jpskill.com
🛠️ 開発・MCP コミュニティ

rclone

複数のクラウドストレージ間でファイルを効率的にアップロード、同期、管理し、S3互換サービスへの転送を自動化するSkill。

📜 元の英語説明(参考)

Upload, sync, and manage files across cloud storage providers using rclone. Use when uploading files (images, videos, documents) to S3, Cloudflare R2, Backblaze B2, Google Drive, Dropbox, or any S3-compatible storage. Triggers on "upload to S3", "sync to cloud", "rclone", "backup files", "upload video/image to bucket", or requests to transfer files to remote storage.

🇯🇵 日本人クリエイター向け解説

一言でいうと

複数のクラウドストレージ間でファイルを効率的にアップロード、同期、管理し、S3互換サービスへの転送を自動化するSkill。

※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。

⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。

🎯 このSkillでできること

下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。

📦 インストール方法 (3ステップ)

  1. 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
  2. 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
  3. 3. 展開してできたフォルダを、ホームフォルダの .claude/skills/ に置く
    • · macOS / Linux: ~/.claude/skills/
    • · Windows: %USERPROFILE%\.claude\skills\

Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。

詳しい使い方ガイドを見る →
最終更新
2026-05-17
取得日時
2026-05-17
同梱ファイル
1

📖 Skill本文(日本語訳)

※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。

rclone ファイル転送スキル

セットアップ確認 (常に最初に実行してください)

rclone の操作を行う前に、インストールと設定を確認してください。

# rclone がインストールされているか確認
command -v rclone >/dev/null 2>&1 && echo "rclone installed: $(rclone version | head -1)" || echo "NOT INSTALLED"

# 設定済みのリモートを一覧表示
rclone listremotes 2>/dev/null || echo "NO REMOTES CONFIGURED"

rclone がインストールされていない場合

ユーザーにインストールを案内してください。

# macOS
brew install rclone

# Linux (スクリプトインストール)
curl https://rclone.org/install.sh | sudo bash

# またはパッケージマネージャー経由で
sudo apt install rclone  # Debian/Ubuntu
sudo dnf install rclone  # Fedora

リモートが設定されていない場合

ユーザーにインタラクティブな設定を案内してください。

rclone config

一般的なプロバイダー設定の早見表:

プロバイダー タイプ 主要な設定
AWS S3 s3 access_key_id, secret_access_key, region
Cloudflare R2 s3 access_key_id, secret_access_key, endpoint (account_id.r2.cloudflarestorage.com)
Backblaze B2 b2 account (keyID), key (applicationKey)
DigitalOcean Spaces s3 access_key_id, secret_access_key, endpoint (region.digitaloceanspaces.com)
Google Drive drive OAuth フロー (ブラウザが開きます)
Dropbox dropbox OAuth フロー (ブラウザが開きます)

例: Cloudflare R2 の設定

rclone config create r2 s3 \
  provider=Cloudflare \
  access_key_id=YOUR_ACCESS_KEY \
  secret_access_key=YOUR_SECRET_KEY \
  endpoint=ACCOUNT_ID.r2.cloudflarestorage.com \
  acl=private

例: AWS S3 の設定

rclone config create aws s3 \
  provider=AWS \
  access_key_id=YOUR_ACCESS_KEY \
  secret_access_key=YOUR_SECRET_KEY \
  region=us-east-1

一般的な操作

単一ファイルのアップロード

rclone copy /path/to/file.mp4 remote:bucket/path/ --progress

ディレクトリのアップロード

rclone copy /path/to/folder remote:bucket/folder/ --progress

ディレクトリの同期 (ミラーリング、削除されたファイルを削除)

rclone sync /local/path remote:bucket/path/ --progress

リモートの内容を一覧表示

rclone ls remote:bucket/
rclone lsd remote:bucket/  # ディレクトリのみ

転送される内容を確認 (ドライラン)

rclone copy /path remote:bucket/ --dry-run

便利なフラグ

フラグ 目的
--progress 転送の進捗を表示
--dry-run 転送せずにプレビュー
-v 詳細な出力
--transfers=N 並列転送数 (デフォルト 4)
--bwlimit=RATE 帯域幅制限 (例: 10M)
--checksum サイズ/時間ではなくチェックサムで比較
--exclude="*.tmp" パターンを除外
--include="*.mp4" マッチするもののみ含める
--min-size=SIZE SIZE より小さいファイルをスキップ
--max-size=SIZE SIZE より大きいファイルをスキップ

大容量ファイルのアップロード

動画や大容量ファイルには、チャンクアップロードを使用してください。

# S3 マルチパートアップロード (200MB 超で自動)
rclone copy large_video.mp4 remote:bucket/ --s3-chunk-size=64M --progress

# 中断された転送を再開
rclone copy /path remote:bucket/ --progress --retries=5

アップロードの検証

# ファイルが存在し、一致するか確認
rclone check /local/file remote:bucket/file

# ファイル情報を取得
rclone lsl remote:bucket/path/to/file

トラブルシューティング

# 接続をテスト
rclone lsd remote:

# 接続の問題をデバッグ
rclone lsd remote: -vv

# 設定を確認
rclone config show remote
📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開

rclone File Transfer Skill

Setup Check (Always Run First)

Before any rclone operation, verify installation and configuration:

# Check if rclone is installed
command -v rclone >/dev/null 2>&1 && echo "rclone installed: $(rclone version | head -1)" || echo "NOT INSTALLED"

# List configured remotes
rclone listremotes 2>/dev/null || echo "NO REMOTES CONFIGURED"

If rclone is NOT installed

Guide the user to install:

# macOS
brew install rclone

# Linux (script install)
curl https://rclone.org/install.sh | sudo bash

# Or via package manager
sudo apt install rclone  # Debian/Ubuntu
sudo dnf install rclone  # Fedora

If NO remotes are configured

Walk the user through interactive configuration:

rclone config

Common provider setup quick reference:

Provider Type Key Settings
AWS S3 s3 access_key_id, secret_access_key, region
Cloudflare R2 s3 access_key_id, secret_access_key, endpoint (account_id.r2.cloudflarestorage.com)
Backblaze B2 b2 account (keyID), key (applicationKey)
DigitalOcean Spaces s3 access_key_id, secret_access_key, endpoint (region.digitaloceanspaces.com)
Google Drive drive OAuth flow (opens browser)
Dropbox dropbox OAuth flow (opens browser)

Example: Configure Cloudflare R2

rclone config create r2 s3 \
  provider=Cloudflare \
  access_key_id=YOUR_ACCESS_KEY \
  secret_access_key=YOUR_SECRET_KEY \
  endpoint=ACCOUNT_ID.r2.cloudflarestorage.com \
  acl=private

Example: Configure AWS S3

rclone config create aws s3 \
  provider=AWS \
  access_key_id=YOUR_ACCESS_KEY \
  secret_access_key=YOUR_SECRET_KEY \
  region=us-east-1

Common Operations

Upload single file

rclone copy /path/to/file.mp4 remote:bucket/path/ --progress

Upload directory

rclone copy /path/to/folder remote:bucket/folder/ --progress

Sync directory (mirror, deletes removed files)

rclone sync /local/path remote:bucket/path/ --progress

List remote contents

rclone ls remote:bucket/
rclone lsd remote:bucket/  # directories only

Check what would be transferred (dry run)

rclone copy /path remote:bucket/ --dry-run

Useful Flags

Flag Purpose
--progress Show transfer progress
--dry-run Preview without transferring
-v Verbose output
--transfers=N Parallel transfers (default 4)
--bwlimit=RATE Bandwidth limit (e.g., 10M)
--checksum Compare by checksum, not size/time
--exclude="*.tmp" Exclude patterns
--include="*.mp4" Include only matching
--min-size=SIZE Skip files smaller than SIZE
--max-size=SIZE Skip files larger than SIZE

Large File Uploads

For videos and large files, use chunked uploads:

# S3 multipart upload (automatic for >200MB)
rclone copy large_video.mp4 remote:bucket/ --s3-chunk-size=64M --progress

# Resume interrupted transfers
rclone copy /path remote:bucket/ --progress --retries=5

Verify Upload

# Check file exists and matches
rclone check /local/file remote:bucket/file

# Get file info
rclone lsl remote:bucket/path/to/file

Troubleshooting

# Test connection
rclone lsd remote:

# Debug connection issues
rclone lsd remote: -vv

# Check config
rclone config show remote