rclone
複数のクラウドストレージ間でファイルを効率的にアップロード、同期、管理し、S3互換サービスへの転送を自動化するSkill。
📜 元の英語説明(参考)
Upload, sync, and manage files across cloud storage providers using rclone. Use when uploading files (images, videos, documents) to S3, Cloudflare R2, Backblaze B2, Google Drive, Dropbox, or any S3-compatible storage. Triggers on "upload to S3", "sync to cloud", "rclone", "backup files", "upload video/image to bucket", or requests to transfer files to remote storage.
🇯🇵 日本人クリエイター向け解説
複数のクラウドストレージ間でファイルを効率的にアップロード、同期、管理し、S3互換サービスへの転送を自動化するSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 1
📖 Skill本文(日本語訳)
※ 原文(英語/中国語)を Gemini で日本語化したものです。Claude 自身は原文を読みます。誤訳がある場合は原文をご確認ください。
rclone ファイル転送スキル
セットアップ確認 (常に最初に実行してください)
rclone の操作を行う前に、インストールと設定を確認してください。
# rclone がインストールされているか確認
command -v rclone >/dev/null 2>&1 && echo "rclone installed: $(rclone version | head -1)" || echo "NOT INSTALLED"
# 設定済みのリモートを一覧表示
rclone listremotes 2>/dev/null || echo "NO REMOTES CONFIGURED"
rclone がインストールされていない場合
ユーザーにインストールを案内してください。
# macOS
brew install rclone
# Linux (スクリプトインストール)
curl https://rclone.org/install.sh | sudo bash
# またはパッケージマネージャー経由で
sudo apt install rclone # Debian/Ubuntu
sudo dnf install rclone # Fedora
リモートが設定されていない場合
ユーザーにインタラクティブな設定を案内してください。
rclone config
一般的なプロバイダー設定の早見表:
| プロバイダー | タイプ | 主要な設定 |
|---|---|---|
| AWS S3 | s3 |
access_key_id, secret_access_key, region |
| Cloudflare R2 | s3 |
access_key_id, secret_access_key, endpoint (account_id.r2.cloudflarestorage.com) |
| Backblaze B2 | b2 |
account (keyID), key (applicationKey) |
| DigitalOcean Spaces | s3 |
access_key_id, secret_access_key, endpoint (region.digitaloceanspaces.com) |
| Google Drive | drive |
OAuth フロー (ブラウザが開きます) |
| Dropbox | dropbox |
OAuth フロー (ブラウザが開きます) |
例: Cloudflare R2 の設定
rclone config create r2 s3 \
provider=Cloudflare \
access_key_id=YOUR_ACCESS_KEY \
secret_access_key=YOUR_SECRET_KEY \
endpoint=ACCOUNT_ID.r2.cloudflarestorage.com \
acl=private
例: AWS S3 の設定
rclone config create aws s3 \
provider=AWS \
access_key_id=YOUR_ACCESS_KEY \
secret_access_key=YOUR_SECRET_KEY \
region=us-east-1
一般的な操作
単一ファイルのアップロード
rclone copy /path/to/file.mp4 remote:bucket/path/ --progress
ディレクトリのアップロード
rclone copy /path/to/folder remote:bucket/folder/ --progress
ディレクトリの同期 (ミラーリング、削除されたファイルを削除)
rclone sync /local/path remote:bucket/path/ --progress
リモートの内容を一覧表示
rclone ls remote:bucket/
rclone lsd remote:bucket/ # ディレクトリのみ
転送される内容を確認 (ドライラン)
rclone copy /path remote:bucket/ --dry-run
便利なフラグ
| フラグ | 目的 |
|---|---|
--progress |
転送の進捗を表示 |
--dry-run |
転送せずにプレビュー |
-v |
詳細な出力 |
--transfers=N |
並列転送数 (デフォルト 4) |
--bwlimit=RATE |
帯域幅制限 (例: 10M) |
--checksum |
サイズ/時間ではなくチェックサムで比較 |
--exclude="*.tmp" |
パターンを除外 |
--include="*.mp4" |
マッチするもののみ含める |
--min-size=SIZE |
SIZE より小さいファイルをスキップ |
--max-size=SIZE |
SIZE より大きいファイルをスキップ |
大容量ファイルのアップロード
動画や大容量ファイルには、チャンクアップロードを使用してください。
# S3 マルチパートアップロード (200MB 超で自動)
rclone copy large_video.mp4 remote:bucket/ --s3-chunk-size=64M --progress
# 中断された転送を再開
rclone copy /path remote:bucket/ --progress --retries=5
アップロードの検証
# ファイルが存在し、一致するか確認
rclone check /local/file remote:bucket/file
# ファイル情報を取得
rclone lsl remote:bucket/path/to/file
トラブルシューティング
# 接続をテスト
rclone lsd remote:
# 接続の問題をデバッグ
rclone lsd remote: -vv
# 設定を確認
rclone config show remote 📜 原文 SKILL.md(Claudeが読む英語/中国語)を展開
rclone File Transfer Skill
Setup Check (Always Run First)
Before any rclone operation, verify installation and configuration:
# Check if rclone is installed
command -v rclone >/dev/null 2>&1 && echo "rclone installed: $(rclone version | head -1)" || echo "NOT INSTALLED"
# List configured remotes
rclone listremotes 2>/dev/null || echo "NO REMOTES CONFIGURED"
If rclone is NOT installed
Guide the user to install:
# macOS
brew install rclone
# Linux (script install)
curl https://rclone.org/install.sh | sudo bash
# Or via package manager
sudo apt install rclone # Debian/Ubuntu
sudo dnf install rclone # Fedora
If NO remotes are configured
Walk the user through interactive configuration:
rclone config
Common provider setup quick reference:
| Provider | Type | Key Settings |
|---|---|---|
| AWS S3 | s3 |
access_key_id, secret_access_key, region |
| Cloudflare R2 | s3 |
access_key_id, secret_access_key, endpoint (account_id.r2.cloudflarestorage.com) |
| Backblaze B2 | b2 |
account (keyID), key (applicationKey) |
| DigitalOcean Spaces | s3 |
access_key_id, secret_access_key, endpoint (region.digitaloceanspaces.com) |
| Google Drive | drive |
OAuth flow (opens browser) |
| Dropbox | dropbox |
OAuth flow (opens browser) |
Example: Configure Cloudflare R2
rclone config create r2 s3 \
provider=Cloudflare \
access_key_id=YOUR_ACCESS_KEY \
secret_access_key=YOUR_SECRET_KEY \
endpoint=ACCOUNT_ID.r2.cloudflarestorage.com \
acl=private
Example: Configure AWS S3
rclone config create aws s3 \
provider=AWS \
access_key_id=YOUR_ACCESS_KEY \
secret_access_key=YOUR_SECRET_KEY \
region=us-east-1
Common Operations
Upload single file
rclone copy /path/to/file.mp4 remote:bucket/path/ --progress
Upload directory
rclone copy /path/to/folder remote:bucket/folder/ --progress
Sync directory (mirror, deletes removed files)
rclone sync /local/path remote:bucket/path/ --progress
List remote contents
rclone ls remote:bucket/
rclone lsd remote:bucket/ # directories only
Check what would be transferred (dry run)
rclone copy /path remote:bucket/ --dry-run
Useful Flags
| Flag | Purpose |
|---|---|
--progress |
Show transfer progress |
--dry-run |
Preview without transferring |
-v |
Verbose output |
--transfers=N |
Parallel transfers (default 4) |
--bwlimit=RATE |
Bandwidth limit (e.g., 10M) |
--checksum |
Compare by checksum, not size/time |
--exclude="*.tmp" |
Exclude patterns |
--include="*.mp4" |
Include only matching |
--min-size=SIZE |
Skip files smaller than SIZE |
--max-size=SIZE |
Skip files larger than SIZE |
Large File Uploads
For videos and large files, use chunked uploads:
# S3 multipart upload (automatic for >200MB)
rclone copy large_video.mp4 remote:bucket/ --s3-chunk-size=64M --progress
# Resume interrupted transfers
rclone copy /path remote:bucket/ --progress --retries=5
Verify Upload
# Check file exists and matches
rclone check /local/file remote:bucket/file
# Get file info
rclone lsl remote:bucket/path/to/file
Troubleshooting
# Test connection
rclone lsd remote:
# Debug connection issues
rclone lsd remote: -vv
# Check config
rclone config show remote