Windowsでwgetを使う方法:インストールから基本コマンドまで
はじめに:なぜWindowsでwgetを使うのか?
Windows環境でファイルをダウンロードする方法といえば、多くの人がWebブラウザを使うことを思い浮かべるでしょう。リンクをクリックしたり、ダウンロードボタンを押したりするのは非常に直感的です。しかし、コマンドラインツールであるwget
には、ブラウザでのダウンロードにはない多くの利便性と機能があります。
wget
は、GNUプロジェクトによって開発された、ネットワークからのファイルダウンロードに特化した非対話型のコマンドラインユーティリティです。非対話型とは、ユーザーの直接的な操作を必要とせずに動作することを意味します。これにより、スクリプトやバッチファイル内で実行したり、バックグラウンドでダウンロードしたりすることが容易になります。
なぜWindowsでわざわざコマンドラインツールであるwget
を使う必要があるのでしょうか?主な理由は以下の通りです。
- 自動化とスクリプト化:
wget
はコマンドラインから実行できるため、バッチファイル、PowerShellスクリプト、Pythonスクリプトなどと組み合わせて、ダウンロードプロセスを自動化できます。例えば、定期的に更新されるレポートファイルを自動でダウンロードしたり、複数のファイルを一括でダウンロードしたりといったタスクに適しています。 - 大規模なダウンロードやミラーリング: ウェブサイト全体をオフラインで閲覧するためにダウンロードしたり、特定のディレクトリ以下のファイルをまとめて取得したりする際に、
wget
の再帰的なダウンロード機能は非常に強力です。 - 中断からの再開: ネットワークが切断されたり、コンピュータを再起動したりした場合でも、
wget
は中断したダウンロードを途中から再開する機能を備えています。これにより、サイズの大きなファイルをダウンロードする際に失敗するリスクを減らせます。 - 安定性と信頼性:
wget
は何十年も開発・利用されてきた実績があり、多くのプロトコル(HTTP, HTTPS, FTP)に対応し、堅牢なエラーハンドリング機能を備えています。 - システムリソースの節約: ブラウザを開かずにコマンドラインから実行できるため、特にサーバー環境やリソースが限られた環境でのダウンロードに適しています。
- 特定の状況への対応: HTTPヘッダーをカスタマイズしたり、認証情報を渡したり、特定のユーザーエージェントを装ったりするなど、ブラウザでは難しい、あるいは面倒なテクニカルなダウンロード要件に対応できます。
wget
は元々Unix/Linux環境で広く使われているツールですが、Windows環境でも利用できるように移植版が提供されています。残念ながらWindowsには標準で搭載されていませんが、いくつかの簡単な手順で導入し、その強力な機能を利用できるようになります。
この記事では、Windows環境でwget
を使い始めるための方法を、インストールから基本的なコマンドの使い方、さらに一歩進んだ活用法まで、詳細に解説します。コマンドラインに慣れていない方でも理解できるように、具体的なステップと例を豊富に含めて説明します。
第1部:Windowsへのwgetのインストール
Windowsでwget
を使用するには、まず実行ファイル(wget.exe
)を入手する必要があります。Windowsには標準で含まれていないため、外部からダウンロードするか、パッケージマネージャーを使ってインストールします。ここでは、いくつかの主要なインストール方法を説明します。
どの方法を選ぶかは、お使いの環境や、コマンドラインツール全般を今後どの程度利用するかによって異なります。
- バイナリファイルを直接ダウンロードする方法: 最も手軽に始める方法ですが、手動での設定が必要です。
- パッケージマネージャーを利用する方法: ChocolateyやScoopといったWindows向けのパッケージマネージャーを使います。ツールのインストールやアップデートを一元管理でき、最も推奨される方法の一つです。
- WSL (Windows Subsystem for Linux) を利用する方法: Windows上でLinux環境を動かし、その中で提供される
wget
を使用します。Linuxコマンドに慣れている方や、他のLinuxツールも利用したい場合に適しています。 - CygwinまたはMSYS2を利用する方法: Windows上にUnixライクな環境を構築し、その一部として
wget
をインストールします。WSLが登場する以前から使われている方法ですが、やや大規模な環境構築が必要になります。
以下でそれぞれの手順を詳しく見ていきましょう。
方法1:バイナリファイルを直接ダウンロードする(推奨度:中)
この方法は、追加のツールをインストールしたくない場合に適しています。ただし、wget
の実行ファイルを自分で配置し、必要に応じてPATH環境変数を設定する必要があります。
wget
のWindows向けバイナリは、公式にはGNUプロジェクトが提供していません。サードパーティがコンパイルしたものが利用可能です。いくつかの信頼できるソースがありますが、ここでは広く使われているGnuWin32プロジェクトからの入手方法を例に挙げます。ただし、外部サイトからの実行ファイルのダウンロードには常にセキュリティリスクが伴うことを理解しておいてください。可能な限り、信頼できるソースから取得し、ダウンロードしたファイルはウイルス対策ソフトでスキャンしてください。
手順:
- ダウンロードサイトへアクセス: GnuWin32プロジェクトのウェブサイト(
http://gnuwin32.sourceforge.net/packages/wget.htm
など)にアクセスします。(URLは変更される可能性があります。検索エンジンで「GnuWin32 wget download」などを検索して最新の情報を見つけてください。) - バイナリのダウンロード: ページ内の「Download」セクションを探し、「Binaries」のリンクをクリックして、
wget-*-bin.zip
のような名前のZIPファイルをダウンロードします。依存関係が必要な場合もあるため、「Dependencies」のリンクから必要なZIPファイル(例:libintl-*-bin.zip
,zlib-*-bin.zip
,openssl-*-bin.zip
など)もダウンロードしておくと確実です。ただし、最近のwget
バイナリは必要なライブラリを含んでいる場合が多いです。もしエラーが出る場合は、依存関係のファイルを試してください。 - ファイルの展開: ダウンロードしたZIPファイルを、コンピュータ上の任意の場所に展開します。例えば、
C:\Program Files\GnuWin32
のような、システムの実行ファイルを置くための場所に専用のフォルダを作成し、そこに展開するのが一般的です。展開すると、bin
、lib
、share
などのフォルダが作成されます。実行ファイルであるwget.exe
は通常、bin
フォルダの中にあります。 -
PATH環境変数の設定(重要!): このままでは、コマンドプロンプトやPowerShellを開いたときに、
wget
コマンドを入力してもコンピュータはwget.exe
がどこにあるかを知りません。「’wget’ は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」のようなエラーが表示されるでしょう。どのディレクトリからでもwget
コマンドを実行できるようにするには、wget.exe
が置かれているディレクトリのパスをWindowsのPATH環境変数に追加する必要があります。- Windowsの検索バーに「環境変数」と入力し、「システム環境変数の編集」を開きます。
- 「システムのプロパティ」ウィンドウが開いたら、「詳細設定」タブの「環境変数」ボタンをクリックします。
- 「環境変数」ウィンドウの「システム環境変数」セクションで、「Path」という名前の変数を選択し、「編集」をクリックします。
- 「環境変数名の編集」ウィンドウが開いたら、「新規」をクリックし、
wget.exe
を含むbin
ディレクトリへのパスを追加します。例えば、C:\Program Files\GnuWin32\bin
のように入力します。 - OKを繰り返しクリックしてすべてのウィンドウを閉じます。
- 重要: PATH環境変数の変更を有効にするには、コマンドプロンプトまたはPowerShellウィンドウを一度閉じて、再度開き直す必要があります。
-
インストールの確認: 新しく開いたコマンドプロンプトまたはPowerShellで、以下のコマンドを実行します。
bash
wget --versionwget
のバージョン情報が表示されれば、インストールとPATH設定は成功です。もし「コマンドが見つかりません」といったエラーが表示される場合は、PATHの設定が正しく行われているか、コマンドプロンプトを再起動したかを確認してください。
方法2:パッケージマネージャーを利用する(推奨度:高)
Windows向けのパッケージマネージャー(ChocolateyやScoop)を使うと、ソフトウェアのインストール、アップデート、アンインストールをコマンド一つで行えるようになります。これにより、手動でPATHを設定する手間が省け、将来的な管理も容易になります。
Chocolateyを使う場合
ChocolateyはWindowsで最も広く使われているパッケージマネージャーの一つです。
手順:
- Chocolateyのインストール: Chocolateyがまだインストールされていない場合は、公式サイト(
https://chocolatey.org/install
)の手順に従ってインストールします。一般的には、管理者権限で開いたPowerShellで、提供されているスクリプトを実行することでインストールできます。 -
wgetのインストール: 管理者権限なしで開いた(または管理者権限を要求された場合に許可する)コマンドプロンプトまたはPowerShellで、以下のコマンドを実行します。
bash
choco install wgetChocolateyが自動的に信頼できるソースから
wget
パッケージをダウンロードし、インストールおよびPATH環境変数の設定を行います。
3. インストールの確認: 新しく開いたコマンドプロンプトまたはPowerShellで、以下のコマンドを実行します。bash
wget --versionバージョン情報が表示されれば成功です。
Scoopを使う場合
Scoopは、管理者権限が不要で、ソフトウェアをユーザーディレクトリにインストールすることを特徴とするパッケージマネージャーです。シンプルさを重視するユーザーに好まれます。
手順:
-
Scoopのインストール: Scoopがまだインストールされていない場合は、公式サイト(
https://scoop.sh/
)の手順に従ってインストールします。PowerShellで以下のコマンドを実行します(初回のみ許可が必要な場合があります)。powershell
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser # 必要に応じて
Invoke-RestMethod -Uri https://get.scoop.sh | Invoke-Expression
2. wgetのインストール: PowerShellで、以下のコマンドを実行します。powershell
scoop install wgetScoopがユーザーディレクトリ内の管理された場所に
wget
をインストールし、自動的にPATHに追加します。
3. インストールの確認: 新しく開いたPowerShellで、以下のコマンドを実行します。powershell
wget --versionバージョン情報が表示されれば成功です。
方法3:WSL (Windows Subsystem for Linux) を利用する(推奨度:高)
WSLを利用すると、Windows上でUbuntuやDebianなどのLinuxディストリビューションをネイティブに近いパフォーマンスで実行できます。ほとんどのLinuxディストリビューションにはwget
が標準で含まれているか、容易にインストールできるため、WSL環境内でwget
を使用できます。これは、Linuxコマンドラインツール全般に興味がある方や、LinuxとWindowsの両方の環境を行き来する方に最適です。
手順:
-
WSLのインストール: WSLがまだインストールされていない場合は、管理者権限で開いたコマンドプロンプトまたはPowerShellで、以下のコマンドを実行します。
bash
wsl --installこれにより、WSL 2とデフォルトのLinuxディストリビューション(通常はUbuntu)がインストールされます。インストール後、コンピュータの再起動が必要になる場合があります。
2. Linuxディストリビューションの初期設定: 再起動後、インストールされたLinuxディストリビューションの初回セットアップが開始され、ユーザー名とパスワードの設定を求められます。
3. WSL環境でwgetを使用: WSLのインストールが完了すると、スタートメニューからインストールしたLinuxディストリビューション(例: Ubuntu)を起動できます。起動したLinuxターミナル内で、通常通りwget
コマンドを使用できます。多くのディストリビューションではwget
は標準でインストールされていますが、もしインストールされていない場合は、パッケージマネージャー(例: Ubuntu/Debianならapt
)を使ってインストールできます。“`bash
Ubuntu/Debianの場合
sudo apt update
sudo apt install wgetFedora/CentOS/RHELの場合
sudo dnf install wget
または sudo yum install wget
“`
4. インストールの確認: Linuxターミナルで、以下のコマンドを実行します。bash
wget --versionバージョン情報が表示されれば成功です。
WSL環境内でダウンロードしたファイルは、WSLのファイルシステム内に保存されますが、Windowsのエクスプローラーからアクセスすることも可能です(\\wsl$
ネットワーク共有など)。
方法4:CygwinまたはMSYS2を利用する(推奨度:中〜低)
CygwinやMSYS2は、Windows上にUnix/Linuxコマンドライン環境全体を再現することを目的としたプロジェクトです。これらの環境をインストールする際に、パッケージとしてwget
を選択してインストールできます。これは、単にwget
だけを使いたい場合にはややオーバーキルですが、より広範なUnixツールチェーンをWindowsで利用したい場合には選択肢となります。
手順:
- CygwinまたはMSYS2のインストール: それぞれの公式サイト(Cygwin:
https://www.cygwin.com/
、MSYS2:https://www.msys2.org/
)からインストーラーをダウンロードし、指示に従ってインストールを進めます。 - パッケージ選択: インストールプロセス中に、インストールするパッケージを選択する画面が表示されます。検索機能を使って「wget」を見つけ、インストール対象として選択します。依存関係も自動的に選択されることがあります。
- インストールの完了: インストーラーを最後まで進めてインストールを完了します。
-
環境の起動と確認: インストールしたCygwinターミナルまたはMSYS2 MINGW64/UCRT64ターミナルを起動し、以下のコマンドを実行します。
bash
wget --versionバージョン情報が表示されれば成功です。これらの環境内でインストールされた
wget
は、基本的にはそのターミナル内でのみ利用可能です。WindowsのコマンドプロンプトやPowerShellから直接使うには、別途PATH設定が必要になる場合があります(ただし、通常はその環境専用のターミナルを使うのが一般的です)。
これで、Windows環境でwget
を使用するための準備が整いました。次のセクションでは、実際にwget
コマンドを使ってファイルをダウンロードする方法を学びます。
第2部:wgetの基本コマンドと使い方
wget
のインストールが完了したら、いよいよコマンドを使ってファイルをダウンロードしてみましょう。コマンドプロンプト、PowerShell、またはWSLターミナルを開き、以下の例を試してみてください。
1. ファイルをダウンロードする
最も基本的な使い方は、ダウンロードしたいファイルのURLを指定するだけです。
bash
wget [ダウンロードしたいファイルのURL]
例:
bash
wget https://www.gnu.org/software/wget/manual/wget.html
このコマンドを実行すると、wget
は指定されたURLからファイルをダウンロードし、現在のディレクトリに保存します。ファイル名は、URLの最後の部分(例ではwget.html
)から自動的に付けられます。
ダウンロード中、wget
は進行状況、ダウンロード速度、推定残り時間などをコンソールに表示します。
“`
–2023-10-27 10:00:00– https://www.gnu.org/software/wget/manual/wget.html
Resolving www.gnu.org (www.gnu.org)… 209.51.188.172
Connecting to www.gnu.org (www.gnu.org)|209.51.188.172|:443… connected.
HTTP request sent, awaiting response… 200 OK
Length: 123456 (120K) [text/html]
Saving to: ‘wget.html’
wget.html 100%[===================>] 120.56K –.-KB/s in 0.1s
2023-10-27 10:00:00 (987 KB/s) – ‘wget.html’ saved [123456/123456]
“`
ダウンロードが完了すると、指定した名前(この場合はwget.html
)でファイルが現在のディレクトリに作成されます。
2. ファイル名を指定してダウンロードする(-O
オプション)
ダウンロードするファイルに、URLから自動的に割り当てられる名前とは異なる名前を付けたい場合があります。-O
(大文字のオー)オプションを使うと、出力ファイル名を指定できます。
bash
wget -O [保存したいファイル名] [ダウンロードしたいファイルのURL]
例:
bash
wget -O gnu_wget_manual.html https://www.gnu.org/software/wget/manual/wget.html
このコマンドは、ファイルをgnu_wget_manual.html
という名前で保存します。
-O
オプションにディレクトリパスを含めることで、指定したディレクトリに保存することも可能です。ただし、指定したディレクトリは事前に存在している必要があります。
“`bash
D:\Downloads ディレクトリが存在する場合
wget -O D:\Downloads\gnu_manual.html https://www.gnu.org/software/wget/manual/wget.html
WSL環境で、ユーザーのホームディレクトリ下のdownloadsに保存する場合
wget -O ~/downloads/gnu_manual.html https://www.gnu.org/software/wget/manual/wget.html
“`
3. 複数のファイルをダウンロードする(-i
オプション)
ダウンロードしたいファイルのURLがたくさんある場合、それらをリストアップしたテキストファイルを作成し、-i
オプションでそのファイルを指定すると便利です。
まず、ダウンロードしたいURLを1行に1つずつ記述したテキストファイルを作成します。例えば、urls.txt
という名前で以下の内容のファイルを作成します。
https://www.example.com/file1.zip
https://www.another-site.org/data/file2.tar.gz
http://static.website.net/images/logo.png
次に、wget
コマンドで-i
オプションを使ってこのファイルを指定します。
bash
wget -i urls.txt
wget
はurls.txt
を読み込み、リストされている各URLから順番にファイルをダウンロードします。各ファイルはデフォルトの名前(URLから抽出)で現在のディレクトリに保存されます。
4. ダウンロードを再開する(-c
オプション)
大きなファイルをダウンロードしている最中にネットワークが切断されたり、誤ってコマンドを終了してしまったりすることはよくあります。-c
(--continue
)オプションを使うと、中断されたダウンロードを途中から再開できます。
bash
wget -c [ダウンロードしたいファイルのURL]
例:
bash
wget -c https://example.com/large_archive.zip
このコマンドを実行すると、wget
はまず現在のディレクトリに同じファイル名(例: large_archive.zip
)のファイルが存在するかを確認します。もし存在すれば、そのファイルのサイズを基に、サーバーに対して残りの部分だけを送信するように要求します(Rangeリクエスト)。サーバーがRangeリクエストに対応していれば、ダウンロードは中断された位置から再開されます。対応していない場合は、最初からダウンロードがやり直されることもあります。
-c
オプションは、大きなファイルを扱う際に非常に重要な機能です。
5. ダウンロードの進捗状況を控えめにする/詳細にする(-q
, -v
オプション)
デフォルトでは、wget
はダウンロードの進行状況をコンソールにかなり詳細に表示します。
-
-q
(–quiet): このオプションを使うと、ダウンロードの進行状況やエラーメッセージ以外のほとんどの出力を抑制し、非常に控えめに表示します。スクリプトなどでwget
を実行し、コンソールをクリーンに保ちたい場合に便利です。bash
wget -q https://www.gnu.org/software/wget/manual/wget.html -
-v
(–verbose): デフォルトよりもさらに詳細な情報を表示します。接続の確立、HTTPヘッダーの送受信など、ダウンロードプロセスに関するより多くの情報が表示されます。問題が発生した際に原因を調査するのに役立ちます。bash
wget -v https://www.gnu.org/software/wget/manual/wget.html -
-nv
(–no-verbose): デフォルトより少し控えめな表示になります。進行状況バーなどは表示されますが、詳細なプロトコル情報は抑制されます。デフォルトの冗長性が高すぎると感じる場合に良いバランスです。
6. ダウンロード速度を制限する(--limit-rate
オプション)
wget
が利用できる帯域幅を制限したい場合があります。例えば、他のネットワークアクティビティに影響を与えたくない場合などです。--limit-rate
オプションを使って、速度をバイト/秒で指定できます。サフィックスとして k
(キロバイト), m
(メガバイト) を使用できます。
bash
wget --limit-rate=[速度] [URL]
例: ダウンロード速度を100キロバイト/秒に制限する
bash
wget --limit-rate=100k https://example.com/large_file.zip
ダウンロード速度が指定した速度に制限されることが分かります。
7. バックグラウンドでダウンロードする(-b
オプション)
ダウンロードに時間がかかることが予想される場合、wget
をバックグラウンドで実行させ、ターミナルを解放して別の作業をしたいことがあります。-b
(--background
)オプションを使うと、wget
をバックグラウンドプロセスとして実行できます。
bash
wget -b [ダウンロードしたいファイルのURL]
例:
bash
wget -b https://example.com/very_large_file.iso
このコマンドは、wget
をバックグラウンドで開始し、そのプロセスのPID(プロセスID)を表示してすぐにコマンドプロンプトに戻ります。
バックグラウンドで実行されているwget
の進行状況を確認するには、デフォルトで作成されるwget-log
というファイル(現在のディレクトリに作成されます)を監視します。PowerShellではGet-Content
またはtail
コマンド(WSLやGnuWin32など別途インストールが必要)を使います。
“`powershell
PowerShellの場合 (Ctrl+Cで終了)
Get-Content .\wget-log -Wait
Linux/WSLの場合 (Ctrl+Cで終了)
tail -f wget-log
“`
バックグラウンドジョブを停止したい場合は、Windowsのタスクマネージャーでwget.exe
プロセスを探して終了させるか、Linux/WSL環境であればps
コマンドでPIDを確認し、kill
コマンドで終了させます。
8. ファイルの重複ダウンロードを防ぐ(-nc
オプション)
同じURLからファイルを複数回ダウンロードしようとした場合、デフォルトではwget
は新しいファイルを古いファイル名に.N
(連番)を付けた名前で保存します(例: file.zip.1
, file.zip.2
)。
-nc
(--no-clobber
)オプションを使うと、ローカルに同じファイル名が存在する場合、そのファイルを上書きしたり、新しいファイル名を作成したりせず、ダウンロードをスキップします。
bash
wget -nc [ダウンロードしたいファイルのURL]
例:
bash
wget -nc https://example.com/report.pdf
もしカレントディレクトリに既にreport.pdf
が存在する場合、wget
はこのダウンロードをスキップし、「File ‘report.pdf’ already there; not retrieving.」のようなメッセージを表示します。これは、スクリプトでファイルをダウンロードする際に、既にダウンロード済みのファイルを誤って再ダウンロードしないようにするために便利です。
9. 条件付きダウンロード(-N
オプション)
-N
(--timestamping
)オプションは、より高度な重複防止と更新チェック機能を提供します。これを使うと、ローカルファイルが存在する場合、そのファイルのタイムスタンプとリモートサーバー上のファイルのタイムスタンプ(およびサイズ)を比較します。
- ローカルファイルが存在しない場合、通常通りダウンロードします。
- ローカルファイルが存在し、リモートファイルのタイムスタンプがローカルファイルのタイムスタンプより新しい場合、リモートファイルをダウンロードして上書きします。
- ローカルファイルが存在し、リモートファイルのタイムスタンプがローカルファイルのタイムスタンプと同じか古い場合、ダウンロードをスキップします。
bash
wget -N [ダウンロードしたいファイルのURL]
例:
bash
wget -N https://example.com/latest_data.csv
これは、定期的に更新されるファイルをダウンロードする際に非常に便利です。新しいバージョンがある場合のみダウンロードし、不要な帯域幅の使用や処理を避けることができます。これは、ファイルが変更されていない場合にダウンロードを完全にスキップする-nc
よりも洗練された方法です。
10. 接続の試行回数を制限する(-t
オプション)
ネットワークの問題などでダウンロードが失敗した場合、wget
はデフォルトで何度か再試行を行います。この試行回数を-t
オプションで制御できます。
bash
wget -t [試行回数] [URL]
例: 試行回数を5回に設定する
bash
wget -t 5 https://unstable.server.com/file.zip
-t 0
を指定すると、無限に再試行します。これは、サーバーが一時的にダウンしていることがわかっているが、復旧後に自動でダウンロードを開始させたい場合などに使えますが、サーバーに過度な負荷をかけないように注意が必要です。
11. 待機時間を設定する(--wait
オプション)
連続してファイルをダウンロードする場合や、サーバーに短時間で何度もアクセスするのを避けたい場合に、ダウンロード間の待機時間を設定できます。--wait
オプションで秒数を指定します。
bash
wget --wait=[待機秒数] [URLまたは-iで指定したファイル]
例: 各ダウンロード間に5秒待機する
bash
wget --wait=5 -i urls.txt
これは、サーバーに負担をかけないようにする上で非常に重要です。特に、ウェブサイト全体を再帰的にダウンロードする場合(後述)には、サーバーへの負荷を最小限に抑えるために適切な待機時間を設定することが強く推奨されます。--random-wait
オプションと組み合わせると、指定した時間+ランダムな時間(最大で指定時間の2倍)待機するため、より自然なアクセスパターンを模倣できます。
bash
wget --random-wait --wait=5 -i urls.txt
12. HTTP/FTP認証情報を指定する(--user
, --password
オプション)
パスワードで保護されたサイトやFTPサーバーからファイルをダウンロードする場合、認証情報をwget
に渡す必要があります。--user
と--password
オプションを使用します。
bash
wget --user=[ユーザー名] --password=[パスワード] [URL]
例:
bash
wget --user=myuser --password=mypass ftp://ftp.example.com/private/file.zip
wget --user=apiuser --password=apipass https://api.example.com/data/report.json
これらの情報はコマンド履歴に残る可能性があるため、セキュリティには注意が必要です。より安全な方法として、.netrc
ファイルを使用する方法もありますが、Windowsでの設定はやや複雑になります。HTTPS経由で認証する場合、接続が暗号化されていればパスワードがネットワーク上を平文で流れることはありません。
これらがwget
の基本的な使い方とよく使うオプションです。これらのコマンドを組み合わせるだけでも、様々なダウンロードタスクを効率化できます。次のセクションでは、さらに強力な機能である再帰的ダウンロードやウェブサイトのミラーリングについて詳しく解説します。
第3部:wgetのより高度な使い方
wget
は単一のファイルをダウンロードするだけでなく、ディレクトリ全体やウェブサイト全体をダウンロードするような複雑なタスクもこなせます。ここでは、そのための高度なオプションと使い方を解説します。
13. 再帰的ダウンロード(-r
オプション)
wget
の最も強力な機能の一つが再帰的ダウンロードです。-r
(--recursive
)オプションを使うと、指定したURLからリンクをたどって、関連するファイルやページを自動的にダウンロードできます。これは、FTPサイトからディレクトリツリー全体をダウンロードしたり、ウェブサイトの一部または全部をオフラインで閲覧するためにダウンロードしたりするのに非常に便利です。
bash
wget -r [開始URL]
例:
bash
wget -r https://www.example.com/directory/
このコマンドを実行すると、wget
はhttps://www.example.com/directory/
以下のページやファイルをダウンロードし始めます。デフォルトでは、いくつかの制限(深さ、親ディレクトリへの移動禁止など)がありますが、多くのオプションでその挙動を制御できます。
再帰的ダウンロードに関する重要なオプション:
-
-l <depth>
(–level=): 再帰の深さを指定します。デフォルトでは深さ5です。-l 0
を指定すると、深さの制限なく再帰的にダウンロードします。ウェブサイト全体をダウンロードしたい場合は-l 0
を使うことが多いですが、サーバーに大きな負荷をかける可能性があるため注意が必要です。“`bash
深さ2までダウンロード
wget -r -l 2 https://www.example.com/
“` -
-nd
(–no-directories): 再帰的ダウンロード中に、リモートサイトのディレクトリ構造をローカルに再現せず、ダウンロードしたすべてのファイルを現在のディレクトリに平坦に保存します。同じ名前のファイルがある場合は上書きされるか、連番が付きます(-nc
や-N
との組み合わせに注意)。“`bash
ディレクトリ構造を作成せず、すべてのファイルをカレントディレクトリに保存
wget -r -nd https://www.example.com/data/
“` -
-nH
(–no-host-directories): 再帰的ダウンロードで、ダウンロードの起点となるホスト名のディレクトリ(例:www.example.com
)を最上位に作成しません。デフォルトでは、wget
はダウンロードしたコンテンツをwww.example.com/directory/...
のようなディレクトリ構造に保存しますが、このオプションを使うとdirectory/...
のように保存されます。-nd
と組み合わせて使うことも多いです。“`bash
ホスト名のディレクトリを作成しない
wget -r -nH https://www.example.com/directory/
“` -
-np
(–no-parent): 再帰的ダウンロード中に、開始URLの親ディレクトリにあるリンクをたどらないようにします。これはデフォルトの挙動であり、通常は無効にしません。誤ってサイト全体をダウンロードしてしまうのを防ぐために重要です。 -
-P <prefix>
(–directory-prefix=): ダウンロードしたファイルを保存するローカルディレクトリのパスを指定します。指定しない場合、カレントディレクトリに保存されます。“`bash
downloaded_site ディレクトリに保存
wget -r -P downloaded_site https://www.example.com/
“` -
-A <list>
(–accept=- ):
*
)も使用可能です。“`bash
.pdfと.docファイルのみダウンロード
wget -r -A pdf,doc https://www.example.com/documents/
“` -
-R <list>
(–reject=- ):
“`bash
.gifと.jpgファイルはダウンロードしない
wget -r -R gif,jpg https://www.example.com/images/
“`-A
と-R
は組み合わせて使うことも可能です。 -
-D <domains>
(–domains=): リンクをたどってダウンロードする対象とするドメインを指定します。カンマ区切りで複数指定できます。“`bash
www.example.com と assets.example.com ドメイン内のリンクのみたどる
wget -r -D www.example.com,assets.example.com https://www.example.com/
“` -
--exclude-dirs <list>
: 再帰的ダウンロード中に、指定したディレクトリをたどらないようにします。“`bash
/archive/ と /temp/ ディレクトリはスキップする
wget -r –exclude-dirs /archive/,/temp/ https://www.example.com/
“` -
--follow-tags=<list>
: 再帰的にリンクをたどる際に、指定したHTMLタグ内のリンクのみを対象とします。デフォルトでは<a>
,<area>
,<iframe>
,<embed>
,<link>
,<script>
,<base>
タグなどをたどります。“`bash
タグのリンクのみたどる
wget -r –follow-tags=a https://www.example.com/
“`
14. ウェブサイトをミラーリングする(-m
オプション)
ウェブサイト全体をオフラインで閲覧できるようにダウンロードしたい場合、-m
(--mirror
)オプションが非常に便利です。-m
は、以下のオプションを組み合わせたショートカットです。
-r
(再帰的ダウンロード)
-l inf
(深さ無限)
-N
(タイムスタンプによる更新チェック)
-nv
(控えめな出力)
さらに、ミラーモードでは、HTMLページ内のローカルリンクを相対パスに変換して、オフラインでの閲覧を可能にするなどの調整が行われることがあります(ただし、JavaScriptで動的に生成されるリンクなどには対応できない場合があります)。
bash
wget -m [ミラーリングしたいサイトのURL]
例:
bash
wget -m https://www.example.com/
このコマンドは、https://www.example.com/
以下のコンテンツを、可能な限り元の構造を保ってダウンロードします。-N
オプションが自動的に含まれるため、同じコマンドを再度実行すると、前回のダウンロード以降に変更されたファイルや新しく追加されたファイルのみがダウンロードされ、効率的にローカルコピーを更新できます。
ウェブサイトのミラーリングを行う際は、以下の点に強く注意してください。
- サーバーへの負荷: 深さ無限でダウンロードすると、リンク構造によっては非常に多くのリクエストが発生し、サーバーに大きな負荷をかける可能性があります。
- robots.txtの尊重: 多くのウェブサイトは、クローラーや自動化ツールにアクセス制限を指示するための
robots.txt
ファイルを置いています。wget
はデフォルトでrobots.txt
を尊重し、指示されたディレクトリやファイルへのアクセスを避けます。これは良いマナーであり、サーバーに不要な負荷をかけたり、アクセス禁止区域に侵入したりしないために非常に重要です。特別な理由がない限り、robots.txt
を無視するオプション(-e robots=off
)は使用しないでください。 - 利用規約: ウェブサイトの利用規約を確認し、ダウンロードやミラーリングが許可されているか確認してください。許可されていないサイトを無断でミラーリングすることは、法的な問題につながる可能性があります。
- 無限ループ: サイトの構造によっては、再帰的ダウンロードが無限ループに陥る可能性があります。
-l
オプションで深さを制限したり、-D
や--exclude-dirs
などで対象を絞ったりすることが重要です。
15. ロボット排除プロトコルの無視(-e robots=off
)
前述の通り、wget
はデフォルトでrobots.txt
ファイルを尊重します。もし、自己責任において、特定の理由(例: 個人利用のサイトをバックアップする、研究目的で公開されているデータを収集する)でrobots.txt
の制限を無視したい場合は、-e robots=off
オプションを使用します。このオプションの使用は、サーバー管理者の意図に反する可能性があるため、十分に注意してください。
“`bash
robots.txtを無視して再帰的にダウンロード
wget -r -e robots=off https://www.example.com/
“`
16. HTTPヘッダーのカスタマイズ(--header
, --user-agent
オプション)
wget
がサーバーに送信するHTTPリクエストヘッダーをカスタマイズできます。これは、特定のヘッダーを送信しないとアクセスできないコンテンツや、ダウンロード元を偽装したい場合(ただし、通常は不要で推奨されない)に役立ちます。
--header
オプションを使って、任意のヘッダーを追加できます。
“`bash
カスタムヘッダーを追加
wget –header=”X-Custom-Header: MyValue” https://api.example.com/data/
“`
特に頻繁にカスタマイズされるヘッダーとしてUser-Agentがあります。サーバーはUser-Agentヘッダーを見て、どの種類のクライアント(ブラウザ、wget
など)がアクセスしているかを判断します。一部のサイトは、特定のUser-Agentからのアクセスを拒否したり、異なるコンテンツを提供したりすることがあります。--user-agent
オプションでUser-Agent文字列を指定できます。
“`bash
User-AgentをChromeとしてダウンロード
wget –user-agent=”Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/118.0.0.0 Safari/537.36″ https://www.example.com/
“`
User-Agentをブラウザのものに偽装することで、wget
からのアクセスを通常のブラウザからのアクセスに見せかけることができる場合があります。
17. クッキーの利用(--cookies=on
, --load-cookies
オプション)
ウェブサイトの中には、ログイン状態の維持やセッション管理にクッキーを利用している場合があります。wget
でこれらのサイトからコンテンツをダウンロードするには、クッキーを扱う必要があります。
--cookies=on
: クッキーを有効にします。通常はこれで十分ですが、より複雑なシナリオでは追加の設定が必要かもしれません。--load-cookies <file>
: 指定したファイルから以前保存したクッキーを読み込みます。これにより、一度ログインしたセッションのクッキーを使い回すことが可能になります。--save-cookies <file>
: ダウンロード中に受け取ったクッキーを指定したファイルに保存します。
複雑なログインが必要なサイトからコンテンツをダウンロードする典型的な手順は以下のようになります。
- ログイン処理を行う特別なURLに対して
wget
を実行し、ログイン成功時に発行されるクッキーをファイルに保存します。
bash
# 例:POSTデータでログインする場合
wget --save-cookies cookies.txt --post-data="username=myuser&password=mypass" https://example.com/login - 保存したクッキーファイルを指定して、ログイン後にアクセス可能なページをダウンロードします。
bash
wget --load-cookies cookies.txt https://example.com/members/private_page.html
クッキーの扱いにはサイトごとの実装によって複雑さが伴う場合があります。
18. POSTデータの送信(--post-data
, --post-file
オプション)
フォームの送信やAPIとの連携など、GETリクエストではなくPOSTリクエストでデータを送信する必要がある場合があります。
--post-data=<string>
: 指定した文字列をPOSTデータとして送信します。データは通常、key1=value1&key2=value2
のような形式で記述します。--post-file=<file>
: 指定したファイルの内容をPOSTデータとして送信します。JSONやXMLなどの複雑なデータを送信する場合に便利です。
“`bash
文字列としてPOSTデータを送信
wget –post-data=”action=download&id=123″ https://example.com/api/action
ファイルの内容をPOSTデータとして送信 (data.jsonというファイルが存在する場合)
wget –post-file=data.json https://example.com/api/data
“`
19. タイムスタンプを尊重する(-t
とは別の-T
オプション, -S
オプション)
-N
オプションはリモートとローカルのタイムスタンプを比較して更新を判断しますが、リモートファイルの最終更新日時をダウンロードしたファイルにも設定したい場合があります。
-t
(–timestamping): これは-N
と同じオプションで、ローカルファイルが存在する場合にタイムスタンプを比較してダウンロードを判断します。-T <seconds>
(–timeout=): タイムアウト時間を設定します。接続確立時のタイムアウトや、データ転送時のタイムアウトなど、複数のタイムアウト設定をまとめて制御できます。
bash
# 接続/転送タイムアウトを30秒に設定
wget -T 30 https://slow.server.com/file.zip-
-S
(–server-response): ダウンロード開始前に、サーバーの応答(HTTPヘッダーなど)を表示します。デバッグや、サーバーが返す情報を確認したい場合に便利です。bash
wget -S https://www.example.com/
20. SSL/TLS証明書の検証を無効にする(--no-check-certificate
オプション)
HTTPSサイトにアクセスする際、wget
はデフォルトでサーバー証明書の正当性を検証します。証明書が無効(期限切れ、自己署名、ホスト名不一致など)な場合、ダウンロードを拒否します。
信頼できない証明書を使用しているサイトや、社内ネットワークなど特定の環境で自己署名証明書を使用しているサイトにアクセスする場合、証明書の検証を無効にする必要があります。--no-check-certificate
オプションを使用します。
bash
wget --no-check-certificate https://internal-server/resource.pdf
警告: このオプションを使用すると、中間者攻撃のリスクが高まります。アクセスしているサーバーが本当に意図したサーバーであることを保証できなくなるため、信頼できるネットワーク内でのみ、またはリスクを理解した上で、慎重に使用してください。 公開されているインターネット上のサイトに対して、このオプションを安易に使用することは推奨されません。
これらの高度なオプションを使いこなすことで、wget
は単なるダウンローダー以上の、強力なWebスクレイピングやデータ収集ツールとなり得ます。ただし、特に再帰的ダウンロードやミラーリング、robots.txt
無視、--no-check-certificate
などのオプションを使う際は、サーバーへの負荷、利用規約、セキュリティリスクなどを十分に考慮することが重要です。
第4部:Windows環境での特記事項とトラブルシューティング
wget
はLinux/Unix環境で開発されたツールであるため、Windows環境で使う際にはいくつかの注意点があります。また、コマンドラインツール共通のトラブルシューティング方法も知っておくと役立ちます。
Windows環境での特記事項
- パス区切り文字: Windowsではファイルパスの区切り文字としてバックスラッシュ(
\
)が一般的に使われますが、URLではスラッシュ(/
)が使われます。wget
コマンドの引数としてローカルパスを指定する場合(例:-O D:\Downloads\file.html
,-P C:\Users\username\data
)、通常はバックスラッシュを使用しても問題ありません。しかし、スラッシュを使用しても多くの場合は正しく解釈されますし、コマンドラインの世界ではスラッシュが標準的です。混乱を避けるため、-O
や-P
でローカルパスを指定する際はバックスラッシュを使うか、環境(特にWSL)に合わせてスラッシュを使うかを統一すると良いでしょう。 - 大文字・小文字の区別: Windowsのファイルシステム(NTFS)はデフォルトでは大文字・小文字を区別しません(ただし、設定で区別させることも可能)。しかし、URL自体や、Webサーバー上のファイル名は大文字・小文字を区別することがほとんどです。したがって、
wget
でダウンロードする際のURLは大文字・小文字を正確に入力する必要があります。ダウンロード後にローカルに保存されるファイル名も、デフォルトでは大文字・小文字を区別した名前になります。 - 改行コード: テキストファイル(例:
-i
オプションで使うURLリスト)を作成する場合、Windowsの標準的な改行コードはCRLFですが、Linux/UnixのツールはLFを期待することが多いです。最近のwget
やテキストエディタはCRLFも正しく扱えることが多いですが、もし-i
で指定したファイルリストがうまく読み込めない場合は、改行コードが原因である可能性も考慮に入れて、LF形式で保存し直してみると解決することがあります。 - ファイルロックと権限: Windowsでは、ファイルが他のプロセスによって開かれている場合、そのファイルを上書きしたり削除したりすることが制限される場合があります。また、システムの保護されたディレクトリ(例:
C:\Program Files
)にファイルを保存しようとする場合は、管理者権限が必要になることがあります。wget
の実行場所やダウンロード先のディレクトリの権限を確認してください。 - ファイアウォールとセキュリティソフト: Windowsファイアウォールやインストールされているセキュリティソフト(ウイルス対策ソフトなど)が、
wget
のインターネット接続をブロックしたり、ダウンロードしたファイルを誤ってマルウェアと判断して隔離したりすることがあります。wget
の実行がブロックされる場合は、これらの設定を確認してください。
トラブルシューティング
wget
を使用していて問題が発生した場合、以下の点をチェックしてみてください。
- 「’wget’ は、内部コマンドまたは外部コマンド、操作可能なプログラムまたはバッチ ファイルとして認識されていません。」エラー:
- 原因:
wget.exe
へのパスがシステムのPATH環境変数に正しく設定されていないか、設定変更後にコマンドプロンプト/PowerShellを再起動していない。 - 解決策:
wget.exe
が実際に存在するか確認する。wget.exe
があるディレクトリのパスがPATH環境変数に正しく追加されているか確認する。- 環境変数を変更した場合は、必ずコマンドプロンプト/PowerShellを一度閉じてから開き直す。
- パッケージマネージャーを使った場合は、インストールが完全に成功したか、エラーが出ていないか確認する。
- WSLの場合は、WSLターミナル内で実行しているか、Linux環境に
wget
がインストールされているか確認する。
- 原因:
- ダウンロードが開始されない、接続エラー:
- 原因: URLが間違っている、サーバーがダウンしている、ネットワーク接続の問題、ファイアウォールやプロキシによるブロック。
- 解決策:
- 指定したURLがブラウザで開けるか確認する。
- インターネット接続が正常か確認する。
- ファイアウォールやセキュリティソフトの設定で、
wget
のネットワークアクセスが許可されているか確認する。 - 企業ネットワークなどでプロキシを使用している場合は、
wget
にプロキシ設定を行う必要がある(環境変数http_proxy
,https_proxy
を設定するか、--proxy
オプションを使用)。 -v
オプション(詳細表示)を付けて実行し、どこで処理が止まっているか、どのようなエラーメッセージが出ているかを確認する。
- 「HTTP error 403: Forbidden」エラー:
- 原因: アクセス権がない、
robots.txt
で拒否されている、User-Agentによって拒否されている、Refererヘッダーがチェックされている。 - 解決策:
- 指定したURLにアクセスするための認証(ユーザー名/パスワードなど)が必要か確認し、必要なら
--user
,--password
またはクッキーオプションを使用する。 - サイトに
robots.txt
がある場合、ダウンロードしようとしているパスが許可されているか確認する。必要であれば自己責任で-e robots=off
を使用する。 --user-agent
オプションでUser-Agentをブラウザのものに偽装して試す。--referer
オプションで直前のページのURLを指定して試す。
- 指定したURLにアクセスするための認証(ユーザー名/パスワードなど)が必要か確認し、必要なら
- 原因: アクセス権がない、
- 「ERROR: cannot verify …’s certificate」エラー (HTTPSの場合):
- 原因: サーバー証明書が無効、自己署名、期限切れ、または信頼できない認証局によって発行されている。
- 解決策:
- 証明書が正当か確認する。正当な場合は
wget
の設定またはシステムの証明書ストアに問題がある可能性がある。 - 自己署名証明書などの場合、リスクを理解した上で
--no-check-certificate
オプションを使用する(推奨されない)。
- 証明書が正当か確認する。正当な場合は
- 再帰的ダウンロードが途中で止まる、期待通りにリンクをたどらない:
- 原因:
robots.txt
による制限、再帰深さの制限(-l
)、対象ドメインの制限(-D
)、ファイルタイプの拒否(-R
)、親ディレクトリへの移動禁止(-np
、デフォルト)、JavaScriptなどで動的に生成されるリンクをたどれない。 - 解決策:
-l
オプションで深さを十分にするか、-l 0
で無限にする。-e robots=off
が必要か検討する(慎重に)。-D
オプションで対象ドメインを指定する必要があるか確認する。-A
や-R
オプションが意図せずダウンロードをブロックしていないか確認する。-v
オプションで詳細ログを見て、どのリンクをたどろうとして失敗しているか確認する。wget
は基本的なHTMLパースしか行わないため、JavaScriptで生成されるコンテンツ内のリンクはたどれません。
- 原因:
これらのトラブルシューティングのヒントを参考に、問題の原因を特定し、解決策を試してみてください。多くの場合、エラーメッセージをよく読み、-v
オプションで詳細な出力を確認することがデバッグの第一歩となります。
第5部:wgetの代替手段(Windows)
Windows環境でコマンドラインからファイルをダウンロードしたい場合、wget
以外にもいくつかの選択肢があります。状況や目的に応じて、これらの代替手段の方が適している場合もあります。
- Curl:
- 特徴:
curl
は、URL構文を使ってデータを転送するためのもう一つの強力なコマンドラインツールです。wget
と同様に、HTTP, HTTPS, FTPなど様々なプロトコルをサポートしています。curl
はデータの送受信の両方に使われることが多く、APIとの連携などにも非常に優れています。最近のWindows 10/11には標準でcurl.exe
が含まれています。 wget
との比較:wget
は主にダウンロードに特化しており、再帰的ダウンロードやウェブサイトミラーリング機能が強力です。curl
はより多機能で、アップロードや様々なプロトコルオプションに優れています。どちらを使うかはタスクによりますが、単純なダウンロードや再帰的な処理ならwget
、API連携やより細かいプロトコル制御ならcurl
と使い分けることが多いです。Windowsで標準搭載されている点で、curl
が手軽な場合もあります。
- 特徴:
- PowerShellの
Invoke-WebRequest
:- 特徴: PowerShellに組み込まれているコマンドレットです。Webページの内容を取得したり、ファイルをダウンロードしたり、APIと連携したりといったWebリクエストを行う機能があります。PowerShellスクリプト内でWeb操作を行うのに非常に便利です。
wget
/curl
との比較: PowerShellのネイティブコマンドレットなので、PowerShell環境との親和性が高いです。.NET
フレームワークを基盤としており、柔軟な処理が可能です。ただし、構文はwget
やcurl
とは大きく異なります。また、大規模な再帰的ダウンロードやミラーリング機能はwget
ほど洗練されていません。
- ブラウザのダウンロード機能:
- 特徴: 最も一般的で直感的な方法です。ファイルをクリックするだけでダウンロードできます。
wget
との比較: GUIがあり使いやすい反面、自動化やスクリプト化には不向きです。多数のファイルをダウンロードしたり、定期的にダウンロードしたりするタスクには適していません。ダウンロードの中断からの再開機能もブラウザに依存します。
- 専用ダウンロードマネージャー(GUIアプリケーション):
- 特徴: Internet Download Manager (IDM) や Free Download Manager (FDM) など、ダウンロードの管理、高速化、再開機能などに特化したGUIアプリケーションです。複数のセグメントに分割してダウンロードしたり、ダウンロードキューを管理したりする機能があります。
wget
との比較: GUIがあり使いやすいですが、自動化やコマンドラインからの制御はできません。主に手動でのダウンロードに使われます。
これらの代替手段も存在しますが、非対話型で強力な再帰ダウンロード・ミラーリング機能を持ち、かつクロスプラットフォームで広く使われているという点で、wget
は依然としてユニークで価値のあるツールです。
結論
この記事では、Windows環境でwget
を使うための様々な方法、基本的なファイルダウンロードから、再帰的ダウンロード、サイトミラーリング、さらには認証やヘッダー操作といった高度な機能までを詳しく解説しました。
wget
は、Windowsユーザーにとって、Webブラウザだけでは難しい多くのダウンロードタスクを解決する強力なツールとなり得ます。スクリプトと組み合わせてダウンロードプロセスを自動化したり、ウェブサイトの特定のコンテンツを効率的に収集したり、中断した大きなファイルのダウンロードを再開したりと、その用途は多岐にわたります。
Windowsへのインストール方法はいくつかありますが、ChocolateyやScoopのようなパッケージマネージャーを利用する方法が、インストールやアップデートの管理が容易なため最も推奨されます。Linux環境にも慣れている場合は、WSLを使うのも良い選択肢です。
wget
のコマンドラインオプションは非常に豊富ですが、まずは基本的なダウンロード(URL指定)、ファイル名指定(-O
)、中断再開(-c
)から使い始めてみましょう。慣れてきたら、再帰的ダウンロード(-r
)やミラーリング(-m
)といった強力な機能を試してみてください。
ただし、wget
を使う際は、特に再帰的な操作や大量のダウンロードを行う場合に、アクセス先のサーバーに過度な負荷をかけないように注意が必要です。多くのサイトが提供しているrobots.txt
ファイルを尊重し、--wait
や--limit-rate
オプションを使って、サーバーに優しいダウンロードを心がけましょう。
コマンドラインツールは最初は難しく感じるかもしれませんが、一度使い方を覚えてしまえば、日々の作業効率を大幅に向上させることができます。ぜひこの記事を参考に、Windowsでのwget
活用を始めてみてください。さらなる詳細や最新の情報については、wget
の公式ドキュメントやオンラインリソースを参照することをお勧めします。
“`bash
基本的な使い方のチートシート
単一ファイルをダウンロード
wget https://example.com/file.zip
ファイル名を指定してダウンロード
wget -O my_archive.zip https://example.com/file.zip
中断したダウンロードを再開
wget -c https://example.com/large_file.iso
複数のURLをファイルからダウンロード
wget -i urls.txt
再帰的にディレクトリ以下のファイルをダウンロード (深さ制限なし、ホスト名ディレクトリなし)
wget -r -l 0 -nH https://example.com/data/
ウェブサイトをミラーリング (タイムスタンプ更新チェック付き)
wget -m https://example.com/
ダウンロード速度を制限 (例: 500 KB/s)
wget –limit-rate=500k https://example.com/video.mp4
各ダウンロード間に待機時間を設定 (例: 10秒)
wget –wait=10 -i list_of_files.txt
認証情報を指定 (HTTP/FTP)
wget –user=myuser –password=mypass ftp://ftp.example.com/private/file.txt
証明書検証を無効にする (非推奨、自己責任で)
wget –no-check-certificate https://internal-server/
詳細な出力を表示してデバッグ
wget -v https://example.com/file.txt
“`
これらのコマンドは、Windowsのコマンドプロンプト、PowerShell、またはWSLターミナルのいずれかで実行できます(WSLの場合はLinux版のwget
を使用)。あなたのWindows環境でwget
を使いこなし、日々のタスクを効率化しましょう!