画像処理の基本:OpenCV cvtColor で色を変換する方法

画像処理の基本:OpenCV cvtColor で色を変換する方法

導入

画像処理において、色の情報は非常に重要です。しかし、私たちが普段目にしているRGB(またはOpenCVのBGR)形式の画像は、必ずしも全ての画像処理タスクに適しているわけではありません。画像の特徴を捉えやすくしたり、特定の情報を抽出しやすくするために、画像を異なる「色空間(Color Space)」に変換することが頻繁に行われます。

OpenCVは、この色空間変換のための強力な関数 cv2.cvtColor を提供しています。この関数を使うことで、BGR、グレースケール、HSV、HLS、YCrCb、Labなど、様々な色空間間で画像を簡単に変換することができます。

この記事では、cv2.cvtColor 関数の使い方から、主要な色空間の概念、そして具体的な変換コードとその応用例までを、詳細かつ実践的に解説します。この記事を読むことで、画像処理における色空間変換の重要性を理解し、OpenCVを使った色の変換を自在に行えるようになることを目指します。

なぜ色空間変換が必要なのか?

色空間は、色を数値で表現するためのモデルです。異なる色空間は、色の情報を異なる方法で表現します。例えば:

  • BGR/RGB: 光の三原色(赤、緑、青)の組み合わせで色を表現します。人間が色を認識する方法と直接は対応しません。輝度(明るさ)と色情報が密接に結びついています。
  • グレースケール: 色の情報を持たず、明るさの情報のみを持ちます。エッジ検出や特徴点検出など、色の情報が不要、あるいはノイズとなるタスクに適しています。
  • HSV/HLS: 色相(Hue)、彩度(Saturation)、明度(Value/Lightness)で色を表現します。人間が色を認識する方法(「どんな色か」「どれだけ鮮やかか」「どれだけ明るいか」)に近いため、特定の色に基づいたオブジェクト検出や色調整に適しています。
  • YCrCb: 輝度(Y)と色差(Cr, Cb)で色を表現します。輝度と色情報を分離できるため、画像圧縮(JPEGなど)や肌色検出に利用されます。
  • CIE Lab: 人間の知覚にできるだけ忠実に、色の差を知覚的な差に近づけるように設計された色空間です。デバイスに依存しない色の表現や、精密な色比較、色補正に用いられます。

このように、処理の目的に応じて最適な色空間を選択することで、画像処理の効率や精度を向上させることができます。cv2.cvtColor 関数は、これらの変換を簡単に行うための主要なツールです。

この記事では、まず主要な色空間について詳しく掘り下げ、その後 cv2.cvtColor 関数の詳細な使い方を解説します。最後に、具体的なコード例を通して、様々な色空間への変換方法と、それがどのように応用できるのかを見ていきます。

1. 色空間の基礎知識

cv2.cvtColor 関数を使う前に、画像処理でよく使われる主要な色空間について理解しておきましょう。

1.1 BGR / RGB

  • 概念: 光の三原色(赤、緑、青)を混ぜ合わせることで様々な色を表現する加法混色モデルです。
  • 特徴:
    • コンピュータのディスプレイやカメラで色を表現する最も一般的な方法です。
    • 各色は3つのチャンネル(赤、緑、青)の輝度値で表現されます。通常、各チャンネルは0から255までの整数値(8ビット)で表現されます。
    • OpenCVはデフォルトでBGRの順序を使用します。 つまり、画像データは青(B)、緑(G)、赤(R)のチャンネルの順に格納されています。これは一般的な画像フォーマット(PNG, JPEGなど)がRGBの順を使用することが多いため、注意が必要です。
    • 輝度(明るさ)と色相・彩度の情報が密接に結びついているため、例えば「赤い物体」を検出したい場合に、単純に赤チャンネルの値を調べても、明るさによって値が大きく変わってしまうという問題があります。
  • 用途: ほとんどの画像処理の入出力形式として使われます。

1.2 グレースケール (Grayscale)

  • 概念: 色の情報を持たず、明るさ(輝度)の情報のみを持つ色空間です。
  • 特徴:
    • 単一のチャンネル(通常0-255の値)で表現されます。値が小さいほど暗く、大きいほど明るいピクセルを表します。
    • BGR画像からグレースケール画像への変換は、一般的に以下の輝度計算式に基づいて行われます(重み付き平均)。
      Y = 0.2989 * R + 0.5870 * G + 0.1140 * B
      (正確な係数は規格によって多少異なりますが、OpenCVのBGR2GRAY変換では通常この種の係数が使用されます。緑の寄与率が最も高く、青の寄与率が最も低いのは、人間の目の錐体細胞の感度分布に由来します。)
    • データ量がオリジナル画像の1/3になるため、処理速度が向上します。
    • 色の情報が不要なタスク(例:エッジ検出、輪郭検出、顔検出、特徴点マッチングなど)に非常に適しています。色の変動による影響を受けにくくなります。
  • 用途: 画像処理の多くの前処理ステップ(ノイズ除去、フィルタリング)、特徴抽出、物体認識、コンピュータビジョンの様々なアルゴリズム。

1.3 HSV / HLS

  • 概念: 人間が色を認識する方法(色相、彩度、明度/輝度)に基づいて設計された色空間です。
  • 特徴:
    • HSV: Hue (色相), Saturation (彩度), Value (明度)
    • HLS: Hue (色相), Lightness (輝度), Saturation (彩度)
    • Hue (色相): 純粋な色の種類(赤、緑、青、黄など)を表します。色輪上で角度として表現されることが多く、OpenCVでは通常0から179の範囲で表現されます(一般的な0-360度とは異なります)。
    • Saturation (彩度): 色の鮮やかさ、純度を表します。値が大きいほど色が鮮やかになり、小さいほど灰色に近づきます(0は灰色)。OpenCVでは通常0から255の範囲です。
    • Value (明度 – HSV): 色の明るさを表します。値が大きいほど明るく、小さいほど暗くなります(0は黒)。OpenCVでは通常0から255の範囲です。
    • Lightness (輝度 – HLS): 明るさを表しますが、Valueとは計算方法が異なります。HSVのValueはRGBの最大値に依存するのに対し、HLSのLightnessはRGBの最大値と最小値の平均に依存します。これも0から255の範囲です。
    • HSV/HLS色空間では、輝度(VやL)から色相(H)と彩度(S)が分離される傾向があります。これにより、明るさの変化に影響されずに特定の色を検出することが容易になります。
  • 用途:
    • HSV: 特定の色の物体を追跡・検出する場合(例:肌色検出、特定のマーカーの色検出)。画像の色合いや鮮やかさの調整。
    • HLS: HSVと同様の用途ですが、明るさの表現が異なります。用途に応じて選択されます。例えば、画像全体を明るくしたり暗くしたりする調整にはLightnessチャンネルを操作するのが直感的です。

1.4 YCrCb

  • 概念: 主にビデオ信号や画像圧縮(JPEG)で使われる色空間です。輝度情報(Y)と色差情報(Cr, Cb)に分離されます。
  • 特徴:
    • Y (Luminance): 輝度を表します。グレースケール画像と似た情報を持っています。
    • Cr (Chrominance – Red): 赤の色差を表します。RとYの差に関係します。
    • Cb (Chrominance – Blue): 青の色差を表します。BとYの差に関係します。
    • 人間の視覚は輝度情報に対してより敏感であるため、YCrCb色空間では色差情報(Cr, Cb)を間引いて圧縮しても(サブサンプリング)、知覚的な画質劣化が少なく抑えられます。これがJPEGなどの圧縮形式で利用される理由です。
    • 肌色はこのYCrCb空間で特定の領域に分布することが知られており、肌色検出に利用されることがあります。
  • 用途: 画像・ビデオ圧縮(JPEG, MPEG)、肌色検出。

1.5 CIE Lab

  • 概念: 国際照明委員会(CIE)によって定義された色空間で、人間の色の知覚にできるだけ一致するように設計されています。デバイスに依存しない色表現が可能です。
  • 特徴:
    • L* (Lightness): 明るさを表します。0は完全な黒、100は完全な白です。
    • a* (Red-Green Axis): 赤から緑への色差を表します。正の値は赤みが強く、負の値は緑みが強いことを示します。
    • b* (Yellow-Blue Axis): 黄から青への色差を表します。正の値は黄みが強く、負の値は青みが強いことを示します。
    • この色空間は、知覚的に均等(perceptually uniform)になるように設計されています。つまり、Lab空間における色と色の距離は、人間が感じる色の差とある程度対応します。これは、異なる色の間の「色の差」を定量的に比較するのに役立ちます。
    • デバイスに依存しないため、異なるデバイス(スキャナー、ディスプレイ、プリンター)で取得または表示された画像の色を比較したり、一貫した色管理を行ったりするのに適しています。
  • 用途: 精密な色比較、色差計算、色補正、セグメンテーション、医療画像処理、コンピュータビジョン研究。

1.6 その他の色空間

OpenCVは上記以外にも、CIE XYZ、CMY、CMYKなど、様々な色空間間の変換をサポートしています。それぞれの色空間には特定の用途や利点がありますが、基本的な画像処理で最も頻繁に遭遇するのは、上で説明したBGR/RGB、グレースケール、HSV、YCrCb、Labです。

2. OpenCVの cvtColor 関数

OpenCVで色空間変換を行うための主要な関数が cv2.cvtColor です。

2.1 関数のシグネチャ

Pythonにおける cv2.cvtColor 関数の基本的なシグネチャは以下のようになります。

python
dst = cv2.cvtColor(src, code[, dst[, dstCn]])

  • src: 変換したい元の画像(NumPy配列)。通常は uint8 型の画像ですが、浮動小数点型(float32など)の画像もサポートされています。
  • code: 変換の種類を指定するフラグ。cv2.COLOR_ で始まる定数を使用します。例えば、BGRからグレースケールに変換する場合は cv2.COLOR_BGR2GRAY を指定します。この引数が最も重要です。
  • dst (オプション): 出力画像を格納するための配列。通常は指定せず、関数の戻り値として変換された画像を受け取ります。
  • dstCn (オプション): 出力画像のチャンネル数。デフォルトでは変換コードに基づいて自動的に決定されますが、特定のチャンネル数が必要な場合に指定できます。ほとんどの場合、この引数は指定する必要はありません。
  • 戻り値: 変換された画像(NumPy配列)。

2.2 変換コード (code)

code 引数には、OpenCVが定義する cv2.COLOR_ 形式の定数を指定します。これらの定数は、変換元と変換先の色空間を「変換元2変換先」という形式で示します。

例:
* cv2.COLOR_BGR2GRAY: BGRからグレースケールへの変換
* cv2.COLOR_BGR2HSV: BGRからHSVへの変換
* cv2.COLOR_HSV2BGR: HSVからBGRへの変換
* cv2.COLOR_BGR2YCrCb: BGRからYCrCbへの変換
* cv2.COLOR_RGB2GRAY: RGBからグレースケールへの変換
* cv2.COLOR_GRAY2BGR: グレースケールからBGRへの変換(グレースケール画像を3チャンネルの擬似カラー画像として扱いたい場合など)

これらの定数は非常にたくさんありますが、主要なものから覚えていくのが良いでしょう。OpenCVの公式ドキュメントには、サポートされている全ての変換コードのリストが掲載されています。

2.3 入力画像のデータ型

cv2.cvtColor 関数は、主に uint8 型(0-255の範囲)の画像と、float32 型(通常0.0-1.0の範囲)の画像をサポートしています。

  • uint8 (8ビット符号なし整数): 最も一般的な画像データ型です。BGR, グレースケール, HSV, HLS, YCrCbなど、ほとんどの変換で入力・出力として使用できます。
  • float32 (32ビット浮動小数点数): 一部の色空間(特にLabや一部のHDR関連の変換)では、より広い値の範囲や精度を扱うために使用されます。例えば、BGRからLabへの変換の入力として float32 型の画像(各チャンネルが0.0-1.0の範囲に正規化されている)を使用することもあります。ただし、OpenCVのデフォルトのBGR->Lab変換は uint8 入力にも対応しており、その場合はLabのLが0-255、a, b*が0-255の範囲にマッピングされます(本来のLab空間の値とは異なります)。

通常は uint8 型の画像を扱いますが、変換先の空間によっては値の範囲が大きく変わるため、必要に応じてデータ型を変換したり、値を正規化・逆正規化したりする必要があることに注意してください。

3. 主要な色空間変換の実践

ここでは、よく使われる色空間変換について、具体的なコード例を交えながら詳しく見ていきます。コードを実行するには、OpenCVライブラリがインストールされている必要があります (pip install opencv-python)。また、適当な画像ファイル(例: input.jpg)を用意してください。

“`python
import cv2
import numpy as np
import matplotlib.pyplot as plt

画像ファイルのパス

image_path = ‘input.jpg’

画像の読み込み(デフォルトはBGR形式)

img_bgr = cv2.imread(image_path)

画像が正しく読み込めたか確認

if img_bgr is None:
print(f”エラー: 画像ファイル ‘{image_path}’ が見つからないか読み込めません。”)
exit()

画像の表示関数(matplotlibを使用するとRGB順が期待されるため、BGRをRGBに変換して表示する)

def show_image(image, title=”Image”):
# 3チャンネル画像の場合はBGRからRGBに変換(matplotlib表示用)
if len(image.shape) == 3 and image.shape[2] == 3:
image_rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
plt.imshow(image_rgb)
else: # グレースケール画像など
plt.imshow(image, cmap=’gray’) # グレースケールはcmap=’gray’を指定
plt.title(title)
plt.axis(‘off’) # 軸を非表示
plt.show()

複数の画像を一度に表示する関数

def show_images(images, titles):
fig, axes = plt.subplots(1, len(images), figsize=(5 * len(images), 5))
if len(images) == 1: # 画像が1枚の場合axesはndarrayにならないため対応
axes = [axes]
for i, (image, title) in enumerate(zip(images, titles)):
if len(image.shape) == 3 and image.shape[2] == 3:
image_rgb = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
axes[i].imshow(image_rgb)
else:
axes[i].imshow(image, cmap=’gray’)
axes[i].set_title(title)
axes[i].axis(‘off’)
plt.tight_layout()
plt.show()
“`

上記のコードは、画像の読み込みと表示のためのヘルパー関数を含んでいます。show_image および show_images 関数では、OpenCVがBGR形式で画像を読み込むのに対し、matplotlibは通常RGB形式を期待するため、表示前に cv2.COLOR_BGR2RGB を使って色空間を変換しています。これにより、matplotlibで正しい色で画像を表示できます。

3.1 BGR <-> Grayscale 変換

最も基本的な変換の一つです。色情報を捨てて明るさの情報だけに変換します。

  • BGR -> Grayscale: cv2.COLOR_BGR2GRAY を使用します。出力は単一チャンネルの画像になります。
  • Grayscale -> BGR: cv2.COLOR_GRAY2BGR を使用します。単一チャンネルのグレースケール画像を、3つのチャンネル全てに同じグレースケール値をコピーすることで、3チャンネルのBGR画像(カラーに見えるが色はついていない画像)に変換します。これは、カラー画像にグレースケール画像を重ねて表示したい場合などに便利です。

“`python
print(“\n— BGR <-> Grayscale 変換 —“)

BGR画像をグレースケールに変換

img_gray = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2GRAY)

print(f”元のBGR画像の形状: {img_bgr.shape}, データ型: {img_bgr.dtype}”)
print(f”グレースケール画像の形状: {img_gray.shape}, データ型: {img_gray.dtype}”)

グレースケール画像をBGRに戻す(チャンネル数を合わせるため)

この画像は見た目はグレースケールだが、データとしては3チャンネルを持つ

img_gray_bgr = cv2.cvtColor(img_gray, cv2.COLOR_GRAY2BGR)

print(f”グレースケールからBGRに戻した画像の形状: {img_gray_bgr.shape}, データ型: {img_gray_bgr.dtype}”)

変換結果の表示

show_images([img_bgr, img_gray, img_gray_bgr], [“Original BGR”, “Grayscale”, “Grayscale (as BGR)”])
“`

解説:

  • cv2.COLOR_BGR2GRAY によって、3チャンネルのBGR画像が1チャンネルのグレースケール画像に変換されました。形状を見ると、高さと幅は同じですが、チャンネル数がなくなっていることがわかります。
  • cv2.COLOR_GRAY2BGR は、1チャンネルのグレースケール画像を3チャンネルのBGR画像に変換します。各ピクセルのBGR値は、元のグレースケール値と同じになります。これにより、グレースケール画像もカラー画像と同じように扱うことができるようになります(例えば、カラー画像と配列演算を行う場合など)。見た目はグレースケールのままです。

3.2 BGR <-> HSV 変換

特定の色に基づく処理(例: 青色の物体検出)を行う際に非常に便利な変換です。

  • BGR -> HSV: cv2.COLOR_BGR2HSV を使用します。出力は3チャンネルのHSV画像になります。
    • H (色相): OpenCVでは 0 から 179 の範囲を取ります。これは一般的な色輪(0-360度)の半分に圧縮されています。
    • S (彩度): OpenCVでは 0 から 255 の範囲を取ります。
    • V (明度): OpenCVでは 0 から 255 の範囲を取ります。
      (値の範囲は入力がuint8の場合です。float32の場合はHが0-360、S,Vが0.0-1.0となるのが一般的ですが、OpenCVのfloat32->HSV変換は少し異なる範囲を返す場合があります。詳細はドキュメントを参照してください。通常はuint8で扱います。)
  • HSV -> BGR: cv2.COLOR_HSV2BGR を使用します。HSV画像を元のBGR形式に戻します。

“`python
print(“\n— BGR <-> HSV 変換 —“)

BGR画像をHSVに変換

img_hsv = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2HSV)

print(f”HSV画像の形状: {img_hsv.shape}, データ型: {img_hsv.dtype}”)

HSV画像をBGRに戻す

img_hsv_bgr = cv2.cvtColor(img_hsv, cv2.COLOR_HSV2BGR)

変換結果の表示

show_images([img_bgr, img_hsv_bgr], [“Original BGR”, “HSV -> BGR”])

HSVチャンネルを分離して表示

split() 関数は3チャンネル画像を個別の1チャンネル画像に分割する

h, s, v = cv2.split(img_hsv)

show_images([h, s, v], [“Hue (H)”, “Saturation (S)”, “Value (V)”])

Hueチャンネルの色相の範囲(0-179)を表示

print(f”Hueチャンネルの値の最小値: {h.min()}, 最大値: {h.max()}”)
“`

解説:

  • cv2.COLOR_BGR2HSV によって、BGR画像がHSV画像に変換されます。形状は変わりませんが、値の解釈が異なります。
  • cv2.COLOR_HSV2BGR は、HSV画像をBGRに戻します。元の画像とほぼ同じ画像が得られるはずです(丸め誤差などで完全に一致しない場合もあります)。
  • cv2.split() を使うと、3チャンネルのHSV画像をHue, Saturation, Valueそれぞれの単一チャンネル画像に分割できます。これらのチャンネル画像を個別に表示することで、それぞれの成分が画像のどの部分に影響を与えているかが視覚的に理解できます。
    • Hue画像は、色の種類に応じて明るさが変化します。
    • Saturation画像は、色の鮮やかさ(彩度)に応じて明るさが変化します。鮮やかな部分は明るく、グレーに近い部分は暗くなります。
    • Value画像は、画像の明るさ(明度)に応じて明るさが変化します。これはグレースケール画像に近い見た目になります。
  • Hueチャンネルの値の範囲が0-179になっていることを確認できます。特定の色の範囲を抽出する際には、この範囲を考慮する必要があります。

応用例: 特定の色の抽出

HSV色空間を使う最も一般的な応用例は、画像の中から特定の色の領域を抽出することです。例えば、青色の物体だけを検出したい場合、HSV空間で青色に対応する色相(H)、彩度(S)、明度(V)の範囲を定義し、cv2.inRange 関数を使ってその範囲内のピクセルを抽出します。

“`python
print(“\n— 応用例: 特定の色(青色)の抽出 —“)

HSV空間での青色の範囲を定義(これは一般的な例であり、環境光などで変動します)

Hueは0-179、SaturationとValueは0-255

青色のHueの範囲は通常100-140あたり

SとVは、抽出したい青の「鮮やかさ」や「明るさ」に応じて調整

lower_blue = np.array([100, 50, 50])
upper_blue = np.array([140, 255, 255])

HSV画像に対して、指定した範囲内のピクセルを抽出するマスクを作成

inRange関数は、範囲内のピクセルを255、それ以外を0とするバイナリ画像を返す

mask_blue = cv2.inRange(img_hsv, lower_blue, upper_blue)

マスクを使って元の画像から青色の部分だけを抽出(ビットAND演算)

maskは単一チャンネルなので、BGR画像とのAND演算のためには3チャンネルにする必要がある

cv2.bitwise_and 関数は mask が単一チャンネルでも3チャンネル画像に対して動作する

result_blue = cv2.bitwise_and(img_bgr, img_bgr, mask=mask_blue)

変換結果の表示

show_images([img_bgr, mask_blue, result_blue], [“Original BGR”, “Blue Mask”, “Extracted Blue”])
“`

解説:

  1. BGR画像をHSVに変換します。
  2. HSV空間で「青色」と判断する範囲 (lower_blue, upper_blue) を定義します。この範囲は試行錯誤や環境に合わせて調整が必要です。Hueは色相を表し、例えば青色は色輪上で約240度ですが、OpenCVのHueは0-179にマッピングされるため、約120(240の半分)を中心とした範囲になります。SaturationとValueは、どの程度鮮やかで明るい青を抽出したいかで決めます。
  3. cv2.inRange(img_hsv, lower_blue, upper_blue) 関数は、img_hsv の各ピクセルが lower_blueupper_blue で定義されるボックスの範囲内にあるかどうかを判定し、その結果をバイナリマスクとして返します。範囲内のピクセルは255、それ以外は0になります。
  4. cv2.bitwise_and(img_bgr, img_bgr, mask=mask_blue) は、元の img_bgr 画像に対して、mask_blue が255になっているピクセルのみを残し、0になっているピクセルを全て黒(0,0,0)にする操作を行います。これにより、画像の中から青色の領域だけが抽出されます。

このテクニックは、カラーベースのオブジェクト追跡や認識、画像の特定部分の強調などに広く使われます。

3.3 BGR <-> HLS 変換

HSVと似ていますが、明るさの表現が異なります。

  • BGR -> HLS: cv2.COLOR_BGR2HLS を使用します。出力は3チャンネルのHLS画像になります。
    • H (色相): OpenCVでは 0 から 179 の範囲です(HSVと同じ)。
    • L (輝度): OpenCVでは 0 から 255 の範囲です。HSVのVとは計算方法が異なります。
    • S (彩度): OpenCVでは 0 から 255 の範囲です。HSVのSとは計算方法が異なります。
  • HLS -> BGR: cv2.COLOR_HLS2BGR を使用します。

“`python
print(“\n— BGR <-> HLS 変換 —“)

BGR画像をHLSに変換

img_hls = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2HLS)

print(f”HLS画像の形状: {img_hls.shape}, データ型: {img_hls.dtype}”)

HLS画像をBGRに戻す

img_hls_bgr = cv2.cvtColor(img_hls, cv2.COLOR_HLS2BGR)

変換結果の表示

show_images([img_bgr, img_hls_bgr], [“Original BGR”, “HLS -> BGR”])

HLSチャンネルを分離して表示

h_hls, l_hls, s_hls = cv2.split(img_hls)

show_images([h_hls, l_hls, s_hls], [“Hue (H) [HLS]”, “Lightness (L) [HLS]”, “Saturation (S) [HLS]”])
“`

解説:

  • HSVと同様に、HLSも3チャンネル画像です。チャンネル分離後の画像を見ると、それぞれの成分が異なる特徴を捉えていることがわかります。
  • Lightnessチャンネルは画像の明るさを表しますが、HSVのValueチャンネルとは計算方法が異なるため、見た目も少し変わります。例えば、純粋な赤、緑、青などの原色では、HSVのValueは255になりますが、HLSのLightnessは128程度になります。白が255、黒が0になる点は共通です。
  • SaturationチャンネルもHSVのSaturationチャンネルとは計算方法が異なりますが、色の鮮やかさを表す点は同じです。

どちらの色空間(HSVまたはHLS)を使用するかは、タスクや個人の好みによって選択されます。例えば、画像の全体的な明るさだけを調整したい場合は、HLSのLightnessチャンネルを操作する方が直感的な結果が得られることがあります。

3.4 BGR <-> YCrCb 変換

主に画像圧縮や肌色検出に使われます。

  • BGR -> YCrCb: cv2.COLOR_BGR2YCrCb を使用します。出力は3チャンネルのYCrCb画像になります。
    • Y (輝度): OpenCVでは 0 から 255 の範囲を取ります。
    • Cr (赤色差): OpenCVでは 0 から 255 の範囲にマッピングされています(本来は中央値が0)。
    • Cb (青色差): OpenCVでは 0 から 255 の範囲にマッピングされています(本来は中央値が0)。
  • YCrCb -> BGR: cv2.COLOR_YCrCb2BGR を使用します。

“`python
print(“\n— BGR <-> YCrCb 変換 —“)

BGR画像をYCrCbに変換

img_ycrcb = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2YCrCb)

print(f”YCrCb画像の形状: {img_ycrcb.shape}, データ型: {img_ycrcb.dtype}”)

YCrCb画像をBGRに戻す

img_ycrcb_bgr = cv2.cvtColor(img_ycrcb, cv2.COLOR_YCrCb2BGR)

変換結果の表示

show_images([img_bgr, img_ycrcb_bgr], [“Original BGR”, “YCrCb -> BGR”])

YCrCbチャンネルを分離して表示

y, cr, cb = cv2.split(img_ycrcb)

show_images([y, cr, cb], [“Luminance (Y)”, “Red-difference (Cr)”, “Blue-difference (Cb)”])

Cr, Cbチャンネルの値の範囲を確認

print(f”Crチャンネルの値の最小値: {cr.min()}, 最大値: {cr.max()}”)
print(f”Cbチャンネルの値の最小値: {cb.min()}, 最大値: {cb.max()}”)
“`

解説:

  • Yチャンネルは画像の輝度を表しており、グレースケール画像とよく似た見た目になります。
  • CrチャンネルとCbチャンネルは色差を表します。これらのチャンネルの見た目は、一般的な画像とは異なり、色合いの情報が主に含まれています。Crは赤と緑の差、Cbは青と黄の差に関連しており、値が大きいほど赤や青の成分が強いことを示唆します。
  • CrとCbチャンネルの値の範囲が0-255にマッピングされていることがわかります。本来の色差信号は正負両方の値を取りますが、OpenCVでは通常128を中心にマッピングされます(例えば、肌色はCrとCbが比較的近い値、かつ特定の範囲に集まる傾向があります)。

応用例: 肌色検出

YCrCb色空間は肌色検出によく利用されます。肌の色は、人種や照明条件によってRGB値が大きく変動しますが、YCrCb空間、特にCrとCbチャンネルの値は、比較的狭い範囲に集まる傾向があります。

“`python
print(“\n— 応用例: 肌色検出 —“)

YCrCb空間での一般的な肌色の範囲を定義

この範囲は経験的に決定されることが多く、画像や検出対象によって調整が必要

Y, Cr, Cb のそれぞれの最小値と最大値を指定

肌色のCr, Cb値は通常、中央値(128)から大きく外れない特定の範囲に集中する

例: Cr (133, 173), Cb (77, 127) あたりがよく使われる範囲の目安

Y (輝度)の範囲も含めることで、明るすぎる部分や暗すぎる部分を除外できる場合がある

lower_skin = np.array([0, 133, 77]) # Y, Cr, Cb の最小値
upper_skin = np.array([255, 173, 127]) # Y, Cr, Cb の最大値

YCrCb画像に対して、指定した範囲内のピクセルを抽出するマスクを作成

mask_skin = cv2.inRange(img_ycrcb, lower_skin, upper_skin)

マスクを使って元の画像から肌色の部分だけを抽出

result_skin = cv2.bitwise_and(img_bgr, img_bgr, mask=mask_skin)

変換結果の表示

show_images([img_bgr, mask_skin, result_skin], [“Original BGR”, “Skin Mask (YCrCb)”, “Extracted Skin”])
“`

解説:

肌色の検出は、YCrCb空間でCrとCbの値が特定の範囲内にあるかどうかを判定することで行われます。上記の例では、YCrCb空間での肌色の境界値を定義し、cv2.inRange を使用してマスクを作成しています。このマスクを元の画像に適用することで、肌色の領域を抽出できます。この範囲は厳密なものではなく、画像や環境に応じて調整が必要な点に注意が必要です。また、照明条件などによって肌色のYCrCb値が大きく変動する場合があるため、よりロバストな肌色検出には、機械学習などの高度な手法が用いられることもあります。

3.5 BGR <-> CIE Lab 変換

知覚的に均等な色空間で、色の比較や補正に適しています。

  • BGR -> Lab: cv2.COLOR_BGR2Lab を使用します。出力は3チャンネルのLab画像になります。
    • L* (輝度): 入力が uint8 (0-255) の場合、L*は 0-255 の範囲にマッピングされます (本来は 0-100)。
    • a* (赤-緑): 入力が uint8 (0-255) の場合、a*は 0-255 の範囲にマッピングされます (本来は負の値から正の値)。
    • b* (黄-青): 入力が uint8 (0-255) の場合、b*は 0-255 の範囲にマッピングされます (本来は負の値から正の値)。
      float32入力をサポートしており、その場合はL*が0.0-100.0、a*とb*が約-128.0から+128.0の範囲になりますが、uint8入力の場合、値の範囲が0-255にスケーリングされることに注意が必要です。)
  • Lab -> BGR: cv2.COLOR_Lab2BGR を使用します。

“`python
print(“\n— BGR <-> Lab 変換 —“)

BGR画像をLabに変換

img_lab = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2Lab)

print(f”Lab画像の形状: {img_lab.shape}, データ型: {img_lab.dtype}”)

Lab画像をBGRに戻す

img_lab_bgr = cv2.cvtColor(img_lab, cv2.COLOR_Lab2BGR)

変換結果の表示

show_images([img_bgr, img_lab_bgr], [“Original BGR”, “Lab -> BGR”])

Labチャンネルを分離して表示

l_lab, a_lab, b_lab = cv2.split(img_lab)

show_images([l_lab, a_lab, b_lab], [“Lightness (L) [Lab]”, “a (Red-Green) [Lab]”, “b* (Yellow-Blue) [Lab]”])

L, a, b* チャンネルの値の範囲を確認

print(f”Lチャンネルの値の最小値: {l_lab.min()}, 最大値: {l_lab.max()}”)
print(f”a
チャンネルの値の最小値: {a_lab.min()}, 最大値: {a_lab.max()}”)
print(f”b*チャンネルの値の最小値: {b_lab.min()}, 最大値: {b_lab.max()}”)
“`

解説:

  • L*チャンネルは明るさを表し、グレースケール画像やYCrCbのYチャンネルと似ています。0が黒、255が白(uint8の場合)に対応します。
  • a*チャンネルは赤と緑の色差、b*チャンネルは黄と青の色差を表します。uint8の場合、これらのチャンネルの値は0-255にマッピングされており、中央値の128付近が無彩色(灰色)を表します。値が128より大きいほど赤み/黄みが強く、小さいほど緑み/青みが強いことを示します。
  • Lab空間は知覚的に均等であるため、例えば2つの色のLab値間のユークリッド距離は、人間が感じる色の差と比較的よく対応します。これは、画像の色合いを調整したり、異なる画像間の色差を比較したり、色ベースのセグメンテーションを行う際に役立ちます。

3.6 BGR <-> RGB 変換

OpenCVはデフォルトでBGR順ですが、多くの画像ライブラリ(Matplotlib, Pillowなど)はRGB順を期待します。これらのライブラリと連携する際にこの変換が必要になります。

  • BGR -> RGB: cv2.COLOR_BGR2RGB を使用します。
  • RGB -> BGR: cv2.COLOR_RGB2BGR を使用します。

“`python
print(“\n— BGR <-> RGB 変換 —“)

BGR画像をRGBに変換

img_rgb = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2RGB)

print(f”RGB画像の形状: {img_rgb.shape}, データ型: {img_rgb.dtype}”)

RGB画像をBGRに戻す

img_rgb_bgr = cv2.cvtColor(img_rgb, cv2.COLOR_RGB2BGR)

変換結果の表示

OpenCVのimshowはBGRを期待するので、BGRに戻した画像を表示

show_images([img_bgr, img_rgb_bgr], [“Original BGR (Displayed with cv2’s imshow)”, “BGR -> RGB -> BGR (Displayed with cv2’s imshow)”])

BGR画像をRGBに変換してMatplotlibで表示する例(先述の表示関数で既に使用)

show_image(img_rgb, “BGR converted to RGB for Matplotlib”)

“`

解説:

この変換は、チャンネルの並び順を入れ替えるだけです。画像データ自体は変わりません。OpenCV外のライブラリと連携する際には、この変換が必要になることを覚えておきましょう。

3.7 その他の変換

OpenCVは上記以外にも多くの色空間変換をサポートしています。例えば:

  • RGB <-> Grayscale (cv2.COLOR_RGB2GRAY, cv2.COLOR_GRAY2RGB)
  • RGB <-> HSV (cv2.COLOR_RGB2HSV, cv2.COLOR_HSV2RGB)
  • RGB <-> HLS (cv2.COLOR_RGB2HLS, cv2.COLOR_HLS2RGB)
  • RGB <-> YCrCb (cv2.COLOR_RGB2YCrCb, cv2.COLOR_YCrCb2RGB)
  • RGB <-> Lab (cv2.COLOR_RGB2Lab, cv2.COLOR_Lab2RGB)
  • BGR <-> CIE XYZ (cv2.COLOR_BGR2XYZ, cv2.COLOR_XYZ2BGR)
  • BGR <-> CIE L*uv (cv2.COLOR_BGR2Luv, cv2.COLOR_Luv2BGR)
  • BGR <-> CIE L*Ch (cv2.COLOR_BGR2LCh, cv2.COLOR_LCh2BGR)
  • など多数…

これらの変換コードは、OpenCVの公式ドキュメント(特に cv2.cvtColor の説明ページや ColorConversionCodes のページ)で詳細を確認できます。用途に応じて適切な変換を選択してください。

4. 実践的な応用例の詳細

前述の特定色抽出や肌色検出以外にも、色空間変換は様々な画像処理タスクで活用されます。いくつかの例をより詳しく見てみましょう。

4.1 画像の明るさ・コントラスト調整

画像全体の明るさやコントラストを調整する場合、輝度情報と色情報を分離できるHSVやHLS、またはLab色空間が便利です。特にHLSのLightnessチャンネルやHSVのValueチャンネル、LabのL*チャンネルを操作することで、色相や彩度への影響を抑えながら明るさを調整できます。

例えば、画像を明るくしたい場合:

  1. BGR画像をHLS(またはHSV, Lab)に変換する。
  2. Lightness(またはValue, L*)チャンネルを分離する。
  3. 分離した輝度チャンネルの値に定数を加算または乗算する。
  4. 輝度チャンネルをクランプして適切な範囲(0-255など)に収める。
  5. 操作した輝度チャンネルと元の色相・彩度チャンネルを結合する。
  6. HLS(またはHSV, Lab)画像をBGRに戻す。

“`python
print(“\n— 応用例: 画像の明るさ調整 (HLS Lightnessチャンネル操作) —“)

BGR画像をHLSに変換

img_hls = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2HLS)

HLSチャンネルを分離

h, l, s = cv2.split(img_hls)

Lightnessチャンネルの値を操作(例: 明るさを50増やす)

numpy配列の演算は要素ごとに行われる

brightness_increase = 50
l_adjusted = l + brightness_increase

値を適切な範囲(0-255)にクランプ

l_adjusted = np.clip(l_adjusted, 0, 255).astype(np.uint8)

操作したLightnessチャンネルと他のチャンネルを結合

img_hls_adjusted = cv2.merge([h, l_adjusted, s])

調整後のHLS画像をBGRに戻す

img_bgr_brightened = cv2.cvtColor(img_hls_adjusted, cv2.COLOR_HLS2BGR)

変換結果の表示

show_images([img_bgr, img_bgr_brightened], [“Original BGR”, “Brightened BGR (via HLS)”])
“`

この方法で、色相や彩度を大きく変えずに画像の明るさを調整できます。コントラスト調整も同様に、輝度チャンネルの値を操作することで行えます(例: 値から平均値を引いて係数を乗算し、平均値を戻す)。

4.2 画像フィルタリングの前処理

エッジ検出(例: Sobel, Canny)、コーナー検出(例: Harris, Shi-Tomasi)、特徴点検出(例: SIFT, SURF, ORB)など、多くの低レベル画像処理アルゴリズムは、入力としてグレースケール画像を期待します。これは、色の情報がこれらのアルゴリズムの邪魔になる場合があること、また処理速度向上のためです。

したがって、これらの処理を行う前に、BGR画像をグレースケール画像に変換することが一般的な前処理ステップとなります。

“`python
print(“\n— 応用例: エッジ検出のためのグレースケール変換 —“)

BGR画像をグレースケールに変換

img_gray = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2GRAY)

グレースケール画像に対してCannyエッジ検出を適用

edges = cv2.Canny(img_gray, 100, 200) # 閾値は例

変換結果とエッジ画像の表示

show_images([img_bgr, img_gray, edges], [“Original BGR”, “Grayscale (for Edge Detection)”, “Canny Edges”])
“`

この例のように、多くの画像処理関数はグレースケール画像を前提としているため、cv2.cvtColor によるグレースケール変換は非常に頻繁に使用されます。

4.3 知覚的色差の計算

Lab色空間は知覚的に均等であるため、2つの色のLab値間のユークリッド距離($\Delta E^*$、デルタ・イー)を計算することで、人間が感じる色の差を定量化できます。これは、品質管理、色補正、色のセグメンテーションなどで利用されます。

“`python
print(“\n— 応用例: 知覚的色差の計算 (Lab空間) —“)

例として、画像の中心付近のピクセルを基準色とする

height, width, _ = img_bgr.shape
center_pixel_bgr = img_bgr[height // 2, width // 2]
print(f”中心ピクセルのBGR値: {center_pixel_bgr}”)

基準色をLabに変換

center_pixel_lab = cv2.cvtColor(np.uint8([[center_pixel_bgr]]), cv2.COLOR_BGR2Lab)[0][0]
print(f”中心ピクセルのLab値 (uint8スケール): {center_pixel_lab}”)

画像全体をLabに変換

img_lab = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2Lab)

各ピクセルと基準色ピクセルとのLab空間でのユークリッド距離を計算

L, a, b* チャンネルを分離

l, a, b = cv2.split(img_lab)

基準色のL, a, b* 値

l_ref, a_ref, b_ref = center_pixel_lab

ユークリッド距離を計算: sqrt((L-L_ref)^2 + (a-a_ref)^2 + (b-b_ref)^2)

numpyの演算はブロードキャストされる

color_diff = np.sqrt((l – l_ref)2 + (a – a_ref)2 + (b – b_ref)**2)

色差マップを表示(大きいほど色が基準色から離れている)

plt.imshow(color_diff, cmap=’viridis’) # 色差を可視化するカラーマップ
plt.title(“Perceptual Color Difference from Center Pixel (Lab Space)”)
plt.colorbar(label=”Color Difference ($\Delta E$)”)
plt.axis(‘off’)
plt.show()
“`

解説:

  1. 基準となる色(この例では画像の中央のピクセルの色)をBGRからLabに変換します。この際、cv2.cvtColor は画像を入力として期待するため、単一ピクセルを np.uint8([[...]]) のように2次元配列として渡します。戻り値も多次元配列なので、必要な部分 [0][0] を取り出します。
  2. 画像全体をLabに変換します。
  3. 画像全体のLabチャンネルと基準色ピクセルのLabチャンネルの各成分の差の二乗和の平方根を計算します。これが各ピクセルと基準色との間の知覚的色差 ($\Delta E$) の近似値となります(厳密な $\Delta E^*$ 計算にはいくつかの式がありますが、単純なユークリッド距離もしばしば用いられます)。
  4. 計算された色差マップを画像として表示します。値が大きいピクセルほど、色が基準色から大きく異なっていることを示します。

この手法は、例えば布地の色検査で基準サンプルとの色差を測定したり、画像の特定の色の領域をより正確にセグメンテーションしたりする場合に応用できます。

5. 注意点とトラブルシューティング

cv2.cvtColor を使う際に遭遇しやすい問題や注意点をいくつか挙げます。

  • 入力画像のデータ型と値の範囲:

    • ほとんどの変換は uint8 型の入力(0-255)を想定しています。
    • Lab空間など、一部の色空間では float32 型(0.0-1.0など)の入力もサポートされていますが、出力される値の範囲が uint8 入力の場合と異なることがあります。
    • 例えば、uint8 のBGR画像をLabに変換すると、L*は0-255、a*とb*も0-255にマッピングされます。しかし、本来Lab空間のL*は0-100、a*とb*は負の値から正の値(約-128から+128)を取ります。OpenCVはこの範囲を0-255にスケーリングしています。もしLab空間での正確な値が必要な場合は、入力を float32 に変換し、0.0-1.0の範囲に正規化してから変換を行うか、変換後の uint8 の値を適切に逆スケーリングする必要があります。
    • 異なるデータ型を混在させると、期待しない結果になったりエラーになったりします。
  • 変換コードの指定ミス:

    • cv2.COLOR_BGR2GRAYcv2.COLOR_RGB2GRAY のように、変換元がBGRかRGBかでコードが異なります。OpenCVはBGR順で画像を読み込むことを忘れないでください。
    • 存在しない変換コードを指定するとエラーになります。
  • 入力画像のチャンネル数:

    • cv2.cvtColor は、変換コードで指定された変換元色空間と一致するチャンネル数の画像を入力として期待します。例えば、cv2.COLOR_BGR2GRAY には3チャンネルの画像を入力する必要があります。1チャンネルのグレースケール画像を入力しようとするとエラーになります。
    • ただし、cv2.COLOR_GRAY2BGR のように、入力が1チャンネルのグレースケール画像を期待する変換コードもあります。
  • HSV/HLSの色相(H)の範囲:

    • OpenCVのHSV/HLS色空間における色相(H)チャンネルの値は、uint8 の場合 0 から 179 の範囲を取ります。これは一般的な360度の色輪の半分に対応します。特定の色範囲を定義する際に、この範囲に注意しないと正しい結果が得られません。
  • 値のクリッピングと丸め誤差:

    • 色空間変換は数学的な計算を伴いますが、特に uint8 のように値の範囲が限られているデータ型を使用する場合、計算結果が範囲外になったり、浮動小数点数から整数への丸めが行われたりします。これにより、元の画像と変換→逆変換した画像が完全に一致しない場合があります。これは通常の実用上問題になることは少ないですが、精密な処理を行う場合は注意が必要です。

エラーが発生した場合は、エラーメッセージをよく確認し、特に上記の点(入力画像の形状・データ型、変換コード)を確認してみてください。

6. まとめ

この記事では、OpenCVの cv2.cvtColor 関数を使った画像の色空間変換について詳細に解説しました。

  • 色空間変換は、画像処理の目的(特徴抽出、セグメンテーション、色調整など)に応じて、画像データの色情報をより扱いやすい形式に変換するために不可欠な技術です。
  • OpenCVの cv2.cvtColor 関数は、BGR/RGB、グレースケール、HSV/HLS、YCrCb、Labなど、様々な色空間間での変換をサポートしています。
  • 関数の引数 code に適切な cv2.COLOR_ 定数を指定することで、簡単に変換を実行できます。
  • 各色空間にはそれぞれ異なる特性があり、用途に応じて最適な色空間を選択することが重要です。
    • グレースケール: 処理速度向上、色情報がノイズとなるタスク(エッジ検出など)。
    • HSV/HLS: 特定の色に基づく処理(色抽出、色追跡)、直感的な色調整。
    • YCrCb: 画像圧縮、肌色検出。
    • Lab: 知覚的に均等な色差計算、デバイス非依存の色表現、精密な色補正。
  • cv2.cvtColor は入力画像のデータ型(uint8float32)をサポートしていますが、変換先の色空間によって値の範囲が異なる場合があるため注意が必要です。
  • 特定の色の抽出、画像の明るさ・コントラスト調整、画像フィルタリングの前処理、知覚的色差の計算など、色空間変換は幅広い応用が可能です。

cv2.cvtColor はOpenCVを使った画像処理において最も基本的な関数の一つです。この記事で解説した内容を参考に、様々な色空間での画像処理を試してみてください。さらに高度な画像処理技術を学ぶ上で、色空間の理解と活用は非常に強力な基盤となります。

7. 付録:主要な色空間変換コード一覧

以下に、よく使われる色空間変換コードの一部を抜粋します。完全なリストはOpenCVの公式ドキュメントを参照してください。

変換元 変換先 変換コード チャンネル数 (元→先) 備考
BGR Grayscale cv2.COLOR_BGR2GRAY 3 -> 1 最も頻繁に使用
Grayscale BGR cv2.COLOR_GRAY2BGR 1 -> 3 見た目はグレースケールだが3チャンネルになる
BGR RGB cv2.COLOR_BGR2RGB 3 -> 3 Matplotlibなど外部ライブラリ連携時
RGB BGR cv2.COLOR_RGB2BGR 3 -> 3 外部ライブラリからOpenCVに戻す時
BGR HSV cv2.COLOR_BGR2HSV 3 -> 3 色による検出・追跡に便利(H:0-179, S,V:0-255)
HSV BGR cv2.COLOR_HSV2BGR 3 -> 3
BGR HLS cv2.COLOR_BGR2HLS 3 -> 3 HSVと同様の用途(L:0-255)
HLS BGR cv2.COLOR_HLS2BGR 3 -> 3
BGR YCrCb cv2.COLOR_BGR2YCrCb 3 -> 3 JPEG圧縮、肌色検出
YCrCb BGR cv2.COLOR_YCrCb2BGR 3 -> 3
BGR Lab cv2.COLOR_BGR2Lab 3 -> 3 知覚的色差、色補正
Lab BGR cv2.COLOR_Lab2BGR 3 -> 3
RGB Grayscale cv2.COLOR_RGB2GRAY 3 -> 1
RGB HSV cv2.COLOR_RGB2HSV 3 -> 3
RGB Lab cv2.COLOR_RGB2Lab 3 -> 3
その他多数

このリストは頻繁に使うであろう変換を中心に掲載しています。必要な変換コードが見つからない場合は、OpenCVのドキュメントを確認してください。

これで、OpenCVの cv2.cvtColor 関数を使った色空間変換に関する詳細な解説を終わります。この知識が、あなたの画像処理学習や開発の一助となれば幸いです。

コメントする

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

上部へスクロール