«NuGet による freeglut / GLFW / .. 最新 矩形の描き方»

床井研究室

※このブログは遅くとも 2027 年 3 月に管理者の定年退職により閉鎖します (移転先は管理者本人共々模索中)

■ 2016年06月29日 [OpenGL][GLSL] 魚眼レンズ画像の平面展開

2019年10月18日 17:06更新

やりたいことがいっぱいある

本当にやりたいことはいっぱいあって,いくつかには手を付けたものの,やらなきゃなんないことに時間を奪われて,途中で放置している状態です.でも,一番やりたかった「家族と一緒に版ご飯を食べる」は,このところ実践しています.やりたいことをやる時間がなければ,やらなきゃなんないことに混ぜてやってしまえとか思うんですけど,なかなかうまくいきませんね.学生さん向けの資料もいくつかブログにまとめようと思っているんですけど,後回しになっています.GLFW で Oculus を使うことに関しても,それなりにノウハウがたまってきたのでブログにまとめたいと思ってるんですけど.

魚眼レンズ

その関連で,最近はやりの RICOH THETA S や Kodak SP360 4K で撮った全方位画像 (っていうのが画像処理的な言い方なのかなと思いますけど,一般的には全天球画像とか全周画像とか言いますね) を Oculus Rift DK1 / DK2 で見る方法について,「私のやり方」をちょっとでメモっておこうと思います.魚眼レンズ画像というのは,例えばこんなものです.これは11年前! (自分でもちょっとびっくり) に放物面マッピングの記事を書いたときに使ったものです.画像の上下が反転しているのは OpenGL の都合です.

魚眼レンズで撮影した画像 これは魚眼レンズを付けた Nikon COOLPIX 995 で撮影しました. 魚眼レンズを付けた Nikon COOLPIX 995

このカメラとレンズは私の持ち物ではないのですが,同僚から借りたまま,今でも放射照度マッピングの素材作成などに使っています*1.でも最近,RICOH THETA S と Kodak SP360 4K を買ったので,いい加減,持ち主に返そうかと思っています.11 年ぶりに.

この Nikon COOLPIX 995 の魚眼レンズを含め,現在一般に市販されている魚眼レンズの大半は,画像の中心からの距離が角度に比例する等距離射影方式のものです.他の射影方式のものは,カメラ用では等立体角射影方式の SIGMA 4.5mm F2.8 EX DC CIRCULAR FISHEYE HSM くらいしか知りません.ググると FIT FI-085/111 というものが見つかります.これは射影方式を切り替えられるようなので,このあたりの沼にはまるには最適かと思います.誰か買ってください.なお,レンズの射影方式については,屋根の上さんが詳しいです.

魚眼レンズ画像の平面展開

この画像を平面に展開して投影するわけですが,ディスプレイが Oculus Rift などの HMD の場合,ヘッドトラッキングによって取得した頭の方向を使って,見ている方向の映像を表示する必要があります.

Oculus Rift DK1 / DK2

そこで,ディプレイの視野 (Fov, Field of View) を,次のような四角錐でモデル化します.この四角錐の頂上は原点にあり,視点はそこにあります.

Oculus Rift の片目の視野

一方,ディスプレイの全面を埋めるポリゴンを描くには,クリッピング空間の xy 平面に一致する四角形を用います.

クリッピング空間の xy 平面と一致する四角形

バーテックスシェーダ

バーテックスシェーダでは,この頂点座標を pv という attribute 変数で受け取るとします.これをそのまま gl_Position に代入すれば,クリッピング空間いっぱい,すなわち表示領域の全面を埋めるポリゴンを描くことができます.そのとき,同時にこの四角形の頂点位置から,視野の四角錐の底面の頂点座標を求めます.

$$\begin{array}{l}texcoord_x=\frac{RightTan+LeftTan}{2}pv_x+\frac{RightTan-LeftTan}{2}\\texcoord_y=\frac{UpTan+DownTan}{2}pv_y+\frac{UpTan-DownTan}{2}\\texcoord_z=-1\end{array}$$

これを Oculus のヘッドトラッキングにより得た回転行列 mo*2 を使って回転し,それを varying 変数 texcoord に out します.その際,全方位画像の場合は画像は無限の遠方にあると考えますので,ヘッドトラッキングの平行移動成分は使用しません*3

#version 150 core
#extension GL_ARB_explicit_attrib_location : enable
 
//
// tracking.vert
//
//   ヘッドトラッキングを行う
//
 
// 頂点座標
layout (location = 0) in vec4 pv;
 
// Oculus Rift の回転
uniform mat4 mo;
 
// スクリーンのサイズと中心位置
uniform vec4 screen;
 
// テクスチャ座標
out vec3 texcoord;
 
void main()
{
  // 頂点座標を方向ベクトルに換算
  texcoord = vec3(mo * vec4(pv.xy * screen.xy + screen.zw, -1.0, 0.0));
  
  // 頂点座標をそのまま出力
  gl_Position = pv;
}

ここで screen には vec4((RightTan + LeftTan) * 0.5, (UpTan + DownTan) * 0.5, (RightTan - LeftTan) * 0.5, (UpTan - DownTan) * 0.5) を格納しています.

フラグメントシェーダ

こうするとフラグメントシェーダで受け取った varying 変数 texcoord の内容は,そのフラグメントを通る視線の方向ベクトルになります.これを使ってテクスチャをサンプリングします.

魚眼画像のサンプリング

魚眼レンズ画像のイメージサークルの半径を R,そこにおける仰角を θmax とすれば,texcoord の方向 (視線の方向) のテクスチャ座標値 (s, t) は次式で求めることができます.

$$\begin{array}{l}\theta=\arccos\left\{\frac{-texcoord_x}{\sqrt{texcoord_x^2+texcoord_y^2+texcoord_z^2}}\right\}\\r=\frac{\theta}{\theta_{max}}R\\s=\frac{texcoord_x}{\sqrt{texcoord_x^2+texcoord_y^2}}r\\t=\frac{texcoord_y}{\sqrt{texcoord_x^2+texcoord_y^2}}r\end{array}$$

#version 150 core
#extension GL_ARB_explicit_attrib_location : enable
#extension GL_ARB_explicit_uniform_location : enable
 
//
// fisheye.frag
//
//   魚眼レンズを使って撮影した画像を用いる
//
 
// テクスチャ
layout (location = 3) uniform sampler2D image;
 
// 背景テクスチャのシフト量
uniform vec2 shift;
 
// 背景テクスチャのスケールと中心位置
uniform vec2 scale;
 
// ラスタライザから受け取る頂点属性の補間値
in vec3 texcoord;                                   // テクスチャ座標
 
// フレームバッファに出力するデータ
layout (location = 0) out vec4 fc;                  // フラグメントの色
 
// 天頂角 (θmax) の逆数
const float invTmax = 0.6366198;
 
void main(void)
{
  // このフラグメントを通る視線の方向ベクトル
  vec3 direction = normalize(texcoord);
  
  // テクスチャ座標
  vec2 st = normalize(texcoord.xy) * acos(-direction.z) * invTmax;
  
  // 全周魚眼画像から視線方向の色をサンプリングする
  fc = texture(image, st * scale + shift);
}

これは θmax = 90° (180° 全周魚眼レンズ) の場合です.invTmax = 1 / (π / 2) = 0.6366198 です.

180° 全周魚眼レンズ

Kodak SP360 4K の場合は,レンズカバーを付けていない場合(下図はレンズカバー付き),θmax は手振れ補正 off のとき 235° / 2 = 117.5°,on のとき 206° / 2 = 103° なので,invTmax はそれぞれ 0.4876237,0.5562697 くらいになります.

Kodak SP360 4K

scale はイメージサークルの拡大率を微調整するパラメータで,初期値は (0.5, 0.5) です.shift はイメージサークルの中心位置を微調整するパラメータで,これも初期値は (0.5, 0.5) です.

RICOH THETA S のライブストリーミングの場合

RICOH THETA S は,静止画では正距円筒図法の画像が得られますが,ライブストリームでは二つの全周魚眼 (Dual Fisheye) 画像が得られます.この個々のイメージサークルは θmax = 90° (180° 全周魚眼レンズ) として扱い,その角度における画像の半径を R とします.実際のイメージサークルは R の範囲より広くなっています.

フラグメントシェーダでは,処理対象のフラグメントにおける視線の方向ベクトルから,全天球の「北極」と「南極」からの角度 θθ' を求めます.そして,そのそれぞれについてイメージサークルの中心からの距離 rr',テクスチャ座標 (s, t) と (s', t') を求め,テクスチャの二か所をサンプリングします.この一方が R の内部にあれば,もう一方は R の外部にあります.rr'R に近い場合は両方の画像がサンプリングされるので,R の付近でスロープになっている階段状の関数を使って,これらをブレンドします.

RICOH THETA S の Dual Fisheye 画像のサンプリング

フラグメントシェーダのプログラムは,次のようになります.

#version 150 core
#extension GL_ARB_explicit_attrib_location : enable
#extension GL_ARB_explicit_uniform_location : enable
 
//
// thetalive.frag
//
//   RICOH THETA S のライブストリーミング映像を用いる
//
 
// テクスチャ
layout (location = 3) uniform sampler2D image;
 
// 背景テクスチャのシフト量
uniform vec2 shift;
 
// 背景テクスチャのスケールと中心位置
uniform vec2 scale;
 
// ラスタライザから受け取る頂点属性の補間値
in vec3 texcoord;                                   // テクスチャ座標
 
// フレームバッファに出力するデータ
layout (location = 0) out vec4 fc;                  // フラグメントの色
 
void main(void)
{
  // このフラグメントを通る視線の方向ベクトル
  vec3 direction = normalize(texcoord);
  
  // この方向ベクトルの相対的な仰角 [-1, 1]
  float angle = acos(direction.z) * 0.63661977 - 1.0;
  
  // 前後のテクスチャの混合比
  float blend = 0.5 - clamp(angle * 10.0, -0.5, 0.5);
  
  // 視線の方向ベクトルの yx 平面上での方位ベクトル
  vec2 orientation = normalize(texcoord.yx) * 0.885;
  
  // 二重魚眼テクスチャのサイズ
  vec2 size = vec2(textureSize(image, 0));
  
  // 魚眼画像のイメージサークルの高さの2分の1
  float aspect = size.x * 0.25 / size.y;
  
  // 前後のイメージサークルの半径
  vec2 radius_f = vec2( 0.25, aspect);
  vec2 radius_b = vec2(-0.25, aspect);
  
  // 前後のイメージサークルの中心
  vec2 center_f = vec2(0.75, aspect);
  vec2 center_b = vec2(0.25, aspect);
  
  // 前後のテクスチャの色をサンプリングする
  vec4 color_f = texture(image, (1.0 - angle) * orientation * radius_f + center_f);
  vec4 color_b = texture(image, (1.0 + angle) * orientation * radius_b + center_b);
  
  // サンプリングした色をブレンドしてフラグメントの色を求める
  fc = mix(color_f, color_b, blend);
}

こんな具合にできます.このやり方で 2 台の THETA S から HDMI でライブストリーミングした映像をリアルタイムに展開しても,特に重いということはありませんでした.

本題とは関係ありませんが,このプログラムは Oculus Rift を2台使えます.PC も2台使いますけど…

正距円筒図法の場合

このように魚眼カメラで取得した画像は,正距円筒図法に変換しなくても,そのまま使うことができます.正距円筒図法の画像を使う場合は,フラグメントシェーダは以下のようになります.

#version 150 core
#extension GL_ARB_explicit_attrib_location : enable
#extension GL_ARB_explicit_uniform_location : enable
 
//
// theta.frag
//
//   RICOH THETA S を使って撮影した画像を用いる
//
 
// テクスチャ
layout (location = 3) uniform sampler2D image;
 
// 背景テクスチャのシフト量
uniform vec2 shift;
 
// 背景テクスチャのスケールと中心位置
uniform vec2 scale;
 
// ラスタライザから受け取る頂点属性の補間値
in vec3 texcoord;                                   // テクスチャ座標
 
// フレームバッファに出力するデータ
layout (location = 0) out vec4 fc;                  // フラグメントの色
 
void main(void)
{
  // 正距円筒図法画像から視線方向の色をサンプリングする
  fc = texture(image, atan(texcoord.xy, vec2(texcoord.z, length(texcoord.xz))) * vec2(-0.15915494, -0.31830989) + 0.5);
}

やってることは授業でやってることと同じです.「頂点」が球面上ではなく平面上(投影面上)にあるだけです.プログラム中の -0.15915494 = -1 / 2π,-0.31830989 = -1 / π です.

球面マッピング

バーテックスシェーダで実装する

ここでは1枚ポリゴンを使用し,フラグメントシェーダでテクスチャ座標を算出しました.しかし,この1枚ポリゴンをメッシュに分割して描画し,バーテックスシェーダでテクスチャ座標 (s, t) まで求めておくこともできます.これを varying 変数として out すればラスタライザがテクスチャ座標を補間してくれるので,フラグメントシェーダの処理はテクスチャのサンプリングだけになり,処理を軽くすることができます.

メッシュのポリゴン

*1 いわゆる「借りパク」ですね.ごめんなさい.

*2 ここでは自分のプログラムの都合上 4 × 4 要素の行列を使い座標値の w 成分を 0 にしていますが普通は 3 × 3 要素の行列を使うべきです.

*3 使用しても座標値の w 成分を 0 にしていれば反映されません.

コメント(6) [コメントを投稿する]
樫村修生 2017年12月22日 12:39

教えてください.結局,Kodax PIXPRO SP360の魚眼レンズで撮影した画像は,何という射影法でしょうか?等距離射影法?等立体射影法?正射影法???

とこ 2018年03月14日 11:51

樫村さま,コメントありがとうございます.Kodax PIXPRO SP360 4K は等距離射影方式ではないでしょうか.<br>亀レス(死語)ですみません.

まっちん 2018年12月13日 09:50

Insta360 Pro2のようなカメラを使用して、トンネルを撮影しながら移動し、その撮影画像を展開図(縮尺・寸法が合っている)のようにCAD上に貼り付けるような、プログラムを作成することは可能でしょうか?

とこ 2018年12月13日 19:37

まっちんさま,コメントありがとうございます.その領域は不勉強なのですが,移動する全天球カメラで取得した 360°ムービーから,周囲の三次元形状をテクスチャ付きで再構成する手法は色々提案されているようです.<br><br>https://www.youtube.com/watch?v=p49GxjuejXM<br>https://www.youtube.com/watch?v=QjvDdjy3CzE<br>http://www.iwait2018.org/Paper%20IWAIT2018/IWAIT2018_paper_105.pdf<br>http://vision.ucla.edu/papers/lee09.pdf<br>http://stanford.edu/~jingweih/papers/6dof.pdf<br><br>もちろん,トンネル自体の正確な三次元モデルと,カメラのそのトンネル内の正確な位置がわかるなら,トンネルのモデルに全方位カメラで取得した画像をマッピングすることは,それほど大変ではないと思います.

たっ君 2019年10月16日 16:15

MATLABで魚眼画像の平面展開を行いたいのですが可能でしょうか?

とこ 2019年10月18日 17:06

すみません、ちょっと MATLAB はわかりません…


編集 «NuGet による freeglut / GLFW / .. 最新 矩形の描き方»