OpenCVの三角測量関数『cv::triangulatepoints』

NegativeMind
10 min readAug 3, 2017

--

だいぶ時間が空きましたが、引き続きOpenCVの3次元復元系の関数を見ていく。
https://blog.negativemind.com/2017/04/19/opencv-find-essential-matrix-function/

今回はcalib3dモジュールにあるtriangulatePoints関数。つまり三角測量を行う関数ですね。

void cv::triangulatePoints(InputArray   projMatr1,
InputArray projMatr2,
InputArray projPoints1,
InputArray projPoints2,
OutputArray points4D
)

三角測量で点を再構築します。

パラメータ

  • projMatr1 1つ目のカメラの射影行列(3×4)
  • projMatr2 2つ目のカメラの射影行列(3×4)
  • projPoints1 1枚目の画像中の特徴点の配列(2xN)
  • projPoints2 2枚目の画像中の1枚目に対応する特徴点の配列(2xN)
  • points4D 同次座標における再構成後の点の配列(4×N)

この関数は、ステレオカメラによる観測によって(同次座標での)3次元点を再構築します。投影行列はstereoRectify関数で得ることができます。

注意
この関数を使うには、すべての入力データがfloat型である必要があります。

http://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#gad3fc9a0c82b08df034234979960b778c



具体的な使い方を見て行こう。こちらのブログ記事に載っているコードを参考に書いてみた。↓
http://moitkfm.blogspot.jp/2014/06/2.html

使う2枚の画像は、以前撮影したスターデストロイヤーのターンテーブル動画から1フレーム目と50フレーム目を抜粋して使用する。

https://www.youtube.com/watch?v=MmR_Z2eX-JI

撮影に使ったiPhone6sのカメラキャリブレーションデータもあるし。
https://blog.negativemind.com/2016/09/27/iphone6s-camera-calibration-by-opencv/

以下がソースコード。AKAZE特徴で2枚の画像の対応点を求めることにした。
結果の可視化にvizモジュールを使っているので、vizも含めてビルド済みのOpenCV3.3.0-rcを使用。

#include 
#include
#include


int main(int argc, char** argv) {

// カメラのキャリブレーションデータ読み込み
cv::Mat cameraMatrix, distCoeffs;

cv::FileStorage fs("cameraParam.xml", cv::FileStorage::READ);
if (fs.isOpened()) {
fs["cameraMatrix"] >> cameraMatrix;
fs["distCoeffs"] >> distCoeffs;
}
else {
return -1;
}

cv::Mat img1; //入力画像1
cv::Mat img2; //入力画像2

// 画像ファイルを読み込み、レンズの歪み補正
cv::undistort(cv::imread("./images/starDestroyer_0001.png"), img1, cameraMatrix, distCoeffs);
cv::undistort(cv::imread("./images/starDestroyer_0050.png"), img2, cameraMatrix, distCoeffs);


// AKAZE特徴抽出
cv::Ptr detector = cv::AKAZE::create(); // 検出器
cv::Ptr descriptorExtractor = cv::AKAZE::create();// 特徴量
cv::Ptr matcher = cv::DescriptorMatcher::create("BruteForce"); // 対応点探索方法の設定


std::vector keypoints1, keypoints2;
std::vector keyPointsColor1, keyPointsColor2;
cv::Mat descriptor1, descriptor2;

detector->detect(img1, keypoints1);
descriptorExtractor->compute(img1, keypoints1, descriptor1);

detector->detect(img2, keypoints2);
descriptorExtractor->compute(img2, keypoints2, descriptor2);


//対応点の探索
std::vector dmatch;
std::vector dmatch12, dmatch21;

matcher->match(descriptor1, descriptor2, dmatch12); //img1 -> img2
matcher->match(descriptor2, descriptor1, dmatch21); //img2 -> img1


for (size_t i = 0; i < dmatch12.size(); i++) {

//img1 -> img2 と img2 -> img1の結果が一致しているか検証
cv::DMatch m12 = dmatch12[i];
cv::DMatch m21 = dmatch21[m12.trainIdx];

if (m21.trainIdx == m12.queryIdx) {// 一致しているものだけを抜粋
dmatch.push_back(m12);
}
}

cv::Mat matchImage; //マッチング結果を描画
cv::drawMatches(img1, keypoints1, img2, keypoints2, dmatch, matchImage);
cv::imshow("Matches", matchImage);

if (dmatch.size() > 5) {//十分な数の対応点があれば基礎行列を推定する

std::vector p1;
std::vector p2;

//対応付いた特徴点の取り出しと焦点距離1.0のときの座標に変換
for (size_t i = 0; i < dmatch.size(); i++) {

cv::Mat ip(3, 1, CV_64FC1);
cv::Point2d p;

ip.at(0) = keypoints1[dmatch[i].queryIdx].pt.x;
ip.at(1) = keypoints1[dmatch[i].queryIdx].pt.y;
ip.at(2) = 1.0;

ip = cameraMatrix.inv()*ip;
p.x = ip.at(0);
p.y = ip.at(1);
p1.push_back(p);

ip.at(0) = keypoints2[dmatch[i].trainIdx].pt.x;
ip.at(1) = keypoints2[dmatch[i].trainIdx].pt.y;
ip.at(2) = 1.0;

ip = cameraMatrix.inv()*ip;
p.x = ip.at(0);
p.y = ip.at(1);
p2.push_back(p);
}

cv::Mat mask; //RANSACの結果を保持するためのマスク
cv::Mat essentialMat = cv::findEssentialMat(p1, p2, 1.0, cv::Point2f(0, 0), cv::RANSAC, 0.9999, 0.003, mask);

cv::Mat r, t;
cv::recoverPose(essentialMat, p1, p2, r, t);


//正規化座標系で計算しているのでProjection matrix = Extrinsic camera parameter matrix
cv::Mat prjMat1, prjMat2;
prjMat1 = cv::Mat::eye(3, 4, CV_64FC1); //片方は回転、並進ともに0
prjMat2 = cv::Mat(3, 4, CV_64FC1);

for (int i = 0; i < 3; i++) {
for (int j = 0; j < 3; j++) {

prjMat2.at(i, j) = r.at(i, j);
}
}
prjMat2.at(0, 3) = t.at(0);
prjMat2.at(1, 3) = t.at(1);
prjMat2.at(2, 3) = t.at(2);


cv::Mat point3D;//三角測量による三次元位置の推定
cv::triangulatePoints(prjMat1, prjMat2, p1, p2, point3D);


// viz用に並べ替え
cv::Mat pointCloud(point3D.cols, 1, CV_32FC3);
for (int i = 0; i < point3D.cols; i++) {
for (int j = 0; j < 3; j++) {

pointCloud.at(i)[j] = point3D.at(j, i);
}
}


// 表示用vizウィンドウ作成
cv::viz::Viz3d visualizeWindow("3D");

// 点群の描画
cv::viz::WCloud cloud(pointCloud);
visualizeWindow.showWidget("CLOUD", cloud);

visualizeWindow.spin();// 3D Viewの描画
}

return 0;
}

AKAZE特徴のマッチング結果はこちら↓

で、三角測量の結果をvizモジュールで可視化したものがこちら↓

側面は何となくそれっぽいぞ。と思って上から見てみたら、なんだか湾曲している。。。

レンズっぽい球面な歪み方だな。
あ、以前作った連番はすでにレンズの歪み補正を終えているから、補正処理は必要なかったか。

Originally published at NegativeMindException.

--

--