OpenCVの三角測量関数『cv::triangulatepoints』
だいぶ時間が空きましたが、引き続きOpenCVの3次元復元系の関数を見ていく。
https://blog.negativemind.com/2017/04/19/opencv-find-essential-matrix-function/
今回はcalib3dモジュールにあるtriangulatePoints関数。つまり三角測量を行う関数ですね。
void cv::triangulatePoints(InputArray projMatr1,
InputArray projMatr2,
InputArray projPoints1,
InputArray projPoints2,
OutputArray points4D
)
三角測量で点を再構築します。
パラメータ
- projMatr1 1つ目のカメラの射影行列(3×4)
- projMatr2 2つ目のカメラの射影行列(3×4)
- projPoints1 1枚目の画像中の特徴点の配列(2xN)
- projPoints2 2枚目の画像中の1枚目に対応する特徴点の配列(2xN)
- points4D 同次座標における再構成後の点の配列(4×N)
この関数は、ステレオカメラによる観測によって(同次座標での)3次元点を再構築します。投影行列はstereoRectify関数で得ることができます。
注意
この関数を使うには、すべての入力データがfloat型である必要があります。
http://docs.opencv.org/3.2.0/d9/d0c/group__calib3d.html#gad3fc9a0c82b08df034234979960b778c
具体的な使い方を見て行こう。こちらのブログ記事に載っているコードを参考に書いてみた。↓
http://moitkfm.blogspot.jp/2014/06/2.html
使う2枚の画像は、以前撮影したスターデストロイヤーのターンテーブル動画から1フレーム目と50フレーム目を抜粋して使用する。
https://www.youtube.com/watch?v=MmR_Z2eX-JI
撮影に使ったiPhone6sのカメラキャリブレーションデータもあるし。
https://blog.negativemind.com/2016/09/27/iphone6s-camera-calibration-by-opencv/
以下がソースコード。AKAZE特徴で2枚の画像の対応点を求めることにした。
結果の可視化にvizモジュールを使っているので、vizも含めてビルド済みのOpenCV3.3.0-rcを使用。
#include
#include
#include
int main(int argc, char** argv) {
// カメラのキャリブレーションデータ読み込み
cv::Mat cameraMatrix, distCoeffs;
cv::FileStorage fs("cameraParam.xml", cv::FileStorage::READ);
if (fs.isOpened()) {
fs["cameraMatrix"] >> cameraMatrix;
fs["distCoeffs"] >> distCoeffs;
}
else {
return -1;
}
cv::Mat img1; //入力画像1
cv::Mat img2; //入力画像2
// 画像ファイルを読み込み、レンズの歪み補正
cv::undistort(cv::imread("./images/starDestroyer_0001.png"), img1, cameraMatrix, distCoeffs);
cv::undistort(cv::imread("./images/starDestroyer_0050.png"), img2, cameraMatrix, distCoeffs);
// AKAZE特徴抽出
cv::Ptr detector = cv::AKAZE::create(); // 検出器
cv::Ptr descriptorExtractor = cv::AKAZE::create();// 特徴量
cv::Ptr matcher = cv::DescriptorMatcher::create("BruteForce"); // 対応点探索方法の設定
std::vector keypoints1, keypoints2;
std::vector keyPointsColor1, keyPointsColor2;
cv::Mat descriptor1, descriptor2;
detector->detect(img1, keypoints1);
descriptorExtractor->compute(img1, keypoints1, descriptor1);
detector->detect(img2, keypoints2);
descriptorExtractor->compute(img2, keypoints2, descriptor2);
//対応点の探索
std::vector dmatch;
std::vector dmatch12, dmatch21;
matcher->match(descriptor1, descriptor2, dmatch12); //img1 -> img2
matcher->match(descriptor2, descriptor1, dmatch21); //img2 -> img1
for (size_t i = 0; i < dmatch12.size(); i++) {
//img1 -> img2 と img2 -> img1の結果が一致しているか検証
cv::DMatch m12 = dmatch12[i];
cv::DMatch m21 = dmatch21[m12.trainIdx];
if (m21.trainIdx == m12.queryIdx) {// 一致しているものだけを抜粋
dmatch.push_back(m12);
}
}
cv::Mat matchImage; //マッチング結果を描画
cv::drawMatches(img1, keypoints1, img2, keypoints2, dmatch, matchImage);
cv::imshow("Matches", matchImage);
if (dmatch.size() > 5) {//十分な数の対応点があれば基礎行列を推定する
std::vector p1;
std::vector p2;
//対応付いた特徴点の取り出しと焦点距離1.0のときの座標に変換
for (size_t i = 0; i < dmatch.size(); i++) {
cv::Mat ip(3, 1, CV_64FC1);
cv::Point2d p;
ip.at(0) = keypoints1[dmatch[i].queryIdx].pt.x;
ip.at(1) = keypoints1[dmatch[i].queryIdx].pt.y;
ip.at(2) = 1.0;
ip = cameraMatrix.inv()*ip;
p.x = ip.at(0);
p.y = ip.at(1);
p1.push_back(p);
ip.at(0) = keypoints2[dmatch[i].trainIdx].pt.x;
ip.at(1) = keypoints2[dmatch[i].trainIdx].pt.y;
ip.at(2) = 1.0;
ip = cameraMatrix.inv()*ip;
p.x = ip.at(0);
p.y = ip.at(1);
p2.push_back(p);
}
cv::Mat mask; //RANSACの結果を保持するためのマスク
cv::Mat essentialMat = cv::findEssentialMat(p1, p2, 1.0, cv::Point2f(0, 0), cv::RANSAC, 0.9999, 0.003, mask);
cv::Mat r, t;
cv::recoverPose(essentialMat, p1, p2, r, t);
//正規化座標系で計算しているのでProjection matrix = Extrinsic camera parameter matrix
cv::Mat prjMat1, prjMat2;
prjMat1 = cv::Mat::eye(3, 4, CV_64FC1); //片方は回転、並進ともに0
prjMat2 = cv::Mat(3, 4, CV_64FC1);
for (int i = 0; i < 3; i++) {
for (int j = 0; j < 3; j++) {
prjMat2.at(i, j) = r.at(i, j);
}
}
prjMat2.at(0, 3) = t.at(0);
prjMat2.at(1, 3) = t.at(1);
prjMat2.at(2, 3) = t.at(2);
cv::Mat point3D;//三角測量による三次元位置の推定
cv::triangulatePoints(prjMat1, prjMat2, p1, p2, point3D);
// viz用に並べ替え
cv::Mat pointCloud(point3D.cols, 1, CV_32FC3);
for (int i = 0; i < point3D.cols; i++) {
for (int j = 0; j < 3; j++) {
pointCloud.at(i)[j] = point3D.at(j, i);
}
}
// 表示用vizウィンドウ作成
cv::viz::Viz3d visualizeWindow("3D");
// 点群の描画
cv::viz::WCloud cloud(pointCloud);
visualizeWindow.showWidget("CLOUD", cloud);
visualizeWindow.spin();// 3D Viewの描画
}
return 0;
}
AKAZE特徴のマッチング結果はこちら↓
で、三角測量の結果をvizモジュールで可視化したものがこちら↓
側面は何となくそれっぽいぞ。と思って上から見てみたら、なんだか湾曲している。。。
レンズっぽい球面な歪み方だな。
あ、以前作った連番はすでにレンズの歪み補正を終えているから、補正処理は必要なかったか。
Originally published at NegativeMindException.