OpenMVG(特征匹配、照片组重建点云、GPS位置信息、GMS)

目录

1 图像的特征匹配

2 图像中提取GPS位置信息

2.1 写入GPS信息到图像中

2.2 读取带有GPS的图像

3 SIFT/AKAZE/AKAZE_MLDB特征提取对比

4 GMS Filter

5 将球形全景图转换为6个透视视图

6 照片组重建点云 


1 图像的特征匹配


#include "openMVG/features/feature.hpp" // 引入特征处理相关功能
#include "openMVG/features/sift/SIFT_Anatomy_Image_Describer.hpp" // 引入SIFT特征描述器
#include "openMVG/features/svg_features.hpp" // 引入SVG特征可视化功能
#include "openMVG/image/image_io.hpp" // 引入图像输入输出功能
#include "openMVG/image/image_concat.hpp" // 引入图像拼接功能
#include "openMVG/matching/regions_matcher.hpp" // 引入区域匹配功能
#include "openMVG/matching/svg_matches.hpp" // 引入匹配结果的SVG可视化功能
#include "third_party/stlplus3/filesystemSimplified/file_system.hpp" // 引入文件系统处理功能

#include <cstdlib>
#include <string>
#include <iostream>

using namespace openMVG; // 使用openMVG命名空间简化代码
using namespace openMVG::image; // 使用image子命名空间
using namespace openMVG::matching; // 使用matching子命名空间

int main() {

    Image<RGBColor> image; // 定义RGB颜色空间的图像变量
    // 定义两个图像文件的路径,使用stlplus库函数获取相对路径
    std::string jpg_filenameL = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
        + "/imageData/StanfordMobileVisualSearch/Ace_0.png";
    std::string jpg_filenameR = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
        + "/imageData/StanfordMobileVisualSearch/Ace_1.png";

    Image<unsigned char> imageL, imageR; // 定义两个灰度图像变量
    ReadImage(jpg_filenameL.c_str(), &imageL); // 读取左图像
    ReadImage(jpg_filenameR.c_str(), &imageR); // 读取右图像

    // 检测图像中的特征区域
    using namespace openMVG::features; // 使用features子命名空间
    std::unique_ptr<Image_describer> image_describer(new SIFT_Anatomy_Image_describer); // 创建SIFT特征描述器
    std::map<IndexT, std::unique_ptr<features::Regions>> regions_perImage; // 创建一个存储每幅图像特征区域的容器
    image_describer->Describe(imageL, regions_perImage[0]); // 描述左图像的特征区域
    image_describer->Describe(imageR, regions_perImage[1]); // 描述右图像的特征区域

    // 获取特征区域的位置
    const PointFeatures
        featsL = regions_perImage.at(0)->GetRegionsPositions(), // 左图像的特征位置
        featsR = regions_perImage.at(1)->GetRegionsPositions(); // 右图像的特征位置

      // 将两幅图像并排显示
    {
        Image<unsigned char> concat; // 定义一个图像变量用于存放拼接后的图像
        ConcatV(imageL, imageR, concat); // 纵向拼接两幅图像
        std::string out_filename = "00_images.jpg"; // 定义输出文件名
        WriteImage(out_filename.c_str(), concat); // 写出拼接后的图像
    }

    // 将检测到的特征转换为SIFT特征类型
    const SIFT_Regions* regionsL = dynamic_cast<SIFT_Regions*>(regions_perImage.at(0).get());
    const SIFT_Regions* regionsR = dynamic_cast<SIFT_Regions*>(regions_perImage.at(1).get());

    // 在两幅图像上绘制特征点
    {
        Features2SVG
        (
            jpg_filenameL,
            { imageL.Width(), imageL.Height() }, // 左图像的尺寸
            regionsL->Features(), // 左图像的特征
            jpg_filenameR,
            { imageR.Width(), imageR.Height() }, // 右图像的尺寸
            regionsR->Features(), // 右图像的特征
            "01_features.svg" // 输出SVG文件名
        );
    }

    // 执行匹配操作,找到最近邻点,并通过距离比率过滤
    std::vector<IndMatch> vec_PutativeMatches; // 定义存储匹配对的容器
    {
        // 找到对应点
        matching::DistanceRatioMatch(
            0.8, matching::BRUTE_FORCE_L2, // 使用L2范数和0.8的距离比率阈值
            *regions_perImage.at(0).get(),
            *regions_perImage.at(1).get(),
            vec_PutativeMatches); // 存储匹配结果

          // 绘制经过最近邻比率过滤后的对应关系
        const bool bVertical = true; // 设置SVG图像为垂直布局
        Matches2SVG
        (
            jpg_filenameL,
            { imageL.Width(), imageL.Height() }, // 左图像尺寸
            regionsL->GetRegionsPositions(), // 左图像特征位置
            jpg_filenameR,
            { imageR.Width(), imageR.Height() }, // 右图像尺寸
            regionsR->GetRegionsPositions(), // 右图像特征位置
            vec_PutativeMatches, // 匹配对
            "02_Matches.svg", // 输出SVG文件名
            bVertical // 使用垂直布局
        );
    }

    // 显示一些统计信息
    std::cout << featsL.size() << " Features on image A" << std::endl
        << featsR.size() << " Features on image B" << std::endl
        << vec_PutativeMatches.size() << " matches after matching with Distance Ratio filter" << std::endl;

    return EXIT_SUCCESS; // 程序成功执行完毕
}

2 图像中提取GPS位置信息

2.1 写入GPS信息到图像中

准备带有GPS的照片

ExifTool by Phil Harvey

当前目录下执行CMD,查看dog图片的信息

"exiftool(-k).exe" D:\CPlusProject\MVS_program\ALLTestData\GPSImage\dog.jpg

添加GPS信息到该图片中(经纬度和高程) 

"exiftool(-k).exe" -GPSLatitude=34.052234 -GPSLatitudeRef=N -GPSLongitude=-118.243685 -GPSLongitudeRef=W -GPSAltitude=10 -GPSAltitudeRef=0 D:\CPlusProject\MVS_program\ALLTestData\GPSImage\dog.jpg

检查是否有GPS的信息 

 

2.2 读取带有GPS的图像

读取带有GPS的图像,然后将GPS信息转换为ECEF,随后保存下来。


#include "openMVG/exif/exif_IO_EasyExif.hpp" // 引入处理EXIF信息的头文件
#include "openMVG/geodesy/geodesy.hpp" // 引入地理学相关的头文件

#include "software/SfM/SfMPlyHelper.hpp" // 引入辅助导出PLY文件的头文件

#include "third_party/stlplus3/filesystemSimplified/file_system.hpp" // 引入处理文件系统的头文件
#include "third_party/cmdLine/cmdLine.h" // 引入命令行处理的头文件

#include <iostream>
#include <memory>
#include <string>

using namespace openMVG; // 使用openMVG命名空间
using namespace openMVG::exif; // 使用exif子命名空间
using namespace openMVG::geodesy; // 使用geodesy子命名空间

int main(int argc, char** argv)
{
    std::string
        sInputDirectory = "", // 定义输入目录的字符串
        sOutputPLYFile = "GPS_POSITION.ply"; // 定义输出PLY文件的名称

    CmdLine cmd; // 创建命令行对象
    // 添加输入目录和输出文件的命令行选项
    cmd.add(make_option('i', sInputDirectory, "input-directory"));
    cmd.add(make_option('o', sOutputPLYFile, "output-file"));

    try
    {
        if (argc == 1) throw std::string("Invalid parameter."); // 如果没有提供参数,抛出异常
        cmd.process(argc, argv); // 处理命令行参数
    }
    catch (const std::string& s) // 捕获异常
    {
        // 如果捕获到异常,显示帮助信息并退出
        std::cout
            << "Geodesy demo:\n"
            << " Export as PLY points the parsed image EXIF GPS positions,\n"
            << " -[i|input-directory] Directory that will be parsed.\n"
            << "-- OPTIONAL PARAMETERS --\n"
            << " -[o|output-file] Output PLY file.\n"
            << std::endl;

        std::cerr << s << std::endl;
        return EXIT_FAILURE;
    }

    // 初始化EXIF读取器
    std::unique_ptr<Exif_IO> exifReader(new Exif_IO_EasyExif);
    if (!exifReader)
    {
        std::cerr << "Cannot instantiate the EXIF metadata reader." << std::endl;
        return EXIT_FAILURE;
    }

    std::vector<Vec3> vec_gps_xyz_position; // 定义一个存储XYZ坐标的向量

    size_t valid_exif_count = 0; // 有效的EXIF数据计数

    // 获取输入目录下的所有文件
    const std::vector<std::string> vec_image = stlplus::folder_files(sInputDirectory);
    for (const std::string& it_string : vec_image)
    {
        const std::string sImageFilename = stlplus::create_filespec(sInputDirectory, it_string);

        // 尝试解析EXIF元数据
        exifReader->open(sImageFilename);

        // 检查是否存在EXIF数据
        if (!exifReader->doesHaveExifInfo())
            continue; // 如果没有EXIF信息,则跳过此图像

        ++valid_exif_count; // 有效EXIF计数加一
        // 检查是否存在GPS坐标
        double latitude, longitude, altitude; // 定义纬度、经度和高度变量
        if (exifReader->GPSLatitude(&latitude) &&
            exifReader->GPSLongitude(&longitude) &&
            exifReader->GPSAltitude(&altitude))
        {
            // 将GPS坐标转换为ECEF XYZ坐标,并添加到向量中
            vec_gps_xyz_position.push_back(lla_to_ecef(latitude, longitude, altitude));
        }
    }

    // 输出报告
    std::cout << std::endl
        << "Report:\n"
        << " #file listed: " << vec_image.size() << "\n"
        << " #valid exif data: " << valid_exif_count << "\n"
        << " #valid exif gps data: " << vec_gps_xyz_position.size() << std::endl;

    // 如果没有有效的GPS数据,退出程序
    if (vec_gps_xyz_position.empty())
    {
        std::cerr << "No valid GPS data found for the image list" << std::endl;
        return EXIT_FAILURE;
    }

    // 导出XYZ坐标到PLY文件
    if (plyHelper::exportToPly(vec_gps_xyz_position, sOutputPLYFile))
    {
        std::cout << sOutputPLYFile << " -> successfully exported on disk." << std::endl;
        return EXIT_SUCCESS; // 成功导出
    }
    return EXIT_FAILURE; // 导出失败
}

3 SIFT/AKAZE/AKAZE_MLDB特征提取对比

三者的区别网上多的是,但是还是因地制宜,多试试。代码在之前博客中已经详细介绍了。

1. SIFT (Scale-Invariant Feature Transform)

  • 主要特点:SIFT 是一种用于检测和描述图像中的局部特征的算法。它对旋转、尺度缩放、亮度变化保持不变性,对视角变化、仿射变换、噪声也具有一定的稳定性。
  • 应用:广泛用于图像匹配、物体识别、3D重建、追踪等。
  • 优点:鲁棒性强,特征描述符独特且信息丰富。
  • 缺点:计算量大,速度较慢,对于实时应用可能不太合适。

2. AKAZE (Accelerated-KAZE)

  • 主要特点:AKAZE 是 KAZE 的加速版本,使用快速显著性检测和非线性尺度空间技术。它提供了一种计算效率更高的特征检测和描述符提取方法。
  • 应用:适用于需要快速特征提取的场景,如实时视频处理、移动应用中的图像识别等。
  • 优点:比 KAZE 更快,保留了对尺度和旋转的不变性。
  • 缺点:虽然比 SIFT 快,但在特征描述符的区分度和鲁棒性方面可能略逊一筹。

3. AKAZE_MLDB (Modified Local Difference Binary)

  • 主要特点:AKAZE_MLDB 是 AKAZE 的变体,使用二进制字符串作为特征描述符,以进一步提高计算效率和匹配速度。
  • 应用:特别适用于对速度要求很高且对匹配准确性要求较高的应用。
  • 优点:速度快,内存需求低,适合在资源受限的设备上运行。
  • 缺点:虽然速度快,但相较于 SIFT,其特征描述符的鉴别力可能较低。

总结

  • 速度和效率:AKAZE > AKAZE_MLDB > SIFT。
  • 特征鉴别力和鲁棒性:SIFT > AKAZE > AKAZE_MLDB。
  • 适用场景:SIFT 更适合对特征描述的鲁棒性和准确性要求较高的复杂应用;AKAZE 和 AKAZE_MLDB 更适合对计算速度和效率要求较高的应用。
// This file is part of OpenMVG, an Open Multiple View Geometry C++ library.

// Copyright (c) 2015 Pierre MOULON.

// This Source Code Form is subject to the terms of the Mozilla Public
// License, v. 2.0. If a copy of the MPL was not distributed with this
// file, You can obtain one at http://mozilla.org/MPL/2.0/.

#include "openMVG/image/image_io.hpp"
#include "openMVG/image/image_concat.hpp"
#include "openMVG/features/akaze/image_describer_akaze.hpp"
#include "openMVG/features/sift/SIFT_Anatomy_Image_Describer.hpp"
#include "openMVG/features/svg_features.hpp"
#include "openMVG/matching/regions_matcher.hpp"
#include "openMVG/matching/svg_matches.hpp"

#include "third_party/stlplus3/filesystemSimplified/file_system.hpp"
#include "third_party/cmdLine/cmdLine.h"
#include <memory>
#include <string>

using namespace openMVG;
using namespace openMVG::image;

int main(int argc, char **argv) {

  // Add options to choose the desired Image_describer
  std::string sImage_describer_type = "SIFT";

  CmdLine cmd;
  cmd.add( make_option('t', sImage_describer_type, "type") );

  try {
      if (argc == 1) throw std::string("Invalid command line parameter.");
      cmd.process(argc, argv);
  } catch (const std::string& s) {
      std::cerr << "Usage: " << argv[0] << '\n'
      << "\n[Optional]\n"
      << "[-t|--type\n"
      << "  (choose an image_describer interface):\n"
      << "   SIFT: SIFT keypoint & descriptor,\n"
      << "   AKAZE: AKAZE keypoint & floating point descriptor]"
      << std::endl;

      std::cerr << s << std::endl;
      return EXIT_FAILURE;
  }

  const std::string jpg_filenameL = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
    + "/imageData/StanfordMobileVisualSearch/Ace_0.png";
  const std::string jpg_filenameR = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
    + "/imageData/StanfordMobileVisualSearch/Ace_1.png";

  Image<unsigned char> imageL, imageR;
  ReadImage(jpg_filenameL.c_str(), &imageL);
  ReadImage(jpg_filenameR.c_str(), &imageR);
  assert(imageL.data() && imageR.data());

  // Call Keypoint extractor
  using namespace openMVG::features;
  std::unique_ptr<Image_describer> image_describer;
  if (sImage_describer_type == "SIFT")
    image_describer.reset(new SIFT_Anatomy_Image_describer(SIFT_Anatomy_Image_describer::Params()));
  else if (sImage_describer_type == "AKAZE")
    image_describer = AKAZE_Image_describer::create
      (AKAZE_Image_describer::Params(AKAZE::Params(), AKAZE_MSURF));
  else if (sImage_describer_type == "AKAZE_MLDB")
    image_describer = AKAZE_Image_describer::create
      (AKAZE_Image_describer::Params(AKAZE::Params(), AKAZE_MLDB));

  if (!image_describer)
  {
    std::cerr << "Invalid Image_describer type" << std::endl;
    return EXIT_FAILURE;
  }

  //--
  // Detect regions thanks to the image_describer
  //--
  std::map<IndexT, std::unique_ptr<features::Regions>> regions_perImage;
  image_describer->Describe(imageL, regions_perImage[0]);
  image_describer->Describe(imageR, regions_perImage[1]);

  //--
  // Display used images & Features
  //--

  {
    //- Show images side by side
    Image<unsigned char> concat;
    ConcatH(imageL, imageR, concat);
    const std::string out_filename = "00_images.jpg";
    WriteImage(out_filename.c_str(), concat);
  }

  {
    //- Draw features on the images (side by side)
    Features2SVG
    (
      jpg_filenameL,
      {imageL.Width(), imageL.Height()},
      regions_perImage.at(0)->GetRegionsPositions(),
      jpg_filenameR,
      {imageR.Width(), imageR.Height()},
      regions_perImage.at(1)->GetRegionsPositions(),
      "01_features.svg"
    );
  }

  //--
  // Compute corresponding points
  //--
  //-- Perform matching -> find Nearest neighbor, filtered with Distance ratio
  matching::IndMatches vec_PutativeMatches;
  matching::DistanceRatioMatch(
    0.8, matching::BRUTE_FORCE_L2,
    *regions_perImage.at(0).get(),
    *regions_perImage.at(1).get(),
    vec_PutativeMatches);

  // Draw correspondences after Nearest Neighbor ratio filter
  {
    const bool bVertical = true;
    Matches2SVG
    (
      jpg_filenameL,
      {imageL.Width(), imageL.Height()},
      regions_perImage.at(0)->GetRegionsPositions(),
      jpg_filenameR,
      {imageR.Width(), imageR.Height()},
      regions_perImage.at(1)->GetRegionsPositions(),
      vec_PutativeMatches,
      "02_Matches.svg",
      bVertical
    );
  }

  // Display some statistics
  std::cout
    << regions_perImage.at(0)->RegionCount() << " #Features on image A" << std::endl
    << regions_perImage.at(1)->RegionCount() << " #Features on image B" << std::endl
    << vec_PutativeMatches.size() << " #matches with Distance Ratio filter" << std::endl;

  return EXIT_SUCCESS;
}

SIFT

AKAZE

AKAZE_MLDB 

4 GMS Filter

  1. 将运动平滑约束转换为剔除错误匹配的统计量,实验证明该算法能够应对较为棘手的场景;
  2. 提出了一种高效的基于网格的得分估计器,使得该算法能够用于实时特征匹配;
  3. 能够取得比Lowe Ratio更好的特征匹配筛选效果,该结论已经在传统特征如SIFT,SURF以及CNN特征如LIFT上得到验证;

GMS:一种基于运动统计的快速鲁棒特征匹配过滤算法 - 知乎 (zhihu.com)

GMS滤波特征点前需要大量的特征点,有利于得到更好的筛选结果 

// This file is part of OpenMVG, an Open Multiple View Geometry C++ library.

// Copyright (c) 2017 Pierre MOULON.

// This Source Code Form is subject to the terms of the Mozilla Public
// License, v. 2.0. If a copy of the MPL was not distributed with this
// file, You can obtain one at http://mozilla.org/MPL/2.0/.

#include "openMVG/image/image_io.hpp"
#include "openMVG/image/image_concat.hpp"
#include "openMVG/features/akaze/image_describer_akaze.hpp"
#include "openMVG/features/sift/SIFT_Anatomy_Image_Describer.hpp"
#include "openMVG/features/svg_features.hpp"
#include "openMVG/matching/regions_matcher.hpp"
#include "openMVG/matching/svg_matches.hpp"
#include "openMVG/robust_estimation/gms_filter.hpp"

#include "third_party/cmdLine/cmdLine.h"
#include "third_party/stlplus3/filesystemSimplified/file_system.hpp"

#include <memory>
#include <string>

using namespace openMVG;
using namespace openMVG::image;
using namespace openMVG::robust;

int main(int argc, char **argv) {

  // Add options to choose the desired Image_describer
  std::string sImage_describer_type = "SIFT";

  CmdLine cmd;
  cmd.add( make_option('t', sImage_describer_type, "type") );
  cmd.add( make_switch('d', "distance_ratio"));

  try {
      if (argc == 1) throw std::string("Invalid command line parameter.");
      cmd.process(argc, argv);
  } catch(const std::string& s) {
      std::cerr << "Usage: " << argv[0] << '\n'
      << "\n[Optional]\n"
      << "[-t|--type\n"
      << "  (choose an image_describer interface):\n"
      << "   SIFT: SIFT keypoint & descriptor,\n"
      << "   AKAZE: AKAZE keypoint & floating point descriptor]\n"
      << "   AKAZE_MLDB: AKAZE keypoint & binary descriptor]\n"
      << "[-d|distance_ratio] Use distance ratio filter before GMS, else 1-1 matching is used."
      << std::endl;

      std::cerr << s << std::endl;
      return EXIT_FAILURE;
  }

  const std::string jpg_filenameL = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
    + "/imageData/StanfordMobileVisualSearch/Ace_0.png";
  const std::string jpg_filenameR = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
    + "/imageData/StanfordMobileVisualSearch/Ace_1.png";

  Image<unsigned char> imageL, imageR;
  ReadImage(jpg_filenameL.c_str(), &imageL);
  ReadImage(jpg_filenameR.c_str(), &imageR);
  assert(imageL.data() && imageR.data());

  // Call Keypoint extractor
  using namespace openMVG::features;
  std::unique_ptr<Image_describer> image_describer;
  if (sImage_describer_type == "SIFT")
    image_describer.reset(new SIFT_Anatomy_Image_describer(SIFT_Anatomy_Image_describer::Params()));
  else if (sImage_describer_type == "AKAZE")
    image_describer = AKAZE_Image_describer::create
      (AKAZE_Image_describer::Params(AKAZE::Params(), AKAZE_MSURF));
  else if (sImage_describer_type == "AKAZE_MLDB")
    image_describer = AKAZE_Image_describer::create
      (AKAZE_Image_describer::Params(AKAZE::Params(), AKAZE_MLDB));

  if (!image_describer)
  {
    std::cerr << "Invalid Image_describer type" << std::endl;
    return EXIT_FAILURE;
  }

  // GMS requires to have a lot of features
  image_describer->Set_configuration_preset(features::ULTRA_PRESET);

  //--
  // Detect regions thanks to the image_describer
  //--
  std::map<IndexT, std::unique_ptr<features::Regions> > regions_perImage;
  image_describer->Describe(imageL, regions_perImage[0]);
  image_describer->Describe(imageR, regions_perImage[1]);

  //--
  // Display used images & Features
  //--

  {
    //- Show images side by side
    Image<unsigned char> concat;
    ConcatH(imageL, imageR, concat);
    const std::string out_filename = "00_images.jpg";
    WriteImage(out_filename.c_str(), concat);
  }

  {
    //- Draw features on the images (side by side)
    Features2SVG
    (
      jpg_filenameL,
      {imageL.Width(), imageL.Height()},
      regions_perImage.at(0)->GetRegionsPositions(),
      jpg_filenameR,
      {imageR.Width(), imageR.Height()},
      regions_perImage.at(1)->GetRegionsPositions(),
      "01_features.svg"
    );
  }

  //--
  // Compute corresponding points
  //--
  //-- Perform matching -> find Nearest neighbor, filtered with Distance ratio
  matching::IndMatches vec_PutativeMatches;
  const bool distance_ratio_matching = cmd.used('d');
  if (distance_ratio_matching)
  {
    const float kDistanceRatio = 0.8f;
    matching::DistanceRatioMatch(
      kDistanceRatio,
      (sImage_describer_type == "AKAZE_MLDB") ? matching::BRUTE_FORCE_HAMMING
        : matching::BRUTE_FORCE_L2,
      *regions_perImage.at(0).get(),
      *regions_perImage.at(1).get(),
      vec_PutativeMatches);
  }
  else
  {
    matching::Match(
      (sImage_describer_type == "AKAZE_MLDB") ? matching::BRUTE_FORCE_HAMMING
        : matching::BRUTE_FORCE_L2,
      *regions_perImage.at(0).get(),
      *regions_perImage.at(1).get(),
      vec_PutativeMatches);
  }
  // Draw the putative photometric correspondences
  {
    const bool bVertical = true;
    Matches2SVG
    (
      jpg_filenameL,
      {imageL.Width(), imageL.Height()},
      regions_perImage.at(0)->GetRegionsPositions(),
      jpg_filenameR,
      {imageR.Width(), imageR.Height()},
      regions_perImage.at(1)->GetRegionsPositions(),
      vec_PutativeMatches,
      "02_Matches.svg",
      bVertical
    );
  }

  // Display some statistics
  std::cout << vec_PutativeMatches.size() << " #matches Found" << std::endl;

  // Apply the GMS filter
  {
    std::vector<Eigen::Vector2f> vec_points_left;
    {
      const auto & regions_pos = regions_perImage.at(0)->GetRegionsPositions();
      vec_points_left.reserve(regions_pos.size());
      for (const auto & it : regions_pos)
        vec_points_left.push_back({it.x(), it.y()});
    }
    std::vector<Eigen::Vector2f> vec_points_right;
    {
      const auto & regions_pos = regions_perImage.at(1)->GetRegionsPositions();
      vec_points_right.reserve(regions_pos.size());
      for (const auto & it : regions_pos)
        vec_points_right.push_back({it.x(), it.y()});
    }

    const int kGmsThreshold = 6;
    robust::GMSFilter gms(
      vec_points_left,  {imageL.Width(), imageL.Height()},
      vec_points_right, {imageR.Width(), imageR.Height()},
      vec_PutativeMatches,
      kGmsThreshold);
    const bool with_scale_invariance = true;
    const bool with_rotation_invariance = true;
    std::vector<bool> inlier_flags;
    const int nb_inliers = gms.GetInlierMask(inlier_flags,
                                             with_scale_invariance,
                                             with_rotation_invariance);

    std::cout
      << vec_points_left.size() << " #Features on image A" << std::endl
      << vec_points_right.size() << " #Features on image B" << std::endl
      << nb_inliers << " #matches kept by the GMS Filter" << std::endl;

    matching::IndMatches vec_gms_matches;
    for (int i = 0; i < static_cast<int>(inlier_flags.size()); ++i)
    {
      if (inlier_flags[i])
        vec_gms_matches.push_back(vec_PutativeMatches[i]);
    }
    // Draw the correspondences kept by the GMSFilter
    {
      const bool bVertical = true;
      Matches2SVG
      (
        jpg_filenameL,
        {imageL.Width(), imageL.Height()},
        regions_perImage.at(0)->GetRegionsPositions(),
        jpg_filenameR,
        {imageR.Width(), imageR.Height()},
        regions_perImage.at(1)->GetRegionsPositions(),
        vec_gms_matches,
        "03_GMSMatches.svg",
        bVertical
      );
    }
  }
  return EXIT_SUCCESS;
}

 

5 将球形全景图转换为6个透视视图

#include "openMVG/image/image_io.hpp" // 包含处理图像输入输出的头文件
#include "openMVG/spherical/cubic_image_sampler.hpp" // 包含球形到立方体采样转换的头文件

#include "third_party/cmdLine/cmdLine.h" // 包含命令行处理的第三方库头文件
#include "third_party/stlplus3/filesystemSimplified/file_system.hpp" // 包含文件系统处理的第三方库头文件

#include <string> // 包含字符串处理的标准库头文件

// 将球形全景图转换为6个透视视图(立方体全景图)
int main(int argc, char** argv)
{
    CmdLine cmd; // 命令行处理对象

    std::string
        s_input_image, // 输入图片路径
        s_output_image; // 输出图片路径

      // 需要的参数
    cmd.add(make_option('i', s_input_image, "input_image")); // 添加输入图片路径的选项
    cmd.add(make_option('o', s_output_image, "output_image")); // 添加输出图片路径的选项

    try {
        if (argc == 1) throw std::string("Invalid command line parameter."); // 如果没有提供参数,抛出异常
        cmd.process(argc, argv); // 处理命令行参数
    }
    catch (const std::string& s) {
        std::cerr << "Usage: " << argv[0] << '\n'
            << "[-i|--input_image] the path to the spherical panorama\n"
            << "[-o|--output_image] the export directory path \n"
            << std::endl; // 捕获异常并打印使用方法
        return EXIT_FAILURE; // 程序异常退出
    }

    if (s_input_image.empty() || s_output_image.empty())
    {
        std::cerr << "input_image and output_image options must not be empty" << std::endl; // 确保输入输出路径不为空
        return EXIT_FAILURE;
    }

    using namespace openMVG; // 使用OpenMVG命名空间

    image::Image<image::RGBColor> spherical_image; // 创建一个用于存储球形全景图的图像对象
    if (!ReadImage(s_input_image.c_str(), &spherical_image)) // 读取输入的球形全景图
    {
        std::cerr << "Cannot read the input panoramic image: " << s_input_image << std::endl; // 如果读取失败,打印错误信息
        return EXIT_FAILURE;
    }

    const double cubic_image_size = spherical_image.Width() / 4; // 计算立方体图像的大小,这里简单地将球形图像的宽度除以4
    const openMVG::cameras::Pinhole_Intrinsic pinhole_camera =
        spherical::ComputeCubicCameraIntrinsics(cubic_image_size); // 计算立方体相机内参

    std::vector<image::Image<image::RGBColor>> cube_images(6); // 创建一个向量,用于存储转换后的六个立方体面图像
    spherical::SphericalToCubic
    (
        spherical_image,
        pinhole_camera,
        cube_images,
        image::Sampler2d<image::SamplerNearest>() // 使用最近邻采样
    ); // 将球形图像转换为立方体图像

    if (WriteImage("cube_0.png", cube_images[0]) &&
        WriteImage("cube_1.png", cube_images[1]) &&
        WriteImage("cube_2.png", cube_images[2]) &&
        WriteImage("cube_3.png", cube_images[3]) &&
        WriteImage("cube_4.png", cube_images[4]) &&
        WriteImage("cube_5.png", cube_images[5])) // 将六个面的图像写入文件
        return EXIT_SUCCESS; // 成功退出

    return EXIT_FAILURE; // 如果写入失败,程序异常退出
}

6 照片组重建点云 

 图像处理中,outlier和inlier分别指什么?_inliers-CSDN博客

 

 两张图片重建点云

相机内参 

#include "openMVG/cameras/Camera_Pinhole.hpp" // 包含针孔相机模型头文件
#include "openMVG/features/feature.hpp" // 包含特征点检测相关头文件
#include "openMVG/features/sift/SIFT_Anatomy_Image_Describer.hpp" // 包含SIFT特征描述器相关头文件
#include "openMVG/features/svg_features.hpp" // 包含SVG特征导出相关头文件
#include "openMVG/geometry/pose3.hpp" // 包含3D姿态相关头文件
#include "openMVG/image/image_io.hpp" // 包含图像输入输出相关头文件
#include "openMVG/image/image_concat.hpp" // 包含图像拼接相关头文件
#include "openMVG/matching/indMatchDecoratorXY.hpp" // 包含匹配点装饰器相关头文件
#include "openMVG/matching/regions_matcher.hpp" // 包含区域匹配器相关头文件
#include "openMVG/matching/svg_matches.hpp" // 包含SVG匹配导出相关头文件
#include "openMVG/multiview/triangulation.hpp" // 包含多视图三角化相关头文件
#include "openMVG/numeric/eigen_alias_definition.hpp" // 包含Eigen库别名定义头文件
#include "openMVG/sfm/pipelines/sfm_robust_model_estimation.hpp" // 包含鲁棒模型估计相关头文件

#include "third_party/stlplus3/filesystemSimplified/file_system.hpp" // 包含简化的文件系统操作相关头文件

#include <iostream> // 包含标准输入输出流头文件
#include <string> // 包含字符串处理头文件
#include <utility> // 包含实用工具头文件,例如pair

using namespace openMVG; // 使用OpenMVG命名空间
using namespace openMVG::matching; // 使用OpenMVG匹配命名空间
using namespace openMVG::image; // 使用OpenMVG图像命名空间
using namespace openMVG::cameras; // 使用OpenMVG相机命名空间
using namespace openMVG::geometry; // 使用OpenMVG几何命名空间

/// 从文件中读取内参矩阵K(ASCII格式)
bool readIntrinsic(const std::string& fileName, Mat3& K);

/// 将3D点向量和相机位置导出到PLY格式
bool exportToPly(const std::vector<Vec3>& vec_points,
    const std::vector<Vec3>& vec_camPos,
    const std::string& sFileName);

int main() {
    // 定义输入目录路径
    const std::string sInputDir = stlplus::folder_up(std::string(THIS_SOURCE_DIR))
        + "/imageData/SceauxCastle/";
    // 定义两张图片的文件名
    const std::string jpg_filenameL = sInputDir + "100_7101.jpg";
    const std::string jpg_filenameR = sInputDir + "100_7102.jpg";

    // 创建两个图像对象
    Image<unsigned char> imageL, imageR;
    // 读取两张图片
    ReadImage(jpg_filenameL.c_str(), &imageL);
    ReadImage(jpg_filenameR.c_str(), &imageR);

    //--
    // 利用图像描述器检测区域
    //--
    using namespace openMVG::features; // 使用OpenMVG特征命名空间
    std::unique_ptr<Image_describer> image_describer(new SIFT_Anatomy_Image_describer); // 创建SIFT图像描述器
    std::map<IndexT, std::unique_ptr<features::Regions>> regions_perImage; // 创建存储每张图像区域的映射
    image_describer->Describe(imageL, regions_perImage[0]); // 描述第一张图像
    image_describer->Describe(imageR, regions_perImage[1]); // 描述第二张图像

    // 将区域转换为SIFT区域
    const SIFT_Regions* regionsL = dynamic_cast<SIFT_Regions*>(regions_perImage.at(0).get());
    const SIFT_Regions* regionsR = dynamic_cast<SIFT_Regions*>(regions_perImage.at(1).get());

    // 获取特征点位置
    const PointFeatures
        featsL = regions_perImage.at(0)->GetRegionsPositions(),
        featsR = regions_perImage.at(1)->GetRegionsPositions();

    // 将两张图像并排显示
    {
        Image<unsigned char> concat;
        ConcatH(imageL, imageR, concat);
        std::string out_filename = "01_concat.jpg";
        WriteImage(out_filename.c_str(), concat);
    }

    //- 在两幅图像上绘制特征点(并排显示)
    {
        Features2SVG
        (
            jpg_filenameL,
            { imageL.Width(), imageL.Height() },
            regionsL->Features(),
            jpg_filenameR,
            { imageR.Width(), imageR.Height() },
            regionsR->Features(),
            "02_features.svg"
        );
    }

    std::vector<IndMatch> vec_PutativeMatches; // 创建存储假设匹配的向量
    //-- 执行匹配 -> 寻找最近邻点,通过距离比率过滤
    {
        // 寻找对应点
        matching::DistanceRatioMatch(
            0.8, matching::BRUTE_FORCE_L2,
            *regions_perImage.at(0).get(),
            *regions_perImage.at(1).get(),
            vec_PutativeMatches);

        IndMatchDecorator<float> matchDeduplicator(vec_PutativeMatches, featsL, featsR);
        matchDeduplicator.getDeduplicated(vec_PutativeMatches);

        std::cout
            << regions_perImage.at(0)->RegionCount() << " #Features on image A" << std::endl
            << regions_perImage.at(1)->RegionCount() << " #Features on image B" << std::endl
            << vec_PutativeMatches.size() << " #matches with Distance Ratio filter" << std::endl;

        // 绘制经过最近邻比率过滤后的对应点
        const bool bVertical = true;
        Matches2SVG
        (
            jpg_filenameL,
            { imageL.Width(), imageL.Height() },
            regionsL->GetRegionsPositions(),
            jpg_filenameR,
            { imageR.Width(), imageR.Height() },
            regionsR->GetRegionsPositions(),
            vec_PutativeMatches,
            "03_Matches.svg",
            bVertical
        );
    }

    //-----------------------------------------------------------------------------------
    // 对假设匹配进行基本的几何过滤
    {
        Mat3 K; // 创建内参矩阵K
        // 从文件读取K矩阵
        if (!readIntrinsic(stlplus::create_filespec(sInputDir, "K", "txt"), K))
        {
            std::cerr << "Cannot read intrinsic parameters." << std::endl;
            return EXIT_FAILURE;
        }

        // 定义两个针孔相机内参
        const Pinhole_Intrinsic
            camL(imageL.Width(), imageL.Height(), K(0, 0), K(0, 2), K(1, 2)),
            camR(imageR.Width(), imageR.Height(), K(0, 0), K(0, 2), K(1, 2));

        //A. 准备对应的假设点
        Mat xL(2, vec_PutativeMatches.size());
        Mat xR(2, vec_PutativeMatches.size());
        for (size_t k = 0; k < vec_PutativeMatches.size(); ++k) {
            const PointFeature& imaL = featsL[vec_PutativeMatches[k].i_];
            const PointFeature& imaR = featsR[vec_PutativeMatches[k].j_];
            xL.col(k) = imaL.coords().cast<double>();
            xR.col(k) = imaR.coords().cast<double>();
        }

        //B. 通过本质矩阵估计计算相对姿态
        const std::pair<size_t, size_t> size_imaL(imageL.Width(), imageL.Height());
        const std::pair<size_t, size_t> size_imaR(imageR.Width(), imageR.Height());
        sfm::RelativePose_Info relativePose_info;
        if (!sfm::robustRelativePose(&camL, &camR, xL, xR, relativePose_info, size_imaL, size_imaR, 256))
        {
            std::cerr << " /!\\ Robust relative pose estimation failure."
                << std::endl;
            return EXIT_FAILURE;
        }

        std::cout << "\nFound an Essential matrix:\n"
            << "\tprecision: " << relativePose_info.found_residual_precision << " pixels\n"
            << "\t#inliers: " << relativePose_info.vec_inliers.size() << "\n"
            << "\t#matches: " << vec_PutativeMatches.size()
            << std::endl;

        // 展示经过本质矩阵验证的点
        const bool bVertical = true;
        InlierMatches2SVG
        (
            jpg_filenameL,
            { imageL.Width(), imageL.Height() },
            regionsL->GetRegionsPositions(),
            jpg_filenameR,
            { imageR.Width(), imageR.Height() },
            regionsR->GetRegionsPositions(),
            vec_PutativeMatches,//一个匹配对的表示形式为{i_=1761 j_=1580},这意味着左图像中的第1761个特征点与右图像中的第1580个特征点被认为是匹配的。
            relativePose_info.vec_inliers,//每个元素,如169,表示在vec_PutativeMatches中索引为169的匹配对是一个内点,即这个匹配对被认为是可靠的,能够反映两个图像间真实的几何关系。
            "04_ACRansacEssential.svg",
            bVertical//true,则图像垂直排列;如果为false,则水平排列
        );

        //C. 三角化并导出内点作为PLY场景
        std::vector<Vec3> vec_3DPoints; // 创建3D点向量

        // 设置相机内参和姿态
        const Pinhole_Intrinsic intrinsic0(imageL.Width(), imageL.Height(), K(0, 0), K(0, 2), K(1, 2));
        const Pinhole_Intrinsic intrinsic1(imageR.Width(), imageR.Height(), K(0, 0), K(0, 2), K(1, 2));

        const Pose3 pose0 = Pose3(Mat3::Identity(), Vec3::Zero()); // 第一个相机的姿态
        const Pose3 pose1 = relativePose_info.relativePose; // 第二个相机的姿态

        // 通过内点的三角化初始化结构
        std::vector<double> vec_residuals; // 创建存储重投影误差的向量
        vec_residuals.reserve(relativePose_info.vec_inliers.size() * 4);
        for (const auto inlier_idx : relativePose_info.vec_inliers) {
            const SIOPointFeature& LL = regionsL->Features()[vec_PutativeMatches[inlier_idx].i_];
            const SIOPointFeature& RR = regionsR->Features()[vec_PutativeMatches[inlier_idx].j_];
            // 点三角化
            Vec3 X; // 三角化得到的3D点
            const ETriangulationMethod triangulation_method = ETriangulationMethod::DEFAULT; // 选择三角化方法
            if (Triangulate2View
            (
                pose0.rotation(), pose0.translation(), intrinsic0(LL.coords().cast<double>()),
                pose1.rotation(), pose1.translation(), intrinsic1(RR.coords().cast<double>()),
                X,
                triangulation_method
            ))
            {
                const Vec2 residual0 = intrinsic0.residual(pose0(X), LL.coords().cast<double>()); // 计算第一个相机的重投影误差(重投影误差是二维的,x和y轴上的)
                const Vec2 residual1 = intrinsic1.residual(pose1(X), RR.coords().cast<double>()); // 计算第二个相机的重投影误差
                vec_residuals.emplace_back(std::abs(residual0(0))); // 存储误差:重投影误差是三维点投影回相机成像平面后的误差,它是衡量三维重建质量的一个关键指标。
                vec_residuals.emplace_back(std::abs(residual0(1)));
                vec_residuals.emplace_back(std::abs(residual1(0)));
                vec_residuals.emplace_back(std::abs(residual1(1)));
                vec_3DPoints.emplace_back(X); // 存储3D点
            }
        }

        // 显示重投影误差的一些统计信息
        float dMin, dMax, dMean, dMedian; // 定义最小值、最大值、平均值、中位数
        minMaxMeanMedian<float>(vec_residuals.cbegin(), vec_residuals.cend(),
            dMin, dMax, dMean, dMedian); // 计算统计值

        std::cout << std::endl
            << "Triangulation residuals statistics:" << "\n"
            << "\t-- Residual min:\t" << dMin << "\n"
            << "\t-- Residual median:\t" << dMedian << "\n"
            << "\t-- Residual max:\t " << dMax << "\n"
            << "\t-- Residual mean:\t " << dMean << std::endl;

        // 导出为PLY格式(相机位置+3D点)
        std::vector<Vec3> vec_camPos; // 创建存储相机位置的向量
        vec_camPos.push_back(pose0.center()); // 第一个相机的中心
        vec_camPos.push_back(pose1.center()); // 第二个相机的中心
        exportToPly(vec_3DPoints, vec_camPos, "EssentialGeometry.ply"); // 导出PLY文件
    }
    return EXIT_SUCCESS; // 程序成功退出
}

bool readIntrinsic(const std::string& fileName, Mat3& K)
{
    // 加载K矩阵
    std::ifstream in;
    in.open(fileName.c_str(), std::ifstream::in);
    if (in) {
        for (int j = 0; j < 3; ++j)
            for (int i = 0; i < 3; ++i)
                in >> K(j, i); // 从文件读取K矩阵元素
    }
    else {
        std::cerr << std::endl
            << "Invalid input K.txt file" << std::endl;
        return false; // 读取失败
    }
    return true; // 读取成功
}

bool exportToPly(const std::vector<Vec3>& vec_points,
    const std::vector<Vec3>& vec_camPos,
    const std::string& sFileName)
{
    std::ofstream outfile; // 创建文件输出流
    outfile.open(sFileName.c_str(), std::ios_base::out); // 打开文件

    // 写入PLY文件头
    outfile << "ply"
        << '\n' << "format ascii 1.0"
        << '\n' << "element vertex " << vec_points.size() + vec_camPos.size()
        << '\n' << "property float x"
        << '\n' << "property float y"
        << '\n' << "property float z"
        << '\n' << "property uchar red"
        << '\n' << "property uchar green"
        << '\n' << "property uchar blue"
        << '\n' << "end_header" << std::endl;

    // 写入3D点数据
    for (size_t i = 0; i < vec_points.size(); ++i) {
        outfile << vec_points[i].transpose()
            << " 255 255 255" << "\n"; // 3D点为白色
    }

    // 写入相机位置数据
    for (size_t i = 0; i < vec_camPos.size(); ++i) {
        outfile << vec_camPos[i].transpose()
            << " 0 255 0" << "\n"; // 相机位置为绿色
    }
    outfile.flush(); // 刷新输出流
    const bool bOk = outfile.good(); // 检查写入是否成功
    outfile.close(); // 关闭文件
    return bOk; // 返回写入状态
}

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/393289.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

BUGKU-WEB source

题目描述 题目截图如下&#xff1a; 进入场景看看&#xff1a; 解题思路 看源码&#xff0c;看F12网络请求没有东西只能老老实实按照提示用Linux去扫描目录 相关工具 kali虚拟机安装gobuster 或者dirsearch 解题步骤 先查看源码&#xff1a; flag{Zmxhz19ub3RfaGvyzS…

Ubuntu22.04LTS编译Frida历史版本,环境配制及细节调整

经常使用Frida的朋友们可能会遇到Frida的各种问题需要自定义的&#xff0c;而这时候Frida的本地编译就显得很重要了。 最近一位朋友发现使用Frida14/15/16版的server只能连拉一定数量的设备&#xff0c;超过了frida-device-manager便不能连接设备。 实现没有办法&#xff0c;…

vue创建项目报:Error: command failed: yarn

我的文件在&#xff1a;C:\Users\Administrator 下 原来里面 useTaobaoRegistry 是否使用淘宝源 是 false &#xff0c;我改为true就好了 也可以 packageManager 默认安装工具 改为 npm 或 cnpm 原文连接&#xff1a;vue创建项目报&#xff1a;Error: command failed: yarn-阿…

Stable Diffusion教程——常用插件安装与测试(一)

前言 随着Stable Diffusion不断演进&#xff0c;越来越多的开发者开始涉足插件开发。尽管网络上存在大量教程&#xff0c;但它们通常零散分布&#xff0c;逐个学习和查找非常耗时&#xff0c;使人感觉每天都在劳累思考。这里总结了Stable Diffusion常用的插件安装与测试方法。…

搭建智能调度系统:同城代驾小程序的开发教学

当下&#xff0c;同城代驾服务越来越受到人们的青睐。为了满足市场需求&#xff0c;许多企业开始开发智能调度系统&#xff0c;以提高服务效率和用户体验。本文将介绍如何搭建一个智能调度系统&#xff0c;并以同城代驾小程序的开发为例进行详细教学。 第一步&#xff1a;需求…

科技守护大唐遗宝,预防保护传承千年

​ 一、“大唐遗宝——何家村窖藏出土文物展” 陕西历史博物馆的“唐朝遗宝——何家村窖藏出土文物展”算得上是博物馆展览的典范。展览不仅在于展现了数量之多、等级之高、种类之全&#xff0c;更在于对唐朝历史文化的深入揭露。 走入大唐财产展厅&#xff0c;好像穿越千年前…

The Captainz NFT 概览与数据分析

作者&#xff1a;stellafootprint.network 编译&#xff1a;cicifootprint.network 数据源&#xff1a;The Captainz NFT Collection Dashboard The Captainz 是 Memeland 的旗舰系列&#xff0c;由 9,999 个实用性极强的 PFP 组成。持有者在 Memeland 宇宙中展开了一场神…

【Python】测量WAV文件播放时长

问题 windows播放WAV音频文件&#xff0c;一般使用API函数&#xff0c;如PlaySound。实际使用发现&#xff0c;从调用PlaySound到实际开始播放存在200ms以上的延时&#xff0c;在游戏编程中音效实时性是个需要解决的问题。 本文主要讨论&#xff0c;windows播放WAV文件的衍生…

2024 VNCTF----misc---sqlshark sql盲注+流量分析

流量分析 wireshark 可以看到很多 any/**/Or/**/(iF(((((Ord(sUbstr((sElect(grOup_cOncat(password))frOm(users)) frOm 1 fOr 1))))in(80))),1,0))# P any/**/Or/**/(iF(((((Ord(sUbstr((sElect(grOup_cOncat(password))frOm(users)) frOm 1 fOr 1))))in(104))),1,0))#…

基于springboot智慧外贸平台源码和论文

网络的广泛应用给生活带来了十分的便利。所以把智慧外贸管理与现在网络相结合&#xff0c;利用java技术建设智慧外贸平台&#xff0c;实现智慧外贸的信息化。则对于进一步提高智慧外贸管理发展&#xff0c;丰富智慧外贸管理经验能起到不少的促进作用。 智慧外贸平台能够通过互…

Vue3

目录 一、 Vue3简介 1. 性能的提升 2. 源码的升级 3. 拥抱TypeScript 4. 新的特性 二、 创建Vue3工程 1. 基于 vue-cli 创建 2. 基于 vite 创建(推荐) 3. 一个简单的效果 三、Vue3核心语法 1. OptionsAPI 与 CompositionAPI &#xff08;1&#xff09;Options API …

前端vue金额用逗号分隔

实现效果 代码 template部分 <el-input v-model"state.val"></el-input><div>{{ priceFor(state.val) }}</div> js部分 const state reactive({ val: });const priceFor (val)> {if(!val){return }else if(val.length<4){return…

IP定位技术助力网络安全保护

随着网络技术的不断发展&#xff0c;网络安全问题日益凸显&#xff0c;如何有效保护网络安全已成为亟待解决的问题。IP定位技术作为一种前沿的网络安全防护手段&#xff0c;正在逐步成为网络安全保护的重要工具。 首先&#xff0c;我们要明确什么是IP定位技术。IP定位技术是一…

Instagram 账号被封如何申诉?ins账号解封经验分享

不知道各位在玩转海外社媒平台时有没有遇到过Instagram账号异常的情况&#xff0c;比如会出现账号受限、帖子发不出去、账号被封号等情况?Instagram账号如果被封不用马上弃用&#xff0c;我们可以先尝试一下申诉&#xff0c;看看能不能把账号解封。所以今天将会出一篇Instagra…

OpenAI视频生成模型Sora背后的技术及其深远的影响

前言 Sora的视频生成技术在保真度、长度、稳定性、一致性、分辨率和文字理解等方面都达到了当前最优水平。其核心技术包括使用视觉块编码将不同格式的视频统一编码成Transformer可训练的嵌入向量&#xff0c;以及类似于扩散过程的UNet方法进行降维和升维的加噪与去噪操作。通过…

19.Qt 组合框的实现和应用

目录 前言&#xff1a; 技能&#xff1a; 内容&#xff1a; 1. 界面 2.槽 3.样式表 参考&#xff1a; 前言&#xff1a; 学习QCombox控件的使用 技能&#xff1a; 简单实现组合框效果 内容&#xff1a; 1. 界面 在ui编辑界面找到input widget里面的comboBox&#xff…

Cesium 问题——加载 gltf 格式的模型之后太小,如何让相机视角拉近

文章目录 问题分析问题 刚加载的模型太小,如何拉近视角放大 分析 在这里有两种方式进行拉近视角, 一种是点击复位进行视角拉近一种是刚加载就直接拉近视角// 模型三加载 this.damModel = new Cesium.Entity({name: "gltf模型",position:</

【HarmonyOS】鸿蒙开发之TextInput组件——第3.3章

textInput属性 代码展示 Column(){Row(){Text("默认类型").margin({right:10})TextInput().width(60%).height(45)}.margin({bottom:10})Row(){Text("自定义样式").margin({right:10})TextInput().width(60%).height(45).fontColor(Color.Brown).enterKe…

LabVIEW轨道交通列车牵引制动试验平台

LabVIEW轨道交通列车牵引制动试验平台 概述 面对城市轨道交通领域对于高效、准确牵引制动系统的迫切需求&#xff0c;开发了一套基于LabVIEW软件与硬件相结合的试验平台。该平台模拟列车的牵引、制动等工况&#xff0c;通过高精度的数据采集与实时图形化展示&#xff0c;提升…

网页文档编写

工具 sphinx 推荐主题 &#xff1a;html_theme "sphinx_rtd_theme" html_theme_options {navigation_depth: -1, }效果如下图 参考文章 [ sphinx的安装与使用 — 野火]sphinx文档规范与模版 文档 (ebf-contribute-guide.readthedocs.io) Sphinx 文档目录 — Sphi…