文章目录
- 写在前面
- 开源仓库和项目上线
- 其他文档说明
- 项目背景
- 项目的宏观原理
- 技术栈与环境
- 搜索引擎原理
- 正排索引
- 倒排索引
- 去标签和数据清洗模块
- html文件名路径保存函数
- html数据解析函数
- 文件写入函数
- 建立索引模块
- 检索和读取信息
- 建立索引
- 建立正排索引
- 建立倒排索引
- jieba工具的使用
- 倒排索引实现
- 建立单例模式
- 查找数据模块
- HttpServer模块
- 编写前端代码
- 设计去重的效果
本篇主要是对于自主实现Boost搜索引擎这个项目做的一个制作流程文档,对于整个项目的制作思路和细节进行详细的描述,为避免冗余在一些组件方面采用跳转链接的方式,指向以前写好的文档
写在前面
开源仓库和项目上线
本项目已开源到下面链接下的仓库当中
search-engine-online
并且项目已经部署在了Linux服务器上,具体访问方式可以点击下面链接进行访问:
81.70.160.28:8081
其他文档说明
针对于日志的信息,我采用了之前写的一份利用可变参数实现日志的代码,具体链接如下
C++:可变参数实现日志系统
项目背景
对于搜索引擎的概念并不陌生,在日常中有百度,360,搜狗这样的搜索引擎,这些都是相关的公司做好的服务,但这样的大型搜索引擎是特别大型的项目,因此本篇实现的搜索引擎实现的是一个站内搜索,例如在cplusplus这样的网站中实现一个站内搜索的效果
那对于一个搜索引擎来说,当搜索到具体的内容进行实现的时,要展现给用户的内容一般包括有三点,网页的网址,网页的标题,网页的摘要,这里我以搜索C++为例
项目的宏观原理
接下来我将介绍的是对于搜索引擎的宏观原理,在这个宏观原理中不涉及任何的技术细节,只是对于数据在搜索引擎的流动方式有一个基本的认识
数据在搜索引擎的流动方式如下所示:
如上图所示,服务器上会运行一个服务软件searcher,它会绑定一个例如9999的端口号,那在这个程序运行的最初步骤,会首先从磁盘中的data目录下读取网页的数据信息,这些网页的信息会通过爬虫这样的方式从网络中进行读取,之后会执行去标签和数据清理的过程,最终只保留网页的三个基本信息,之后会建立索引,这样可以帮助进行更迅速的网页查找信息
在执行了上述过程后,服务端就准备就绪了,此时客户端可以向服务端借助http发送请求,来进行一些搜索任务,服务端此时会进行一系列的检索索引,最终把对应的网页信息返回给客户端,网页中可能包含多个网页信息,因此这里要对筛选出的信息进行二次重组
那在其中需要注意的是,我实现的核心功能是蓝色区域内的内容,至于用爬虫从全网数据读取这个过程直接从Boost官网中下载获取,以上即为对应的搜索引擎的宏观原理
技术栈与环境
- 技术栈:C/C++、C++11、STL
- 项目环境:Centos服务器、g++/Makefile、Visual Studio Code
搜索引擎原理
假设现在有两句话:
- 张三在书店购买了红楼梦
- 李四在书店借阅了红楼梦
正排索引
那所谓正排索引,就是从文档ID中找到文档的内容,也就是提取文档的关键字,例如:
文档ID | 文档内容 |
---|---|
1 | 张三在书店购买了红楼梦 |
2 | 李四在书店借阅了红楼梦 |
正排索引就是从ID找到文档的内容
倒排索引
倒排索引就是对于目标文件进行分词,以方便于进行倒排索引和查找
例如上述的两个句子如果进行分词,可以这样进行划分
1. [张三在书店购买了红楼梦]:[张三]在[书店][购买]了[红楼梦]
2. [李四在书店借阅了红楼梦]:[李四]在[书店][借阅]了[红楼梦]
划分之后,可以依据划分的结果建立对应的索引信息
关键字 | 文档ID |
---|---|
张三 | 句子1 |
李四 | 句子2 |
书店 | 句子1,句子2 |
购买 | 句子1 |
借阅 | 句子2 |
红楼梦 | 句子1,句子2 |
在有了上述的概念之后,如果用户输入了张三,就可以用张三这个关键字到句子1中进行查找,于是就能找到对应的信息所处的句子,如果用户输入了书店,这个信息在两个句子中都有出现过,那么就对于文档信息进行摘要,再进行构建相关的网页信息,最终返回给客户端,这就是搜索引擎的一个基本的原理
那在上述的这个过程中可以看到,正排索引和倒排索引是需要搭配进行使用的,一定是先查倒排,再根据结果去查正排,进而找到对应的文档内容
这里需要补充的是,既然可能会出现两个相同的索引信息,那这两个信息的出现一定有对应的出现顺序,也就是说不同的信息会有不同的权重,未来我也会在项目中采取一种方法,来实现权重的效果实现,最终做到哪个信息的权重高,就把这条信息放到顺序靠前的位置
去标签和数据清洗模块
在这个模块中,要实现的是对于本项目中的数据进行去标签和数据清洗的操作
首先要获取对应的数据源,既然是Boost搜索引擎,那就到Boost网页中获取对应的数据源信息:
Boost官网
这里我选取的数据源是boost_1_84_0下的html文件,用它来作为索引
接下来就要创建一个源文件,parser.cc,用来对于数据进行去标签和数据清洗的操作,那先介绍一下标签的概念,打开一个html文件,如下图所示:
在这个文件中,像这样<>
括起来的内容,就叫做是html的标签,而实际上这样的标签对于搜索来说是没有任何价值的,所以就要把这些标签去掉,这样的操作就叫做是数据清洗,当数据清洗的操作结束后,把清洗结束后的数据再放到一个文件中,文件中存储的是干净的文档,在这个文档中理想状态是把这些数据放到一行,每一个文档之间用一些特殊符号来表示,例如在ASCII码表中有一些不可显字符,用这样的字符来作为文档和文档之间的分割,以便于进行文档的提取
选取不可显字符的好处是,不可显字符一般都是控制字符,控制字符是不会影响可打印字符的,这也就意味着这些字符既能帮助分割文档的内容,又能做到不污染形成的文档,于是就可以编写第一个模块的代码了,首先编写整体的逻辑框架
const string input = "data/input";
const string output = "data/output/output.txt";
enum
{
SUCCESS = 0,
ENUMERROR,
PARSEERROR,
WRITEERROR
};
struct Doc_Content
{
// 文档的标题,内容,网址
string title;
string content;
string url;
};
bool EnumFile(const string &src_path, vector<string> *files_list);
bool ParseHTML(const vector<string> &files_list, vector<Doc_Content> *res_list);
bool WriteToDoc(const vector<Doc_Content> &res_list, const string &output);
int main()
{
vector<string> files_list;
vector<Doc_Content> res_list;
// 1. 把每个html文件名带路径保存到files_list中,方便读取其中信息
if (!EnumFile(input, &files_list))
{
lg(Fatal, "enum file and name error!");
return ENUMERROR;
}
// 2. 把files_list中读取到的文件内容解析到res_list中
if (!ParseHTML(files_list, &res_list))
{
lg(Fatal, "parse content error!");
return PARSEERROR;
}
// 3. 把res_list中解析后的内容写到output中,按照\3进行分割
if(!WriteToDoc(res_list, output))
{
lg(Fatal, "Write content to output error!");
return WRITEERROR;
}
return SUCCESS;
}
html文件名路径保存函数
在C++标准库当中,对于文件的操作并不是非常的完善,而在Boost库中有非常完备的文件操作的函数,因此这个模块中我将采用的是基于Boost库的一些库函数实现识别html文件,并且把相关信息存储到files_list当中
在Linux环境中,Boost库并不是自带的,所以需要用户自己进行安装Boost库,并且在编译的过程中要带上boost库的编译选项
# 安装boost库
sudo yum install -y boost-devel
# 编译选项
-lboost_system -lboost_filesystem
对于这个模块来说,其实完成的功能比较简单,就是一个借助库函数提取信息的过程,遍历目录中的文件信息,从中筛选出包含html后缀的文件,并把对应的路径保存到files_list中
安装完成后,就可以借助Boost库提供的方法编写代码:
bool EnumFile(const string &src_path, vector<string> *files_list)
{
// 初始化保存根目录信息
boost::filesystem::path root(input);
// 判断路径是否存在
if(!boost::filesystem::exists(root))
{
lg(Fatal, "%s not exists", input.c_str());
return false;
}
// 定义一个空的迭代器,用来进行判断
boost::filesystem::recursive_directory_iterator end;
for(boost::filesystem::recursive_directory_iterator it(root); it != end; it++)
{
// 只从普通文件中筛选出html文件
if(!boost::filesystem::is_regular_file(*it) || it->path().extension() != ".html")
continue;
lg(Debug, "%s", it->path().string().c_str());
// 这个路径当前满足要求,可以放到表中
files_list->push_back(it->path().string());
}
return true;
}
html数据解析函数
经过上面步骤之后,此时已经可以把html的路径保存到表中,但是对于每一个html中的内容还没有进行提取,所以在进行解析数据之前,要先把每一个文件的内容都存储到对应的字符串中,之后再继续进行提取的操作
这里对于文件内容的提取操作,我把它单独放在了一个utility的头文件当中,作为是一个实用的小工具来使用,方便后续进行其他的提取操作,那提取操作的逻辑也较为简单,直接对于文件进行暴力读取即可:
// 读取一个html文件中的相关信息
class FileUtility
{
public:
// 执行文件读取的操作,把文件当中的信息存储到输出字符串当中
static bool ReadFile(const string & file_path, string *output)
{
ifstream in(file_path, ios::in);
if(!in.is_open())
{
lg(Warning, "open file %s error", file_path.c_str());
return false;
}
string line;
while(getline(in, line))
*output += line;
in.close();
return true;
}
};
到此,每一个html中的信息就都已经存储到了字符串当中,那么接下来要做的内容就是把对应的信息从这个字符串中提取出来,放到结构体中作为一个网页的核心数据
1. 提取标题
一个网页的标题,会存储在<title>
标签下,这里我以一个html文件为例:
此时我在函数中要完成的目的,就是提取出title标签之间的这部分内容,作为网页的标题,整个算法的思路也是较为简单的,只需要在整个字符串中去寻找<title>
和</title>
,这两个位置之间的内容就是我当前所需要的字符串
static bool ParseTitle(const string &file, string *title)
{
size_t begin = file.find("<title>");
if(begin == string::npos)
return false;
size_t end = file.find("</title>");
if(end == string::npos)
return false;
// 将begin的信息定位到标题信息前
begin += string("<title>").size();
if(begin > end)
return false;
*title = file.substr(begin, end - begin);
return true;
}
2. 提取内容
提取网页的内容,本质上就是取出掉不需要的标签信息,只保留最关键的部分即可,我以一个html文件为例:
所谓标签信息,就是在标签之间的信息,那么以上图中的几个红框中的内容为例,这些当中的内容都不属于标签,由此观察出的规律是,凡是在>
之后的数据就可能是正文,但是如果遇到两个标签挨到一起的情况,例如><
也可能不是,那么对此编写一个小型状态机来进行处理,对于状态机的概念也不陌生,如果对此不熟悉也没关系,在代码中进行体现
// 编写一个去标签的函数,去除所有html中的标签信息
static bool ParseContent(const string &file, string *content)
{
// 定义状态机的状态
enum status
{
LABLE,
CONTENT
};
enum status s = LABLE;
for (char c : file)
{
switch (s)
{
case LABLE:
if (c == '>')
s = CONTENT;
break;
case CONTENT:
if (c == '<')
s = LABLE;
else
{
// 不保留文件中的\n
if (c == '\n')
c = ' ';
content->push_back(c);
}
break;
default:
break;
}
}
return true;
}
3. 构建URL
结束了上面的步骤后,接下来要做的就是提取出对应的URL信息,在提取之前,要先说一个URL的结论:在boost库中的官方文档,和下载下来的文档是有路径对应关系的,具体的原因是属于http协议当中的内容,这里不过多解释
具体的,在官方网址中会存在这样的网站:
https://www.boost.org/doc/libs/1_84_0/doc/html/accumulators.html
而在我提前下载好的数据源中,对于accumulators.html这个文件来说,它的所处路径其实是这样的
data/input/accumulators.html
这也就意味着,如果想要构建一个URL,实际上只需要把官方网址中前面的信息和在本地的html所处的信息进行一个组合,这样就能构建出一个URL,那下面我的代码操作就要基于这样的理论,把本地的文档和boost官方库建立一个关系
static bool ParseTitle(const string &file, string *title)
{
size_t begin = file.find("<title>");
if (begin == string::npos)
return false;
size_t end = file.find("</title>");
if (end == string::npos)
return false;
// 将begin的信息定位到标题信息前
begin += string("<title>").size();
if (begin > end)
return false;
*title = file.substr(begin, end - begin);
return true;
}
static bool ParseContent(const string &file, string *content)
{
// 定义状态机的状态
enum status
{
LABLE,
CONTENT
};
enum status s = LABLE;
for (char c : file)
{
switch (s)
{
case LABLE:
if (c == '>')
s = CONTENT;
break;
case CONTENT:
if (c == '<')
s = LABLE;
else
{
// 不保留文件中的\n
if (c == '\n')
c = ' ';
content->push_back(c);
}
break;
default:
break;
}
}
return true;
}
static bool ParseUrl(const string &file_path, string *url)
{
string url_head = "https://www.boost.org/doc/libs/1_84_0/doc/html";
// 把前面的内容去除,只保留后面的路径部分
string url_tail = file_path.substr(input.size());
*url = url_head + url_tail;
return true;
}
static void showDoc(const Doc_Content &doc)
{
cout << "title: " << doc.title << endl;
cout << "content: " << doc.content << endl;
cout << "url: " << doc.url << endl;
}
bool ParseHTML(const vector<string> &files_list, vector<Doc_Content> *res_list)
{
// 遍历file_list中的每一个元素信息,提取相关内容
for (const string &file : files_list)
{
// 1. 读取文件
string res;
if (!search_utility::FileUtility::ReadFile(file, &res))
continue;
// 2. 解析文件信息,存储到结构化数据中
Doc_Content doc;
if (!ParseTitle(res, &doc.title))
continue;
// 3. 解析指定的文件,提取content,就是去标签
if (!ParseContent(res, &doc.content))
continue;
// 4. 解析指定的文件路径,构建url
if (!ParseUrl(file, &doc.url))
continue;
res_list->push_back(doc);
showDoc(doc);
break;
}
return true;
}
文件写入函数
这个模块要实现的内容主要是,把上一个部分存储好的信息放到文件中,便于进行检索,那该如何进行检索的模块呢?
对于检索来说,我们理想的状态自然是能够一次读取到一个html文件中的核心信息,包括有标题,内容,URL,同时要能够做到这三个内容用一种合适的方式进行分割,因此我这里采用的设计方法是,将每一个文件中的三个核心信息之间采取用\3
进行划分,而文件和文件之间则采取用\n
来进行划分,这样就可以实现把文件写入函数的功能,基于这样的想法,我对于该模块的设计思路主要如下:
bool WriteToDoc(const vector<Doc_Content> &res_list, const string &output)
{
// 打开文件进行写入
ofstream out(output, ios::out | ios::binary);
if(!out.is_open())
{
lg(Fatal, "open %s failed!", output.c_str());
return false;
}
// 打开文件后,将信息写到文件当中
for(auto &item : res_list)
{
// 组件一个字符串信息
string outstring;
outstring += item.title;
outstring += '\3';
outstring += item.content;
outstring += '\3';
outstring += item.url;
outstring += '\n';
// 存储到文件中
out.write(outstring.c_str(), outstring.size());
}
out.close();
return true;
}
至此,对于去标签和数据清洗的模块已经结束,下面的模块将会尝试建立索引
建立索引模块
在将对应网页中所有元素的信息都存储到对应的文件中之后,下一步就是要对于文件中关于网页的信息建立索引,那么在这个模块我将会先搭建出一个基本的框架,之后对于每一个框架中的小模块再进行详细的索引
#pragma once
#include <iostream>
#include <string>
#include <vector>
#include <unordered_map>
using namespace std;
namespace ns_index
{
// 定义文档的结构化信息
struct DocInfo
{
string title;
string content;
string url;
uint64_t doc_id;
};
// 定义映射的Value值,方便倒排索引
struct InvertedElem
{
uint64_t doc_id;
string word;
int weight;
};
class Index
{
public:
// 一些必要的构造析构函数
Index()
{
}
~Index()
{
}
// 建立正排索引和倒排索引
bool BulidIndex(const string &input)
{
}
DocInfo *BulidForwardIndex(const string &line)
{
}
bool BulidInvertedIndex(const DocInfo &doc)
{
}
// 根据doc_id寻找文档内容
DocInfo *GetForwardIndex(uint64_t doc_id)
{
}
// 根据string关键字获得倒排拉链
vector<InvertedElem> *GetInvertedList(const string &word)
{
}
private:
// 正排索引可以直接使用数组下标当做是文档ID
vector<DocInfo> forward_index;
// 倒排索引是一个关键组对应多个文档ID等信息
unordered_map<string, vector<InvertedElem>> inverted_index;
};
}
检索和读取信息
建立索引的目的是为了直接进行存取,从正排索引的角度来讲要做到可以根据文档ID读取到对应的文档信息,而从倒排索引的角度来讲要根据关键词信息,读取到关键词的映射数组,这两个功能都是直接利用STL容器的接口即可实现,较为简单
// 根据doc_id寻找文档内容
DocInfo *GetForwardIndex(uint64_t doc_id)
{
// 直接从数组中获取信息
if(doc_id >= forward_index.size())
{
lg(Fatal, "%d is out of range!", &doc_id);
return nullptr;
}
return &forward_index[doc_id];
}
// 根据string关键字获得倒排拉链
vector<InvertedElem> *GetInvertedList(const string &word)
{
// 直接从哈希表中查找信息即可
auto iter = inverted_index.find(word);
if(iter == inverted_index.end())
{
lg(Warning, "%s have no index!", word.c_str());
return nullptr;
}
return &(iter->second);
}
建立索引
建立索引分为建立正排索引和建立倒排索引,核心思路是依次读取文件中的每一行,每一行就代表了一个网页的各种信息,并对这一行的信息进行解析和构建索引即可:
// 建立正排索引和倒排索引
bool BulidIndex(const string &input)
{
// 打开待读取的文件
ifstream in(input, ios::in | ios:: binary);
if(!in.is_open())
{
lg(Fatal, "open %s fail!", input.c_str());
return false;
}
// 把文件中的信息按行读取出来
string line;
while(getline(in, line))
{
DocInfo* doc = BulidForwardIndex(line);
if(doc == nullptr)
{
lg(Warning, "build %s error!", line.c_str());
continue;
}
BulidInvertedIndex(*doc);
}
return true;
}
在读取到每一行的信息后,具体的建立索引的设计思路如下所示:
建立正排索引
基本思路是根据前面文件中存储的每一个网页的信息,依次把信息进行划分和存储,再存储到对应的下标位置,即可建立出正排索引
DocInfo *BulidForwardIndex(const string &line)
{
// 1. 解析line字符串,进行切分
vector<string> res;
const string sep = "\3";
search_utility::StringUtil::Split(line, &res, sep);
if (res.size() != 3)
return nullptr;
// 2. 填充到DocInfo当中
DocInfo doc;
doc.title = res[0];
doc.content = res[1];
doc.url = res[2];
doc.doc_id = forward_index.size();
// 3. 插入到正排索引中
forward_index.push_back(move(doc));
return &(forward_index.back());
}
在这当中需要注意的是,在进行按\3
进行划分的函数,这里采用的是boost库当中的划分函数,这里考虑到篇幅的原因不再进行详细介绍
static void Split(const string &line, vector<string> *res, const string &sep)
{
boost::split(*res, line, boost::is_any_of(sep), boost::token_compress_on);
}
建立倒排索引
基本思路是把正排索引当中的内容进行合适的划分,之后把对应的关键词所在的文档信息添加到哈希表中,即可完成对于倒排索引的建立,以上为基本原理,那么下面进行更加详细的描述:
从结构的设计来讲,一个初步的设定是可以用一个结构体来管理一个词,其中必须要有这个词对应的ID信息,还有词的信息,以及最重要的是,要包含有词的权重信息,针对于词的权重,我这里给出的解释是当出现相同关键字时,词的权重越大,证明它出现的越高频,所以就把它的位置向前放
而内容的读取在前面的部分中已经有对应的文档内容了,文档内容中包括有标题和内容,那么提取词汇和建立权重的这个过程就要从标题和内容中进行寻找了,根据文档的内容,进行合适的划分,对于每一个文档的内容都可以形成一个或者多个倒排拉链,那么下面展示具体的步骤
1. 分词
分词我这里采用的是jieba分词,突出的效果就是最初步的在前面讲解正排和倒排索引一样,对一句话提取关键字
那jieba库在github上是开源的,克隆到本地仓库之后,对于本地仓库中可以使用一个demo代码来看它的作用:
小明硕士毕业于中国科学院计算所,后在日本京都大学深造
[demo] CutForSearch
小明/硕士/毕业/于/中国/科学/学院/科学院/中国科学院/计算/计算所/,/后/在/日本/京都/大学/日本京都大学/深造
上述所示就是关于jieba分词的主要使用效果,那么我后面对于分词使用的就是这个库
2. 词频统计
遍历这句话中的每一个词,如果它是处于在标题当中的,那么就把这个词汇统计信息存储到标题次数中,如果是出现在正文当中,就把这个词的信息存储到正文部分当中,至此就能把文档中具体的某一个词,它的具体出现的次数都能统计出来
3. 自定义相关性
在自定义相关性中,我这里采取的方案比较简单,就是根据前面的词频统计,标题出现的权重高一些,正文出现的权重低一些,最终做一个累计和即可
jieba工具的使用
有了jieba库,于是我们可以定义一个简单的jieba工具,具体的使用也很简单,只需要对应的创建一个对象,再把当前jieba库中的词库信息初始化该jieba对象,直接调用jieba的对应方法,就可以实现分词的目的
const char *const DICT_PATH = "./dict/jieba.dict.utf8";
const char *const HMM_PATH = "./dict/hmm_model.utf8";
const char *const USER_DICT_PATH = "./dict/user.dict.utf8";
const char *const IDF_PATH = "./dict/idf.utf8";
const char *const STOP_WORD_PATH = "./dict/stop_words.utf8";
class JiebaUtil
{
public:
static void CutString(const string &src, vector<string> *out)
{
JiebaUtil::jieba.CutForSearch(src, *out);
}
private:
static cppjieba::Jieba jieba;
};
cppjieba::Jieba JiebaUtil::jieba(DICT_PATH, HMM_PATH, USER_DICT_PATH, IDF_PATH, STOP_WORD_PATH);
倒排索引实现
// 根据文档中的信息建立倒排拉链
bool BulidInvertedIndex(const DocInfo &doc)
{
struct word_cnt
{
word_cnt() : title_cnt(0), content_cnt(0)
{}
int title_cnt;
int content_cnt;
};
// 建立一个用来暂存词频的映射表
unordered_map<string, word_cnt> word_map;
// 对于标题进行分词
vector<string> title_words;
search_utility::JiebaUtil::CutString(doc.title, &title_words);
// 对于标题进行词频统计
for(auto s : title_words)
{
transform(title_words.begin(), title_words.end(), title_words.begin(), ::tolower);
word_map[s].title_cnt++;
}
// 对于内容进行分词
vector<string> content_words;
search_utility::JiebaUtil::CutString(doc.content, &content_words);
// 对于内容进行词频统计
for(auto s : content_words)
{
transform(content_words.begin(), content_words.end(), content_words.begin(), ::tolower);
word_map[s].content_cnt++;
}
// 建立倒排索引
for(auto& kv : word_map)
{
string key_string = kv.first;
auto word_count = kv.second;
// 把倒排索引的信息填充到结构体中
InvertedElem item;
item.doc_id = doc.doc_id;
item.word = key_string;
item.weight = GetWeight(word_count.title_cnt, word_count.content_cnt);
// 提取出当前关键字对应的倒排信息,然后把当前词的倒排信息插入进去
vector<InvertedElem> &inverted_list = inverted_index[key_string];
inverted_list.push_back(move(item));
}
return true;
}
// 设计一个计算权值的函数,这里暂时不过多设计
int GetWeight(int title, int content)
{
return title * 10 + content;
}
建立单例模式
那上述其实已经完成了所有的步骤,但是这里还可以进行优化一下,对于建立索引这件事,我希望在整个代码中只需要建立一次就足够了,因此可以把索引的建立单例化,这样在未来进行使用的时候也只需要调用一次即可
查找数据模块
在查找数据模块中,一个大的主体思路是,用户输入一个词,然后进行匹配,最后输出匹配的结果
具体的来谈,作为使用者在进行查询的时候,使用的方式是在搜索栏中输入一个关键词,之后要先把这个关键词进行分词,之后针对于分词之后的结果,到已经提前准备好的index当中查找,之后把查找到的信息进行汇总,再将对应的结果按照weight降序排序,之后组件成json串传递回去即可,具体代码实现如下:
void Search(const string &query, string *json_string)
{
// 1. 把传入的query参数进行分词
vector<string> words;
search_utility::JiebaUtil::CutString(query, &words);
// 2. 根据分词的结果,进行index查找
// 建立所有词的倒排索引
vector<search_index::InvertedElem> inverted_list_all;
for (auto word : words)
{
transform(word.begin(), word.end(), word.begin(), ::tolower);
// 根据当前分词去寻找倒排索引
vector<search_index::InvertedElem> *inverted_list = index->GetInvertedList(word);
// 如果当前分词找不到结果,就跳过
if (inverted_list == nullptr)
continue;
// 把当前词的倒排索引结果插入到汇总结果当中
inverted_list_all.insert(inverted_list_all.end(), inverted_list->begin(), inverted_list->end());
}
// 3. 按照出现的权值排序,汇总结果
sort(inverted_list_all.begin(), inverted_list_all.end(), [](const search_index::InvertedElem &e1, const search_index::InvertedElem &e2)
{ return e1.weight > e2.weight; });
// 4. 构建json串
Json::Value root;
for (auto &item : inverted_list_all)
{
search_index::DocInfo *doc = index->GetForwardIndex(item.doc_id);
if (nullptr == doc)
continue;
Json::Value elem;
elem["title"] = doc->title;
elem["desc"] = doc->content;
elem["url"] = doc->url;
elem["id"] = (int)item.doc_id;
elem["weight"] = item.weight;
root.append(elem);
}
// Json::StyledWriter writer;
Json::FastWriter writer;
*json_string = writer.write(root);
}
在这当中也有部分需要改进的地方,例如对于desc部分,展示的是文章的所有内容,这并不是想要的,那处理方法就是找到word在html_content中的首次出现,然后往前找50字节(如果没有,从begin开始),往后找100字节,最终拼凑成一个content内容即可
string GetDesc(const string &html_content, const string &word)
{
// 找到word在html_content中的首次出现,然后往前找50字节(如果没有,从begin开始),往后找100字节(如果没有,到end就可以的)
// 截取出这部分内容
const int prev_step = 50;
const int next_step = 100;
// 1. 找到首次出现
auto iter = search(html_content.begin(), html_content.end(), word.begin(), word.end(), [](int x, int y)
{ return (tolower(x) == tolower(y)); });
if (iter == html_content.end())
{
return "None1";
}
int pos = distance(html_content.begin(), iter);
// 2. 获取start,end
int start = 0;
int end = html_content.size() - 1;
// 如果之前有50+字符,就更新开始位置
if (pos > start + prev_step)
start = pos - prev_step;
if (pos < end - next_step)
end = pos + next_step;
// 3. 截取子串,return
if (start >= end)
return "None2";
string desc = html_content.substr(start, end - start);
desc += "...";
return desc;
}
到此,搜索模块也已经完成了,下一步就剩下进行网络的交互过程了
HttpServer模块
在这个模块中,我初步的方案是使用了现成的httplib库,未来可能会有其他的解决方案
#include "httplib.h"
#include "searcher.hpp"
#include "Log.hpp"
extern Log lg;
const std::string input = "../data/output/output.txt";
const std::string root_path = "./wwwroot";
int main()
{
search_searcher::Searcher search;
search.InitSearcher(input);
httplib::Server svr;
svr.set_base_dir(root_path.c_str());
svr.Get("/s", [&search](const httplib::Request &req, httplib::Response &rsp)
{
if (!req.has_param("word"))
{
rsp.set_content("必须要有搜索关键字!", "text/plain; charset=utf-8");
return;
}
std::string word = req.get_param_value("word");
lg(Info, "用户搜索的: %s", word.c_str());
std::string json_string;
search.Search(word, &json_string);
rsp.set_content(json_string, "application/json");
});
lg(Info, "服务器启动成功...");
svr.listen("0.0.0.0", 8081);
return 0;
}
编写前端代码
这里由于前端不是重点,就不进行讲解了
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>Boost搜索引擎</title>
<link rel="shortcut icon" href="./image/favicon.png" type="image/png" />
<style>
/* 基本样式重置 */
* {
box-sizing: border-box;
margin: 0;
padding: 0;
}
html,
body {
height: 100%;
font-family: Arial, sans-serif;
font-size: 16px;
line-height: 1.7;
color: #333;
background-color: #f7f7f7;
}
/* 页面布局 */
.container {
width: 100%;
max-width: 100%;
margin: 100px auto;
padding: 30px;
background-color: #fff;
box-shadow: 0 2px 4px rgba(0, 0, 0, 0.1);
display: flex;
flex-direction: column;
align-items: center;
justify-content: center;
}
/* 搜索区域 */
.search {
display: flex;
align-items: center;
gap: 10px;
height: 52px;
padding: 0 10px;
background-color: #f0f0f0;
border-radius: 4px;
}
.search input[type="text"] {
flex-grow: 1;
height: 100%;
padding: 0 50px;
border: 1px solid #ccc;
border-right: none;
outline: none;
color: #666;
}
.search button {
width: 150px;
height: 100%;
border: none;
background-color: #4e6ef2;
color: #fff;
font-size: 18px;
font-weight: bold;
cursor: pointer;
transition: background-color 0.2s ease;
}
.search button:hover {
background-color: #3b59e9;
}
/* 搜索结果 */
.result {
margin-top: 20px;
padding: 0 10px;
}
.result .item {
margin-top: 15px;
}
.result .item a {
display: block;
text-decoration: none;
color: #4e6ef2;
font-size: 20px;
line-height: 1.3;
transition: color 0.2s ease;
}
.result .item a:hover {
color: #3b59e9;
}
.result .item p {
margin-top: ⅔px;
font-size: 16px;
line-height: 1.5;
}
.result .item i {
display: block;
font-style: normal;
color: #008000;
}
</style>
<!-- ... 其他已存在的 head 内容 ... -->
<script>
document.addEventListener("DOMContentLoaded", function () {
const searchInput = document.querySelector('.search input[type="text"]');
const searchButton = document.querySelector('.search button');
searchInput.addEventListener('keyup', function (event) {
if (event.key === 'Enter') {
searchButton.click(); // 模拟点击搜索按钮
event.preventDefault(); // 阻止默认行为(如表单提交)
}
});
});
</script>
</head>
<body>
<div class="container">
<div class="search">
<input type="text" placeholder="请输入搜索关键字">
<button onclick="Search()">搜索一下</button>
</div>
<div class="result"></div>
</div>
<script src="http://code.jquery.com/jquery-2.1.1.min.js"></script>
<script>
function Search() {
const query = $(".container .search input").val();
$.ajax({
type: "GET",
url: "/s?word=" + query,
success: data => BuildHtml(data),
});
}
function BuildHtml(data) {
const resultContainer = $(".container .result");
resultContainer.empty();
data.forEach((elem) => {
const item = `
<div class="item">
<a href="${elem.url}" target="_blank">${elem.title}</a>
<p>${elem.desc}</p>
<i>${elem.url}</i>
</div>
`;
resultContainer.append(item);
});
}
</script>
</body>
</html>
设计去重的效果
在上述的代码中其实是存在一些问题的,比如,我创建一个新的html网页的信息
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
<!-- Copyright (C) 2002 Douglas Gregor <doug.gregor -at- gmail.com>
Distributed under the Boost Software License, Version 1.0.
(See accompanying file LICENSE_1_0.txt or copy at
http://www.boost.org/LICENSE_1_0.txt) -->
<title>用来测试</title>
<meta http-equiv="refresh" content="0; URL=../../libs/core/doc/html/core/ref.html">
</head>
<body>
Automatic redirection failed, please go to
<a href="../../libs/core/doc/html/core/ref.html">../../libs/core/doc/html/core/ref.html</a>
</body>
</html>
此时将项目启动起来,搜索一下这个关键字,会发现存在这样的现象
那这是为什么?其实原因就在于是没有进行去重,而解决的方式就是用文档的id为键值,建立一个文档id和对应信息的索引关系,未来对于同一个文档id的内容,就把他们的信息都合并到一起,作为一条来进行显示就可以了
我们新增一个索引结构,用来存储每一个文档号对应的文档信息
struct InvertedElemPrint
{
uint64_t doc_id;
int weight;
vector<string> words;
InvertedElemPrint() : doc_id(0), weight(0) {}
};
再在search的时候,对于信息进行提取,把相同id下的权值等累计到一起,最后把上述结构体的信息作为索引的依据即可
void Search(const string &query, string *json_string)
{
// 1. 把传入的query参数进行分词
vector<string> words;
search_utility::JiebaUtil::CutString(query, &words);
// 2. 根据分词的结果,进行index查找
// 建立所有词的倒排索引
vector<InvertedElemPrint> inverted_list_all;
// 根据id来进行合并去重
std::unordered_map<uint64_t, InvertedElemPrint> tokens_map;
for (auto word : words)
{
transform(word.begin(), word.end(), word.begin(), ::tolower);
// 根据当前分词去寻找倒排索引
vector<search_index::InvertedElem> *inverted_list = index->GetInvertedList(word);
// 如果当前分词找不到结果,就跳过
if (inverted_list == nullptr)
continue;
// 把当前词的倒排索引结果插入到汇总结果当中
for (const auto &elem : *inverted_list)
{
auto &item = tokens_map[elem.doc_id]; //[]:如果存在直接获取,如果不存在新建
// item一定是doc_id相同的print节点
item.doc_id = elem.doc_id;
item.weight += elem.weight;
item.words.push_back(elem.word);
}
}
for (const auto &item : tokens_map)
{
inverted_list_all.push_back(move(item.second));
}
// 3. 按照出现的权值排序,汇总结果
sort(inverted_list_all.begin(), inverted_list_all.end(),
[](const InvertedElemPrint &e1, const InvertedElemPrint &e2)
{
return e1.weight > e2.weight;
});
// 4. 构建json串
Json::Value root;
for (auto &item : inverted_list_all)
{
search_index::DocInfo *doc = index->GetForwardIndex(item.doc_id);
if (nullptr == doc)
continue;
Json::Value elem;
elem["title"] = doc->title;
elem["desc"] = GetDesc(doc->content, item.words[0]);
elem["url"] = doc->url;
// for deubg, for delete
elem["id"] = (int)item.doc_id;
elem["weight"] = item.weight; // int->string
root.append(elem);
}
// Json::StyledWriter writer;
Json::FastWriter writer;
*json_string = writer.write(root);
}
至此,这个项目就基本完成了,后续可能还会新增一些新的功能