5 分钟,开发自己的 AI 文档助手!手把手教程

大家好,我是鱼皮。

几个月前,我自己开发过一个 AI 文档总结助手应用。给大家简单演示一下,首先我上传了一个文档,定义 1 + 1 等于 3:

然后把文档喂给 AI 文档总结助手,再向它提问,然后 AI 就回答出了我们文档中的内容,如下图:

是不是很有趣哈哈~ 所以 AI 并不是完全可信的哦,要看原始数据是否可信!

当时参考网上的教程,做这个花了挺长一段时间,成就感满满。

但没想到,这段时间,AI 以一日千里的速度发展,现在开发一个同样的 AI 文档总结助手,大家猜猜要多久?

答案是:只要 5 分钟!!!

没错,使用腾讯云新出的向量数据库产品能力,哪怕没有 AI 知识,也能够轻轻松松开发出 AI 应用。

下面就给大家分享一下 AI 总结助手开发教程。

AI 总结助手开发教程

实现原理

动手写代码前,我们要先了解整个 AI 总结助手的实现原理,为什么 AI 能够回答出我们指定的文档内容呢?

那肯定要把文档数据先 “喂” 给 AI 呀,可是怎么 “喂” 呢?

因为 AI 的 “脑容量” 很小,接受的输入有限,所以我们要对文档进行拆分,比如将一篇万字长文拆为 20 个 500 字的小段落。

然后,我们要将这些小段落存储到 数据库 中,当用户向 AI 提问时,AI 要先从数据库中查询出和用户问题相似度最高的小段落,然后对这些小段路进行总结,再给用户回答。

为什么要给 AI 提供一个数据库呢?我举个通俗易懂的比喻:我们考试时如果脑袋记不住所有考点,是不是带本书进考场,然后根据考题从书中查出答案,再整理一下写到考卷上就行了呢?

那么问题就来了,怎么根据用户的问题从数据库中查出最相似的段落呢?文本段落应该以什么格式存储到数据库中呢?

这就需要用到一种特殊的数据库技术 —— 向量数据库。

什么是向量数据库?

向量数据库就是一个专门存储和处理 向量数据 的数据库,它内置了相似内容检索功能,可以找到和某个向量最相似的数据。

相比于传统关系型数据库(比如 MySQL)的模糊查询(like)而言,向量检索会更灵活。如今,得益于 AI 的发展,向量数据库作为 AI 的 “小抄”,也变得越来越流行。

那什么是向量数据呢?

其实就是用一些算法将文本、图片、音视频等内容统一转换成数值向量。

比如:“中午吃饺子”,经过转换后得到的向量数据可能是:[0.8, 0.6, 0.9, 0.4, ...];而 “晚上写代码”,经过转换后得到的向量数据可能是:[0.1, 0.2, 0.3, 0.4, ...]

如果用户要从向量数据库搜索内容,那么也可以把搜索关键字转换为类似的向量数据,然后计算两个向量之间的距离来判断相似度即可。

比如用户问:“中午吃什么?”,经过转换后得到的向量数据可能是:[0.8, 0.6, 0.7, 0.3, ...]。

显然,这个向量数据会和 “中午吃饺子” 的向量数据更接近,所以会优先搜出 “中午吃饺子”。

采用不同的向量转换算法、或者不同的相似度计算方法,得到的向量值和计算结果可能也是不同的。

具体实现流程

了解向量数据库后,我们可以整理出 AI 应用的具体实现流程:

1)将自己已有的知识库文档进行段落拆分;

2)利用算法(Embedding)将文档数据转换为向量

3)将向量存储到向量数据库中

4)将用户发送的问题通过算法(Embedding)转换为向量

5)根据用户问题向量,在向量数据库进行相似性查询

6)将检索到的最相似结果作为背景知识(上下文),转换为 prompt 并发送给 AI 大模型,从而获得响应结果

流程图如下:

此前,鱼皮就是按照这个流程自己开发实现的 AI 总结助手。但是要自己对文档进行拆分、还要通过某种算法转换成向量数据,想想都麻烦!

有没有更简单的实现方式呢?

流程简化

还真有!很多大厂云服务商都提供了云向量数据库,比如腾讯云的向量数据库,不仅提供了数据写入和检索的自动向量化功能(embedding),还支持文本自动拆分和一键上传,可以直接将文章转为拆分好的向量写入到向量数据库,大大简化了开发流程。

如果用腾讯云的向量数据库,上面的实现流程就简化为 3 个核心步骤:

1)将文档上传到向量数据库(自动拆分并转为向量存储)

2)将用户发送的问题传入到向量数据库进行相似性查询

3)将检索到的最相似结果作为背景知识(上下文),转换为 prompt 并发送给 AI 大模型,从而获得响应结果

那么流程图就简化为下面这样了:

流程确定后,就可以开始写代码了。

AI 总结助手开发

从上述流程中我们会发现,想要实现 AI 总结助手,向量数据库和 AI 大模型是两大不可或缺的角色。

此处,我们选用上面介绍的腾讯云向量数据库,并且搭配开源的百川 AI 大模型,可以节约开发成本。

1、免费领取资源

首先要免费领取腾讯云向量数据库 + 百川 AI 大模型的使用权。

2)在弹框中填入自己的手机号即可领取成功,等待初始化就好了

3)等初始化成功后,进入腾讯云向量数据库的实例列表,当状态显示为运行中时,开启外网访问:

4)开启外网时,需要填写允许访问的白名单,那由于此处仅为测试,我就直接设置为全网可访问了:

5)访问百川 AI 大模型,领取百川的免费调用次数

6)进入 API Key 管理页面,新建一个属于自己的 API Key,后面就可以调用百川大模型的 AI 能力了。

资源领取好了,我们就可以愉快地使用资源啦。

正式开发前,我们要先阅读向量数据库官方的 API 开发文档,以最新的文档为准去写代码。

2、引入依赖

我们以 Java Maven 项目开发为例,先引入程序所需的依赖,比如向量数据库、HTTP 调用客户端等。

代码如下:

<dependencies>
    <dependency>
        <groupId>com.tencent.tcvectordb</groupId>
        <artifactId>vectordatabase-sdk-java</artifactId>
        <version>1.0.4-SNAPSHOT</version>
        <scope>system</scope>
        <systemPath>${project.basedir}/src/main/libs/vectordatabase-sdk-java-1.0.4.jar</systemPath>
    </dependency>
&lt;dependency&gt;
    &lt;groupId&gt;org.apache.commons&lt;/groupId&gt;
    &lt;artifactId&gt;commons-lang3&lt;/artifactId&gt;
    &lt;version&gt;3.12.0&lt;/version&gt;
&lt;/dependency&gt;

&lt;dependency&gt;
    &lt;groupId&gt;com.fasterxml.jackson.core&lt;/groupId&gt;
    &lt;artifactId&gt;jackson-core&lt;/artifactId&gt;
    &lt;version&gt;2.12.3&lt;/version&gt;
&lt;/dependency&gt;

&lt;dependency&gt;
    &lt;groupId&gt;com.qcloud&lt;/groupId&gt;
    &lt;artifactId&gt;cos_api&lt;/artifactId&gt;
    &lt;version&gt;5.6.8&lt;/version&gt;
&lt;/dependency&gt;

&lt;dependency&gt;
    &lt;groupId&gt;com.squareup.okhttp3&lt;/groupId&gt;
    &lt;artifactId&gt;okhttp&lt;/artifactId&gt;
    &lt;version&gt;4.9.1&lt;/version&gt;
&lt;/dependency&gt;

</dependencies>

3、连接向量数据库

参考官方提供的 Java SDK Demo 代码,首先和向量数据库建立连接:

import com.tencent.tcvectordb.client.VectorDBClient;
import com.tencent.tcvectordb.model.param.database.ConnectParam;
import com.tencent.tcvectordb.model.param.enums.ReadConsistencyEnum;

public class VDBClientFactory {

public static VectorDBClient createClient() {
    ConnectParam param = getConnectParam();
    return new VectorDBClient(param, ReadConsistencyEnum.EVENTUAL_CONSISTENCY);
}

private static ConnectParam getConnectParam() {
    return ConnectParam.newBuilder()
            .withUrl("url")
            .withUsername("username")
            .withKey("key")
            .withTimeout(30)
            .build();
}

}

上述代码中的 url 可以直接在云向量数据库的实例列表中看到,直接选中复制即可:

对于 username 和 key 参数,则需要点进实例,选择密钥管理来获取:

4、上传文档到向量数据库

上传文档到数据库前,肯定要先初始化数据库表。

让我们新建一个 AISearchExample 类,在这个类中编写调用向量数据库的方法,创建数据库和数据表,代码如下:

public class AISearchExample {
    private static final String DB_NAME = "ai_test_db";
    private static final String COLLECTION_NAME = "ai_test_collection";
private static void initDatabase(VectorDBClient client) {
    System.out.println("init database..");
    try {
        client.dropAIDatabase(DB_NAME);
    } catch (VectorDBException e) {
        // ignore
    }
    client.createAIDatabase(DB_NAME);
}

private static void initCollection(VectorDBClient client) {
    System.out.println("init collection..");
    Database database = client.database(DB_NAME);
    CreateAICollectionParam param = CreateAICollectionParam.newBuilder().withName(COLLECTION_NAME).build();
    database.createAICollection(param);
}

}

然后编写一个 writeKnowledgeByFile 方法,把本地的文档上传到向量数据库里:

可以直接上传文档,不需要再操心文档段落的拆分、如何转换为数值向量等复杂的问题,大幅节约时间

public class AISearchExample {
    ...
private static void writeKnowledgeByFile(VectorDBClient client) throws Exception {
    AICollection collection = client.database(DB_NAME).describeAICollection(COLLECTION_NAME);

    for (String f : Objects.requireNonNull(new File("doc").list())) {
        String filePath = "doc/" + f;
        System.out.println("upload file " + filePath);
        collection.upload(filePath, Collections.emptyMap());
    }

    System.out.println("all file uploaded.");
    System.out.println("文件上传后,向量数据库会进行解析和Embedding,请耐心等待10-20秒后可以开始进行知识检索。");

}
}

这里我把自己写的学习路线文章都上传到向量数据库:

编写好上述的初始化方法后,依次调用即可:

public class AISearchExample {
    ...
    private static void initKnowledge(VectorDBClient client) throws Exception {
        initDatabase(client);
        initCollection(client);
        writeKnowledgeByFile(client);
    }
}
5、搜索文档

将文档都上传到向量数据库后,就可以实现数据的检索了。

在 AISearchExample 类中,再添加一个搜索方法 searchKnowledge,代码如下:

public class AISearchExample {
    ...
private static String searchKnowledge(String question, VectorDBClient client) {
    // 访问指定的表
    AICollection collection = client.database(DB_NAME).describeAICollection(COLLECTION_NAME);
    // 构造搜索条件
    SearchByContentsParam param = SearchByContentsParam.newBuilder().withContent(question).build();

    StringBuilder allKnowledge = new StringBuilder();
    List&lt;Document&gt; results = collection.search(param);
    int index = 1;

    // 获取搜索结果
    for (Document document : results) {
        ChunkInfo chunk = (ChunkInfo)document.getObject("chunk");
        allKnowledge.append(chunk.getText()).append(" ");
    }

    return allKnowledge.toString();
}

}

运行代码,测试下效果,成功检索出了指定回答:

效果不错,我再试试,问问 “中午吃什么”:

What?这什么啊,你不要睁着眼睛乱说好不好!

这里我们发现了一个关键问题:当我搜索一个完全不存在的问题时,向量数据库仍然会给出结果,然而这并不是我想要的。如果没有相关的内容,直接不返回结果好像更符合预期。

好在腾讯云向量数据库返回了检索相似度,可以根据这个值设定一个阈值,从而进行过滤。

修改一下代码,过滤相似度低于 0.8 的文档:

public class AISearchExample {
    ...
/**
 * 文档相关性的阈值
 */
private static final Double THRESHOLD = 0.8;

private static String searchKnowledge(String question, VectorDBClient client) {
AICollection collection = client.database(DB_NAME).describeAICollection(COLLECTION_NAME);
SearchByContentsParam param = SearchByContentsParam.newBuilder().withContent(question).build();

    StringBuilder allKnowledge = new StringBuilder();
    List&lt;Document&gt; results = collection.search(param);
    int index = 1;
    for (Document document : results) {
        Double score = document.getScore();
        if (ObjectUtils.isEmpty(score) || score &lt; THRESHOLD) {
            continue;
        }
        ChunkInfo chunk = (ChunkInfo)document.getObject("chunk");
        allKnowledge.append(chunk.getText()).append(" ");
    }

    return allKnowledge.toString();
}

}

再测试下效果,这次正常了:

至此,我们使用向量数据库实现了文档数据的存储和查询。“小抄” 已经准备好,接下来就把它给 AI 吧!

6、使用 AI 大模型

可以通过 OKHttp 库向 AI 大模型发送请求,实现 AI 的问答能力。

代码看起来比较长,但其实只需要按照百川要求的参数格式来设置请求头、封装 prompt,最后发起调用并获取返回结果就好了,代码如下:

public class BaiChuanLLM {
private static final String URL = "https://api.baichuan-ai.com/v1/chat";

/**
 * 这里的ak和sk可以从百川官网获取,文章中已经演示过了,直接替换掉即可
 */
private static final String API_KEY = "ak";
private static final String SECRET_KEY = "sk";

private static final ObjectMapper MAPPER = new ObjectMapper();

private static volatile OkHttpClient HTTP_CLIENT;

public static String ask(String question, String knowledge) {
    try {
        String prompt = getPrompt(question, knowledge);
        return llmRequest(prompt);
    } catch (Exception e) {
        e.printStackTrace();
        return null;
    }
}

private static String llmRequest(String prompt) throws IOException {
    String requestData = getBaiChuanRequest(prompt);
    String timestamp = String.valueOf(System.currentTimeMillis() / 1000);
    String signature = calculateMd5(SECRET_KEY + requestData + timestamp);

    Headers headers = getHeaders(timestamp, signature);

    RequestBody body = RequestBody.create(requestData, MediaType.parse("application/json; charset=utf-8"));
    Request request = (new Request.Builder()).url(URL).headers(headers).post(body).build();

    try (Response response = getHttpClient().newCall(request).execute()) {
        JsonNode node = null;
        if (response.body() != null) {
            node = MAPPER.readTree(response.body().string());
        }
        if (node != null) {
            return node.get("data").get("messages").get(0).get("content").asText();
        }
        return null;
    }
}

private static Headers getHeaders(String timestamp, String signature) {
    return (new Headers.Builder())
            .add("Content-Type", "application/json")
            .add("Authorization", "Bearer " + API_KEY)
            .add("X-BC-Request-Id", "RequestId-1001")
            .add("X-BC-Timestamp", timestamp)
            .add("X-BC-Signature", signature)
            .add("X-BC-Sign-Algo", "MD5")
            .build();
}

public static String calculateMd5(String inputString) {
    try {
        MessageDigest md = MessageDigest.getInstance("MD5");
        md.update(inputString.getBytes());
        byte[] digest = md.digest();
        StringBuilder buffer = new StringBuilder();
        for (byte b : digest) {
            buffer.append(String.format("%02x", b &amp; 0xff));
        }
        return buffer.toString();
    } catch (NoSuchAlgorithmException e) {
        e.printStackTrace();
        return null;
    }
}

private static String getBaiChuanRequest(String prompt) throws JsonProcessingException {
    ObjectNode data = JsonNodeFactory.instance.objectNode();
    data.put("model", "Baichuan2-53B");

    ObjectNode node = JsonNodeFactory.instance.objectNode();
    node.put("role", "user");
    node.put("content", prompt);

    data.put("messages", JsonNodeFactory.instance.arrayNode().add(node));
    return new ObjectMapper().writeValueAsString(data);
}

private static String getPrompt(String question, String knowledge) throws JsonProcessingException {
    JsonNodeFactory factory = JsonNodeFactory.instance;
    ObjectNode obj = factory.objectNode();
    obj.put("请回答问题", question);
    obj.put("背景知识如下", knowledge);
    return new ObjectMapper().writeValueAsString(obj);
}

synchronized private static OkHttpClient getHttpClient() {
    if (HTTP_CLIENT == null) {
        HTTP_CLIENT = (new OkHttpClient.Builder())
                .connectTimeout(2L, TimeUnit.SECONDS)
                .readTimeout(60, TimeUnit.SECONDS)
                .connectionPool(new ConnectionPool(10, 5L, TimeUnit.MINUTES))
                .build();
    }
    return HTTP_CLIENT;
}

}

上面的代码大家也不用记,直接复制到自己的程序中就行。

最后,我们在刚刚创建的 AISearchExample 类中编写一个 main 方法,以实现调用。

示例代码如下:

public static void main(String[] args) throws Exception {
    VectorDBClient client = createClient();
    initKnowledge(client);
Scanner scanner = new Scanner(System.in);
System.out.print("请输入您的问题(exit退出):");
String inputString = scanner.nextLine();
while (!"exit".equalsIgnoreCase(inputString)) {
    if (!inputString.trim().isEmpty()) {
        String result = searchKnowledge(inputString, client);
        if (StringUtils.isBlank(result)) {
            System.out.println("未找到相关内容");
        }else {
            System.out.println(result);
        }
        String llmResult = BaiChuanLLM.ask(inputString, result);
        System.out.println("----&gt;LLM回答结果:");
        System.out.println(llmResult);
    }

    System.out.println("\n\n");
    System.out.print("请输入您的问题(exit退出):");
    inputString = scanner.nextLine();
}

}

注意:

1)由于版本持续更新迭代,请以官方最新的 SDK Demo 为准

2)相比于 Java,Python 调用会更加简单,只需要不到 100 行代码就能搞定

最终效果

查询向量数据库中已有的信息时,向量数据库成功查询到了文档段落:

AI 大模型基于上面的文档段落,给出了更清晰的回答:

很好,一个 AI 总结助手就开发完成啦!学会的同学点个赞吧 🌹~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/181251.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

私域流量该如何运营和布局?提供高质量的内容和服务

私域流量的运营和布局需要建立自己的品牌形象和口碑&#xff0c;提供高质量的内容和服务&#xff0c;利用裂变式营销扩大用户规模&#xff0c;数据化运营提高用户转化率和忠诚度&#xff0c;建立会员体系增加用户粘性和参与度&#xff0c;社群运营增加用户互动和粘性。同时需要…

美国服务器在大陆连不上怎么回事?

​  在租用任何美国服务器之前&#xff0c;都需要先搞清楚一些使用问题&#xff0c;毕竟服务器能够不间断地访问也是站在们所期望的。但有时&#xff0c;美国服务器网站或许也会突然出现在大陆打不开的情况&#xff0c;在面临这种情况时&#xff0c;我们应该怎么做? 查看连不…

创建文件夹的shell脚本

作者&#xff1a;朱金灿 来源&#xff1a;clever101的专栏 为什么大多数人学不会人工智能编程&#xff1f;>>> 很简单&#xff0c;先判断文件夹是否存在&#xff0c;不存在则创建。具体如下&#xff1a; #!/bin/bash # 判断文件夹是否存在 if [ ! -d "$folder…

张弛声音变现课,青春剧配音实用攻略

在为青春剧添声时&#xff0c;配音艺术家须要捕获并传达剧中年轻角色的活泼精神、成长道路上的激情&#xff0c;以及他们在面对友情、爱情和理想时的情绪起伏。青春剧特别关注年轻人的成长故事&#xff0c;着重描绘他们在成长中的经历和变化。下面是一些为青春剧配音的建议&…

中期财报解读:内地业务增长失速,维他奶还能做回豆奶一哥吗?

维他奶虽然起源于中国香港&#xff0c;但却是不少内地人的儿时回忆。 这与维他奶的业务布局侧重点有关&#xff0c;中国内地一直是维他奶最重要的市场。11月21日&#xff0c;维他奶公布了截至2023年9月30日止6个月的2024财年中期业绩。财报显示&#xff0c;维他奶业务构成中&a…

Wpf 使用 Prism 实战开发Day06

首页设计二&#xff0c;创建ListBox列表数据 1.效果图: 一.首页鼠标悬停效果 使用触发器来实现 首先&#xff0c;上面的图标文本框是使用 Border 来实现的&#xff0c;那么就要在 Border 中重写该样式。 * 所有的控件&#xff0c;触发器固定写法应该都是这样&#xff0c;只…

性能测试你还不会做?看看这篇文章你就懂了!

性能测试的概述 性能&#xff1a;百度百科定义&#xff1a;器物的性质与效用。 生活中&#xff1a;买手机&#xff0c;买电脑&#xff0c;买车 –》 性能好&#xff1a;快&#xff08;时间短&#xff09;、资源 软件的性能&#xff1a;软件在允许的范围内使用过程中的反应的…

在国外怎么申请香港优才计划项目?和在内地申请有何区别?

在国外怎么申请香港优才计划项目&#xff1f;和在内地申请有何区别&#xff1f; 随着香港优才计划的热度持续上升&#xff0c;也吸引了不少优秀人才想要申请。如果你现在人在新加坡、加拿大、马来西亚、澳大利亚或者其他国家&#xff0c;想申请香港优才计划拿香港身份&#xff…

最新版灵沐V3.3微信资源类小程序源码支持流量主

源码简介 最新版灵沐V3.3微信资源类小程序源码支持流量主&#xff0c;一套不错的流量主变现资源下载小程序&#xff0c;它支持在微信、QQ和抖音平台上运行。这次更新主要集中在全局UI设计的升级&#xff0c;并依然注重资源下载和激励视频变现的功能。另外&#xff0c;还新增了…

外地人可以在上海当老师吗

随着社会的发展&#xff0c;越来越多的人涌入大城市&#xff0c;其中也包括上海。在这个繁华的城市里&#xff0c;许多人都梦想成为一名老师&#xff0c;但是外地人可以在上海当老师吗&#xff1f; 首先需要了解上海的教育政策。根据相关规定&#xff0c;外地人可以在上海当老师…

淘宝返利APP草柴如何绑定淘宝账号?

草柴APP是一款淘宝、天猫、京东大额优惠券领取及购物返利省钱工具。通过草柴APP绑定淘宝账号&#xff0c;可领取淘宝大额内部隐藏优惠券&#xff0c;领取成功再购物可享券后价优惠&#xff0c;确认收货后可获得淘宝返利。 淘宝返利APP草柴如何绑定淘宝账号&#xff1f; 1、手…

知虾:揭秘Shopee大数据采集及分析平台的全方位运营利器

Shopee是如今备受瞩目的电商平台之一&#xff0c;而要在这个竞争激烈的市场中脱颖而出&#xff0c;了解市场趋势、选择畅销商品、分析竞争对手等是至关重要的。这就是为什么Shopee推出了知虾&#xff0c;一个强大的大数据采集及分析平台。本文将详细介绍知虾的功能和优势&#…

pip安装tkinter模块失败 No matching distribution found for tkinter

我想使用Python创建一个简单的桌面应用程序, 这个应用程序依赖于tkinter, 然而,当我尝试安装过程时,出现了错误。 $ pip install tkinter ERROR: Could not find a version that satisfies the requirement tkinter (from versions: none) ERROR: No matching distributio…

YOLOv8使用自己训练的模型,将检测图片进行可视化:效果超过YOLOv5模型,丰富改进模型的检测展示

💡更多改进内容📚 芒果专栏 💡🚀🚀🚀内含改进源代码 按步骤操作运行改进后的代码即可💡更方便的统计更多实验数据,方便写作 YOLOv8使用自己训练的模型,将检测图片进行可视化:效果超过YOLOv5模型,丰富改进模型的检测展示 文章目录 核心代码改进新增代码部分修…

头发的方向图(2D和3D)与合成

首先&#xff0c;我们从一个不受光照限制的环境中拍摄一组输入图像&#xff0c;这些图像包含了头发的不同视角和姿态。我们对这些图像进行半自动的分割&#xff0c;将头发从背景中分离出来&#xff0c;然后使用PMVS &#xff0c;一种先进的多视角立体算法&#xff0c;来重建一个…

环卫大姐张建娜:用实际行动诠释英语学习重要性

近日,一位身穿橘黄色工作服,手拿扫把服务于三里屯使馆区的环卫大姐张建娜,凭借一口流利的英语为外国人指路的视频在网上引起关注。不仅引发了大家对她“英语说的真好”的感叹,还有对如何学好英语的思考,以及引发了人们重新审视英语在日常生活中的重要性。 张建娜表示,其实英语…

玻色量子“揭秘”之可满足性问题(SAT)与QUBO建模

​ 摘要&#xff1a;布尔可满足性问题&#xff08;Boolean Satisfiability Problem&#xff0c;简称SAT问题&#xff09;是逻辑学和计算机科学中的一个问题&#xff0c;它的目的是确定是否存在一种解释&#xff0c;使给定的布尔公式成立。换句话说&#xff0c;它询问给定布尔公…

会议动态 | 祝贺2023 中国商品混凝土年会在上海隆重召开!

2023年11月19日-21日&#xff0c;由&#xff08;国家&#xff09;建筑材料工业技术情报研究所、中国散装水泥推广发展协会混凝土专委会主办的"笃信固本 行稳致远"——2023 第十九届全国商品混凝土可持续发展论坛暨2023中国商品混凝土年会在上海隆重召开&#xff01; …

内测分发平台的合作生态和生态效应如何

大家好&#xff0c;我是咕噜-凯撒&#xff0c;随着移动互联网和智能设备的快速发展&#xff0c;越来越多的开发者和企业开始关注产品的质量和体验。而内测分发平台则成为了一种重要的工具&#xff0c;能够帮助他们更好地测试、优化和推广产品。在此过程中&#xff0c;内测分发平…

Flink 替换 Logstash 解决日志收集丢失问题

在某客户日志数据迁移到火山引擎使用 ELK 生态的案例中&#xff0c;由于客户反馈之前 Logstash 经常发生数据丢失和收集性能较差的使用痛点&#xff0c;我们尝试使用 Flink 替代了传统的 Logstash 来作为日志数据解析、转换以及写入 ElasticSearch 的组件&#xff0c;得到了该客…