HBase Java基础操作

Apache HBase 是一个开源的、分布式的、可扩展的大数据存储系统,它基于 Google 的 Bigtable 模型。使用 Java 操作 HBase 通常需要借助 HBase 提供的 Java API。以下是一个基本的示例,展示了如何在 Java 中连接到 HBase 并执行一些基本的操作,如创建表、插入数据、扫描表以及删除数据。

一、前提条件

HBase 安装和配置:确保 HBase 已经在你的环境中正确安装和配置。
Hadoop 环境:HBase 依赖于 Hadoop,因此 Hadoop 也需要正确安装和配置。
HBase Java 客户端库:你需要将 HBase 的客户端库添加到你的 Java 项目中。通常,这可以通过 Maven 或 Gradle 来完成。

二、Maven 依赖

使用 Maven 来管理项目依赖,可以在 pom.xml 文件中添加以下依赖:

<dependencies>
    <dependency>
        <groupId>org.apache.hbase</groupId>
        <artifactId>hbase-client</artifactId>
        <version>2.4.9</version> <!-- 请根据你的 HBase 版本选择合适的版本 -->
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>3.3.1</version> <!-- 请根据你的 Hadoop 版本选择合适的版本 -->
    </dependency>
</dependencies>

三、建立连接

在使用HBase Java API之前,首先需要建立与HBase的连接。这通常涉及到配置HBase的连接信息,如Zookeeper的地址和端口等。

Configuration configuration = HBaseConfiguration.create();
configuration.set("hbase.zookeeper.quorum", "your_zookeeper_quorum"); // 设置Zookeeper的地址
configuration.set("hbase.zookeeper.property.clientPort", "your_zookeeper_port"); // 设置Zookeeper的端口
Connection connection = ConnectionFactory.createConnection(configuration);

四、对表的操作

  1. 创建表
    创建表需要指定表名和列族。HBase中的表是由列族构成的,每个列族下可以包含多个列。
Admin admin = connection.getAdmin();
if (!admin.tableExists(TableName.valueOf("your_table_name"))) {
    HTableDescriptor tableDescriptor = new HTableDescriptor(TableName.valueOf("your_table_name"));
    tableDescriptor.addFamily(new HColumnDescriptor("your_column_family"));
    admin.createTable(tableDescriptor);
}
  1. 删除表
    在删除表之前,需要先禁用该表。
if (admin.tableExists(TableName.valueOf("your_table_name"))) {
    admin.disableTable(TableName.valueOf("your_table_name"));
    admin.deleteTable(TableName.valueOf("your_table_name"));
}
  1. 判断表是否存在
boolean exists = admin.tableExists(TableName.valueOf("your_table_name"));
  1. 列出所有表
HTableDescriptor[] tables = admin.listTables();
for (HTableDescriptor table : tables) {
    System.out.println(table.getNameAsString());
}

五、对数据的操作

  1. 添加数据
    添加数据需要指定表名、行键、列族、列名以及对应的值。
Table table = connection.getTable(TableName.valueOf("your_table_name"));
Put put = new Put(Bytes.toBytes("your_row_key"));
put.addColumn(Bytes.toBytes("your_column_family"), Bytes.toBytes("your_column"), Bytes.toBytes("your_value"));
table.put(put);
table.close();
  1. 获取数据
    获取数据可以使用Get类来指定要获取的行键和列。
Table table = connection.getTable(TableName.valueOf("your_table_name"));
Get get = new Get(Bytes.toBytes("your_row_key"));
get.addColumn(Bytes.toBytes("your_column_family"), Bytes.toBytes("your_column"));
Result result = table.get(get);
byte[] value = result.getValue(Bytes.toBytes("your_column_family"), Bytes.toBytes("your_column"));
String valueStr = Bytes.toString(value);
table.close();
  1. 扫描数据
    扫描数据可以使用Scan类来指定要扫描的表、列族、列等条件。
Scan scan = new Scan();
scan.setCaching(500); // 设置每次扫描的缓存大小
scan.setCacheBlocks(false); // 设置是否缓存数据块
scan.addFamily(Bytes.toBytes("your_column_family")); // 添加要扫描的列族
 
ResultScanner scanner = table.getScanner(scan);
for (Result result : scanner) {
    // 处理扫描结果
    byte[] rowKey = result.getRow();
    String rowKeyStr = Bytes.toString(rowKey);
    // 获取指定列的值
    byte[] value = result.getValue(Bytes.toBytes("your_column_family"), Bytes.toBytes("your_column"));
    String valueStr = Bytes.toString(value);
    // 输出结果
    System.out.println("RowKey: " + rowKeyStr + ", Value: " + valueStr);
}
scanner.close();
table.close();
  1. 删除数据
    删除数据需要指定表名、行键以及要删除的列(可选)。
Table table = connection.getTable(TableName.valueOf("your_table_name"));
Delete delete = new Delete(Bytes.toBytes("your_row_key"));
delete.addColumn(Bytes.toBytes("your_column_family"), Bytes.toBytes("your_column")); // 可选,指定要删除的列
table.delete(delete);
table.close();

六、关闭连接

在完成所有操作后,需要关闭与HBase的连接以释放资源。

connection.close();

七、示例代码

以下是一个完整的 Java 示例代码,展示了如何连接到 HBase 并执行基本的操作:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;

import java.io.IOException;

public class HBaseExample {

    public static void main(String[] args) {
        // 创建 HBase 配置对象
        Configuration config = HBaseConfiguration.create();
        config.set("hbase.zookeeper.quorum", "localhost"); // 设置 Zookeeper 地址
        config.set("hbase.zookeeper.property.clientPort", "2181"); // 设置 Zookeeper 端口

        // 创建连接对象
        try (Connection connection = ConnectionFactory.createConnection(config);
             Admin admin = connection.getAdmin()) {

            // 创建表
            createTable(admin, "my_table", "my_column_family");

            // 插入数据
            insertData(connection, "my_table", "row1", "my_column_family", "column1", "value1");

            // 扫描表
            scanTable(connection, "my_table");

            // 删除数据
            deleteData(connection, "my_table", "row1", "my_column_family", "column1");

            // 删除表(可选)
            // deleteTable(admin, "my_table");

        } catch (IOException e) {
            e.printStackTrace();
        }
    }

    private static void createTable(Admin admin, String tableName, String columnFamily) throws IOException {
        TableName table = TableName.valueOf(tableName);
        if (!admin.tableExists(table)) {
            HTableDescriptor tableDescriptor = new HTableDescriptor(table);
            HColumnDescriptor columnDescriptor = new HColumnDescriptor(columnFamily);
            tableDescriptor.addFamily(columnDescriptor);
            admin.createTable(tableDescriptor);
            System.out.println("Table created: " + tableName);
        } else {
            System.out.println("Table already exists: " + tableName);
        }
    }

    private static void insertData(Connection connection, String tableName, String rowKey, String columnFamily, String column, String value) throws IOException {
        TableName table = TableName.valueOf(tableName);
        try (Table table = connection.getTable(table)) {
            Put put = new Put(Bytes.toBytes(rowKey));
            put.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(column), Bytes.toBytes(value));
            table.put(put);
            System.out.println("Data inserted: " + rowKey + ", " + column + " = " + value);
        }
    }

    private static void scanTable(Connection connection, String tableName) throws IOException {
        TableName table = TableName.valueOf(tableName);
        try (Table table = connection.getTable(table);
             ResultScanner scanner = table.getScanner(new Scan())) {

            for (Result result : scanner) {
                System.out.println("Scanned row: " + Bytes.toString(result.getRow()));
                result.getNoVersionMap().forEach((family, familyMap) -> {
                    familyMap.forEach((qualifier, value) -> {
                        System.out.println("Family: " + Bytes.toString(family) + ", Qualifier: " + Bytes.toString(qualifier) + ", Value: " + Bytes.toString(value.get()));
                    });
                });
            }
        }
    }

    private static void deleteData(Connection connection, String tableName, String rowKey, String columnFamily, String column) throws IOException {
        TableName table = TableName.valueOf(tableName);
        try (Table table = connection.getTable(table)) {
            Delete delete = new Delete(Bytes.toBytes(rowKey));
            delete.addColumn(Bytes.toBytes(columnFamily), Bytes.toBytes(column));
            table.delete(delete);
            System.out.println("Data deleted: " + rowKey + ", " + column);
        }
    }

    private static void deleteTable(Admin admin, String tableName) throws IOException {
        TableName table = TableName.valueOf(tableName);
        if (admin.tableExists(table)) {
            admin.disableTable(table);
            admin.deleteTable(table);
            System.out.println("Table deleted: " + tableName);
        } else {
            System.out.println("Table does not exist: " + tableName);
        }
    }
}

说明

  1. 创建配置对象:使用 HBaseConfiguration.create() 创建 HBase 配置对象,并设置 Zookeeper 的地址和端口。
  2. 创建连接对象:使用 ConnectionFactory.createConnection(config) 创建 HBase 连接对象。
  3. 创建表:通过 Admin 接口的 createTable 方法创建表。
  4. 插入数据:使用 Put 对象将数据插入到指定的表中。
  5. 扫描表:使用 Scan 对象扫描表并获取数据。
  6. 删除数据:使用 Delete 对象删除指定的数据。
  7. 删除表:如果需要删除表,可以先禁用表,然后删除表(此操作在示例中是注释掉的,以防止意外删除)。

注意事项

  • 确保 HBase 和 Zookeeper 正在运行,并且配置正确。
  • 根据你的 HBase 和 Hadoop 版本调整依赖版本。
  • 在生产环境中,务必进行充分的错误处理和资源管理(如关闭连接和释放资源)。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/921225.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【单元测试】【Android】JUnit 4 和 JUnit 5 的差异记录

背景 Jetbrain IDE 支持生成 Test 类&#xff0c;其中选择JUnit5 和 JUnit&#xff0c;但是感觉这不是标准的单元测试&#xff0c;因为接口命名吧。 差异对比 两者生成的单测API名称同原API&#xff0c;没加test前缀的。使用差异主要表现在&#xff1a; setUp &#xff06; …

网页中调用系统的EXE文件,如打开QQ

遇到一个实际的问题&#xff0c;需要在网页中打开本地的某个工业软件。 通过点击exe文件就可以调用到程序。 比如双击qq的exe就可以启动qq的程序。 那么问题就变成了如何加载exe程序呢&#xff1f; 可以通过Java的 Process process Runtime.getRuntime().exec(command);通过…

FME教程:实现按属性字段合并图斑,同时合并属性字段值,对合并的属性值同步进行去重处理的案例思路方法

目录 一、实现效果 二、实现过程 1.读取数据 2.融合图斑 3.合并属性字段值&#xff0c;并去重 4.属性字段值排序、整理 5.输出成果 6.模板的使用 三、总结 今天介绍使用FME实现按属性合并图斑&#xff0c;同时合并属性字段值&#xff0c;并对合并的属性值同步进行去重…

ant-design-vue中table组件多列排序

antD中table组件多列排序 使用前注意实现效果图实现的功能点及相关代码1. 默认按某几个字段排序2. 点击排序按钮可同时对多个字段进行排序3. 点击重置按钮可恢复默认排序状态。 功能实现完整的关键代码 使用前注意 先要确认你使用的antD版本是否支持多列排序&#xff0c;我这里…

【LeetCode热题100】栈

这道题一共记录了关于栈的5道题目&#xff1a;删除字符串中所有相邻重复项、比较含退格的字符串、基本计算器II、字符串解码、验证栈序列。 class Solution { public:string removeDuplicates(string s) {string ret;for(auto c : s){if(ret.size() 0 || c ! ret.back()) ret …

IText创建加盖公章的pdf文件并生成压缩文件

第一、前言 此前已在文章&#xff1a;Java使用IText根据pdf模板创建pdf文件介绍了Itex的基本使用技巧&#xff0c;本篇以一个案例为基础&#xff0c;主要介绍IText根据pdf模板填充生成pdf文件&#xff0c;并生成压缩文件。 第二、案例 以下面pdf模板为例&#xff0c;生成一个p…

C语言——数组逐元素操作练习

定义一个能容纳10个元素的整形数组a&#xff0c;从键盘读取9个整数存放到前9个数组元素中。 一. 从键盘读取一个整数n和位置p(0<p<8)&#xff0c;插入n到数组a中&#xff0c;插入位置&#xff1a;下标p。要求插入点及后续的数组元素都要后移动。 代码如下&#xff1a; …

“iOS profile文件与私钥证书文件不匹配”总结打ipa包出现的问题

目录 文件和证书未加载或特殊字符问题 证书过期或Profile文件错误 确认开发者证书和私钥是否匹配 创建证书选择错误问题 申请苹果 AppId时勾选服务不全问题 ​总结 在上线ios平台的时候&#xff0c;在Hbuilder中打包遇见了问题&#xff0c;生成ipa文件时候&#xff0c;一…

网络安全之内网安全

下面给出了应对企业内网安全挑战的10种策略。这10种策略即是内网的防御策略&#xff0c;同时也是一个提高大型企业网络安全的策略。 1、注意内网安全与网络边界安全的不同 内网安全的威胁不同于网络边界的威胁。网络边界安全技术防范来自Internet上的攻击&#xff0c;主要是防…

项目总结模版

测试过程记录文档模版 我们经常测试经常需要做项目总结&#xff0c;所以小编这边就整理了一套项目总结模版&#xff0c;希望能够帮助到大家。 一、需求描述 对应指标&#xff1a;记录需求做的价值&#xff0c;用来评估后续项目上线后是否满足预期结果 1、需求文档 上传相关…

visual code:主题背景色的更换、常规设置

1、直接设置 进入界面->工具->主题->选择主题 2、常规设置 进入界面->工具->选项->环境->常规

低速接口项目之串口Uart开发(四)——UART串口实现FPGA内部AXILITE寄存器的读写控制

本节目录 一、设计背景 二、设计思路 三、逻辑设计框架 四、仿真验证 五、上板验证 六、往期文章链接本节内容 一、设计背景 通常&#xff0c;芯片手册或者IP都会提供一系列的用户寄存器以及相关的定义&#xff0c;用于软件开发人员进行控制底层硬件来调试&#xff0c;或封装…

python高阶技巧一

闭包 简单认识一下闭包 以下代码&#xff0c;内层inner函数不仅依赖于自身的参数b&#xff0c;还依赖于外层outer函数的参数a。inner就是一个闭包函数&#xff0c;既能访问外部变量&#xff0c;又保证外部变量不是全局的&#xff0c;不会被篡改掉&#xff0c;确保了外部变量的…

Redis最终篇分布式锁以及数据一致性

在前三篇我们几乎说完了Redis的所有的基础知识以及Redis怎么实现高可用性,那么在这一篇文章中的话我们主要就是说明如果我们使用Redis出现什么问题以及解决方案是什么,这个如果在未来的工作中也有可能会遇到,希望对看这篇博客的人有帮助,话不多说直接开干 一.Hotkey以及BigKey…

湘潭大学人工智能考试复习1(软件工程)

今年的试卷分值分布为&#xff1a; 选填40&#xff0c;两道计算题15x2 两道解答题15x2 复习重点&#xff1a; 1.人工智能学派派别 符号主义学派、连接主义学派、行为主义学派 各学派认知观&#xff1a; 符号主义&#xff08;逻辑主义、心理学派、计算机学派&#xff09;&am…

【蓝桥杯C/C++】深入解析I/O高效性能优化:std::ios::sync_with_stdio(false)

博客主页&#xff1a; [小ᶻZ࿆] 本文专栏: 蓝桥杯C/C 文章目录 &#x1f4af;前言&#x1f4af;C 语言与 C 语言的输入输出对比1.1 C 语言的输入输出1.2 C 语言的输入输出 &#x1f4af; std::ios::sync_with_stdio(false) 的作用与意义2.1 什么是 std::ios::sync_with_st…

GPT1.0 和 GPT2.0 的联系与区别

随着自然语言处理技术的飞速发展&#xff0c;OpenAI 提出的 GPT 系列模型成为了生成式预训练模型的代表。作为 GPT 系列的两代代表&#xff0c;GPT-1 和 GPT-2 虽然在架构上有着继承关系&#xff0c;但在设计理念和性能上有显著的改进。本文将从模型架构、参数规模、训练数据和…

嵌入式系统与OpenCV

目录 一、OpenCV 简介 二、嵌入式 OpenCV 的安装方法 1. Ubuntu 系统下的安装 2. 嵌入式 ARM 系统中的安装 3. Windows10 和树莓派系统下的安装 三、嵌入式 OpenCV 的性能优化 1. 介绍嵌入式平台上对 OpenCV 进行优化的必要性。 2. 利用嵌入式开发工具&#xff0c;如优…

戴尔 AI Factory 上的 Agentic RAG 搭载 NVIDIA 和 Elasticsearch 向量数据库

作者&#xff1a;来自 Elastic Hemant Malik, Dell Team 我们很高兴与戴尔合作撰写白皮书《戴尔 AI Factory with NVIDIA 上的 Agentic RAG》。白皮书是一份供开发人员参考的设计文档&#xff0c;概述了实施 Agentic 检索增强生成 (retrieval augmented generation - RAG) 应用…

特征交叉-MaskNet文章总结代码实现

MaskNet 这个模型是微博21年提出的&#xff0c;23年twitter(X)开源的推荐系统排序模块使用的backbone结构。 核心思想是认为DNN为主的特征交叉是addictive&#xff0c;交叉效率不高&#xff1b;所以设计了一种multiplicatvie的特征交叉 如何设计muliplicative特征交叉呢&#x…