大数据开发项目--音乐排行榜

环境:windows10,centos7.9,hadoop3.2、hbase2.5.3和zookeeper3.8完全分布式;
环境搭建具体操作请参考以下文章:
CentOS7 Hadoop3.X完全分布式环境搭建
Hadoop3.x完全分布式环境搭建Zookeeper和Hbase

1. 集成MapReduce和Hbase

1)复制hbase-core.xml$HADOOP_HOME/etc/hadop目录下

cp $HBASE_HOME/conf/hbase-core.xml $HADOOP_HOME/etc/hadoop/

在这里插入图片描述

注:如果是完全分布式环境,需要所有主机都要复制。包括下面的操作

2)编辑hadoop-core.xml,让HADOOP_CLASSPATH包含hbase的相关类,让mapreduce程序在运行时可以访问到这些库

vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh

# 在文件中写入如下内容
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/local/hbase/lib/*

3)运行测试包hbase-server-2.5.3-tests.jar

cd $HBASE_HOME/lib

# test 为hbase数据库中的表
hadoop jar hbase-server-2.5.3-tests.jar org.apache.hadoop.hbase/mapreduce.RowCounter test

若运行成功如下:

在这里插入图片描述

测试成功。

2. 批量数据导入

将需要的数据导入到Hbase中。

2.1 将数据上传到HDFS中

首先需要将数据上传到HDFS中,为将数据批量导入Hbase做准备。

1)在HDFS中新建一个文件夹/input/music2

hadoop fs -mkdir -p /input/music2

2)将数据文件(music1.txt, music2.txt, music3.txt)上传到主机上

rz 	# 这里使用xshell上传文件,使用rz命令,选择对应的文件即可。

3)将文件上传到HDFS的input/music2文件夹下

hadoop fs -put music1.txt music2.txt, music3.txt /input/music2	# 上传文件
hadopp fs -ls /input/music2/	# 查看文件

在这里插入图片描述

2.2 将数据导入到Hbase中

1)利用importtsv将准备的数据生成HFile并建表

cd $HBASE_HOME/lib	# 进入hbase的lib文件夹,其中存放的是各种jar包
hadoop jar hbase-server-2.5.3.jar org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.bulk.output=tmp -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:singer,info:gender,info:ryghme,info:terminal music /input/music2 -Dcreate.table=yes

hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.bulk.output=tmp -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:singer,info:gender,info:ryghme,info:terminal music /input/music2 -Dcreate.table=yes
  • hbase-server-2.5.3.jar是HadoopMapReduce任务的jar包,它包含了用于将数据导入Hbase的importtsv类。

  • -Dimporttsv.bulk.output=tmp是一个系统属性,用于指定临时输出目录,默认是/tmp(HDFS下),使用此选项时将生成的HFile文件的内部格式问文件,这时并不会写数据到Hbase中,而是放到指定临时输出目录中即/tmp

  • -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:singer,info:gender,info:ryghme,info:terminal music是指定要导入到Hbase中的列。每列由列族名和列限定符组成,二者通过冒号分隔。上面的命令指定了6列,包括HBASE_ROW_KEY(每行的唯一标识符)和其他几个信息列。

  • /input/music2 即数据在HDFS中的位置。

  • -Dcreate.table=yes 表示自动创建表格。

正常执行完成的结果如下:

在这里插入图片描述

2)将HFile数据加载到Hbase中

hbase org.apache.hadoop.hbase.tool.LoadIncrementalHFiles tmp music

正常执行完成的结果如下:

在这里插入图片描述

3)查看hbase中的music表内容

在这里插入图片描述

可以看到数据已经被加载到hbase的music表中。

3. 处理数据

关于HBase的存储单元cell

Hbase中的存储单元cell由一下字段组成:

1) row
2) column family
3) column qualifier
4) timestamp
5) type
6) MVCC version
7) value

3.1 项目程序源代码

3.1.1 HBaseConnect
package cn.music.TopMusic;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;

import java.io.IOException;

public class HBaseConnect {

    // 设置静态属性hbase连接
    public static Connection connection = null;
    static {
        try {
            // 使用配置文件获取服务器
            connection = ConnectionFactory.createConnection();
        } catch (IOException e) {
            System.out.println("连接获取失败");
            e.printStackTrace();
        }
    }

    public static void closeConnection() throws IOException {
        if (connection != null) {
            connection.close();
        }
    }
}
3.1.2 HBaseDDL
package cn.music.TopMusic;

import cn.Hbaseapi.HBaseConnect;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.TableDescriptorBuilder;
import org.apache.hadoop.hbase.util.Bytes;

import java.io.IOException;

public class HBaseDDL {
    // 添加静态属性connection指向单例连接
    public static Connection connection = HBaseConnect.connection;

    /**
     * 判断表是否存在
     *
     * @param namespace 命名空间名称
     * @param tableName 表名称
     * @return 返回判断结果
     * @throws IOException    异常
     */
    public static boolean isTableExists(String namespace, String tableName) throws IOException {
        // 获取admin
        Admin admin = connection.getAdmin();

        // 使用方法判断表格是否存在
        boolean b = false;

        try {
            b = admin.tableExists(TableName.valueOf(tableName));
        } catch (IOException e) {
            e.printStackTrace();
        }

        // 关闭admin
        admin.close();

        return b;
    }

    /**
     * 创建表
     *
     * @param namespace      命名空间名称
     * @param tableName      表名称
     * @param columnFamilies 列族名称
     */
    public static void createTable(String namespace, String tableName, String... columnFamilies) throws IOException {
        // 判断至少有一个列族
        if (columnFamilies.length == 0) {
            System.out.println("创建表格至少有一个列族");
            return;
        }

        //判断表是否存在
        if (isTableExists(namespace, tableName)) {
            System.out.println("表格已经存在");
            return;
        }

        // 获取admin
        Admin admin = connection.getAdmin();

        // 调用方法创建表
        // 创建表格描述的建造者
        // 只需要再建造者中各种添加参数即可,不用生成描述对象TableDescriptor或ColumnFamilyDescriptor添加参数
        TableDescriptorBuilder tableDescriptorBuilder = TableDescriptorBuilder.newBuilder(TableName.valueOf(namespace, tableName));
        //添加参数
        for (String columnFamily : columnFamilies) {
            //创建列族描述者的建造者
            ColumnFamilyDescriptorBuilder columnFamilyDescriptorBuilder = ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(columnFamily));
            // 对应当前的列族添加参数
            columnFamilyDescriptorBuilder.setMaxVersions(5);
            // 创建添加完参数的列族描述(setColumnFamily()也可以用来在修改表操作中添加列族)
            tableDescriptorBuilder.setColumnFamily(columnFamilyDescriptorBuilder.build());
        }

        // 创建对应的表格描述
        try {
            admin.createTable(tableDescriptorBuilder.build());
        } catch (IOException e) {
            // 因为之前已经判断过表是否存在了,所以再出现异常不会是表已经存在,直接输出栈追踪即可
            e.printStackTrace();
        }

        // 关闭admin
        admin.close();
    }

    /**
     * 删除表
     *
     * @param namespace 命名空间名称
     * @param tableName 表名称
     * @return       删除成功返回1,否则0
     */
    public static boolean deleteTable(String namespace, String tableName) throws IOException {
        // 判断表格是否存在
        if (!isTableExists(namespace, tableName)) {
            System.out.println("表格不存在,无法删除");
            return false;
        }

        // 获取admin
        Admin admin = connection.getAdmin();

        // 调用删除表方法

        try {
            // 删除表之前,需要先将表标记为不可用(disable)
            TableName tableName1 = TableName.valueOf(namespace, tableName);
            admin.disableTable(tableName1);
            admin.deleteTable(tableName1);
        } catch (IOException e) {
            e.printStackTrace();
        }

        // 关闭admin
        admin.close();
        return true;
    }

}
3.1.3 IntNumReducer
package cn.music.TopMusic;

import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.mapreduce.TableReducer;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;

import java.io.IOException;

class IntNumReducer extends TableReducer<Text, IntWritable, Text> {
    @Override
    /**
     * 汇总每首歌曲播放总次数
     *
     * @param key                        // 歌名
     * @param values                    // 播放频次集合{1, 1, 1, 1}
     * @param context                    // 上下文
     * @throws IOException
     * @throws InterruptedException
     */
    protected void reduce(Text key, Iterable<IntWritable> values,
                          Context context) throws IOException, InterruptedException {

        // 统计每首歌的播放次数
        int playCount = 0;
        for (IntWritable num : values) {
            playCount += num.get();
        }
        // 为Put操作指定行键
        Put put = new Put(Bytes.toBytes(key.toString()));
        // 为Put操作指定列和值
        put.addColumn(Bytes.toBytes("details"), Bytes.toBytes("rank"),
                Bytes.toBytes(playCount));
        context.write(key, put);
    }

}
3.1.4 IntWritableDecreaseingComparator
package cn.music.TopMusic;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.WritableComparable;

/**
 * 实现降序排序类
 */
class IntWritableDecreaseingComparator extends
        IntWritable.Comparator {
    @Override
    public int compare(WritableComparable a, WritableComparable b) {
        return -super.compare(a, b);// 比较结果取负数即可降序
    }

    @Override
    public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
        return -super.compare(b1, s1, l1, b2, s2, l2);
    }
}

3.1.5 ScanMusicMapper
package cn.music.TopMusic;

import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapper;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;

import java.io.IOException;
import java.util.List;

/**
 * 扫描每一行数据中的列info:name
 */
class ScanMusicMapper extends TableMapper<Text, IntWritable> {

    @Override
    /**
     * 扫描文件内容,输出键值对<"歌名": 1>
     * @param key                        // 行键
     * @param value                        // 一个数据
     * @param context                    // 上下文
     * @throws IOException
     * @throws InterruptedException
     */
    protected void map(ImmutableBytesWritable key, Result value,
                    Context context) throws IOException, InterruptedException {

                List<Cell> cells = value.listCells();
                for (Cell cell : cells) {
                    if (Bytes.toString(CellUtil.cloneFamily(cell)).equals("info") &&
                            Bytes.toString(CellUtil.cloneQualifier(cell)).equals("name")) {
                        context.write(
                                new Text(Bytes.toString(CellUtil.cloneValue(cell))),    // 歌名
                                new IntWritable(1));
                    }
        }
    }
}

3.1.6 ScanMusicNameMapper
package cn.music.TopMusic;

import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.CellUtil;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableMapper;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;

import java.io.IOException;
import java.util.List;

/**
 * 处理经过一次mapreduce后的数据
 * 扫描全部歌曲名称并获得每首歌曲被播放次数
 * 输出键/值:播放次数/歌名
 * 输出目的地:HDSF文件
 */
class ScanMusicNameMapper extends TableMapper<IntWritable, Text> {

    @Override
    protected void map(ImmutableBytesWritable key, Result value,
                       Context context) throws IOException, InterruptedException {
        List<Cell> cells = value.listCells();
        for (Cell cell : cells) {
            context.write(
                    new IntWritable(Bytes.toInt(CellUtil.cloneValue(cell))),    // 播放次数
                    new Text(Bytes.toString(key.get())));    // 歌名
        }
    }
}

3.1.7 TopMusic.java
package cn.music.TopMusic;

import java.io.IOException;
import java.io.InputStream;

import cn.Hbaseapi.HBaseConnect;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;


public class TopMusic {

	static final String TABLE_MUSIC = "music";
	static final String TABLE_NAMELIST = "namelist";
	static final String OUTPUT_PATH = "hdfs://hadoop00:9000/output/topmusic";
	// 设置Hbase的静态配置
	static Configuration conf = HBaseConfiguration.create();

	/**
	 * 配置job作业:第一次mapreduce、统计每首歌曲播放的总次数
	 * @param args						命令行参数
	 * @return							Job任务是否运行成功 0 1
	 * @throws IOException				IO异常
	 * @throws ClassNotFoundException	未找到类异常
	 * @throws InterruptedException		阻塞方法收到中断请求的时候抛出的异常
	 */
	public static boolean musicCount(String[] args)
			throws IOException, ClassNotFoundException, InterruptedException {
		// 设置Job实例
		Job job = Job.getInstance(conf);

		// MapReduce程序作业基本配置
		job.setJarByClass(TopMusic.class);
		// 设置两个ReduceTask
		job.setNumReduceTasks(2);
		// 设置扫描的列族:列名 即 info:name
		Scan scan = new Scan();
		scan.addColumn(Bytes.toBytes("info"), Bytes.toBytes("name"));
		// 使用hbase提供的工具类来设置job
		// 设置输入表名、扫描对象、Mapper的类型、输出的键值对类型、Job对象
		TableMapReduceUtil.initTableMapperJob(TABLE_MUSIC, scan,
				ScanMusicMapper.class, Text.class, IntWritable.class, job);

		// 判断输出表是否存在,如果不存在,则创建表,如果存在,删除重名表后重新创建。
		if (!HBaseDDL.isTableExists("default", TABLE_NAMELIST)) {
			HBaseDDL.createTable("default", TABLE_NAMELIST, "details");
		} else {
			if (HBaseDDL.deleteTable("default", "namelist")) {
				System.out.println("表删除成功");
				HBaseDDL.createTable("default", "namelist", "details");
			} else {
				System.exit(0);
			}
		}

		// 设置输出表名、Reducer的类型、Job对象
		TableMapReduceUtil.initTableReducerJob(TABLE_NAMELIST,
				IntNumReducer.class, job);

		return job.waitForCompletion(true);
	}

	/**
	 * 配置job作业:第二次次mapreduce(只重写了map函数),自定义比较器,利用shuffle对数据进行降序排序
	 * @param args						命令行参数
	 * @return							job实例是否成功运行 0 1
	 * @throws IOException				IO异常
	 * @throws ClassNotFoundException	未找到类异常
	 * @throws InterruptedException		阻塞方法收到中断请求的时候抛出此异常
	 */
	public static boolean sortMusic(String[] args)
			throws IOException, ClassNotFoundException, InterruptedException {
		// 设置Job实例
		Job job = Job.getInstance(conf, "sort-music");
		job.setJarByClass(TopMusic.class);
		job.setNumReduceTasks(1);
		// 设置比较器类
		job.setSortComparatorClass(IntWritableDecreaseingComparator.class);
		// 设置输出表、扫描对象、Mapper类、键值对类型、job实例
		TableMapReduceUtil.initTableMapperJob(TABLE_NAMELIST, new Scan(),
				ScanMusicNameMapper.class, IntWritable.class, Text.class, job);

		// 将排序后的数据文件输出到指定路径下
		Path output = new Path(OUTPUT_PATH);
		if (FileSystem.get(conf).exists(output))
			FileSystem.get(conf).delete(output, true);
		FileOutputFormat.setOutputPath(job, output);
		return job.waitForCompletion(true);
	}

	/**
	 * 查看输出文件,获取最终的排名数据
	 * @throws IllegalArgumentException		非法参数异常
	 * @throws IOException					IO异常
	 */
	public static void showResult() throws IllegalArgumentException, IOException{
		// 获取文件系统对象
		FileSystem fs = FileSystem.get(conf);

		// 输出路径下的文件内容
		InputStream in = null;
		try {
			in = fs.open(new Path(OUTPUT_PATH+"/part-r-00000"));
			IOUtils.copyBytes(in, System.out, 4096, false);
		} finally {
			IOUtils.closeStream(in);
		}
	}

	// 主函数
	public static void main(String[] args) throws IOException,
			ClassNotFoundException, InterruptedException {

		// 关于GenericOptionsParser:是hadoop框架中解析命令行参数的基本类。
		// 它能够辨别一些标准的命令行参数,能够使应用程序轻易地指定namenode,jobtracker,
		// 以及其他额外的配置资源。
		GenericOptionsParser gop = new GenericOptionsParser(conf, args);
		String[] otherArgs = gop.getRemainingArgs();	// 获取命令行参数

		// 如果musicCount()成功执行,那么执行sortMusic(),如果sortMusic执行成功,调用showResult()展示处理结果
		if (musicCount(otherArgs)) {
			if (sortMusic(otherArgs)) {
				showResult();
			}
		}

	}
}

3.2 运行结果

控制台输出结果如下:

在这里插入图片描述

输出结果存储到HDFS如下:

在这里插入图片描述

Hbase中namelist表内容如下:

在这里插入图片描述至此,大数据开发项目–音乐排行榜项目完成。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/411165.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

猫头虎分享已解决Bug || Error: Maximum update depth exceeded in React

博主猫头虎的技术世界 &#x1f31f; 欢迎来到猫头虎的博客 — 探索技术的无限可能&#xff01; 专栏链接&#xff1a; &#x1f517; 精选专栏&#xff1a; 《面试题大全》 — 面试准备的宝典&#xff01;《IDEA开发秘籍》 — 提升你的IDEA技能&#xff01;《100天精通鸿蒙》 …

【Crypto | CTF】BugKu 简单的RSA

天命&#xff1a;这题也不算简单了&#xff0c;要反编译&#xff0c;要灵活一点 首先收到pyc文件&#xff0c;拿去反编译出来&#xff0c;可以用在线反编译&#xff0c;也可以用工具反编译 在线&#xff1a;python反编译 - 在线工具 工具&#xff1a;https://download.csdn.n…

【算法小讲堂】#1 贪心算法

引入——关于贪心算法 我们先来做一个小游戏——现在假设自己是一个小偷&#xff0c;桌上有一些物品&#xff0c;包括一台iPhone15、一个充电宝、一个眼罩和一个溜溜梅。此时&#xff0c;你听说警察即将到来&#xff0c;那么你会先带走哪个东西呢&#xff1f; 一般来讲&#xf…

c++数据结构算法复习基础--1

一、大体复习内容 复习思路&#xff1b; 二、数据结构算法-常见复杂度汇总介绍-性能对比-图表展示 数据结构: 相互之间存在一种或者多种特定关系的数据元素的集合。在逻辑上可以分为线性结构&#xff0c;散列结构、树形结构&#xff0c;图形结构等等。 数据结构说的是组织…

x-cmd pkg | g - 功能和交互更为丰富的 `ls` 替代方案

目录 简介首次用户功能特点竞品和相关作品进一步阅读 简介 g 是一项用 Go 开发的、功能和交互更为丰富的 ls 替代方案。它拥有 100 多个功能选项&#xff0c;主要是通过各式图标、各种布局选项和 git status 集成来增强视觉效果&#xff0c;并且支持多种输出格式&#xff0c;如…

话题——计算机专业必看的几部电影

1. 计算机专业必看的几部电影 《黑客帝国》&#xff08;The Matrix&#xff09;&#xff1a;这部电影讲述了一个虚拟现实世界和现实世界之间的概念&#xff0c;对计算机编程和人工智能有着深刻的思考。它涉及在线/离线、递归、循环、矩阵等概念&#xff0c;挑战了观众对现实的…

TextCNN:文本分类卷积神经网络

模型原理 1、前言2、模型结构3、示例3.1、词向量层3.2、卷积层3.3、最大池化层3.4、Fully Connected层 4、总结 1、前言 TextCNN 来源于《Convolutional Neural Networks for Sentence Classification》发表于2014年&#xff0c;是一个经典的模型&#xff0c;Yoon Kim将卷积神…

功能测试用例,需要详细到什么程度?

这些天招了新人&#xff0c;新项目紧张的测试告一段落&#xff0c;我也开始为功能写用例。 一段时间不写了&#xff0c;写起来有点生疏&#xff0c;但是思路还很清楚。写到一半收到新人写完发过来的用例。 我一看就懵了&#xff0c;哥您这用例根本就是直接拷策划案啊&#xf…

如何交叉编译

1、需要安装对应交叉编译工具链用来在宿主机上编译能在arm开发板上运行的代码 树莓派交叉编译工具链下载地址&#xff1a; https://github.com/raspberrypi/tools下载好后用FileZilla将压缩包传到宿主机&#xff08;不会用自己百度&#xff09; 解压编译工具链 unzip tools-m…

Sovit3D数字孪生平台 助力智慧海上风电场项目加速

我们常说地球是蓝色星球&#xff0c;那是因为海洋约占地球面积的71%。如今&#xff0c;我国正在向“双碳”目标不断奋斗&#xff0c;海上风电也作为一种潜力清洁能源&#xff0c;迸发出前所未有的活力&#xff0c;海上吹来的风成为未来清洁能源新方向。 2024年海上风电项目加速…

市场复盘总结 20240226

仅用于记录当天的市场情况&#xff0c;用于统计交易策略的适用情况&#xff0c;以便程序回测 短线核心&#xff1a;不参与任何级别的调整&#xff0c;采用龙空龙模式 一支股票 10%的时候可以操作&#xff0c; 90%的时间适合空仓等待 昨日主题投资 连板进级率 二进三&#xff…

数据安全治理实践路线(中)

数据安全建设阶段主要对数据安全规划进行落地实施&#xff0c;建成与组织相适应的数据安全治理能力&#xff0c;包括组织架构的建设、制度体系的完善、技术工具的建立和人员能力的培养等。通过数据安全规划&#xff0c;组织对如何从零开始建设数据安全治理体系有了一定认知&…

Kuniverse 回归!重温阿圭罗的代表性瞬间,了解这一体验的创作过程!

Kuniverse 活动不仅仅是一次传统的聚会&#xff0c;它是为我们的用户提升 The Sandbox 体验而设计的一种方式&#xff0c;其中包括两个标志性体验&#xff1a;Kuniverse 和“世界冠军”。 Kuniverse 是一款单人游戏&#xff0c;包含与足球和阿圭罗相关的任务。“世界冠军”则更…

第十四章 Linux面试题

第十四章 Linux面试题 日志t.log(访问量)&#xff0c; 将各个ip地址截取&#xff0c;并统计出现次数&#xff0c;并按从大到小排序(腾 讯) http://192. 168200.10/index1.html http://192. 168.200. 10/index2.html http:/192. 168 200.20/index1 html http://192. 168 200.30/…

171基于matlab的随机共振微弱信号检测

基于matlab的随机共振微弱信号检测&#xff0c;随机共振描述了过阻尼布朗粒子受周期性信号和随机噪声的共同作用下,在非线性双稳态系统中所发生的跃迁现象. 随机共振可用于弱信号的检测。程序已调通&#xff0c;可直接运行。 171 微弱信号检测 随机共振 非线性系统 (xiaohongsh…

【c语言】字符函数和字符串函数(下)

前言 书接上回 【c语言】字符函数和字符串函数(上) 上一篇讲解的strcpy、strcat、strcmp函数的字符串长度是不受限制的 而本篇strncpy、strncat、strcnmp函数的字符串长度是受限制的 欢迎关注个人主页&#xff1a;逸狼 创造不易&#xff0c;可以点点赞吗~ 如有错误&#xff0c;…

【深度学习笔记】深度学习训练技巧

深度学习训练技巧 1 优化器 随机梯度下降及动量 随机梯度下降算法对每批数据 ( X ( i ) , t ( i ) ) (X^{(i)},t^{(i)}) (X(i),t(i)) 进行优化 g ∇ θ J ( θ ; x ( i ) , t ( i ) ) θ θ − η g g\nabla_\theta J(\theta;x^{(i)},t^{(i)})\\ \theta \theta -\eta g g…

纯国产轻量化数字孪生:智慧城市、智慧工厂、智慧校园、智慧社区。。。

AMRT 3D数字孪生引擎介绍 AMRT3D引擎是一款融合了眸瑞科技的AMRT格式与轻量化处理技术为基础&#xff0c;以降本增效为目标&#xff0c;支持多端发布的一站式纯国产自研的CS架构项目开发引擎。 引擎包括场景搭建、UI拼搭、零代码交互事件、光影特效组件、GIS/BIM组件、实时数据…

【JavaEE】_前端使用GET请求的queryString向后端传参

目录 1. GET请求的query string 2. 关于query string的urlencode 1. GET请求的query string 1. 在HttpServletRequest请求中&#xff0c;getParameter方法用于在服务器这边获取到请求中的参数&#xff0c;主要在query string中&#xff1b; query string中的键值对都是程序…

【黑马程序员】STL之vector常用操作

文章目录 vectorvector 基本概念功能vector与普通数组区别vector动态扩展 在这里插入图片描述函数原型代码示例 vector容器的赋值操作函数原型代码示例 vector容量和大小函数原型代码示例 vector插入删除函数原型代码示例 vector容器数据存取函数原型代码示例 swap使用代码示例…