hive数据库查看参数/hive查看当前环境配置

文章目录

  • 一、hive查看当前环境配置命令

在一次hive数据库执行命令 set ngmr.exec.mode=cluster时,想看一下 ngmr.exec.mode参数原先的值是什么,所以写一下本篇博文,讲一下怎么查看hive中的参数。

一、hive查看当前环境配置命令

  • set :可以查看所有参数
  • set -v :可得到所有环境变量。如果没有-v参数,只显示与hadoop不同的配置。
  • set 具体参数: 返回具体参数对应的值

案例一:set 具体参数

# 返回mapreduce.map.memory.mb参数的值
set mapreduce.map.memory.mb;

在这里插入图片描述
案例二:set 查询所有变量

set;

案例三:set -v查询所有环境变量

hive> set -v;
silent=off
fs.s3n.impl=org.apache.hadoop.fs.s3native.NativeS3FileSystem
datanucleus.validateColumns=false
mapred.task.cache.levels=2
hadoop.tmp.dir=/home/hexianghui/datahadoop
hadoop.native.lib=true
map.sort.class=org.apache.hadoop.util.QuickSort
ipc.client.idlethreshold=4000
mapred.system.dir=${hadoop.tmp.dir}/mapred/system
hive.script.serde=org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe
mapred.job.tracker.persist.jobstatus.hours=0
io.skip.checksum.errors=false
fs.default.name=hdfs://192.168.0.4:9000
mapred.child.tmp=./tmp
datanucleus.cache.level2=false
mapred.skip.reduce.max.skip.groups=0
mapred.jobtracker.instrumentation=org.apache.hadoop.mapred.JobTrackerMetricsInst
mapred.tasktracker.dns.nameserver=default
io.sort.factor=10
hive.metastore.rawstore.impl=org.apache.hadoop.hive.metastore.ObjectStore
hive.metastore.local=true
mapred.task.timeout=600000
mapred.max.tracker.failures=4
hadoop.rpc.socket.factory.class.default=org.apache.hadoop.net.StandardSocketFactory
fs.hdfs.impl=org.apache.hadoop.hdfs.DistributedFileSystem
mapred.queue.default.acl-administer-jobs=*
mapred.queue.default.acl-submit-job=*
mapred.skip.map.auto.incr.proc.count=true
io.mapfile.bloom.size=1048576
tasktracker.http.threads=40
mapred.job.shuffle.merge.percent=0.66
fs.ftp.impl=org.apache.hadoop.fs.ftp.FTPFileSystem
io.bytes.per.checksum=512
mapred.output.compress=false
hive.test.mode.prefix=test_
hive.test.mode=false
hive.exec.compress.intermediate=false
topology.node.switch.mapping.impl=org.apache.hadoop.net.ScriptBasedMapping
datanucleus.cache.level2.type=SOFT
mapred.reduce.slowstart.completed.maps=0.05
mapred.reduce.max.attempts=4
fs.ramfs.impl=org.apache.hadoop.fs.InMemoryFileSystem
javax.jdo.option.ConnectionUserName=APP
mapred.skip.map.max.skip.records=0
hive.merge.mapfiles=true
hive.merge.size.smallfiles.avgsize=16000000
hive.test.mode.samplefreq=32
hive.optimize.skewjoin=false
mapred.job.tracker.persist.jobstatus.dir=/jobtracker/jobsInfo
fs.s3.buffer.dir=${hadoop.tmp.dir}/s3
hive.map.aggr.hash.min.reduction=0.5
job.end.retry.attempts=0
fs.file.impl=org.apache.hadoop.fs.LocalFileSystem
mapred.local.dir.minspacestart=0
hive.exec.compress.output=false
mapred.output.compression.type=RECORD
hive.script.recordreader=org.apache.hadoop.hive.ql.exec.TextRecordReader
topology.script.number.args=100
io.mapfile.bloom.error.rate=0.005
hive.exec.parallel.thread.number=8
mapred.max.tracker.blacklists=4
mapred.task.profile.maps=0-2
mapred.userlog.retain.hours=24
datanucleus.storeManagerType=rdbms
mapred.job.tracker.persist.jobstatus.active=false
hive.script.operator.id.env.var=HIVE_SCRIPT_OPERATOR_ID
hadoop.security.authorization=false
local.cache.size=10737418240
mapred.min.split.size=0
mapred.map.tasks=2
mapred.child.java.opts=-Xmx200m
hive.skewjoin.mapjoin.min.split=33554432
hive.metastore.warehouse.dir=/user/hive/warehouse
mapred.job.queue.name=default
hive.mapjoin.bucket.cache.size=100
datanucleus.transactionIsolation=read-committed
ipc.server.listen.queue.size=128
mapred.inmem.merge.threshold=1000
job.end.retry.interval=30000
mapred.skip.attempts.to.start.skipping=2
fs.checkpoint.dir=${hadoop.tmp.dir}/dfs/namesecondary
mapred.reduce.tasks=-1
mapred.merge.recordsBeforeProgress=10000
mapred.userlog.limit.kb=0
hive.skewjoin.key=100000
javax.jdo.option.ConnectionDriverName=org.apache.derby.jdbc.EmbeddedDriver
webinterface.private.actions=false
mapred.job.shuffle.input.buffer.percent=0.70
io.sort.spill.percent=0.80
hive.udtf.auto.progress=false
hive.session.id=hexianghui_201002232043
mapred.map.tasks.speculative.execution=true
hadoop.util.hash.type=murmur
hive.exec.script.maxerrsize=100000
hive.optimize.groupby=true
mapred.map.max.attempts=4
hive.default.fileformat=TextFile
hive.exec.scratchdir=/tmp/hive-${user.name}
mapred.job.tracker.handler.count=10
hive.script.recordwriter=org.apache.hadoop.hive.ql.exec.TextRecordWriter
hive.join.emit.interval=1000
datanucleus.validateConstraints=false
mapred.tasktracker.expiry.interval=600000
mapred.jobtracker.maxtasks.per.job=-1
mapred.jobtracker.job.history.block.size=3145728
keep.failed.task.files=false
ipc.client.tcpnodelay=false
mapred.task.profile.reduces=0-2
mapred.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec
io.map.index.skip=0
ipc.server.tcpnodelay=false
hive.join.cache.size=25000
datanucleus.autoStartMechanismMode=checked
hive.input.format=org.apache.hadoop.hive.ql.io.HiveInputFormat
hadoop.logfile.size=10000000
mapred.reduce.tasks.speculative.execution=true
hive.skewjoin.mapjoin.map.tasks=10000
hive.hwi.listen.port=9999
fs.checkpoint.period=3600
mapred.job.reuse.jvm.num.tasks=1
mapred.jobtracker.completeuserjobs.maximum=100
hive.groupby.mapaggr.checkinterval=100000
fs.s3.maxRetries=4
javax.jdo.option.ConnectionURL=jdbc:derby:;databaseName=metastore_db;create=true
hive.mapred.mode=nonstrict
hive.groupby.skewindata=false
hive.exec.parallel=false
mapred.local.dir=${hadoop.tmp.dir}/mapred/local
fs.hftp.impl=org.apache.hadoop.hdfs.HftpFileSystem
fs.s3.sleepTimeSeconds=10
fs.trash.interval=0
mapred.submit.replication=10
hive.merge.size.per.task=256000000
fs.har.impl=org.apache.hadoop.fs.HarFileSystem
mapred.map.output.compression.codec=org.apache.hadoop.io.compress.DefaultCodec
hive.exec.reducers.max=999
mapred.tasktracker.dns.interface=default
mapred.job.tracker=192.168.0.4:9001
io.seqfile.sorter.recordlimit=1000000
hive.optimize.ppd=true
mapred.line.input.format.linespermap=1
mapred.jobtracker.taskScheduler=org.apache.hadoop.mapred.JobQueueTaskScheduler
mapred.tasktracker.instrumentation=org.apache.hadoop.mapred.TaskTrackerMetricsInst
hive.mapjoin.cache.numrows=25000
hive.merge.mapredfiles=false
hive.metastore.connect.retries=5
hive.fileformat.check=true
mapred.tasktracker.procfsbasedprocesstree.sleeptime-before-sigkill=5000
javax.jdo.option.DetachAllOnCommit=true
mapred.local.dir.minspacekill=0
hive.optimize.pruner=true
javax.jdo.option.ConnectionPassword=mine
hive.hwi.listen.host=0.0.0.0
io.sort.record.percent=0.05
hive.map.aggr.hash.percentmemory=0.5
fs.kfs.impl=org.apache.hadoop.fs.kfs.KosmosFileSystem
mapred.temp.dir=${hadoop.tmp.dir}/mapred/temp
mapred.tasktracker.reduce.tasks.maximum=2
javax.jdo.PersistenceManagerFactoryClass=org.datanucleus.jdo.JDOPersistenceManagerFactory
hive.mapred.local.mem=0
fs.checkpoint.edits.dir=${fs.checkpoint.dir}
mapred.job.reduce.input.buffer.percent=0.0
datanucleus.validateTables=false
mapred.tasktracker.indexcache.mb=10
hadoop.logfile.count=10
mapred.skip.reduce.auto.incr.proc.count=true

hive.script.auto.progress=false
io.seqfile.compress.blocksize=1000000
fs.s3.block.size=67108864
mapred.tasktracker.taskmemorymanager.monitoring-interval=5000
datanucleus.autoCreateSchema=true
mapred.acls.enabled=false
mapred.queue.names=default
fs.hsftp.impl=org.apache.hadoop.hdfs.HsftpFileSystem
hive.map.aggr=true
hive.enforce.bucketing=false
mapred.task.tracker.http.address=0.0.0.0:50060
mapred.reduce.parallel.copies=5
io.seqfile.lazydecompress=true
hive.exec.script.allow.partial.consumption=false
io.sort.mb=100
ipc.client.connection.maxidletime=10000
mapred.task.tracker.report.address=127.0.0.1:0
mapred.compress.map.output=false
hive.mapred.reduce.tasks.speculative.execution=true
ipc.client.kill.max=10
ipc.client.connect.max.retries=10
hive.heartbeat.interval=1000
fs.s3.impl=org.apache.hadoop.fs.s3.S3FileSystem
hive.mapjoin.maxsize=100000
mapred.job.tracker.http.address=0.0.0.0:50030
io.file.buffer.size=4096
mapred.jobtracker.restart.recover=false
io.serializations=org.apache.hadoop.io.serializer.WritableSerialization
hive.optimize.cp=true
javax.jdo.option.NonTransactionalRead=true
hive.exec.reducers.bytes.per.reducer=1000000000
mapred.reduce.copy.backoff=300
mapred.task.profile=false
jobclient.output.filter=FAILED
mapred.tasktracker.map.tasks.maximum=2
io.compression.codecs=org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache.hadoop.io.compress.BZip2Codec
fs.checkpoint.size=67108864

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/227746.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

06 硬件知识入门(MOSS管)

1 简介 MOS管和三极管的驱动方式完全不一样,以NPN型三极管为例,base极以小电流打开三极管,此时三极管的集电极被打开,发射极的高电压会导入,此时电流:Ic IbIe ;电压:Ue>Uc>Ub…

DBSCAN算法原理及其Python实现

文章目录 原理Python实现验证 原理 DBSCAN,即Density-Based Spatial Clustering of Applications with Noise,基于密度的噪声应用空间聚类。 在DBSCAN算法中,将数据点分为三类: 核心点:若样本 x i x_i xi​的 ε \v…

《深入理解计算机系统》学习笔记 - 第三课 - 浮点数

Floating Point 浮点数 文章目录 Floating Point 浮点数分数二进制示例能代表的数浮点数的表示方式浮点数编码规格化值规格化值编码示例 非规格化的值特殊值 示例IEEE 编码的一些特殊属性四舍五入,相加,相乘四舍五入四舍五入的模式二进制数的四舍五入 浮…

Linux 网络协议

1 网络基础 1.1 网络概念 网络是一组计算机或者网络设备通过有形的线缆或者无形的媒介如无线,连接起来,按照一定的规则,进行通讯的集合( 缺一不可 )。 5G的来临以及IPv6的不断普及,能够进行联网的设备将会是越来越多&#xff08…

扩展学习|商务智能与社会计算

一、概念介绍 (一)商务智能 商务智能(Business Intelligence,简称BI)是一种基于数据分析的决策支持系统,旨在帮助企业或组织更好地理解和利用自身数据,发现其中的模式和趋势,并提供…

Java物联网项目源码

Java物联网项目源码 使用技术:JAVA [ springmvc / spring / mybatis ] 、Mysql 、Html 、Jquery 、css 协议和优势:TCP/IP、HTTP、MQTT 通讯协议。 系统包括:后台服务,传感器解析服务、web展示; 目前web系统支持功…

【Proteus仿真】【STM32单片机】蓝牙遥控小车

文章目录 一、功能简介二、软件设计三、实验现象联系作者 一、功能简介 本项目使用Proteus8仿真STM32单片机控制器,使LCD1602液晶,L298电机,直流电机,HC05/06蓝牙模块等。 主要功能: 系统运行后,LCD1602显…

基于springboot实现的仿天猫商城项目

一、系统架构 前端:jsp | js | css | jquery 后端:springboot | mybatis-plus 环境:jdk1.7 | mysql | maven 二、代码及数据库 三、功能介绍 01. web端-首页 02. web端-商品查询 03. web端-商品详情 04. web端-购物车 05. web端-订单…

YOLOv8改进 | 2023 | DiverseBranchBlock多元分支模块(有效涨点)

一、本文介绍 本文带来的改进机制是YOLOv8模型与多元分支模块(Diverse Branch Block)的结合,Diverse Branch Block (DBB) 是一种用于增强卷积神经网络性能的结构重新参数化技术。这种技术的核心在于结合多样化的分支,这些分支具有…

C++ day57 回文子串 最长回文子串序列

题目1:647 回文子串 题目链接:回文子串 对题目的理解 返回字符串s中回文子串的个数,字符串s至少包含一个字符,且仅由小写字母组成。 动态规划 动规五部曲 1)dp数组及下标i的含义 dp[i][j]:[i,j]子串…

22款奔驰S450L升级主动式环境氛围灯 安全提醒功能

主动式氛围灯有263个可多色渐变的LED光源,营造出全情沉浸的动态光影氛围。结合智能驾驶辅助系统,可在转向或检测到危险时,予以红色环境光提示,令光影艺术彰显智能魅力。配件有6个氛围灯,1个电脑模块。星骏汇小许Xjh158…

第二十一章——网络通信总结

网络程序设计基础 局域网与互联网 为了实现两台计算机的通信,必须用一个网络线路连接两台计算机。如下图所示 网络协议 1.IP协议 IP是Internet Protocol的简称,是一种网络协议。Internet 网络采用的协议是TCP/IP协议,其全称是Transmission…

第21章网络通信

Internet 提供了大量有用的信息,很少有人能在接触过Internet后拒绝它的诱惑。计算机网络实现了多台计算机间的互联,使得它们彼此之间能够进行数据交流。网络应用程序就是在已连接的不同计算机上运行的程序,这些程序借助于网络协议&#xff0c…

Python编程技巧 – 异常处理

Python编程技巧 – 异常处理 Python Programming Skills – Exception Handling By JacksonML 每一个程序都未必是健壮的,有时候很脆弱。只有在人的理想思维状况下,返回的结果才是正确的,如意的。 1. 错误发生及异常输出 面对种种编写有疏…

【mysql】下一行减去上一行数据、自增序列场景应用

背景 想获取if_yc为1连续账期数据 思路 获取所有if_yc为1的账期数据下一行减去上一行账期,如果为1则为连续,不等于1就为断档获取不等于1的最小账期,就是离当前账期最近连续账期 代码 以下为mysql语法: select acct_month f…

机场信息集成系统系列介绍(1)

机场信息集成系统是一种专为机场运营管理设计的先进系统,旨在提高机场的航班调度指挥效率,同时为机场各生产部门提供航班保障计划的制定和实时调整功能。 该系统的核心用户是机场运控部门,他们利用系统进行航班运行指挥,通过采集航…

Kafka性能调优:高吞吐、低延迟的数据流

Apache Kafka作为一种高性能、分布式流处理平台,对于实时数据的处理至关重要。本文将深入讨论Kafka性能调优的关键策略和技术,通过丰富的示例代码为大家提供实际操作指南,以构建高吞吐、低延迟的数据流系统。 Broker 配置的优化 首先&#…

中断、异常和系统调用(2-1,2-2,2-3)

2-1 课堂练习2.1:外部中断 本实训分析 Linux 0.11 对外部中断的响应和处理过程。在每条指令执行的末尾,如果没有关中断,CPU 会检查是否收到了外部中断信号,如果有信号,则 CPU 就切换到核心态去执行对应的中断处理程序…

c# 字段和属性(get、set、init)

基本概念: “字段”就是类内成员变量,一般为了隐藏数据,保护数据,实现对外不可见,体现封装的思想,成员变量都声明为私有变量;“属性”是类内的一种成员,它是一种特殊的方法(方法的意…

文件被删除了怎么恢复?3个宝藏方法,快来get!

“我是一个学生党,期末的一些资料保存在电脑上,但是不知道是不是被我误删了,导致很多文件都找不到了。文件被删除了怎么恢复呢?大家帮我出出主意吧!” 对于经常在电脑上保存各种文件的用户来说,文件误删除是…