最近很忙,要咕咕咕了

MENU

Windows下安装Hive

October 17, 2023 • Read: 337 • 技术,分享

一、hive 与 hadoop 的下载地址

hive 官网下载地址:https://archive.apache.org/dist/hive/

hadoop 官网下载地址:https://archive.apache.org/dist/hadoop/common/

二、安装 hadoop

根据 hive 版本来下载对应的 hadoop 版本

例如:

下载 apache-hive-3.1.2-src.tar.gz

打开压缩包中的 pom 文件来确定对应的 hadoop 版本

确定版本并下载对应的 hadoop

  1. 解压 hadoop-3.2.2.tar.gz
  2. 配置环境变量(与 Java 相同),变量名为 HADOOP_HOME
  3. 在 cmd 中输入 ==hadoop version== 来确定配置是否正常

如出现 Java 环境变量错误或未设置请检查 Java 环境变量或将所用 Java 路径修改到 hadoop 目录下 ==etchadoophadoop-env.cmd== 文件中的 ==JAVA_HOME== 并将该文件中的 ==% USERNAME%== 修改为 ==% "USERNAME" %==

  1. 在 hadoop 目录下创建 ==data/dfs/namenode== 与 ==data/dfs/datanode== 两个文件夹
  2. 修改 ==etchadoop== 下的 ==core-site.xml== 文件,添加以下内容

    • <configuration>
    • <property>
    • <name>fs.defaultFS</name>
    • <value>hdfs://localhost:9000</value>
    • </property>
    • </configuration>

修改 ==hdfs-site.xml== 中的 datanode 和 namenode 改为自己的目录

  • <configuration>
  • <property>
  • <name>dfs.replication</name>
  • <value>1</value>
  • </property>
  • <property>
  • <name>dfs.namenode.name.dir</name>
  • <value>file:/D:/Softwares/hadoop/data/dfs/namenode</value>
  • </property>
  • <property>
  • <name>dfs.datanode.data.dir</name>
  • <value>file:/D:/Softwares/hadoop/data/dfs/datanode</value>
  • </property>
  • </configuration>

修改 mapred-site.xml.template 文件,将文件重命名为:mapred-site.xml,并添加:

  • <configuration>
  • <property>
  • <name>mapreduce.framework.name</name>
  • <value>yarn</value>
  • </property>
  • </configuration>

修改 yarn-site.xml 文件,并添加:

  • <configuration>
  • <!-- Site specific YARN configuration properties -->
  • <property>
  • <name>yarn.nodemanager.aux-services</name>
  • <value>mapreduce_shuffle</value>
  • </property>
  • <property>
  • <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  • <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  • </property>
  • </configuration>
  1. 下载对应版本的 winutils

由于 hadoop 不能直接直接在 windows 环境下启动,需要依赖 hadoop 的 winutils

下载地址

将对应的版本覆盖 hadoop 的 bin 目录

  1. 格式化 HDFS,打开 cmd,输入命令

    • hadoop namenode -format

出现 INFO common.Storage: Storage directory D:\Softwares\hadoop\data\dfs\namenode has been successfully formatted. 代表成功

  1. cmd 下切换到 hadoop 目录下的 sbin 目录,输入:

    • start-all.cmd

会依次弹出四个命令框,分别为 namenode、datanode、resourcemanager、nodemanager,访问 http://localhost:9870

三、安装 hive

解压下载好的 hive 文件

  1. 配置好环境变量(HIVE_HOME)
  2. 在 hive 目录里创建 5 个文件夹(包括 data_hive)

data_hiveoperation_logs
data_hivequerylog

data_hiveresources
data_hivescratch

  1. 将 mysql-connector-java-5.1.47-bin.jar 复制到 hive 目录下的 lib 目录中
  2. 进入 hive 目录中的 conf 目录

​将 hive-log4j2.properties.template 重命名为 hive-log4j2.properties

​将 hive-exec-log4j2.properties.template 重命名为 hive-exec-log4j2.properties

将 hive-env.sh.template 文件重命名为 hive-env.sh

将 hive-default.xml.template 文件重名为 hive-site.xml

修改 hive-env.sh 文件,对应值修改为自己的

  • # Set HADOOP_HOME to point to a specific hadoop install directory
  • HADOOP_HOME=D:\Softwares\hadoop
  • # Hive Configuration Directory can be controlled by:
  • export HIVE_CONF_DIR=D:\Softwares\hive\conf
  • # Folder containing extra libraries required for hive compilation/execution can be controlled by:
  • export HIVE_AUX_JARS_PATH=D:\Softwares\hive\lib

​修改 hive-site.xml 文件,对应值修改为自己的

  • <property>
  • <name>hive.exec.local.scratchdir</name>
  • <value>D:/Softwares/hive/data_hive/scratch</value>
  • <description>Local scratch space for Hive jobs</description>
  • </property>
  • <property>
  • <name>hive.downloaded.resources.dir</name>
  • <value>D:/Softwares/hive/data_hive/resources/${hive.session.id}_resources</value>
  • <description>Temporary local directory for added resources in the remote file system.</description>
  • </property>
  • <property>
  • <name>javax.jdo.option.ConnectionPassword</name>
  • <value>password</value>
  • <description>password to use against metastore database</description>
  • </property>
  • <property>
  • <name>javax.jdo.option.ConnectionUserName</name>
  • <value>root</value>
  • <description>Username to use against metastore database</description>
  • </property>
  • <property>
  • <name>javax.jdo.option.ConnectionURL</name>
  • <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  • <description>
  • JDBC connect string for a JDBC metastore.
  • To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
  • For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
  • </description>
  • </property>
  • <property>
  • <name>javax.jdo.option.ConnectionDriverName</name>
  • <value>com.mysql.jdbc.Driver</value>
  • <description>Driver class name for a JDBC metastore</description>
  • </property>
  1. 打开 hadoop 的 sbin 目录,点击 start-dfs.cmd 启动两个窗口服务即 hadoop 启动
  2. 初始化 hive 数据库,在 cmd 中输入:

    • hive --service schematool -dbType mysql -initSchema
  3. 在 cmd 中输入 hive 即可启动
Archives QR Code
QR Code for this page
Tipping QR Code
Leave a Comment

  • OωO
  • |´・ω・)ノ
  • ヾ(≧∇≦*)ゝ
  • (☆ω☆)
  • (╯‵□′)╯︵┴─┴
  •  ̄﹃ ̄
  • (/ω\)
  • ∠( ᐛ 」∠)_
  • (๑•̀ㅁ•́ฅ)
  • →_→
  • ୧(๑•̀⌄•́๑)૭
  • ٩(ˊᗜˋ*)و
  • (ノ°ο°)ノ
  • (´இ皿இ`)
  • ⌇●﹏●⌇
  • (ฅ´ω`ฅ)
  • (╯°A°)╯︵○○○
  • φ( ̄∇ ̄o)
  • ヾ(´・ ・`。)ノ"
  • ( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
  • (ó﹏ò。)
  • Σ(っ °Д °;)っ
  • ( ,,´・ω・)ノ"(´っω・`。)
  • ╮(╯▽╰)╭
  • o(*////▽////*)q
  • >﹏<
  • ( ๑´•ω•) "(ㆆᴗㆆ)
  • (。•ˇ‸ˇ•。)
  • 泡泡
  • 阿鲁
  • 颜文字

欢迎阅读『Windows下安装Hive』

本站勉强运行: 1955天9小时0分13秒

离2026新年仅剩:237天9时37分46秒896毫秒