0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)
wptr33 2024-12-20 19:03 23 浏览
3.4 Spark
1.安装Spark所需的包
yum -y install spark-core spark-master spark-worker spark-history-server spark-python
2.创建目录并修改属主和权限
sudo -u hdfs hadoop fs -mkdir /user/spark sudo -u hdfs hadoop fs -mkdir /user/spark/applicationHistory sudo -u hdfs hadoop fs -chown -R spark:spark /user/spark sudo -u hdfs hadoop fs -chmod 1777 /user/spark/applicationHistory
3.修改配置文件/etc/spark/conf/spark-defaults.conf
spark.eventLog.enabled=true spark.eventLog.dir=hdfs://cdh178.macro.com:8020/user/spark/applicationHistory spark.yarn.historyServer.address=http://cdh178.macro.com:18088
4.启动spark-history-server
systemctl start spark-history-server systemctl status spark-history-server
访问Web UI
5.修改配置文件并同步到所有节点
6.测试Spark使用
至此Spark安装完成
3.5 Hive
1.安装Hive服务之前,先安装元数据库MySQL并创建好服务需要的库和用户如下:
create database metastore default character set utf8; CREATE USER 'hive'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'%'; FLUSH PRIVILEGES;
2.安装Hive服务的包
在NameNode节点hive-metastore
yum -y install hive-metastore
在所有节点安装其他所需的包
yum -y install hive hive-server2 hive-jdbc hive-hbase
3.创建目录
在HDFS上创建目录并设置权限以及修改属主
sudo -u hdfs hadoop fs -mkdir /user/hive sudo -u hdfs hadoop fs -chown hive:hive /user/hive sudo -u hdfs hadoop fs -mkdir /user/hive/warehouse sudo -u hdfs hadoop fs -chmod 1777 /user/hive/warehouse sudo -u hdfs hadoop fs -chown hive:hive /user/hive/warehouse
4.修改配置文件
/etc/hive/conf/hive-site.xml
<configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://cdh178.macro.com:3306/metastore?useUnicode=true&characterEncoding=UTF-8</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>false</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>cdh178.macro.com:8031</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>hive.exec.reducers.max</name> <value>1099</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>true</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> </property> <property> <name>hive.warehouse.subdir.inherit.perms</name> <value>true</value> </property> <property> <name>hive.metastore.server.min.threads</name> <value>200</value> </property> <property> <name>hive.metastore.server.max.threads</name> <value>100000</value> </property> <property> <name>hive.metastore.client.socket.timeout</name> <value>3600</value> </property> <property> <name>hive.support.concurrency</name> <value>true</value> </property> <property> <name>hive.zookeeper.quorum</name> <value>cdh178.macro.com,cdh177.macro.com,cdh176.macro.com</value> </property> <property> <name>hive.zookeeper.client.port</name> <value>2181</value> </property> </configuration>
/etc/hadoop/conf/core-site.xml,只贴出修改的部分
<property> <name>hadoop.proxyuser.hive.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hive.groups</name> <value>*</value> </property>
5.将配置文件同步到所有节点
6.将MySQL驱动包在Hive服务的lib目录下设置软链
7.启动Hive服务
启动hive-metastore
systemctl start hive-metastore systemctl status hive-metastore
启动hive-server2
systemctl start hive-server2 systemctl status hive-server2
8.测试Hive服务是否正常
连接Hive,建表正常
至此Hive安装完成
3.6 Oozie
1.在MySQL中创建Oozie服务所需要的库和用户
create database oozie default character set utf8; CREATE USER 'oozie'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON oozie.* TO 'oozie'@'%'; FLUSH PRIVILEGES;
2.安装Oozie的包
yum -y install oozie oozie-client
3.配置Oozie
配置Oozie使用Yarn
alternatives --set oozie-tomcat-deployment /etc/oozie/tomcat-conf.http
修改/etc/oozie/conf/oozie-site.xml配置文件
<property> <name>oozie.service.JPAService.jdbc.driver</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>oozie.service.JPAService.jdbc.url</name> <value>jdbc:mysql://cdh178.macro.com:3306/oozie</value> </property> <property> <name>oozie.service.JPAService.jdbc.username</name> <value>oozie</value> </property> <property> <name>oozie.service.JPAService.jdbc.password</name> <value>password</value> </property>
将MySQL驱动包在Oozie目录下生成软链
4.运行Oozie数据库工具
sudo -u oozie /usr/lib/oozie/bin/ooziedb.sh create -run
5.配置Oozie的Web控制台
下载ExtJS library到服务器,地址如下:
https://archive.cloudera.com/gplextras/misc/ext-2.2.zip
将下载的包解压到/var/lib/oozie
unzip ext-2.2.zip -d /var/lib/oozie/
6.在HDFS中安装Oozie共享库
sudo -u hdfs hadoop fs -mkdir /user/oozie sudo -u hdfs hadoop fs -chown oozie:oozie /user/oozie sudo oozie-setup sharelib create -fs hdfs://cdh178.macro.com:8020 -locallib /usr/lib/oozie/oozie-sharelib-yarn
7.启动Oozie Server
systemctl start oozie systemctl status oozie
8.访问Oozie服务的Web UI
至此Oozie服务安装完成
3.7 Impala
1.安装Impala的包
在一个节点上安装Impala Catalog Server和Impala StateStore
yum -y install impala-state-store impala-catalog
在所有节点安装其他的包
yum -y install impala impala-server
2.将Impala需要的配置文件拷贝到Impala的配置文件目录下
3.安装impala-shell
yum -y install impala-shell
4.安装完Impala后需要的配置
修改/etc/hadoop/conf/hdfs-site.xml配置文件,启用块位置追踪和短路读取
<property> <name>dfs.datanode.hdfs-blocks-metadata.enabled</name> <value>true</value> </property> <property> <name>dfs.client.read.shortcircuit</name> <value>true</value> </property> <property> <name>dfs.domain.socket.path</name> <value>/var/run/hdfs-sockets/dn</value> </property> <property> <name>dfs.client.file-block-storage-locations.timeout.millis</name> <value>10000</value> </property>
将配置同步到所有节点
重启所有DataNode
将修改后的hdfs-site.xml复制到Impala的配置文件目录
5.启动Impala服务
启动Impala Catalog Server和Impala StateStore
systemctl start impala-state-store systemctl status impala-state-store systemctl start impala-catalog systemctl status impala-catalog
所有节点启动impala-server
systemctl start impala-server systemctl status impala-server
6.测试Impala使用
使用impala-shell连接Impala,进行插入、查询操作成功
至此Impala安装完成
3.8 Hue
1.安装Hue的包
yum -y install hue
2.为Hue配置CDH组件
- 配置Hue访问HDFS
1)修改配置文件
/etc/hadoop/conf/hdfs-site.xml
<property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property>
/etc/hadoop/conf/core-site.xml
<property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property>
/etc/hue/conf/hue.ini
将修改的HDFS的配置文件同步到所有节点
2)重启HDFS服务
systemctl restart hadoop-hdfs-namenode systemctl restart hadoop-hdfs-secondarynamenode systemctl restart hadoop-hdfs-datanode
- 配置Hue集成Hive
修改配置文件/etc/hue/conf/hue.ini
3.创建Hue服务所需的数据库和用户
create database hue default character set utf8; CREATE USER 'hue'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON hue.* TO 'hue'@'%'; FLUSH PRIVILEGES;
修改配置文件/etc/hue/conf/hue.ini数据库的部分
4.初始化数据库
/usr/lib/hue/build/env/bin/hue syncdb /usr/lib/hue/build/env/bin/hue migrate
5.启动Hue服务
systemctl start hue systemctl status hue
6.访问Hue服务的Web UI
至此Hue服务安装完成
总结
1.无CM使用rpm的方式安装CDH6.2.0与之前安装CDH5.10.0基本没有太大的区别。
2.此安装方式需要下载相关的所有rpm包到服务器,然后制作本地的yum源进行安装,下载的包的总大小在4.3G左右。
3.同样的在安装过程中需要最先安装Zookeeper。
相关推荐
- 什么是Java中的继承?如何实现继承?
-
什么是继承?...
- Java 继承与多态:从基础到实战的深度解析
-
在面向对象编程(OOP)的三大支柱中,继承与多态是构建灵活、可复用代码的核心。无论是日常开发还是框架设计,这两个概念都扮演着至关重要的角色。本文将从基础概念出发,结合实例与图解,带你彻底搞懂Java...
- Java基础教程:Java继承概述_java的继承
-
继承概述假如我们要定义如下类:学生类,老师类和工人类,分析如下。学生类属性:姓名,年龄行为:吃饭,睡觉老师类属性:姓名,年龄,薪水行为:吃饭,睡觉,教书班主任属性:姓名,年龄,薪水行为:吃饭,睡觉,管...
- java4个技巧:从继承和覆盖,到最终的类和方法
-
日复一日,我们编写的大多数Java只使用了该语言全套功能的一小部分。我们实例化的每个流以及我们在实例变量前面加上的每个@Autowired注解都足以完成我们的大部分目标。然而,有些时候,我们必须求助于...
- java:举例说明继承的概念_java继承的理解
-
在现实生活中,继承一般指的是子女继承父辈的财产。在程序中,继承描述的是事物之间的所属关系,通过继承可以使多种事物之间形成一种关系体系。例如猫和狗都属于动物,程序中便可以描述为猫和狗继承自动物,同理,...
- 从零开始构建一款开源的 Vibe Coding 产品 Week1Day4:业界调研之 Agent 横向对比
-
前情回顾前面两天我们重点调研了了一下Cursor的原理和Cursor中一个关键的工具edit_file的实现,但是其他CodingAgent也需要稍微摸一下底,看看有没有优秀之处,下...
- 学会这几个插件,让你的Notepad++使用起来更丝滑
-
搞程序开发的小伙伴相信对Notepad++都不会陌生,是一个占用空间少、打开启动快的文件编辑器,很多程序员喜欢使用Notepad++进行纯文本编辑或者脚本开发,但是Notepad++的功能绝不止于此,...
- 将 node_modules 目录放入 Git 仓库的优点
-
推荐一篇文章Whyyoushouldcheck-inyournodedependencies[1]...
- 再度加码AI编程,腾讯发布AI CLI并宣布CodeBuddy IDE开启公测
-
“再熬一年,90%的程序员可能再也用不着写for循环。”凌晨两点半,王工还在公司敲键盘。他手里那份需求文档写了足足六页,产品经理反复改了三次。放在过去,光数据库建表、接口对接、单元测试就得写两三天。现...
- git 如何查看stash的内容_git查看ssh key
-
1.查看Stash列表首先,使用gitstashlist查看所有已保存的stash:...
- 6万星+ Git命令懒人必备!lazygit 终端UI神器,效率翻倍超顺手!
-
项目概览lazygit是一个基于终端的Git命令可视化工具,通过简易的TUI(文本用户界面)提升Git操作效率。开发者无需记忆复杂命令,即可完成分支管理、提交、合并等操作。...
- 《Gemini CLI 实战系列》(一)Gemini CLI 入门:AI 上命令行的第一步
-
谷歌的Gemini模型最近热度很高,而它的...
- deepin IDE新版发布:支持玲珑构建、增强AI智能化
-
IT之家8月7日消息,深度操作系统官方公众号昨日(8月6日)发布博文,更新推出新版deepin集成开发环境(IDE),重点支持玲珑构建。支持玲珑构建deepinIDE在本次重磅更...
- 狂揽82.7k的star,这款开源可视化神器,轻松创建流程图和图表
-
再不用Mermaid,你的技术文档可能已经在悄悄“腐烂”——图表版本对不上、同事改完没同步、评审会上被一句“这图哪来的”问得哑口无言。这不是危言耸听。GitHub2025年开发者报告显示,63%的新仓...
- 《Gemini CLI 实战系列》(五)打造专属命令行工具箱
-
在前几篇文章中,我们介绍了GeminiCLI的基础用法、效率提升、文件处理和与外部工具结合。今天我们进入第五篇...
- 一周热门
-
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
程序员的开源月刊《HelloGitHub》第 71 期
-
详细介绍一下Redis的Watch机制,可以利用Watch机制来做什么?
-
如何将AI助手接入微信(打开ai手机助手)
-
假如有100W个用户抢一张票,除了负载均衡办法,怎么支持高并发?
-
SparkSQL——DataFrame的创建与使用
-
Java面试必考问题:什么是乐观锁与悲观锁
-
redission YYDS spring boot redission 使用
-
一文带你了解Redis与Memcached? redis与memcached的区别
-
如何利用Redis进行事务处理呢? 如何利用redis进行事务处理呢英文
-
- 最近发表
-
- 什么是Java中的继承?如何实现继承?
- Java 继承与多态:从基础到实战的深度解析
- Java基础教程:Java继承概述_java的继承
- java4个技巧:从继承和覆盖,到最终的类和方法
- java:举例说明继承的概念_java继承的理解
- 从零开始构建一款开源的 Vibe Coding 产品 Week1Day4:业界调研之 Agent 横向对比
- 学会这几个插件,让你的Notepad++使用起来更丝滑
- 将 node_modules 目录放入 Git 仓库的优点
- 再度加码AI编程,腾讯发布AI CLI并宣布CodeBuddy IDE开启公测
- git 如何查看stash的内容_git查看ssh key
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)
- c语言 switch (34)
- git commit (34)