0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)
wptr33 2024-12-20 19:03 14 浏览
3.4 Spark
1.安装Spark所需的包
yum -y install spark-core spark-master spark-worker spark-history-server spark-python
2.创建目录并修改属主和权限
sudo -u hdfs hadoop fs -mkdir /user/spark sudo -u hdfs hadoop fs -mkdir /user/spark/applicationHistory sudo -u hdfs hadoop fs -chown -R spark:spark /user/spark sudo -u hdfs hadoop fs -chmod 1777 /user/spark/applicationHistory
3.修改配置文件/etc/spark/conf/spark-defaults.conf
spark.eventLog.enabled=true spark.eventLog.dir=hdfs://cdh178.macro.com:8020/user/spark/applicationHistory spark.yarn.historyServer.address=http://cdh178.macro.com:18088
4.启动spark-history-server
systemctl start spark-history-server systemctl status spark-history-server
访问Web UI
5.修改配置文件并同步到所有节点
6.测试Spark使用
至此Spark安装完成
3.5 Hive
1.安装Hive服务之前,先安装元数据库MySQL并创建好服务需要的库和用户如下:
create database metastore default character set utf8; CREATE USER 'hive'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'%'; FLUSH PRIVILEGES;
2.安装Hive服务的包
在NameNode节点hive-metastore
yum -y install hive-metastore
在所有节点安装其他所需的包
yum -y install hive hive-server2 hive-jdbc hive-hbase
3.创建目录
在HDFS上创建目录并设置权限以及修改属主
sudo -u hdfs hadoop fs -mkdir /user/hive sudo -u hdfs hadoop fs -chown hive:hive /user/hive sudo -u hdfs hadoop fs -mkdir /user/hive/warehouse sudo -u hdfs hadoop fs -chmod 1777 /user/hive/warehouse sudo -u hdfs hadoop fs -chown hive:hive /user/hive/warehouse
4.修改配置文件
/etc/hive/conf/hive-site.xml
<configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://cdh178.macro.com:3306/metastore?useUnicode=true&characterEncoding=UTF-8</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> <property> <name>datanucleus.schema.autoCreateAll</name> <value>false</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>cdh178.macro.com:8031</value> </property> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>hive.exec.reducers.max</name> <value>1099</value> </property> <property> <name>hive.metastore.schema.verification</name> <value>true</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> </property> <property> <name>hive.warehouse.subdir.inherit.perms</name> <value>true</value> </property> <property> <name>hive.metastore.server.min.threads</name> <value>200</value> </property> <property> <name>hive.metastore.server.max.threads</name> <value>100000</value> </property> <property> <name>hive.metastore.client.socket.timeout</name> <value>3600</value> </property> <property> <name>hive.support.concurrency</name> <value>true</value> </property> <property> <name>hive.zookeeper.quorum</name> <value>cdh178.macro.com,cdh177.macro.com,cdh176.macro.com</value> </property> <property> <name>hive.zookeeper.client.port</name> <value>2181</value> </property> </configuration>
/etc/hadoop/conf/core-site.xml,只贴出修改的部分
<property> <name>hadoop.proxyuser.hive.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hive.groups</name> <value>*</value> </property>
5.将配置文件同步到所有节点
6.将MySQL驱动包在Hive服务的lib目录下设置软链
7.启动Hive服务
启动hive-metastore
systemctl start hive-metastore systemctl status hive-metastore
启动hive-server2
systemctl start hive-server2 systemctl status hive-server2
8.测试Hive服务是否正常
连接Hive,建表正常
至此Hive安装完成
3.6 Oozie
1.在MySQL中创建Oozie服务所需要的库和用户
create database oozie default character set utf8; CREATE USER 'oozie'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON oozie.* TO 'oozie'@'%'; FLUSH PRIVILEGES;
2.安装Oozie的包
yum -y install oozie oozie-client
3.配置Oozie
配置Oozie使用Yarn
alternatives --set oozie-tomcat-deployment /etc/oozie/tomcat-conf.http
修改/etc/oozie/conf/oozie-site.xml配置文件
<property> <name>oozie.service.JPAService.jdbc.driver</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>oozie.service.JPAService.jdbc.url</name> <value>jdbc:mysql://cdh178.macro.com:3306/oozie</value> </property> <property> <name>oozie.service.JPAService.jdbc.username</name> <value>oozie</value> </property> <property> <name>oozie.service.JPAService.jdbc.password</name> <value>password</value> </property>
将MySQL驱动包在Oozie目录下生成软链
4.运行Oozie数据库工具
sudo -u oozie /usr/lib/oozie/bin/ooziedb.sh create -run
5.配置Oozie的Web控制台
下载ExtJS library到服务器,地址如下:
https://archive.cloudera.com/gplextras/misc/ext-2.2.zip
将下载的包解压到/var/lib/oozie
unzip ext-2.2.zip -d /var/lib/oozie/
6.在HDFS中安装Oozie共享库
sudo -u hdfs hadoop fs -mkdir /user/oozie sudo -u hdfs hadoop fs -chown oozie:oozie /user/oozie sudo oozie-setup sharelib create -fs hdfs://cdh178.macro.com:8020 -locallib /usr/lib/oozie/oozie-sharelib-yarn
7.启动Oozie Server
systemctl start oozie systemctl status oozie
8.访问Oozie服务的Web UI
至此Oozie服务安装完成
3.7 Impala
1.安装Impala的包
在一个节点上安装Impala Catalog Server和Impala StateStore
yum -y install impala-state-store impala-catalog
在所有节点安装其他的包
yum -y install impala impala-server
2.将Impala需要的配置文件拷贝到Impala的配置文件目录下
3.安装impala-shell
yum -y install impala-shell
4.安装完Impala后需要的配置
修改/etc/hadoop/conf/hdfs-site.xml配置文件,启用块位置追踪和短路读取
<property> <name>dfs.datanode.hdfs-blocks-metadata.enabled</name> <value>true</value> </property> <property> <name>dfs.client.read.shortcircuit</name> <value>true</value> </property> <property> <name>dfs.domain.socket.path</name> <value>/var/run/hdfs-sockets/dn</value> </property> <property> <name>dfs.client.file-block-storage-locations.timeout.millis</name> <value>10000</value> </property>
将配置同步到所有节点
重启所有DataNode
将修改后的hdfs-site.xml复制到Impala的配置文件目录
5.启动Impala服务
启动Impala Catalog Server和Impala StateStore
systemctl start impala-state-store systemctl status impala-state-store systemctl start impala-catalog systemctl status impala-catalog
所有节点启动impala-server
systemctl start impala-server systemctl status impala-server
6.测试Impala使用
使用impala-shell连接Impala,进行插入、查询操作成功
至此Impala安装完成
3.8 Hue
1.安装Hue的包
yum -y install hue
2.为Hue配置CDH组件
- 配置Hue访问HDFS
1)修改配置文件
/etc/hadoop/conf/hdfs-site.xml
<property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property>
/etc/hadoop/conf/core-site.xml
<property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property>
/etc/hue/conf/hue.ini
将修改的HDFS的配置文件同步到所有节点
2)重启HDFS服务
systemctl restart hadoop-hdfs-namenode systemctl restart hadoop-hdfs-secondarynamenode systemctl restart hadoop-hdfs-datanode
- 配置Hue集成Hive
修改配置文件/etc/hue/conf/hue.ini
3.创建Hue服务所需的数据库和用户
create database hue default character set utf8; CREATE USER 'hue'@'%' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON hue.* TO 'hue'@'%'; FLUSH PRIVILEGES;
修改配置文件/etc/hue/conf/hue.ini数据库的部分
4.初始化数据库
/usr/lib/hue/build/env/bin/hue syncdb /usr/lib/hue/build/env/bin/hue migrate
5.启动Hue服务
systemctl start hue systemctl status hue
6.访问Hue服务的Web UI
至此Hue服务安装完成
总结
1.无CM使用rpm的方式安装CDH6.2.0与之前安装CDH5.10.0基本没有太大的区别。
2.此安装方式需要下载相关的所有rpm包到服务器,然后制作本地的yum源进行安装,下载的包的总大小在4.3G左右。
3.同样的在安装过程中需要最先安装Zookeeper。
相关推荐
- SpringBoot 3 + Flutter3 实战低代码运营管理-10章
-
获课》aixuetang.xyz/5075/三天构建运营管理系统:SpringBoot3+Flutter3高效开发方法论...
- SpringBoot探针实现:从零构建应用健康监控利器
-
SpringBoot探针实现:从零构建应用健康监控利器声明本文中的所有案例代码、配置仅供参考,如需使用请严格做好相关测试及评估,对于因参照本文内容进行操作而导致的任何直接或间接损失,作者概不负责。本文...
- Spring Batch中的JobRepository:批处理的“记忆大师”是如何工作
-
一、JobRepository是谁?——批处理的“档案馆”JobRepository是SpringBatch的“记忆中枢”,负责记录所有Job和Step的执行状态。它像一位严谨的档案管理员,把任务执...
- 还在为 Spring Boot3 技术整合发愁?一文解锁大厂都在用的实用方案
-
你在使用SpringBoot3开发后端项目时,是不是常常陷入这样的困境?想提升项目性能和功能,却不知道该整合哪些技术;好不容易选定技术,又在配置和使用上频频踩坑。其实,这是很多互联网大厂后端开发...
- 一文吃透!Spring Boot 项目请求日志记录,这几招你绝对不能错过!
-
在互联网应用开发的高速赛道上,系统的稳定性、可维护性以及安全性是每一位开发者都必须关注的核心要素。而请求日志记录,就如同系统的“黑匣子”,能够为我们提供排查故障、分析用户行为、优化系统性能等关键信息...
- spring-boot-starter-actuator简单介绍
-
SpringBootActuator是SpringBoot的一个功能强大的子项目,它提供了一些有用的监控和管理SpringBoot应用程序的端点。SpringBootActuat...
- 使用SpringBoot钩子或Actuator实现优雅停机
-
服务如何响应停机信号在java中我们可以直接利用通过Runtime...
- 28-自定义Spring Boot Actuator指标
-
上篇我们学习了《27-自定义SpringBootActuator健康指示器》,本篇我们学习自定义SpringBootActuator指标(Metric)。...
- 如何在Spring Boot中整合Spring Boot Actuator进行服务应用监控?
-
监控是确保系统稳定性和性能的关键组成部分,而在SpringBoot中就提供了默认的应用监控方案SpringBootActuator,通过SpringBootActuator提供了开箱即用的应...
- 「Spring Boot」 Actuator Endpoint
-
Actuator官网地址:https://docs.spring.io/spring-boot/docs/2.5.6/reference/html/actuator.html目的监控并管理应用程序...
- Spring Boot Actuator监控功能全面剖析
-
SpringBootActuator监控功能全面剖析在现代企业级Java开发中,SpringBoot以其轻量化、高效率的特性深受开发者青睐。而作为SpringBoot生态系统的重要组成部分,S...
- 1000字彻底搞懂SpringBootActuator组件!
-
SpringBootActuator组件SpringBootActuator通过HTTPendpoints或者JMX来管理和监控SpringBoot应用,如服务的审计、健康检查、指标统计和...
- JavaScript数据类型(javascript数据类型介绍)
-
基本数据类型BooleanNullNumberStringSymbolUndefined对象数据类型ObjectArray定义:JavaScript数组是内置的对象之一,它可以用一个变量来存储多个同种...
- 能运行,不代表它是对的:5 个潜伏在正常功能下的 JavaScript 错误
-
JavaScript的动态性和复杂性意味着,代码虽然表面上正常运行,但一些深层次、隐蔽的陷阱往往让人意想不到,梳理了几个JavaScript开发中难以发现的隐蔽错误,旨在帮助我们写出更健壮、更可...
- 一周热门
-
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
因果推断Matching方式实现代码 因果推断模型
-
git pull命令使用实例 git pull--rebase
-
面试官:git pull是哪两个指令的组合?
-
git 执行pull错误如何撤销 git pull fail
-
git pull 和git fetch 命令分别有什么作用?二者有什么区别?
-
git fetch 和git pull 的异同 git中fetch和pull的区别
-
git pull 之后本地代码被覆盖 解决方案
-
还可以这样玩?Git基本原理及各种骚操作,涨知识了
-
git命令之pull git.pull
-
- 最近发表
-
- SpringBoot 3 + Flutter3 实战低代码运营管理-10章
- SpringBoot探针实现:从零构建应用健康监控利器
- Spring Batch中的JobRepository:批处理的“记忆大师”是如何工作
- Github霸榜的SpringBoot全套学习教程,从入门到实战,内容超详细
- 还在为 Spring Boot3 技术整合发愁?一文解锁大厂都在用的实用方案
- 一文吃透!Spring Boot 项目请求日志记录,这几招你绝对不能错过!
- spring-boot-starter-actuator简单介绍
- 使用SpringBoot钩子或Actuator实现优雅停机
- 28-自定义Spring Boot Actuator指标
- 如何在Spring Boot中整合Spring Boot Actuator进行服务应用监控?
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)
- c语言 switch (34)
- git commit (34)