百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

0722-6.2.0-如何在RedHat7.2使用rpm安装CDH(无CM)

wptr33 2024-12-20 19:03 17 浏览

3.4 Spark


1.安装Spark所需的包

yum -y install spark-core spark-master spark-worker spark-history-server spark-python




2.创建目录并修改属主和权限

sudo -u hdfs hadoop fs -mkdir /user/spark
sudo -u hdfs hadoop fs -mkdir /user/spark/applicationHistory
sudo -u hdfs hadoop fs -chown -R spark:spark /user/spark
sudo -u hdfs hadoop fs -chmod 1777 /user/spark/applicationHistory





3.修改配置文件/etc/spark/conf/spark-defaults.conf

spark.eventLog.enabled=true
spark.eventLog.dir=hdfs://cdh178.macro.com:8020/user/spark/applicationHistory
spark.yarn.historyServer.address=http://cdh178.macro.com:18088





4.启动spark-history-server

systemctl start spark-history-server
systemctl status spark-history-server





访问Web UI




5.修改配置文件并同步到所有节点




6.测试Spark使用



至此Spark安装完成

3.5 Hive


1.安装Hive服务之前,先安装元数据库MySQL并创建好服务需要的库和用户如下:

create database metastore default character set utf8; 
CREATE USER 'hive'@'%' IDENTIFIED BY 'password'; 
GRANT ALL PRIVILEGES ON metastore.* TO 'hive'@'%'; 
FLUSH PRIVILEGES;





2.安装Hive服务的包

在NameNode节点hive-metastore

yum -y install hive-metastore





在所有节点安装其他所需的包

yum -y install hive hive-server2 hive-jdbc hive-hbase




3.创建目录

在HDFS上创建目录并设置权限以及修改属主

sudo -u hdfs hadoop fs -mkdir /user/hive
sudo -u hdfs hadoop fs -chown hive:hive /user/hive
sudo -u hdfs hadoop fs -mkdir /user/hive/warehouse
sudo -u hdfs hadoop fs -chmod 1777 /user/hive/warehouse
sudo -u hdfs hadoop fs -chown hive:hive /user/hive/warehouse





4.修改配置文件

/etc/hive/conf/hive-site.xml

<configuration>
 <property>
 <name>javax.jdo.option.ConnectionURL</name>
 <value>jdbc:mysql://cdh178.macro.com:3306/metastore?useUnicode=true&characterEncoding=UTF-8</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionDriverName</name>
 <value>com.mysql.jdbc.Driver</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionUserName</name>
 <value>hive</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionPassword</name>
 <value>password</value>
 </property>
 <property>
 <name>datanucleus.schema.autoCreateAll</name>
 <value>false</value>
 </property>
 <property>
 <name>yarn.resourcemanager.resource-tracker.address</name>
 <value>cdh178.macro.com:8031</value>
 </property>
 <property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>
 <property>
 <name>hive.exec.reducers.max</name>
 <value>1099</value>
 </property>
 <property>
 <name>hive.metastore.schema.verification</name>
 <value>true</value>
 </property>
 <property>
 <name>hive.metastore.warehouse.dir</name>
 <value>/user/hive/warehouse</value>
 </property>
 <property>
 <name>hive.warehouse.subdir.inherit.perms</name>
 <value>true</value>
 </property>
 <property>
 <name>hive.metastore.server.min.threads</name>
 <value>200</value>
 </property>
 <property>
 <name>hive.metastore.server.max.threads</name>
 <value>100000</value>
 </property>
 <property>
 <name>hive.metastore.client.socket.timeout</name>
 <value>3600</value>
 </property>
 <property>
 <name>hive.support.concurrency</name>
 <value>true</value>
 </property>
 <property>
 <name>hive.zookeeper.quorum</name>
 <value>cdh178.macro.com,cdh177.macro.com,cdh176.macro.com</value>
 </property>
 <property>
 <name>hive.zookeeper.client.port</name>
 <value>2181</value>
 </property>
</configuration>





/etc/hadoop/conf/core-site.xml,只贴出修改的部分

<property>
 <name>hadoop.proxyuser.hive.hosts</name>
 <value>*</value>
</property>
<property>
 <name>hadoop.proxyuser.hive.groups</name>
 <value>*</value>
</property>





5.将配置文件同步到所有节点




6.将MySQL驱动包在Hive服务的lib目录下设置软链




7.启动Hive服务

启动hive-metastore

systemctl start hive-metastore
systemctl status hive-metastore





启动hive-server2

systemctl start hive-server2
systemctl status hive-server2





8.测试Hive服务是否正常

连接Hive,建表正常




至此Hive安装完成

3.6 Oozie


1.在MySQL中创建Oozie服务所需要的库和用户

create database oozie default character set utf8; 
CREATE USER 'oozie'@'%' IDENTIFIED BY 'password'; 
GRANT ALL PRIVILEGES ON oozie.* TO 'oozie'@'%'; 
FLUSH PRIVILEGES;





2.安装Oozie的包

yum -y install oozie oozie-client





3.配置Oozie

配置Oozie使用Yarn

alternatives --set oozie-tomcat-deployment /etc/oozie/tomcat-conf.http





修改/etc/oozie/conf/oozie-site.xml配置文件

<property>
 <name>oozie.service.JPAService.jdbc.driver</name>
 <value>com.mysql.jdbc.Driver</value>
 </property>
 <property>
 <name>oozie.service.JPAService.jdbc.url</name>
 <value>jdbc:mysql://cdh178.macro.com:3306/oozie</value>
 </property>
 <property>
 <name>oozie.service.JPAService.jdbc.username</name>
 <value>oozie</value>
 </property>
 <property>
 <name>oozie.service.JPAService.jdbc.password</name>
 <value>password</value>
 </property>





将MySQL驱动包在Oozie目录下生成软链



4.运行Oozie数据库工具

sudo -u oozie /usr/lib/oozie/bin/ooziedb.sh create -run




5.配置Oozie的Web控制台

下载ExtJS library到服务器,地址如下:

https://archive.cloudera.com/gplextras/misc/ext-2.2.zip





将下载的包解压到/var/lib/oozie

unzip ext-2.2.zip -d /var/lib/oozie/




6.在HDFS中安装Oozie共享库

sudo -u hdfs hadoop fs -mkdir /user/oozie
sudo -u hdfs hadoop fs -chown oozie:oozie /user/oozie
sudo oozie-setup sharelib create -fs hdfs://cdh178.macro.com:8020 -locallib /usr/lib/oozie/oozie-sharelib-yarn





7.启动Oozie Server

systemctl start oozie
systemctl status oozie



8.访问Oozie服务的Web UI



至此Oozie服务安装完成

3.7 Impala


1.安装Impala的包

在一个节点上安装Impala Catalog Server和Impala StateStore

yum -y install impala-state-store impala-catalog




在所有节点安装其他的包

yum -y install impala impala-server




2.将Impala需要的配置文件拷贝到Impala的配置文件目录下




3.安装impala-shell

yum -y install impala-shell





4.安装完Impala后需要的配置

修改/etc/hadoop/conf/hdfs-site.xml配置文件,启用块位置追踪和短路读取

<property>
 <name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
 <value>true</value>
</property> 
 <property>
 <name>dfs.client.read.shortcircuit</name>
 <value>true</value>
 </property>
 <property>
 <name>dfs.domain.socket.path</name>
 <value>/var/run/hdfs-sockets/dn</value>
 </property>
 <property>
 <name>dfs.client.file-block-storage-locations.timeout.millis</name>
 <value>10000</value>
 </property>





将配置同步到所有节点




重启所有DataNode




将修改后的hdfs-site.xml复制到Impala的配置文件目录




5.启动Impala服务

启动Impala Catalog Server和Impala StateStore

systemctl start impala-state-store
systemctl status impala-state-store
systemctl start impala-catalog
systemctl status impala-catalog





所有节点启动impala-server

systemctl start impala-server
systemctl status impala-server





6.测试Impala使用

使用impala-shell连接Impala,进行插入、查询操作成功




至此Impala安装完成

3.8 Hue


1.安装Hue的包

yum -y install hue





2.为Hue配置CDH组件

  • 配置Hue访问HDFS

1)修改配置文件

/etc/hadoop/conf/hdfs-site.xml

<property>
 <name>dfs.webhdfs.enabled</name>
 <value>true</value>
 </property>





/etc/hadoop/conf/core-site.xml

 <property>
 <name>hadoop.proxyuser.hue.hosts</name>
 <value>*</value>
 </property>
 <property>
 <name>hadoop.proxyuser.hue.groups</name>
 <value>*</value>
 </property>





/etc/hue/conf/hue.ini




将修改的HDFS的配置文件同步到所有节点




2)重启HDFS服务

systemctl restart hadoop-hdfs-namenode
systemctl restart hadoop-hdfs-secondarynamenode
systemctl restart hadoop-hdfs-datanode





  • 配置Hue集成Hive

修改配置文件/etc/hue/conf/hue.ini




3.创建Hue服务所需的数据库和用户

create database hue default character set utf8; 
CREATE USER 'hue'@'%' IDENTIFIED BY 'password'; 
GRANT ALL PRIVILEGES ON hue.* TO 'hue'@'%'; 
FLUSH PRIVILEGES;





修改配置文件/etc/hue/conf/hue.ini数据库的部分




4.初始化数据库

/usr/lib/hue/build/env/bin/hue syncdb
/usr/lib/hue/build/env/bin/hue migrate





5.启动Hue服务

systemctl start hue
systemctl status hue





6.访问Hue服务的Web UI




至此Hue服务安装完成

总结

1.无CM使用rpm的方式安装CDH6.2.0与之前安装CDH5.10.0基本没有太大的区别。

2.此安装方式需要下载相关的所有rpm包到服务器,然后制作本地的yum源进行安装,下载的包的总大小在4.3G左右。

3.同样的在安装过程中需要最先安装Zookeeper。

相关推荐

redis的八种使用场景

前言:redis是我们工作开发中,经常要打交道的,下面对redis的使用场景做总结介绍也是对redis举报的功能做梳理。缓存Redis最常见的用途是作为缓存,用于加速应用程序的响应速度。...

基于Redis的3种分布式ID生成策略

在分布式系统设计中,全局唯一ID是一个基础而关键的组件。随着业务规模扩大和系统架构向微服务演进,传统的单机自增ID已无法满足需求。高并发、高可用的分布式ID生成方案成为构建可靠分布式系统的必要条件。R...

基于OpenWrt系统路由器的模式切换与网页设计

摘要:目前商用WiFi路由器已应用到多个领域,商家通过给用户提供一个稳定免费WiFi热点达到吸引客户、提升服务的目标。传统路由器自带的Luci界面提供了工厂模式的Web界面,用户可通过该界面配置路...

这篇文章教你看明白 nginx-ingress 控制器

主机nginx一般nginx做主机反向代理(网关)有以下配置...

如何用redis实现注册中心

一句话总结使用Redis实现注册中心:服务注册...

爱可可老师24小时热门分享(2020.5.10)

No1.看自己以前写的代码是种什么体验?No2.DooM-chip!国外网友SylvainLefebvre自制的无CPU、无操作码、无指令计数器...No3.我认为CS学位可以更好,如...

Apportable:拯救程序员,IOS一秒变安卓

摘要:还在为了跨平台使用cocos2d-x吗,拯救objc程序员的奇葩来了,ApportableSDK:FreeAndroidsupportforcocos2d-iPhone。App...

JAVA实现超买超卖方案汇总,那个最适合你,一篇文章彻底讲透

以下是几种Java实现超买超卖问题的核心解决方案及代码示例,针对高并发场景下的库存扣减问题:方案一:Redis原子操作+Lua脚本(推荐)//使用Redis+Lua保证原子性publicbo...

3月26日更新 快速施法自动施法可独立设置

2016年3月26日DOTA2有一个79.6MB的更新主要是针对自动施法和快速施法的调整本来内容不多不少朋友都有自动施法和快速施法的困扰英文更新日志一些视觉BUG修复就不翻译了主要翻译自动施...

Redis 是如何提供服务的

在刚刚接触Redis的时候,最想要知道的是一个’setnameJhon’命令到达Redis服务器的时候,它是如何返回’OK’的?里面命令处理的流程如何,具体细节怎么样?你一定有问过自己...

lua _G、_VERSION使用

到这里我们已经把lua基础库中的函数介绍完了,除了函数外基础库中还有两个常量,一个是_G,另一个是_VERSION。_G是基础库本身,指向自己,这个变量很有意思,可以无限引用自己,最后得到的还是自己,...

China&#39;s top diplomat to chair third China-Pacific Island countries foreign ministers&#39; meeting

BEIJING,May21(Xinhua)--ChineseForeignMinisterWangYi,alsoamemberofthePoliticalBureau...

移动工作交流工具Lua推出Insights数据分析产品

Lua是一个适用于各种职业人士的移动交流平台,它在今天推出了一项叫做Insights的全新功能。Insights是一个数据平台,客户可以在上面实时看到员工之间的交流情况,并分析这些情况对公司发展的影响...

Redis 7新武器:用Redis Stack实现向量搜索的极限压测

当传统关系型数据库还在为向量相似度搜索的性能挣扎时,Redis7的RedisStack...

Nginx/OpenResty详解,Nginx Lua编程,重定向与内部子请求

重定向与内部子请求Nginx的rewrite指令不仅可以在Nginx内部的server、location之间进行跳转,还可以进行外部链接的重定向。通过ngx_lua模块的Lua函数除了能实现Nginx...