1818IP-服务器技术教程,云服务器评测推荐,服务器系统排错处理,环境搭建,攻击防护等

当前位置:首页 - Linux系统 - centos - 正文

君子好学,自强不息!

CentOS7安装CDH 第一章:CentOS7系统安装

CentOS7安装CDH 第二章:CentOS7各个软件安装和启动

CentOS7安装CDH 第三章:CDH中的问题和解决方法

CentOS7安装CDH 第四章:CDH的版本选择和安装方式

CentOS7安装CDH 第五章:CDH的安装和部署-CDH5.7.0

CentOS7安装CDH 第六章:CDH的管理-CDH5.12

CentOS7安装CDH 第七章:CDH集群Hadoop的HA配置

CentOS7安装CDH 第八章:CDH中对服务和机器的添加与删除操作

CentOS7安装CDH 第九章:CDH中安装Kafka

CentOS7安装CDH 第十章:CDH中安装Spark2

CentOS7安装CDH 第十一章:离线升级CDH版本

CentOS7安装CDH 第十二章:YARN的资源调优

CentOS7安装CDH 第十三章:CDH资源池配置

CentOS7安装CDH 第十四章:CDH的优化

1. 静态资源池

在CDH中,一般情况下不建议使用静态资源池,在CDH中默认的资源池是动态资源池,为什么不建议使用静态资源池,原因如下:

假设给NodeManager分配了4G内存,刚刚开始使用的时候使用了3G,一段时间后任务增多,使用到了4G内存,当任务再增多时,静态资源池会OOM,但动态资源池会从其他地方调集资源过来接着使用。

2. 动态资源池的三种默认使用池

1、使用池已在运行时指定 ,如果该池不存在则加以创建:

  hadoop jar -Dmapreduce.job.queuename=etl xxx.jar

  假如有资源池就使用etl,没有创建etl

2、使用池 root.users.[username] ,如果该池不存在则加以创建:

  hadoop jar xxxx.jar

  以root来提交 root.users.root

  以hdfs来提交 root.users.hdfs

3、使用池 root.default:

  此规则始终满足。不会使用后续规则

3. 使用动态资源池

3.1. 动态资源池的其中2种性质

1、根据多个项目一个大的资源池的性质:

  A项目(spark streaming),B项目(spark sql/hive)

  一个项目:

  spark streaming  10%

  hive 30%

  spark sql 60%

  —Dmapreduce.job.queuename=root.sparkstreaming

2、根据一个项目一个大的资源池性质:

  生产项目product,开发项目develop, 测试项目qa, 默认资源池

  人员:

  product1、product2: product

  develop1、develop2: develop

  qa1、qa2: qa

3.2. 配置动态资源池示例

1、创建资源池product,develop,qa和default,这些都是root的子资源池,其中内存和CPU可以自己设置,但一般不设置,就只设置权重就可以了,记得修改后要刷新动态资源池:

  CentOS7安装CDH 第十三章:CDH资源池配置

  CentOS7安装CDH 第十三章:CDH资源池配置

2、创建我们自己的放置规则:

  CentOS7安装CDH 第十三章:CDH资源池配置

  当product1用户提交hadoop jar xxxx.jar命令时,是使用的哪个资源池?

  product1用户提交的时候,取用户组是product,拼接root.product

  此时判断root.product池在不在系统配置里?

  假如在,就使用root.product,假如不在,第二条规则

3、配置CDH集群的Java Home目录:

  CentOS7安装CDH 第十三章:CDH资源池配置 

  在所有主机界面的配置选项中,使用安装JDK建议使用tar包解压安装,解压的目录为/usr/java下,配置好Java Home目录后请到CDH主界面更新配置,如果不更新那该资源就不会生效。

4、开启HDFS权限检查(dfs.permissions):

  CentOS7安装CDH 第十三章:CDH资源池配置

5、创建用户组和用户:

  CentOS7安装CDH 第十三章:CDH资源池配置

6、开启资源管理器ACL和设置相应的用户或者用户组:

  CentOS7安装CDH 第十三章:CDH资源池配置

  管理ACL的格式为:” 以逗号分隔的用户列表+空格+以逗号分隔的用户组列表” ,例如 “user1,user2 group1,group2”

7、不允许未声明的池:

  CentOS7安装CDH 第十三章:CDH资源池配置

8、不使用默认队列时的 Fair Scheduler 用户:

  CentOS7安装CDH 第十三章:CDH资源池配置

9、生效配置,重启服务:

  CentOS7安装CDH 第十三章:CDH资源池配置

  或点击电源按钮。

10、提交访问控制:

  对root用户进行设置:

  CentOS7安装CDH 第十三章:CDH资源池配置

  CentOS7安装CDH 第十三章:CDH资源池配置

  对其他用户进行设置,以下以develop举例,其他类似:

  CentOS7安装CDH 第十三章:CDH资源池配置

  CentOS7安装CDH 第十三章:CDH资源池配置

  在动态资源池中主要刷新动态资源池就可以生效了,不需要重启服务。

3.3. 使用动态资源池示例

1、创建用户和用户组:

  CentOS7安装CDH 第十三章:CDH资源池配置

2、在HDFS中创建目录:

  CentOS7安装CDH 第十三章:CDH资源池配置

3、给创建的目录授权:

  hdfs dfs -chmod -R 777 /example

4、使用product1用户上传一个文件到创建的目录下:

  CentOS7安装CDH 第十三章:CDH资源池配置

5、使用product1用户在HDFS中创建一个文件夹:

  CentOS7安装CDH 第十三章:CDH资源池配置

6、使用product1用户创建一个测试文件夹,并上传到/example/input/目录下:

  CentOS7安装CDH 第十三章:CDH资源池配置

7、进入到hadoop的跟目录下,并找到hadoop自带的测试jar包:

  CentOS7安装CDH 第十三章:CDH资源池配置

8、使用product1用户执行此jar包下的wordcount程序:

hadoop jar \

/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.16.1.jar \

wordcount \

/example/input \

/example/output1

错误一:/user目录访问权限问题,可以通过修改HDFS的/user目录权限解决

CentOS7安装CDH 第十三章:CDH资源池配置

修改前:

CentOS7安装CDH 第十三章:CDH资源池配置

修改命令(需使用hdfs用户来修改):

[hdfs@bigdata01 ~]$ hdfs dfs -chmod -R 777 /user/

修改后:

CentOS7安装CDH 第十三章:CDH资源池配置

注:该文件列表中user文件夹可以进行修改,但一些业务数据的文件夹,比如hbase文件夹就不能进行修改了。

 

错误二:用户根无法向队列root.default提交应用程序

CentOS7安装CDH 第十三章:CDH资源池配置

此错误为没有将任务提交到product资源池中,可以将default资源池池设置成所有用户都可以访问即可,还可以进行其他设置,请去百度查看。

3.4. 提交一个spark程序中遇到的问题

1、当在CDH中安装spark2后,提交spark程序的命令为spark2-submit \;

2、提交任务命令如下:

cd /opt/cloudera/parcels/SPARK2/lib/spark2/examples/jars

spark2-submit \

–master yarn \

–queue $QUEUE_NAME \

–class org.apache.spark.examples.GroupByTest \

spark-examples_2.11-2.2.0.cloudera4.jar

3、错误一

17/10/21 13:18:48 INFO spark.SparkContext: Successfully stopped SparkContext

Exception in thread “main” java.lang.IllegalArgumentException:

Required executor memory (1024+384 MB) is above the max threshold (1049 MB) of this cluster!

Please check the values of ‘yarn.scheduler.maximum-allocation-mb’ and/or ‘yarn.nodemanager.resource.memory-mb’.

at org.apache.spark.deploy.yarn.Client.verifyClusterResources(Client.scala:334)

at org.apache.spark.deploy.yarn.Client.submitApplication(Client.scala:168)

需要在yarn中配置yarn.nodemanager.resource.memory-mb参数

4、错误二

job的日志 HDFS:

User [dr.who] is not authorized to view the logs for container_e25_1508567262904_0002_01_000001 in log file [i-bsbhj3uw_8041]

此时是没有权限访问hdfs中的日志,需要在hdfs的配置文件中查找core-site,然后添加如下配置:

CentOS7安装CDH 第十三章:CDH资源池配置

本文来源:1818IP

本文地址:https://www.1818ip.com/post/32912.html

免责声明:本文由用户上传,如有侵权请联系删除!

发表评论

必填

选填

选填

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。