由于 Master 节点配置过低,导致在该节点提交 hive/spark 作业报错或者直接被 kill。
Master 的内存不足导致其他应用 OOM 被 kill。
hdfs dfsadmin -fs 10.0.0.9(standby节点IP):4007 -safemode enter 进入安全模式
hdfs dfsadmin -fs 10.0.0.9(standby节点IP):4007 -saveNamespace 保存元数据
hdfs dfsadmin -fs 10.0.0.9(standby节点IP):4007 -safemode leave 离开安全模式
注意:如果客户集群是非 HA 的,也就是非高可用的,那么升级肯定会有一段时间集群不可用。
组件 | 进程 | 配置文件 | 配置项 | 默认堆内存 mb |
---|---|---|---|---|
HDFS | Namenode | hadoop-env.sh | NNHeapsize | 4096 |
YARN | Resourcemaneger | yarn-env.sh | Heapsize | 2000 |
Hive | Hiveserver2 | hive-env.sh | HS2Heapsize | 4096 |
Hbase | Hmaster | hbase-env.sh | Heapsize | 1024 |
Presto | Coordinator | jvm.config | jvm 最大值 | 3gb |
Spark | spark-driver | spark-defaults.conf | spark.driver.memory | 1024 |
oozie | oozie | - | - | 1024 |
storm | Nimbus | - | - | 1024 |
组件 | 堆内存建议值 |
---|---|
HDFS(Namenode) | 堆内存最小内存 = 250 × 文件数量 + 290 × 目录数量 + 368 × 块数量 |
YARN(Resourcemaneger) | 根据实际使用情况调整,可增大 |
Hive(Hiveserver2) | 根据实际使用情况调整,可增大 |
Hbase(Hmaster) | master 仅接收 DDL 请求和做负载均衡,默认1g一般够用 |
Presto(Coordinator) | 默认即可 |
Spark(spark-driver) | 根据实际使用情况调整,可增大 |
Oozie(oozie) | 默认即可 |
Storm(Nimbus) | 默认即可 |
本页内容是否解决了您的问题?