Hadoop、Hive、Spark 配置修改
本指南介绍如何在 Hadoop、Hive 和 Spark 中修改和添加配置信息。
Hadoop 配置
Hadoop 的配置文件位于 $HADOOP_HOME/etc/hadoop
目录下。
一些常用的配置文件包括:
core-site.xml
:Hadoop 核心配置hdfs-site.xml
:HDFS 配置yarn-site.xml
:YARN 配置mapred-site.xml
:MapReduce 配置
可以通过修改这些文件中的属性来配置 Hadoop。
Hive 配置
Hive 的配置文件位于 $HIVE_HOME/conf
目录下。
一些常用的配置文件包括:
hive-site.xml
:Hive 的主要配置文件hive-default.xml.template
:Hive 默认配置模板
可以通过修改 hive-site.xml
文件中的属性来配置 Hive。
Spark 配置
Spark 的配置文件位于 $SPARK_HOME/conf
目录下。
一些常用的配置文件包括:
spark-defaults.conf
:Spark 默认配置spark-env.sh
:Spark 环境变量
可以通过修改这些文件中的属性来配置 Spark。