Hadoop、Hive、Spark 配置修改

本指南介绍如何在 Hadoop、Hive 和 Spark 中修改和添加配置信息。

Hadoop 配置

Hadoop 的配置文件位于 $HADOOP_HOME/etc/hadoop 目录下。

一些常用的配置文件包括:

  • core-site.xml:Hadoop 核心配置
  • hdfs-site.xml:HDFS 配置
  • yarn-site.xml:YARN 配置
  • mapred-site.xml:MapReduce 配置

可以通过修改这些文件中的属性来配置 Hadoop。

Hive 配置

Hive 的配置文件位于 $HIVE_HOME/conf 目录下。

一些常用的配置文件包括:

  • hive-site.xml:Hive 的主要配置文件
  • hive-default.xml.template:Hive 默认配置模板

可以通过修改 hive-site.xml 文件中的属性来配置 Hive。

Spark 配置

Spark 的配置文件位于 $SPARK_HOME/conf 目录下。

一些常用的配置文件包括:

  • spark-defaults.conf:Spark 默认配置
  • spark-env.sh:Spark 环境变量

可以通过修改这些文件中的属性来配置 Spark。