5.1 创建临时表进行这一部分的实验时,需要先将我们的 HadoopMySQLHive 等等服务全都启动。启动成功以后,就可以进入了 \"hive>\" 命令提示符状态,可以输入类似 SQL 语句的 HiveQL 语句。接着我们首先执行下列命令来创建临时表 user_action,将 Hive 数据仓中的数据流向 HDFS 文件系统中:

  • hive> create table dblab.user_action(id STRING, uid STRING, item_id STRING, behavior_type STRING, item_category STRING, visit_date DATE, province STRING) COMMENT 'Welcome to CUG dblab!' ROW FORMAT DELIMITED FIELDS TERMINATED BY 't' STORED AS TEXTFILE;

这个命令执行完以后,Hive 会自动在 HDFS 文件系统中创建对应的数据文件 /user/hive/warehouse/dblab.db/user_action。我们接着可以新建一个终端,执行命令查看一下,确认这个数据文件在 HDFS 中确实被创建了,在新建的终端中执行下面命令:

  • cd /usr/local/Hadoop
  • ./bin/hdfs -ls /user/hive/warehouse/dblab.db/user_action

上述命令执行主要是检查一下这个数据文件是否在我们的 HDFS 文件系统上确实建立了,当然我们也可以使用我们的 Hadoop 集群 Web 管理页面来查看我们的文件系统,这两种方法都可以检查 HDFS 文件系统中的现存文件。注意,此处建立的这个 HDFS 中的数据文件,在我们后面的“使用 HBase Java API 把数据从本地导入到 HBase 中”操作中会使用到。