Spark,如同Hadoop生态系统中的MapReduce、Hive和Storm,是一种通用的 大数据计算框架。它集成了多种计算框架:Spark Core用于离线计算,Spark SQL用于交互式查询,Spark Streaming用于实时流式计算,Spark MLlib用于机器学习,Spark GraphX用于图计算,涵盖了大数据领域的各种计算需求。
Spark专注于大数据的计算,而Hadoop则更侧重于大数据的存储(例如HDFS、Hive、HBase)以及资源调度(Yarn)。 Spark与Hadoop的结合,被视为大数据领域最具潜力和前景的组合。