1、Spark Hadoop都是运算框架
1.1、可以将Spark、Hadoop看成是一个LIB、一个API,它只是一个工具包,犹如汽车的发动机,单独活着是没有意义的,必须和壳子一起构成一个汽车才有价值
2、Hadoop有3部分构成:MapReduce,Hdfs,Yarn.其中MapReduce已经慢慢退出历史舞台,由Spark来接替。所以说Hadoop已死,这个说法是不成立的
2.1、Spark底层也必须依赖hdfs,因为Spark只管计算 ,不管存储。其实貌似Hbase底层也依赖hdfs