博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Spark Hadoop联系和区别
阅读量:6479 次
发布时间:2019-06-23

本文共 298 字,大约阅读时间需要 1 分钟。

hot3.png

1、Spark Hadoop都是运算框架

1.1、可以将Spark、Hadoop看成是一个LIB、一个API,它只是一个工具包,犹如汽车的发动机,单独活着是没有意义的,必须和壳子一起构成一个汽车才有价值

2、Hadoop有3部分构成:MapReduce,Hdfs,Yarn.其中MapReduce已经慢慢退出历史舞台,由Spark来接替。所以说Hadoop已死,这个说法是不成立的

2.1、Spark底层也必须依赖hdfs,因为Spark只管计算 ,不管存储。其实貌似Hbase底层也依赖hdfs

转载于:https://my.oschina.net/windows20/blog/1806505

你可能感兴趣的文章
mvc中枚举的使用和绑定枚举值到DropDownListFor
查看>>
多目标跟踪的评价指标
查看>>
python 生成器
查看>>
HTTPS(SSL)详解以及PHP调用方法
查看>>
突发小事件,USB接口问题
查看>>
Nginx负载均衡配置实例详解
查看>>
L1-009. N个数求和
查看>>
实参传递不当导致的运行时错误
查看>>
PHP生成静态html文件 的三种方法
查看>>
sqlserver 批量删除存储过程(转)
查看>>
自建型呼叫中心
查看>>
Inno setup中定制安装路径
查看>>
要懂得对你的老板好一点!
查看>>
HDU5139:Formula(找规律+离线处理)
查看>>
visio如何让动态连接线的单箭头变成双箭头?
查看>>
poj 1273 Drainage Ditches 网络流最大流基础
查看>>
Bash: how to check if a process id (PID) exists
查看>>
Mirantis Fuel fundations
查看>>
启动Tomcat一闪而过——分析及解决过程
查看>>
Android intent action大全
查看>>