大数据学习之Spark

简介

基于内存计算的大数据并行计算框架;一个可用于大规模数据快速处理的快速、通用引擎。为Apache分布式计算三大框架[hadoop, Spark, Storm]之一。
Spark目的:使数据分析更快,不仅运行速度快,也要能快速、容易地编写程序。为了程序更快,Spark提供了内存运算,减少了迭代计算时的IO开销。
由于Hadoop中MapReduce存在诸多缺陷,Spark可以解决。

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×