简介
基于内存计算的大数据并行计算框架;一个可用于大规模数据快速处理的快速、通用引擎。为Apache分布式计算三大框架[hadoop, Spark, Storm]之一。
Spark目的:使数据分析更快,不仅运行速度快,也要能快速、容易地编写程序。为了程序更快,Spark提供了内存运算,减少了迭代计算时的IO开销。
由于Hadoop中MapReduce存在诸多缺陷,Spark可以解决。
Update your browser to view this website correctly. Update my browser now