三者是相互独立的Hadoop是集成了yark,hdfs、MapReduce三大组件的框架Spark是一个优秀的基于内存的计算框架,可以独立使用,也可以和Hadoop集成使用,可以使用Hadoop的yarn进行资源管理、可以读写hdfs文件Scala是一个基于jvm的编程语言,Spark里面有一部分源码是用Scala编写的