1、spark與Scala的關(guān)系:spark是一個框架(對比MapReduce),不過spark是用Scala寫的,而MapReduce是用java寫的。
2、單例模式:系統(tǒng)中一個類只允許有一個實例對象。
3、裝飾模式:在原有類的基礎(chǔ)上增加功能,還可以實現(xiàn)函數(shù)式編程(java IO)。
1、spark與Scala的關(guān)系:spark是一個框架(對比MapReduce),不過spark是用Scala寫的,而MapReduce是用java寫的。
2、單例模式:系統(tǒng)中一個類只允許有一個實例對象。
3、裝飾模式:在原有類的基礎(chǔ)上增加功能,還可以實現(xiàn)函數(shù)式編程(java IO)。