今天上午沒有做事,下午又把計(jì)劃安排上。
運(yùn)行了hdfs,看了hdfs的頁面管理。
了解了在spark-shell中,初始化了sparksession,?sparksession又創(chuàng)建了sparkcontext名為sc,用sparksession(spark)讀文本為spark.read.textFile與sparkcontext(sc)讀文本為sc.textFile兩種方式生成的變量類型是不一樣的。前者是dataset,后者是mappairerdd。
使用雙指針對排序的數(shù)組平方后保持有序,時(shí)間復(fù)雜度為O(n)。