這次跳槽,中途有點(diǎn)意外,可能是好事,讓我直面我自己的內(nèi)心,如果不是這次的失敗,不會(huì)體會(huì)這樣的痛苦,也不會(huì)真正的思考,骨子里,向往的啥,需要的啥,職業(yè)規(guī)劃上,憧憬啥。 永遠(yuǎn)不會(huì)...
深感你的情緒,我也是這樣的,有一天看到一篇文章,運(yùn)動(dòng)使人快樂,于是我決定每天晚上跑步,這樣堅(jiān)持三個(gè)月,每天跑一個(gè)小時(shí),跑步的時(shí)候聽聽哲學(xué)和舒緩的音樂,雖然偶爾還是會(huì)感到孤單和無(wú)所適從,不過開始直面內(nèi)心,開始積極的思考,我想這也算一種進(jìn)步吧,相信這個(gè)尷尬期通過努力是可以過去的,只是時(shí)間長(zhǎng)短問題
無(wú)處安放的孤獨(dú)來自一個(gè)蝸居在大城市的獨(dú)居者的傾訴。 很久不談孤獨(dú)了,覺得膚淺,而且看起來像是不會(huì)打理自己生活的表現(xiàn)。有人說,把日子安排得滿滿的,自然就沒時(shí)間,沒精力想那么多了。還有人說,孤...
javaEE:架構(gòu) javaSE:java基礎(chǔ) ejb:javaEE的一部分 關(guān)鍵字:由sun公司定義,有意義的單詞(小寫) 標(biāo)識(shí)符:識(shí)別類名,方法名,變量名等 標(biāo)識(shí)符命令規(guī)...
jvm/jdk/jre 》jvm(虛擬機(jī),把代碼編譯成class) 》jdk(提供java需要調(diào)用的類包) 》jre(運(yùn)行時(shí)需要的環(huán)境) 環(huán)境變量: 》path:window...
公司內(nèi)部對(duì)hadoop進(jìn)行了封裝,提供監(jiān)控和部署,cdr自己研究的時(shí)候看看還是不錯(cuò)的,mysql主備這個(gè)還真是沒有考慮到,謝謝啦
hdfs被格式化的后果與補(bǔ)救由于集群故障,連接不上hdfs,datanode節(jié)點(diǎn)部分掛,重新啟動(dòng)單個(gè)節(jié)點(diǎn)和namenode也不好使,給出方法格式化namenode,之后啟動(dòng)namenode和datan...
由于集群故障,連接不上hdfs,datanode節(jié)點(diǎn)部分掛,重新啟動(dòng)單個(gè)節(jié)點(diǎn)和namenode也不好使,給出方法格式化namenode,之后啟動(dòng)namenode和datan...
把數(shù)據(jù)裝載到hive庫(kù)一般有兩種,一種是通過etl抽取數(shù)據(jù)然后裝載數(shù)據(jù)到hive,一種是文件裝載到hive庫(kù),導(dǎo)出hive庫(kù)也有兩種方式,一種是直接裝載到傳統(tǒng)庫(kù),一種是生成...
恩,淺析,有時(shí)間寫分模塊的時(shí)候就要一個(gè)個(gè)分析總結(jié)了
hadoop生態(tài)圈各個(gè)模板淺析梳理hadoop是一個(gè)開源的分布式的分析存儲(chǔ)平臺(tái),hdfs是分布式文件系統(tǒng)用于存儲(chǔ),mapreduce是并行處理框架用于分析,yarn是集群的資源管理器,zookeeper是分...
hadoop是一個(gè)開源的分布式的分析存儲(chǔ)平臺(tái),hdfs是分布式文件系統(tǒng)用于存儲(chǔ),mapreduce是并行處理框架用于分析,yarn是集群的資源管理器,zookeeper是分...
hadoop集群運(yùn)行一段時(shí)間,發(fā)現(xiàn)集群運(yùn)行緩慢,執(zhí)行df -h顯示: [hadoop@hadoop7 ~]$ df -h /dev/mapper/vg_localhost-l...
公司近期搭建了hadoop集群,改造前后的體系架構(gòu)如下: 從圖中可以看出用hive庫(kù),替代了db2和td中的cdr層,也就是業(yè)務(wù)處理邏輯層,之后再把匯總數(shù)據(jù)抽取到db2和t...
在工作時(shí)會(huì)遇到log4j日志輸出,后臺(tái)進(jìn)程中,只有通過日志來分析程序中的問題,日志分為系統(tǒng)日志和業(yè)務(wù)日志,一般log4j配置是:log4j.rootLogger=INFO;需...
回顧2016年,7月份人還在上海,工作上開始轉(zhuǎn)型,從java編程轉(zhuǎn)向大數(shù)據(jù)領(lǐng)域,并到貴州來工作,通過半年的努力,在技術(shù)上了解了db2,td,tcl,hadoop,hive,...