今天重回技術(shù),寫一寫數(shù)據(jù)庫,今天第四篇。 MySQL的自增ID用完了,會怎么樣?(1)先提供答案,新插入數(shù)據(jù),會報(bào)唯一索引重復(fù)數(shù)據(jù)錯(cuò)誤 (2)因...
由于我在多個(gè)APP購買股票基金,因此需要每次打開好幾個(gè)APP查看實(shí)時(shí)情況,因此我自己寫了個(gè)小軟件,把各個(gè)APP的匯總到一起,查看就方便多了。如果...
之前有個(gè)Leeks插件,很不錯(cuò),我就照著做了個(gè)SpringBoot版本,感覺挺不錯(cuò)的,分享出來,大家可以去下載。 我先把源碼鏈接放上來吧,不好意...
前幾天寫完了MapReduce的小例子之后,今天再來學(xué)習(xí)Spark的例子代碼就通透了。 MapReduce分為Map和Reduce部分,而Spa...
Spark卡殼了,有點(diǎn)費(fèi)勁,先把MapReduce學(xué)回來才開始Spark,基本上Spark是替換MapReduce的東西,所以先學(xué)習(xí)了MapRe...
一、什么是Spark Spark是Hadoop的一個(gè)為大規(guī)模數(shù)據(jù)的計(jì)算引擎,內(nèi)存計(jì)算速度比MapReduce效率更高,可用它來完成各種各樣的運(yùn)算...
一、Hadoop Hbase數(shù)據(jù)庫JAVA集成前面都是在咱們通過hbase shell來執(zhí)行的,今天咱們引入到j(luò)ava項(xiàng)目中來。 咱們接下來看看...
一、Hadoop Hbase問題 前幾天寫了安裝HBase,結(jié)果這幾天發(fā)現(xiàn)通過hbase shell執(zhí)行進(jìn)去,status總是報(bào)錯(cuò) 經(jīng)過了三天的...
前面寫了Hadoop的Hive,咱們再來看看另一個(gè)HBase數(shù)據(jù)庫,這個(gè)是NoSQL數(shù)據(jù)庫,非關(guān)系數(shù)據(jù)庫,下面有和普通數(shù)據(jù)庫的比較部分。 一、H...