val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:MySQL://hadoop000:3306").option("dbtable", "hive.dept").option("user", "root").option("password", "123456").load()
jdbcDF.createOrReplaceTempView("dept")
val hiveDF = sql("SELECT * FROM emp")
val sqlDF =?sql("SELECT * FROM emp e JOIN dept d ON e.deptno = d.deptno").show
sqlDF.write.format("json").save("file:///empJoinDept.json")
文章名稱:SparkSQL讀取MySQL的dept和hive的emp表,做join和分組查詢,后寫到j(luò)son
文章轉(zhuǎn)載:http://www.chinadenli.net/article34/piehpe.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供小程序開發(fā)、品牌網(wǎng)站制作、網(wǎng)站設(shè)計公司、云服務(wù)器、全網(wǎng)營銷推廣、網(wǎng)站改版
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)