色综合图-色综合图片-色综合图片二区150p-色综合图区-玖玖国产精品视频-玖玖香蕉视频

您的位置:首頁技術(shù)文章
文章詳情頁

SparkSQL使用IDEA快速入門DataFrame與DataSet的完美教程

瀏覽:113日期:2024-07-12 15:04:25
目錄1.使用IDEA開發(fā)Spark SQL1.1創(chuàng)建DataFrame/DataSet1.1.1指定列名添加Schema1.1.2StructType指定Schema1.1.3反射推斷Schema1.使用IDEA開發(fā)Spark SQL1.1創(chuàng)建DataFrame/DataSet

1、指定列名添加Schema

2、通過StrucType指定Schema

3、編寫樣例類,利用反射機(jī)制推斷Schema

1.1.1指定列名添加Schema

//導(dǎo)包import org.apache.spark.rdd.RDDimport org.apache.spark.sql.SparkSession//代碼// 1.創(chuàng)建SparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()// 2.使用spark 獲取sparkContext 上下文對象 val sc = spark.sparkContext// 3.使用SparkContext 讀取文件并按照空格切分 返回RDD val rowRDD: RDD[(Int, String, Int)] = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>(x(0).toInt,x(1),x(2).toInt))// 4.導(dǎo)入隱式類 import spark.implicits._//5.將RDD 轉(zhuǎn)換為DataFrame 指定元數(shù)據(jù)信息 val dataFrame = rowRDD.toDF('id','name','age')//6.數(shù)據(jù)展示 dataFrame.show()1.1.2StructType指定Schema

//導(dǎo)包import org.apache.spark.sql.{Row, SparkSession}import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}//編寫代碼//1.實(shí)例SparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()//2.根據(jù)SparkSession獲取SparkContext 上下文對象 val sc = spark.sparkContext// 3.使用SparkContext讀取文件并按照空開切分并返回元組 val rowRDD = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>Row(x(0).toInt,x(1),x(2).toInt))// 4.導(dǎo)入隱式類 import spark.implicits._//5.使用StructType 添加元數(shù)據(jù)信息 val schema = StructType(List( StructField('id', IntegerType, true), StructField('name', StringType, true), StructField('age', IntegerType, true) ))//6.將數(shù)據(jù)與元數(shù)據(jù)進(jìn)行拼接 返回一個(gè)DataFrame val dataDF = spark.createDataFrame(rowRDD,schema)//7.數(shù)據(jù)展示 dataDF.show()1.1.3反射推斷Schema

//導(dǎo)包import org.apache.spark.rdd.RDDimport org.apache.spark.sql.SparkSession//定義單例對象 case class Person(Id:Int,name:String,age:Int)//編寫代碼//1.實(shí)例sparkSession val spark = SparkSession.builder().master('local[*]').appName('sql').getOrCreate()//2.通過sparkSession獲取sparkContext 上下文對象 val sc = spark.sparkContext//3.通過sparkContext 讀取文件并按照空格切分 將每一個(gè)數(shù)據(jù)保存到person中 val rowRDD: RDD[Person] = sc.textFile('./data/person.txt').map(_.split(' ')).map(x=>Person(x(0).toInt,x(1),x(2).toInt))// 4.導(dǎo)入隱式類 import spark.implicits._//5.將rowRDD轉(zhuǎn)換為dataFrame val dataFrame = rowRDD.toDF() //6.數(shù)據(jù)展示 dataFrame.show()

到此這篇關(guān)于SparkSQL使用IDEA快速入門DataFrame與DataSet的文章就介紹到這了,更多相關(guān)SparkSQL快速入門內(nèi)容請搜索好吧啦網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持好吧啦網(wǎng)!

標(biāo)簽: IDEA
相關(guān)文章:
主站蜘蛛池模板: 成年女人aaaaa毛片 | 日韩一区二区三区在线 | 日本道色| 久久久久琪琪去精品色村长 | 久久成人网18网站 | 久香草视频在线观看免费 | 欧美精品一区视频 | 亚洲国产夜色在线观看 | 亚洲欧美一级视频 | 伊人五月天婷婷琪琪综合 | 欧美有码在线观看 | 欧美成人777 | 欧美一区二区三区gg高清影视 | 国产younv真实 | 亚洲精品久久玖玖玖玖 | 91香蕉网 | 久久久久久国产精品免费免费 | 国产欧美在线观看视频 | 亚洲欧美国产一区二区三区 | 欧美日中文字幕 | 欧美一区二区二区 | 久草免费新视频 | 欧美日韩国产人成在线观看 | 91精品91| 久久久久在线观看 | 最近最新中文字幕免费的一页 | 免费黄色成人 | 精品国产免费观看一区 | 久久国产精品歌舞团 | 男人天堂视频在线 | 国产亚洲视频在线播放大全 | 亚洲高清在线看 | 亚洲精品一区91 | 日本亚洲欧美高清专区vr专区 | 99视频在线观看免费视频 | 久久免费福利 | 日韩国产欧美一区二区三区 | 深夜福利国产福利视频 | 国产欧美日韩精品一区二区三区 | 草草影院欧美三级日本 | 久久毛片久久毛 |