Spark實現列轉行

1、列轉行

行轉列和列轉行是我們常用的功能,假如我們有如下的csv文件:

+---+----+---------+
|id |name|address  |
+---+----+---------+
|1  |a   |add1,add2|
|2  |b   |add3     |
|3  |c   |add4     |
|4  |d   |add5     |
+---+----+---------+

我們想轉換成如下的格式:

+---+----+----+
| id|name|addr|
+---+----+----+
|  1|   a|add1|
|  1|   a|add2|
|  2|   b|add3|
|  3|   c|add4|
|  4|   d|add5|
+---+----+----+

首先,我們利用spark讀取以下csv文件:

def getCsv(spark:SparkSession,file:String) = {
    import spark.implicits._
    val df = spark.read.format("org.apache.spark.sql.execution.datasources.csv.CSVFileFormat")
      .option("header", true)
      .option("delimiter", ",")
      .option("encoding","gbk")
      .load(file)
    df
  }

然后我們寫一個函數,對于傳入的一行數據,根據address拆分成多行,并返回:

def splitByAddr(id:String,name:String,addrs:String)={
    val addrsList = addrs.split(",")
    var resSeq = Seq[Row]()
    for(t <- addrsList){
      resSeq = resSeq :+ Row(id,name,t)
    }
    resSeq
  }

最后 ,是我們的主函數:

val spark = SparkSession
      .builder()
      .appName("Spark SQL basic example")
      .enableHiveSupport()
      //.config("spark.some.config.option", "some-value")
      .getOrCreate()
    import spark.implicits._

    //implicit val sEncoder = org.apache.spark.sql.Encoders.kryo[String]
    val df = getCsv(spark,"test.csv")
    df.show(false)
    val df1 = df.rdd.flatMap(line => {var s = line.getAs[String]("address");var id = line.getAs[String]("id");var name = line.getAs[String]("name");splitByAddr(id,name,s)})
    df1.collect().foreach(println)
    val schema = StructType(List(
      StructField("id", StringType, nullable = false),
      StructField("name", StringType, nullable = true),
      StructField("addr", StringType, nullable = true)
    ))
    println(df1)
    spark.createDataFrame(df1,schema).show()
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容