SQL 在解析字符串方面,能力還是有限,因為支持的算子譬如substring,split等有限,且不具備復雜的流程表達能力。我們內部有個通過JSON描述的DSL引擎方便配置化解析,然而也有一定的學習時間成本。
我們當然可以通過SQL的 UDF函數等來完成字符串解析,在streamingpro中也很簡單,只要注冊下你的UDF函數庫即可:
"udf_register": {
"desc": "測試",
"strategy": "spark",
"algorithm": [],
"ref": [],
"compositor": [
{
"name": "sql.udf",
"params": [
{
"analysis": "streaming.core.compositor.spark.udf.func.MLFunctions"
}
]
}
]
}
這樣你就可以在SQL中使用MLfunctions里面所有的udf函數了。然而為此專門提供一個jar包也是略顯麻煩。
這個時候如果能直接寫腳本解析就好了,最好是能支持各種腳本,比如groovy,javascript,python,scala,java等。任何一個會編程的人都可以實現一個比較復雜的解析邏輯。
核心是ScriptCompositor模塊:
{
"name": "batch.script",
"params": [
{
"inputTableName": "test",
"outputTableName": "test3"
},
{
"raw": [
"val Array(a,b)=rawLine.split(\"\t\");",
"Map(\"a\"->a,\"b\"->b)"
]
}
]
}
如果我想在代碼里直接處理所有的列,則如下:
{
"name": "batch.script",
"params": [
{
"inputTableName": "test2",
"outputTableName": "test3",
"useDocMap": true
},
{
"anykey": "val Array(a,b)=doc(\"raw\").toString.split(\"\t\");Map(\"a\"->a,\"b\"->b)"
}
]
}
通過添加useDocMap為true,則你在代碼里可以通過doc(doc是個Map[String,Any]) 來獲取你想要的任何字段,然后形成一個新的Map。
如果你只要新生成Map里的字段,忽略掉舊的,則設置ignoreOldColumns=true 即可。
你可以把代碼放到一個文件里,如下:
{
"name": "batch.script",
"params": [
{
"inputTableName": "test",
"outputTableName": "test3"
},
{
"raw": "file:///tmp/raw_process.scala"
}
]
}
通過inputTableName指定輸入的表,outputTableName作為輸出結果表。 raw代表inputTableName中你需要解析的字段,然后通過你的scala腳本進行解析。在腳本中 rawLine 是固定的,對應raw字段(其他字段也是一樣)的值。腳本只有一個要求,最后的返回結果暫時需要是個Map[String,Any]。
這里,你只是提供了一個map作為返回值,作為一行,然后以outputTableName指定的名字輸出,作為下一條SQL的輸入,所以StreamingPro需要推測出你的Schema。 數據量大到一定程度,推測Schema的效率就得不到保證,這個時候,你可以通過配置schema來提升性能:
{
"name": "batch.script",
"params": [
{
"inputTableName": "test",
"outputTableName": "test3",
"schema": "file:///tmp/schema.scala",
"useDocMap": true
},
{
"raw": "file:///tmp/raw_process.scala"
}
]
}
schema.scala的內容大致如下:
Some(
StructType(
Array(
StructField("a", StringType, true),
StructField("b", StringType, true)))
)
后續roadmap是:
- 支持外部腳本,比如放在hdfs或者http服務器上。
- 支持java 腳本
- 支持javascript腳本
- 支持 python 腳本
- 支持 ruby腳本
- 支持 groovy 腳本
舉個案例,從HDFS讀取一個文件,并且映射為只有一個raw字段的表,接著通過ScriptCompositor配置的scala代碼解析raw字段,展開成a,b兩個字段,然后繼續用SQL繼續處理,最后輸出。
{
"convert_data_parquet": {
"desc": "測試",
"strategy": "spark",
"algorithm": [],
"ref": [],
"compositor": [
{
"name": "batch.sources",
"params": [
{
"path": "file:///tmp/hdfsfile",
"format": "org.apache.spark.sql.execution.datasources.hdfs",
"fieldName": "raw",
"outputTableName":"test"
}
]
},
{
"name": "batch.script",
"params": [
{
"inputTableName": "test",
"outputTableName": "test3"
},
{
"raw": [
"val Array(a,b)=rawLine.split(\"\t\");",
"Map(\"a\"->a,\"b\"->b)"
]
}
]
},
{
"name": "batch.sql",
"params": [
{
"sql": "select a,b from test3 "
}
]
},
{
"name": "batch.outputs",
"params": [
{
"format":"console"
}
]
}
],
"configParams": {
}
}
}