apache-spark - 如何在 Spark 中使用 ASCII 函数

标签 apache-spark hadoop apache-spark-sql

我需要帮助使用 scala 来使用 Spark 函数 ASCII(sparkSQl 字符串函数)

import org.apache.spark.sql.SparkSession
import spark.implicits._
import org.apache.spark.sql.functions

val a = sc.parallelize(Array("Santosh","Adithya"))
select ascii('Santosh')

我需要 santosh 的 ascii 值和 rdd a 的 ascii 值

最佳答案

ascii是 spark-sql api 的一部分,只能用于数据帧/数据集。

使用 ascii 函数将您的 RDD 转换为数据集

import spark.implicits._
val a = sc.parallelize(Array("Santosh","Adithya"))

case class Person(val fullName: String)
val ds = a.map(Person).toDS.selectExpr("ascii(fullName)")
ds.show

关于apache-spark - 如何在 Spark 中使用 ASCII 函数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56753184/

相关文章:

apache-spark - Spark Structured Streaming 写入 Parquet 会创建如此多的文件

hadoop - 哈HDFS : Initialization failed for Block pool <registering> (Datanode Uuid unassigned)

hadoop + Writable 接口(interface) + readFields 在reducer 中抛出异常

apache-spark - 在spark中保存固定大小的parquet输出文件

hadoop - 在 Windows 7 64 位中删除 Spark 临时目录时出现异常

python - 将 DataFrame show() 的结果保存到 pyspark 中的字符串

pyspark/dataframe - 创建嵌套结构

sql - Spark 计算分组依据中的单词数

java - 如何使用 Java 在 Spark 中处理多行输入日志文件

hadoop - 使用mapreduce构建非结构化数据