做大数据分析时,经常会使用到空的DataFrame,直接给spark.createDataFrame传递空的Pandas DataFrame会报错:
spark.createDataFrame(data=pd.DataFrame(data=None,columns=['pageid','uid']))
# 报错:
ValueError: can not infer schema from empty dataset
因此总结了几种可以成功创建空的spark DataFrame的方法。
参考:None
正文 创建没有schema的DataFramedf_empty = spark.createDataFrame([], StructType([]))
df_empty.printSchema()
"""
输出:
root
"""
创建有schema的DataFrame创建schema:
from pyspark.sql.types import StructType,StructField, StringType
schema = StructType([
StructField('pageid', StringType(), True),
StructField('uid', StringType(), True)
])
# 查看schema
print(schema.simpleString())
"""
输出:
struct"""
直接创建空的DataFrame
法1:直接传递 [ ]df_empty1 = spark.createDataFrame([], schema)
df_empty1.printSchema()
"""
输出:
root
|-- pageid: string (nullable = true)
|-- uid: string (nullable = true)
"""
通过空RDD创建空DataFrame可以通过两种方式创建空的rdd:
rdd1 = spark.sparkContext.emptyRDD()
rdd2 = spark.sparkContext.parallelize([])
法2:通过spark.createDataFrame(rdd)函数df_empty2 = spark.createDataFrame(rdd1,schema)
df_empty2.printSchema()
"""
输出:
root
|-- pageid: string (nullable = true)
|-- uid: string (nullable = true)
"""
法3:通过rdd.toDF函数df_empty3 = rdd1.toDF(schema)
df_empty3.printSchema()
"""
输出:
root
|-- pageid: string (nullable = true)
|-- uid: string (nullable = true)
"""
总结推荐使用通过“法1”,流程简单:
from pyspark.sql.types import StructType, StructField, StringType
schema = StructType([
StructField('pageid', StringType(), True),
StructField('uid', StringType(), True)
])
df_empty1 = spark.createDataFrame([], schema)
完。
你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧