如果在 Spark 中使用 saveAsTextFile() 方法将 RDD 保存到本地文件系统或 Hadoop 分布式文件系统 (HDFS) 时,如果文件已经存在,则会抛出 FileAlreadyExistsException 异常。

为了解决这个问题,您可以使用 overwrite 参数来强制 Spark 覆盖现有文件。例如:

rdd.saveAsTextFile("/path/to/output", overwrite=True)
Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐