使用spark在hbase中进行批量加载

mmvthczy  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(241)

我正在使用 HBase Version 1.2.0-cdh5.8.2 以及 Spark version 1.6.0 .
我正在使用 toHBaseTable() 方法 it.nerdammer.spark.hbase 要保存的包 RDDSparkHBASE .

val experiencesDataset = sc.parallelize(Seq((001, null.asInstanceOf[String]), (001,"2016-10-25")))
experiencesDataset .toHBaseTable(experienceTableName).save()

但我想把数据保存在 HBase 使用 SparkBulk Load .
我无法理解如何使用批量加载选项。请帮助我。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题