使用scala从spark rdd向hbase表追加数据

6ie5vjzr  于 2021-06-10  发布在  Hbase
关注(0)|答案(0)|浏览(277)

我正在尝试向hbase表添加数据。到目前为止,我已经做了以下工作:

def convert (a:Int,s:String) : Tuple2[ImmutableBytesWritable,Put]={
                        val p = new Put(a.toString.getBytes())
                        p.add(Bytes.toBytes("ColumnFamily"),Bytes.toBytes("col_2"), s.toString.getBytes())//a.toString.getBytes())
                        println("the value of a is: " + a)
                        new Tuple2[ImmutableBytesWritable,Put](new ImmutableBytesWritable(Bytes.toBytes(a)), p);
                   }
new PairRDDFunctions(newrddtohbaseLambda.map(x=>convert(x, randomstring))).saveAsHadoopDataset(jobConfig)

newrddtohbaselambda是这样的:

val x = 12
val y = 15
val z = 25
val newarray = Array(x,y,z)
val newrddtohbaseLambda = sc.parallelize(newarray)

“随机字符串”是这个吗

val randomstring = "abc, xyz, dfg"

现在,它所做的是,在删除这些行中已经存在的值之后,将、xyz、dfg添加到第12、15和25行。我希望该值存在并添加、xyz、dfg而不是替换。我要怎么做?任何帮助都将不胜感激。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题