用Cobrix和Java spark程序解析类cobol文件

1cosmwyk  于 5个月前  发布在  Java
关注(0)|答案(1)|浏览(47)

有没有人尝试过在java spark程序中运行Cobrix?我在调用Cobol脚本时似乎遇到了一些类/版本不匹配的问题。我有一个示例应用程序在in github
当我像下面这样运行spark-submit,

spark-submit spark-cobol_2.11-2.6.9-bundle.jar --class com.test.cobol.App --master local target/spark-cobol-jay-1.0-SNAPSHOT.jar

字符串
我得到以下错误,

23/12/27 16:45:50 INFO DefaultSource: Cobrix 'spark-cobol' build 2.6.9 (2023-10-16T10:52:47) 
Exception in thread "main" java.lang.NoClassDefFoundError: scala/Product$class
    at za.co.absa.cobrix.cobol.parser.recordformats.RecordFormat$FixedLength$.<init>(RecordFormat.scala:22)

kx5bkwkv

kx5bkwkv1#

. spark和scala版本不匹配。我下载的构建文件使用的是2.11 scala版本,而我程序的其他部分使用的是2.12。我已经修改了关于如何在我的github页面https://github.com/jaysara/spark-cobol-jay上修复这个问题的自述文件

相关问题