我有一些查询db2数据库的代码,如果我没有包含"for fetch only",它就可以工作,但是如果我包含了,它就会返回一个错误。我想知道它是否已经完成了,或者我如何设置它。
connection_url = f"jdbc:db2://{host}:{port}/{database}:user={username};password={password};"
df = (spark
.read
.format("jdbc")
.option("driver", "com.ibm.db2.jcc.DB2Driver")
.option("url",connection_url)
.option("query",query)
.load())
return(df)
仅为获取而包含时出错:com.ibm.db2.jcc.am.SqlSyntaxErrorException: DB2 SQL Error: SQLCODE=-104, SQLSTATE=42601, SQLERRMC=for;
具体为:
/databricks/spark/python/pyspark/sql/readwriter.py in load(self, path, format, schema, **options)
162 return self._df(self._jreader.load(self._spark._sc._jvm.PythonUtils.toSeq(path)))
163 else:
--> 164 return self._df(self._jreader.load())
165
166 def json(self, path, schema=None, primitivesAsString=None, prefersDecimal=None,
/databricks/spark/python/lib/py4j-0.10.9.1-src.zip/py4j/java_gateway.py in __call__(self, *args)
1302
1303 answer = self.gateway_client.send_command(command)
-> 1304 return_value = get_return_value(
1305 answer, self.gateway_client, self.target_id, self.name)
1306
/databricks/spark/python/pyspark/sql/utils.py in deco(*a, **kw)
115 def deco(*a, **kw):
116 try:
--> 117 return f(*a, **kw)
118 except py4j.protocol.Py4JJavaError as e:
119 converted = convert_exception(e.java_exception)
/databricks/spark/python/lib/py4j-0.10.9.1-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name)
324 value = OUTPUT_CONVERTER[type](answer[2:], gateway_client)
325 if answer[1] == REFERENCE_TYPE:
--> 326 raise Py4JJavaError(
327 "An error occurred while calling {0}{1}{2}.\n".
328 format(target_id, ".", name), value)
Py4JJavaError: An error occurred while calling o4192.load.
: com.ibm.db2.jcc.am.SqlSyntaxErrorException: DB2 SQL Error: SQLCODE=-104, SQLSTATE=42601, SQLERRMC=for;
;), DRIVER=4.25.13
at com.ibm.db2.jcc.am.b6.a(b6.java:810)
at com.ibm.db2.jcc.am.b6.a(b6.java:66)
at com.ibm.db2.jcc.am.b6.a(b6.java:140)
at com.ibm.db2.jcc.am.k3.c(k3.java:2824)
at com.ibm.db2.jcc.am.k3.d(k3.java:2808)
at com.ibm.db2.jcc.am.k3.a(k3.java:2234)
at com.ibm.db2.jcc.am.k4.a(k4.java:8242)
at com.ibm.db2.jcc.t4.ab.i(ab.java:206)
at com.ibm.db2.jcc.t4.ab.b(ab.java:96)
at com.ibm.db2.jcc.t4.p.a(p.java:32)
at com.ibm.db2.jcc.t4.av.i(av.java:150)
at com.ibm.db2.jcc.am.k3.al(k3.java:2203)
at com.ibm.db2.jcc.am.k4.bq(k4.java:3730)
at com.ibm.db2.jcc.am.k4.a(k4.java:4609)
at com.ibm.db2.jcc.am.k4.b(k4.java:4182)
at com.ibm.db2.jcc.am.k4.bd(k4.java:780)
at com.ibm.db2.jcc.am.k4.executeQuery(k4.java:745)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$.getQueryOutputSchema(JDBCRDD.scala:68)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCRDD$.resolveTable(JDBCRDD.scala:58)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCRelation$.getSchema(JDBCRelation.scala:241)
at org.apache.spark.sql.execution.datasources.jdbc.JdbcRelationProvider.createRelation(JdbcRelationProvider.scala:36)
at org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:385)
at org.apache.spark.sql.DataFrameReader.loadV1Source(DataFrameReader.scala:356)
at org.apache.spark.sql.DataFrameReader.$anonfun$load$2(DataFrameReader.scala:323)
at scala.Option.getOrElse(Option.scala:189)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:323)
at org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:222)
at sun.reflect.GeneratedMethodAccessor704.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:380)
at py4j.Gateway.invoke(Gateway.java:295)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:251)
at java.lang.Thread.run(Thread.java:750)
我搜索了ibm的文档,堆栈溢出使用了我能想到的每一种可能的排列。
我已经阅读了有关设置隔离级别的文档,因为我在使用with ur
运行查询时也会遇到失败,我想如果我能找出失败的原因,我就能理解for fetch only
失败的原因了(答案是here),但它使事情变得非常清楚,因为我无法使用它为for fetch only
找到类似的解决方案
我在ibm的网站上看过db2文档,也搜索过堆栈溢出,但我还是找不到。
编辑:运行和不运行的查询
- 在dbvisualizer和pyspark中运行**
select
id_number
from
myschema.mytable
FETCH FIRST
10 ROWS ONLY
另一个
select
id_number
from
myschema.mytable
- 在dbvisualizer中运行,但不在pyspark中运行**
select
id_number
from
myschema.mytable
FETCH FIRST
10 ROWS ONLY FOR FETCH ONLY
另一个
select
id_number
from
myschema.mytable
FOR FETCH ONLY
编辑2:
一个例子是我运行这段代码:
connection_url = f"jdbc:db2://{host}:{port}/{database}:user={username};password={password};"
df = (spark
.read
.format("jdbc")
.option("driver", "com.ibm.db2.jcc.DB2Driver")
.option("url",connection_url)
.option("query","""
select
id_number
from
myschema.mytable
FOR FETCH ONLY
""")
.load())
return(df)
但它不起作用。然后我运行这段代码:
connection_url = f"jdbc:db2://{host}:{port}/{database}:user={username};password={password};"
df = (spark
.read
.format("jdbc")
.option("driver", "com.ibm.db2.jcc.DB2Driver")
.option("url",connection_url)
.option("query","""
select
id_number
from
myschema.mytable
-- FOR FETCH ONLY
""")
.load())
return(df)
它确实工作了,然后我进入了dbvisualizer,并验证了两个版本的查询都工作,所以从我所知道的来看,这不是语法错误。
dbvisualizer显示数据库主版本为12,次版本为1,我认为它是z/os。我在pyspark和dbvisualizer中使用的是jdbc驱动程序版本4.25.13,该驱动程序是从maven here下载的
编辑3:
此查询在DB Visualizer中运行良好,但在pyspark中失败。
select
id_number
from
myschema.mytable
FOR READ ONLY
1条答案
按热度按时间quhf5bfb1#
好吧。我知道发生什么事了。Dr:Spark已经在做了**。
此处的文档说明:
用于将数据读入Spark的查询。指定的查询将被括在括号中,并用作FROM子句中的子查询。Spark还将为子查询子句分配别名。例如,Spark将向JDBC源发出以下格式的查询。
SELECT FROM()Spark生成别名<user_specified_query>) spark_gen_alias
我很确定相关代码在这里:
因此FOR FETCH ONLY属于子查询,这在DB2中是不允许的。
不过幸运的是,看起来好像设置了CONCUR_READ_ONLY jdbc选项,根据文档here,这相当于
FOR READ ONLY
| JDBC设置|Db2®光标设置|IBM Informix®游标设置|
| - ------|- ------|- ------|
| CONCUR_只读|仅供阅读|仅供阅读|
| CONCUR_可更新|更新|更新|
| 保持光标超量委托|保持|保持|
| 仅向前类型|未指定SCROLL|未指定SCROLL|
| 类型_滚动_不敏感|不敏感滚动|滚动|
| 类型_滚动_敏感|SENSITIVE STATIC、SENSITIVE DYNAMIC或ASNSITIVE,具体取决于cursorSensitivity连接和数据源属性|不支持|
spark中的相关代码为:
从这里
顺便说一句,即使没有在上面的代码中显式指定,CONCUR_READ_ONLY也是java sql中ResultSet的默认标志:
| 并发性|说明|
| - ------|- ------|
| 结果集. CONCUR_只读|创建只读结果集。这是默认设置|
| 结果集. CONCUR_可更新|创建可更新的结果集。|
source