我试图上传的csv文件在hdfs的 Impala 和失败了很多次。我不知道这里出了什么问题,因为我已经跟着导游走了。csv也在hdfs上。
CREATE EXTERNAL TABLE gc_imp
(
asd INT,
full_name STRING,
sd_fd_date STRING,
ret INT,
ftyu INT,
qwerINT
)
ROW FORMAT DELIMITED FIELDS TERMINATED BY','
LOCATION '/user/hadoop/Gc_4';
我得到的错误。我用的是色调。
> TExecuteStatementResp(status=TStatus(errorCode=None,
> errorMessage='MetaException: hdfs://nameservice1/user/hadoop/Gc_4 is
> not a directory or unable to create one', sqlState='HY000',
> infoMessages=None, statusCode=3), operationHandle=None)
任何线索。
2条答案
按热度按时间0ejtzxu11#
这不是答案,而是解决办法。
在大多数情况下,我看到表上传,但“状态”是不成功的。另外,如果你已经在hive的帮助下存储了数据,这会给你更多的控制权,那么“别忘了刷新impalaui上的元数据。”非常重要。
0tdrvxhp2#
/user/hadoop/Gc_4
必须是目录。所以你需要创建一个目录,例如,/user/hadoop/Gc_4
. 然后你上传你的Gc_4
去吧。所以文件路径是/user/hadoop/Gc_4/Gc_4
. 之后,你可以使用LOCATION
指定目录路径/user/hadoop/Gc_4
.LOCATION
必须是目录。这一要求在Hive和 Impala 中是相同的。