phmg.net
当前位置:首页 >> hivE0.13+hADoop2.2执行sElECt * From t1不报错,执... >>

hivE0.13+hADoop2.2执行sElECt * From t1不报错,执...

看看这个job的日志,加上那个条件之后查询结果存在吗

hive的jdbc包,jar包名字大概是hive-jdbc.jar,你找找hive包下带Jdbc的看看。

安装了 jdbc 解析器了吗?另外,据说mysql的hive账户必须得有密码才行。 从http://www.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.22.tar.gz 下载连接器(不要用wget直接下,网页打开再找下载链接),并把解压后的 mysql-co...

1 首先要看一下Hive服务正常起来没。 2 看一下hive配置的Xml文件是否配置正确。 希望把xml发上来 说一下具体配置的细节、才能定位问题

我觉得: 你是否确定你正确安装了hadoop集群? 先运行一下hadoop自带的wordcount或者pi的例子,确定hadoop集群正确运行。 如果有错误,看一下hadoop的log,会更明确

贴一下你的SQL。 这个启动的MapredLocalTask,应该是数据增加到200000时,超过了本地任务的最大限制。

这个是执行过程中报的错误,一般需要从Hadoop的WEB界面上找到Hive程序对应的application,然后点击进去具体出错的map或者reduce task看日志定位错误原因。 这个错误看不出具体原因的。

http://zhidao.baidu.com/question/1494570573192796339

会不会你自动执行drop table的时候那个table还不存在, 可以考虑partition,每天删除partition,

我觉得:你是否确定你正确安装了hadoop集群?先运行一下hadoop自带的wordcount或者pi的例子,确定hadoop集群正确运行。如果有错误,看一下hadoop的log,会更明确

网站首页 | 网站地图
All rights reserved Powered by www.phmg.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com