hg25+hive+app

作者&投稿:调蒋 (若有异议请与网页底部的电邮联系)

文可13373331777问: 如何配置hive访问其他服务器的hadoop -
钦北区环磷回答: 1、下载hive(http://archive.cloudera.com/cdh/testing/hive-0.3.99.1+0.tar.gz),解包把它放到目录 /usr/local/hadoop/contrib并改名为hive,改属主(chown -R hadoop:hadoop).2、下载ant (http://labs.xiaonei.com/apache-mirror/ant/binaries/apache-...

文可13373331777问: hive2.5和哪个版本hive -
钦北区环磷回答: 本帖最后由 nettman 于 2014-7-9 09:00 编辑 hadoop与HBase版本对应关系:Hbase Hadoop0.92.0 1.0.00.92.1 1.0.00.92.2 1.0.30.94.0 1.0.20.94.1 1.0.30.94.2 1.0.30.94.3 1.0.40.94.4 1.0.40.94.5 1.0.40.94.9 1.2.00.95.0 1.2.0 hadoop1.2+hbase0....

文可13373331777问: 如何使用kettle连接hive和hive2 -
钦北区环磷回答: 连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift) 打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000) 测试连接,即可 连接hive2的方法:[plain] ...

文可13373331777问: 如何查看当前hive运行的应用 -
钦北区环磷回答: 通过hive 自带的 server2 的 thrift 模式提交的sql 可以获得 状态进度,jdbc方式没有试过.其实,我们完全可以不使用hive,sql-on-Hadoop的框架有ibm的bigsql,Apache的dirll,impala等都是非常不错的,都可以替代hive.速度都比hive要快很多.偶理解HIVE只是提供查询和数据处理功能的(解析HIVE QL语句为MAPReduce任务), 不负责数据存储的. 数据存储应该是HBase和HDFS的功能, HBase是Key Value的存储方式, 适用于固定列查询的数据, 如果查询方式多样复杂, 感觉应该是使用HDFS存储, 然后使用HIVE进行查询和处理.

文可13373331777问: 如何用hive查询hbase中的数据 -
钦北区环磷回答: 第一步,启动hadoop,命令:./start-all.sh 第二步,启动hive,命令: ./hive --auxpath /home/dream-victor/hive-0.6.0/lib/hive_hbase-handler.jar,/home/dream-victor/hive-0.6.0/lib/hbase-0.20.3.jar,/home/dream-victor/hive-0.6.0/lib/zookeeper-3.2.2.jar ...

文可13373331777问: 如何判断hive的远程服务接口已经打开 -
钦北区环磷回答: 展开全部1、hive 命令行模式,直接输入/hive/bin/hive的执行程序,或者输入 hive --service cli 用于linux平台命令行查询,查询语句基本跟mysql查询语句类似2、 hive web界面的 (端口号9999) 启动方式 hive –service hwi & 用于通过浏览器来访问...

文可13373331777问: 如何用Hive访问Hadoop上数据 -
钦北区环磷回答: 步骤 Hive提供了jdbc驱动,使得我们可以连接Hive并进行一些类关系型数据库的sql语句查询等操作,首先我们需要将这些驱动拷贝到报表工程下面,然后再建立连接,最后通过连接进行数据查询.拷贝jar包到FR工程 将hadoop里的hadoop-...

文可13373331777问: 怎么将hive自定义UDAF函数永久加载到hive里 -
钦北区环磷回答: 1.首先添加jar包.hive> ADD JAR /dir/dir/*****.jar;2.创建函数hive> CREATE TEMPORARY FUNCTION myfunction AS 'com.example.MyFunction'; 永久加载:在.hiverc文件中添加相关语句!

文可13373331777问: 如何配置hive,使hive能使用spark引擎 -
钦北区环磷回答: 1、为了让Spark能够连接到Hive的原有数据仓库,我们需要将Hive中的hive-site.xml文件拷贝到Spark的conf目录下,这样就可以通过这个配置文件找到Hive的元数据以及数据存放. 在这里由于我的Spark是自动安装和部署的,因此需要知道CDH...

文可13373331777问: hive的Hive 体系结构 -
钦北区环磷回答: 主要分为以下几个部分:用户接口 用户接口主要有三个:CLI,Client 和 WUI.其中最常用的是 CLI,Cli 启动的时候,会同时启动一个 Hive 副本.Client 是 Hive 的客户端,用户连接至 Hive Server.在启动 Client 模式的时候,需要指出 Hive Server ...


本站内容来自于网友发表,不代表本站立场,仅表示其个人看法,不对其真实性、正确性、有效性作任何的担保
相关事宜请发邮件给我们
© 星空见康网