US3支持
说明:
- 仅支持新建的uhadoop-2.2版本实例;
1. 使用场景
- 冷数据或者低频计算分析场景
- 小规模计算分析场景
- 数据备份
2. 接入步骤
-
UHadoop资源创建:控制台创建hadoop-2.2版本 UHadoop实例;
-
US3资源创建:
- 在US3控制台创建需要使用Bucket,如果已创建可跳过,具体参考:US3-创建存储空间
- 在US3控制台创建令牌关联使用Bucket,如果已创建可跳过,具体参考:US3-令牌管理
-
UHadoop配置修改:
-
选择已创建UHadoop实例,进入 集群管理->服务管理页面,点击Hadoop->参数陪配置按钮
-
修改US3令牌信息
- fs.us3.access.key:US3令牌公钥
- fs.us3.secret.key:US3令牌私钥
操作如下,完成以上两个参数修改之后,点击确定按钮,然后勾选重选提示选项重启Hadoop服务。
-
-
Hive适配:Hadoop服务重启完成之后,重启Hive服务即可。注意:不重启将访问us3将报错。
3. 使用示例
3.1 HDFS
使用格式为hadoop fs -ls us3://<bucket name>/<path>
。使用示例如下:
-
上传文件
-
查看文件列表
3.2 Hive
可用采用以下两种方式将数据存储在US3上,选择其中一种即可。
-
整个数据库建立在US3上
hive (default)> create database hive_us3 location "us3://us3-uhadoop/hive_us3"
-
指定表建立在US3上
hive (hive_db)> create table us3_test ( name string) row format delimited fields terminated by '\t' location 'us3://sniper-s3-adapter/hive/us3-test';
3.3 Spark
无论是通过spark-submit还是pyspark、spark-shell、spark-sql等读写US3时,需要指定文件路径的格式为: us3://<bucket name>/path
,如下:
-
上传测试脚本:
hadoop fs -put $SPARK_HOME/examples/src/main/python/pi.py us3://us3-uhadoop/example
-
执行测试:
spark-submit --master yarn --deploy-mode client --num-executors 2 --executor-cores 1 --executor-memory 1G us3://us3-uhadoop/example/pi.py 100