使用HDFS存储

简介

注意:Xiaomi Cloud-ML服务访问HDFS数据,由于各个机房和用户网络环境差别,请首先联系Cloud-ML开发人员,咨询Cloud-ML服务是否可以访问特定的HDFS集群。

使用Docker容器

我们已经制作了Docker镜像,可以直接访问c3prc-hadoop集群。

  1. sudo docker run -i -t --net=host -e PASSWORD=mypassword cnbj6-repo.cloud.mi.com/cloud-ml/dev-tensorflow-gpu:1.0.0-xm1.0.0-c3prc-hadoop bash

使用DevEnv

我们提供了更易用的DevEnv境,可以直接在界面或命令行创建开发环境。

  1. cloudml dev create -n mydev -p mypassword

然后可以查看开发环境信息,找到服务器ip和端口,直接ssh登录。

  1. cloudml dev describe dev1
  2. ssh -p 30001 root@10.0.0.1

为了测试能否真的能读HDFS的个人数据,可以先把TFRecords等数据上传到HDFS,然后参考这个项目来测试 http://github.com/tobegit3hub/deep_recommend_system

  1. wget https://github.com/tobegit3hub/deep_recommend_system/archive/master.zip
  2. unzip ./master.zip
  3. cd ./deep_recommend_system-master/

先kinit初始化kerberos账号,然后直接运行传入参数即可。

  1. echo rdKlxxxxxxrnyYU | kinit u_test@XIAOMI.HADOOP
  2. ./dense_classifier.py --train_file hdfs://namenode:port/deep_recommend_system/data/cancer_train.csv.tfrecords --validate_file hdfs://namenode:port/deep_recommend_system/data/cancer_test.csv.tfrecords

原文: http://docs.api.xiaomi.com/cloud-ml/devenv/0403_use_hdfs.html