试用了下阿里云的 数据总线 datahub 和 开源大数据 E-MapReduce 和 数据湖 DLF , 也没有对应的 hive 信息。
之前试过 sqoop 将数据迁移到本地 hive ,写起来很麻烦,还需要将类型转换成 hive 特有的类型写好语法。
想问下有经验的彦祖们,如何实现这块。kylin 安装的话依赖 hadoop hive 环境,感觉得同一个环境部署。
假如在阿里云上面将数据迁移成到 hive ( E-MapReduce 那里的集群内的实例),是不是得在这个集群内的实例部署 kylin 。
希望能给个思路。感觉各位彦祖。