Phoenix 安装与使用

Phoenix是构建在Apache HBase(列式大数据存储)之上的一个SQL中间层。Phoenix完全使用Java编写,代码位于GitHub上,并且提供了一个客户端可嵌入的JDBC驱动。

Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排执行以生成标准的JDBC结果集。直接使用HBase API、协同处理器与自定义过滤器,对于简单查询来说,其性能量级是毫秒,对于百万级别的行数来说,其性能量级是秒。

查看全文 →

Hive/Impala 整合 HBase

Hive 整合 HBase

查看全文 →

HDFS 常用指令

如何修改 HDFS 副本数量

查看全文 →

HBase 之RowKey特性与设计

HBase 之RowKey特性与设计

查看全文 →

HBase VS MySQL 性能测试

HBase 1.0.0
MySQL 5.6

查看全文 →

Hbase 集群需求

HBase 之Thrift Server

通过 Thrift 操作 HBase

查看全文 →

HBase 之Block Cache 实现机制

HBase上Regionserver的内存分为两个部分:
一部分作为Memstore,主要用来写,
另一部分作为BlockCache,主要用于读。

查看全文 →

HBase 之数据的导入与导出

  • 使用Hbase的Put API 不适合快速的导入大数据
  • 使用Hbase的bulkload工具 大量数据导入最有效的方式,importtsv是个内置工具,以MapReduce任务的方式,可以将TSV文件转换成Hbase底层格式
  • 使用MapReduce任务 从其他格式或者数据是动态产生,比较灵活,但是设计不当,会造成性能底下。
  • Sqoop 导入 将Hadoop和关系型数据库的数据互相转移的工具,通过mapReduce任务。
  • DataX 不好用
  • Kettle 不会用
查看全文 →

HBase 之简介与基本概念

HBase 是一个构建在HDFS之上的、 可伸缩、高可靠、高性能、分布式和面向列的动态模式数据库,主要用于存储海量数据。
和传统关系数据库不同,HBase采用了BigTable的数据模型:增强的稀疏排序映射表(Key/Value),其中,键由行关键字、列关键字和时间戳构成。HBase提供了对大规模数据的随机、实时读写访问,同时,HBase中保存的数据可以使用MapReduce来处理,它将数据存储和并行计算完美地结合在一起。

HBase 数据模型:Schema-->Table-->Column Family-->Column-->RowKey-->TimeStamp-->Value

查看全文 →

Flume + Kafka + Storm 部署指南

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
当前Flume有两个版本Flume 0.9X版本的统称Flume-og,Flume1.X版本的统称Flume-ng

Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。

Storm是一个分布式的、容错的实时计算系统,为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于连续计算(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。

查看全文 →