当Facebook创造的cassandra遇上饿了么

2018-01-27 10:14:34来源:https://juejin.im/post/5a6aeefb518825732821a5e6作者:稀土掘金人点击

分享


摘要

1、饿了么大数据为什么选择cassandra


2、 Cassandra的基本原理


3、饿了么cassandra实践


4、 Cassandra和大数据离线平台的结合


内容来源: 2017年6月11日,饿了么数据专家翟玉勇在“饿了么&七牛云联合论坛 大数据最新场景化应用实践”进行《cassandra在饿了么的应用》演讲分享。IT 大咖说作为独家视频合作方,经主办方和讲者审阅授权发布。


阅读字数:1759 | 4分钟阅读


嘉宾演讲视频回放: t.cn/RQs4Uv2


Cassandra历史

Google的三大论文其中有一个叫BigTable,Amazon有一个kv存储叫Dynamo。Facebook根据Google和Amazon的这两个自己创造出了Cassandra。2008年,Facebook放弃了Cassandra,把它交给了Apache。


Cassandra概述

Cassandra最初源自Facebook,集合了Google BigTable面向列的特性和Amazon Dynamo分布式哈希(DHT)的P2P特性于一身,具有很高的性能、可扩展性、容错、部署简单等特点。


Cassandra架构关键字

1、Gossip 点对点通信协议,用于集群之间节点交换位置和状态信息。


2、Partitioner 决定如何在集群中的节点间分发数据,也就是哪个节点放止数据的第一个replica。


3、Replica Strategy 决定在哪些节点放置数据的其他replica。


4、Snitch 定义了复制策略用来放置replicas和路由请求所使用的拓扑信息。


Gossip-节点的通信

Cassandra使用点对点通信协议Gossip在集群中的节点间交换位置和状态信息。Gossip进程每秒运行一次,与最多3个其他节点交换信息,这样所有的节点可很快的了解集群中其他节点信息。


1、种子节点。它的作用就是让其它节点来认识到这个集群在哪里,如何与集群连上关系。


2、Cassandra故障探测。Cassandra协议就是每个进程每秒最多会和三个其它节点做交互,判断它是否存活。


3、Cassandra故障修复。当一个节点挂了,但不代表它从这个集群中移走了,而只是暂时offline。当它再拉起来的时候,Gossip系统也能探测到它活了,并加入到集群中去。


Partitioner

Partitioner定义了数据如何在集群中的节点分布,哪个节点应该存放数据的第一份拷贝。基本上,Partitioner就是一个计算分区键token的哈希函数。


Partitioner中分为三大类。Partition Key 决定数据在Cassandra哪个节点上,Clustering Key 用于在各个分区内的排序,Primary Key 主键决定数据行的唯一性。




Replica Strategy

Cassandra在多个节点中存放replicas以保证可靠性和容错性。Replica Strategy决定放置replicas的节点,replicas的数目由复制因子确定,比如通常设置3表示每行数据有三份拷贝,每份数据存储在不同的节点。


当前可用的两种复制策略:


1、SimpleStrategy 仅用于但数据中心


CREATEKEYSPACE dw WITH replication = {'class':'SimpleStrategy', ‘replication_factor': 3}


2、NetworkTopologyStrategy 用于多IDC场景,可指定每个IDC有多少replicas


CREATEKEYSPACE dw WITH replication = {'class':'NetworkTopologyStrategy', 'DC-SH' : 2,'DC-BG' : 2}


Cassandra主要的数据结构

Memtable:它的本质是java里的跳表。


SSTable:最终存放的数据落地在磁盘的结构。


BloomFilter:高效地用最少的内存来判断数据是否存在。



CQL语言

CQL类似于SQL,支持DDL操作create table,drop table等,也支持DML操作INSERT、UPDATE、DELETE等等,通过select进行数据查询。






Cassandra一致性保障

在Cassandra中,有三重策略来保障Cassandra达到最终的一致性。


HintedHandoff:如果写了三个副本,只要有两个响应就可以。但是假如有一个节点挂了,Cassandra可以把本来要写到这个节点的数据写到另一个节点上。等挂了的节点拉起来之后,再把这个数据写回去,以保证三份数据同时写成功了。


ReadRepair:当一个读的请求发起之后,可以触发后台一个线程检查这三个数据的副本数据是否一致,如果不一致再进行修复。


Anti-EntropyNode Repair:主动把自己节点的key和其它节点的key进行比较,不一致的进行修复。


为什么选择Cassandra

运维成本:部署简单,只需要运维一个组件,监控成本低。


开发成本:类似sql的cql语言,对开发友好,低成本上手;DataStax公司提供的强大的java client;可调节的数据一致性;异步接口。


适用场景:Cassandra自带多idc策略、我们的业务需求。


Cassandra在饿了么的实践

生产应用(用户画像、历时订单、dt.api)、Client选择、运维和监控以及性能调优。


生产应用-用户画像

我们的用户画像用了5 个节点,超过2.6亿的饿了么用户数据,100+的用户属性,每天有5000万+数据更新,Scheme变更频繁(加字段),99%的读延时能控制在3-5ms之内。


生产应用-历史订单

我们采用了Sata盘集群,它对我们的响应时间并不是要求很高,平均响应时间小于80ms。这个集群大概有15个节点。


生产应用-dt.api

Dt.api是一个饿了么大数据平台自助化数据接口平台。用户在这个平台上只要写出一个SQL,它就会自动生成一个HTTP或SOA接口。当前这里有50+ 基于Cassandra的CQL API生成。


运维和监控

ansible自动部署:Cassandra的端口必须绑定到内网IP,用ansible进行自动部署特别方便。


Zabbix监控:饿了么大数据平台的监控主要是Zabbix。



性能调优-集群调优化
集群参数设置

1、memtable_allocation_type


heap_buffers:on heap nio buffer


offheap_buffers:off heap(direct) nio buffers


offheap_objects:native memory


2、concurrent_write和concurrent_read


3、Sstable compression


4、Concurrent compactor


5、memtable_flush_writers


6、Netty io线程数目


JVM调优化

1、堆的大小选择


2、取消偏向锁


Scheme设计优化

1、Primary key设计,避免热点


2、关闭读修复


3、Compaction strategy策略选择


4、Ttl设置


5、Row cache启用


大数据离线平台和Cassandra的整合


两大数据推送Cassandra工具

HiveIntegrate Cassandra Native Protocol:


1.Hive外部表映射到Cassandra表


2.InsertInto HiveTable Select 简单快捷


3.跨机房推送限流/限速


4.异步写


HiveIntegrate Cassandra Bulkload:



1.hive生成Cassandra底层的SSTable文件直接load到Cassandra。


2.适用于数据快速初始化。


3.需要控制生成的SSTable大小避免Compact耗时多久。



我今天的分享就到这里,谢谢大家!


最新文章

123

最新摄影

闪念基因

微信扫一扫

第七城市微信公众平台