新增秒杀设计

pull/1/head
ruyu.li 4 years ago
parent 17291998e6
commit abf70d512d

@ -4092,6 +4092,485 @@ DDoS 攻击,英文全称是 Distributed Denial of Service谷歌翻译过来
# 秒杀商品
## 瞬时高并发
一般在`秒杀时间点`比如12点前几分钟用户并发量才真正突增达到秒杀时间点时并发量会达到顶峰。但由于这类活动是大量用户抢少量商品的场景必定会出现`狼多肉少`的情况,所以其实绝大部分用户秒杀会失败,只有极少部分用户能够成功。正常情况下,大部分用户会收到商品已经抢完的提醒,收到该提醒后,他们大概率不会在那个活动页面停留了,如此一来,用户并发量又会急剧下降。所以这个峰值持续的时间其实是非常短的,这样就会出现瞬时高并发的情况,下面用一张图直观的感受一下流量的变化:
![秒杀商品-瞬时高并发](images/Architecture/秒杀商品-瞬时高并发.png)
像这种瞬时高并发的场景,传统的系统很难应对,我们需要设计一套全新的系统。可以从以下几个方面入手:
- **页面静态化**
- **CDN加速**
- **缓存**
- **mq异步处理**
- **限流**
- **分布式锁**
## 页面静态化
活动页面是用户流量的第一入口,所以是并发量最大的地方。如果这些流量都能直接访问服务端,恐怕服务端会因为承受不住这么大的压力,而直接挂掉。
![秒杀商品-动态秒杀页面](images/Architecture/秒杀商品-动态秒杀页面.png)活动页面绝大多数内容是固定的,比如:商品名称、商品描述、图片等。为了减少不必要的服务端请求,通常情况下,会对活动页面做`静态化`处理。用户浏览商品等常规操作,并不会请求到服务端。只有到了秒杀时间点,并且用户主动点了秒杀按钮才允许访问服务端。
![秒杀商品-静态秒杀页面](images/Architecture/秒杀商品-静态秒杀页面.png)这样能过滤大部分无效请求。但只做页面静态化还不够因为用户分布在全国各地有些人在北京有些人在成都有些人在深圳地域相差很远网速各不相同。如何才能让用户最快访问到活动页面呢这就需要使用CDN它的全称是Content Delivery Network即内容分发网络。
![秒杀商品-静态秒杀页面CDN](images/Architecture/秒杀商品-静态秒杀页面CDN.png)使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。
## 秒杀按钮
大部分用户怕错过`秒杀时间点`,一般会提前进入活动页面。此时看到的`秒杀按钮`是置灰,不可点击的。只有到了秒杀时间点那一时刻,秒杀按钮才会自动点亮,变成可点击的。但此时很多用户已经迫不及待了,通过不停刷新页面,争取在第一时间看到秒杀按钮的点亮。
从前面得知该活动页面是静态的。那么我们在静态页面中如何控制秒杀按钮只在秒杀时间点时才点亮呢没错使用js文件控制。为了性能考虑一般会将css、js和图片等静态资源文件提前缓存到CDN上让用户能够就近访问秒杀页面。看到这里有些聪明的小伙伴可能会问CDN上的js文件是如何更新的秒杀开始之前js标志为false还有另外一个随机参数。
![秒杀商品-秒杀活动开始前](images/Architecture/秒杀商品-秒杀活动开始前.png)
当秒杀开始的时候系统会生成一个新的js文件此时标志为true并且随机参数生成一个新值然后同步给CDN。由于有了这个随机参数CDN不会缓存数据每次都能从CDN中获取最新的js代码。
![秒杀商品-秒杀活动开始后](images/Architecture/秒杀商品-秒杀活动开始后.png)
此外前端还可以加一个定时器控制比如10秒之内只允许发起一次请求。如果用户点击了一次秒杀按钮则在10秒之内置灰不允许再次点击等到过了时间限制又允许重新点击该按钮。
## 读多写少
在秒杀的过程中,系统一般会先查一下库存是否足够,如果足够才允许下单,写数据库。如果不够,则直接返回该商品已经抢完。由于大量用户抢少量商品,只有极少部分用户能够抢成功,所以绝大部分用户在秒杀时,库存其实是不足的,系统会直接返回该商品已经抢完。这是非常典型的:`读多写少` 的场景。
![秒杀商品-读多写少](images/Architecture/秒杀商品-读多写少.png)
如果有数十万的请求过来同时通过数据库查缓存是否足够此时数据库可能会挂掉。因为数据库的连接资源非常有限比如mysql无法同时支持这么多的连接。而应该改用缓存比如redis。即便用了redis也需要部署多个节点。
![秒杀商品-Redis缓存](images/Architecture/秒杀商品-Redis缓存.png)
## 缓存问题
通常情况下我们需要在redis中保存商品信息里面包含商品id、商品名称、规格属性、库存等信息同时数据库中也要有相关信息毕竟缓存并不完全可靠。用户在点击秒杀按钮请求秒杀接口的过程中需要传入的商品id参数然后服务端需要校验该商品是否合法。大致流程如下图所示
![秒杀商品-大致流程](images/Architecture/秒杀商品-大致流程.png)
根据商品id先从缓存中查询商品如果商品存在则参与秒杀。如果不存在则需要从数据库中查询商品如果存在则将商品信息放入缓存然后参与秒杀。如果商品不存在则直接提示失败。这个过程表面上看起来是OK的但是如果深入分析一下会发现一些问题。
### 缓存击穿
比如商品A第一次秒杀时缓存中是没有数据的但数据库中有。虽说上面有如果从数据库中查到数据则放入缓存的逻辑。然而在高并发下同一时刻会有大量的请求都在秒杀同一件商品这些请求同时去查缓存中没有数据然后又同时访问数据库。结果悲剧了数据库可能扛不住压力直接挂掉。如何解决这个问题呢这就需要加锁最好使用分布式锁。
![秒杀商品-缓存击穿](images/Architecture/秒杀商品-缓存击穿.png)当然,针对这种情况,最好在项目启动之前,先把缓存进行`预热`。即事先把所有的商品,同步到缓存中,这样商品基本都能直接从缓存中获取到,就不会出现缓存击穿的问题了。
是不是上面加锁这一步可以不需要了?表面上看起来,确实可以不需要。但如果缓存中设置的过期时间不对,缓存提前过期了,或者缓存被不小心删除了,如果不加速同样可能出现缓存击穿。其实这里加锁,相当于买了一份保险。
### 缓存穿透
如果有大量的请求传入的商品id在缓存中和数据库中都不存在这些请求不就每次都会穿透过缓存而直接访问数据库了。由于前面已经加了锁所以即使这里的并发量很大也不会导致数据库直接挂掉。但很显然这些请求的处理性能并不好有没有更好的解决方案这时可以想到`布隆过滤器`。
![秒杀商品-缓存穿透](images/Architecture/秒杀商品-缓存穿透.png)
系统根据商品id先从布隆过滤器中查询该id是否存在如果存在则允许从缓存中查询数据如果不存在则直接返回失败。虽说该方案可以解决缓存穿透问题但是又会引出另外一个问题布隆过滤器中的数据如何更缓存中的数据保持一致这就要求如果缓存中数据有更新则要及时同步到布隆过滤器中。如果数据同步失败了还需要增加重试机制而且跨数据源能保证数据的实时一致性吗显然是不行的。所以布隆过滤器绝大部分使用在缓存数据更新很少的场景中。如果缓存数据更新非常频繁又该如何处理呢这时就需要把不存在的商品id也缓存起来。
![秒杀商品-缓存穿透-缓存空商品](images/Architecture/秒杀商品-缓存穿透-缓存空商品.png)
下次再有该商品id的请求过来则也能从缓存中查到数据只不过该数据比较特殊表示商品不存在。需要特别注意的是这种特殊缓存设置的超时时间应该尽量短一点。
## 库存问题
对于库存问题看似简单,实则里面还是有些东西。真正的秒杀商品的场景,不是说扣完库存,就完事了,如果用户在一段时间内,还没完成支付,扣减的库存是要加回去的。所以,在这里引出了一个`预扣库存`的概念,预扣库存的主要流程如下:
![秒杀商品-预扣库存主要流程](images/Architecture/秒杀商品-预扣库存主要流程.png)
扣减库存中除了上面说到的`预扣库存`和`回退库存`之外,还需要特别注意的是库存不足和库存超卖问题。
### 数据库扣减库存
使用数据库扣减库存是最简单的实现方案了假设扣减库存的sql如下
```sql
update product set stock=stock-1 where id=123;
```
这种写法对于扣减库存是没有问题的但如何控制库存不足的情况下不让用户操作呢这就需要在update之前先查一下库存是否足够了。伪代码如下
```sql
int stock = mapper.getStockById(123);
if(stock > 0) {
int count = mapper.updateStock(123);
if(count > 0) {
addOrder(123);
}
}
```
大家有没有发现这段代码的问题没错查询操作和更新操作不是原子性的会导致在并发的场景下出现库存超卖的情况。有人可能会说这样好办加把锁不就搞定了比如使用synchronized关键字。确实可以但是性能不够好。还有更优雅的处理方案即基于数据库的乐观锁这样会少一次数据库查询而且能够天然的保证数据操作的原子性。只需将上面的sql稍微调整一下
```sql
update product set stock=stock-1 where id=product and stock > 0;
```
在sql最后加上`stock > 0`,就能保证不会出现超卖的情况。但需要频繁访问数据库,我们都知道数据库连接是非常昂贵的资源。在高并发的场景下,可能会造成系统雪崩。而且,容易出现多个请求,同时竞争行锁的情况,造成相互等待,从而出现死锁的问题。
### redis扣减库存
redis的`incr`方法是原子性的,可以用该方法扣减库存。伪代码如下:
```java
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
int stock = redisClient.queryStock(productId);
if(stock <=0) {
return 0;
}
redisClient.incrby(productId, -1);
redisClient.add(productId,userId);
return 1;
```
代码流程如下:
- 先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回-1
- 查询库存如果库存小于等于0则直接返回0表示库存不足
- 如果库存充足则扣减库存然后将本次秒杀记录保存起来。然后返回1表示成功
估计很多小伙伴一开始都会按这样的思路写代码。但如果仔细想想会发现这段代码有问题。有什么问题呢如果在高并发下有多个请求同时查询库存当时都大于0。由于查询库存和更新库存非原则操作则会出现库存为负数的情况即`库存超卖`。当然有人可能会说,加个`synchronized`不就解决问题?调整后代码如下:
```java
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
synchronized(this) {
int stock = redisClient.queryStock(productId);
if(stock <=0) {
return 0;
}
redisClient.incrby(productId, -1);
redisClient.add(productId,userId);
}
return 1;
```
加`synchronized`确实能解决库存为负数问题,但是这样会导致接口性能急剧下降,每次查询都需要竞争同一把锁,显然不太合理。为了解决上面的问题,代码优化如下:
```java
boolean exist = redisClient.query(productId,userId);
if(exist) {
return -1;
}
if(redisClient.incrby(productId, -1)<0) {
return 0;
}
redisClient.add(productId,userId);
return 1;
```
该代码主要流程如下:
- 先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回-1
- 扣减库存判断返回值是否小于0如果小于0则直接返回0表示库存不足
- 如果扣减库存后返回值大于或等于0则将本次秒杀记录保存起来。然后返回1表示成功
该方案咋一看好像没问题。但如果在高并发场景中有多个请求同时扣减库存大多数请求的incrby操作之后结果都会小于0。虽说库存出现负数不会出现`超卖的问题`。但由于这里是预减库存,如果负数值负的太多的话,后面万一要回退库存时,就会导致库存不准。那么,有没有更好的方案呢?
### lua脚本扣减库存
lua脚本能够保证原子性的它跟redis一起配合使用能够完美解决上面的问题。lua脚本有段非常经典的代码
```java
StringBuilder lua = new StringBuilder();
lua.append("if (redis.call('exists', KEYS[1]) == 1) then");
lua.append(" local stock = tonumber(redis.call('get', KEYS[1]));");
lua.append(" if (stock == -1) then");
lua.append(" return 1;");
lua.append(" end;");
lua.append(" if (stock > 0) then");
lua.append(" redis.call('incrby', KEYS[1], -1);");
lua.append(" return stock;");
lua.append(" end;");
lua.append(" return 0;");
lua.append("end;");
lua.append("return -1;");
```
该代码的主要流程如下:
- 先判断商品id是否存在如果不存在则直接返回
- 获取该商品id的库存判断库存如果是-1则直接返回表示不限制库存
- 如果库存大于0则扣减库存
- 如果库存等于0是直接返回表示库存不足
## 分布式锁
之前我提到过,在秒杀的时候,需要先从缓存中查商品是否存在,如果不存在,则会从数据库中查商品。如果数据库中,则将该商品放入缓存中,然后返回。如果数据库中没有,则直接返回失败。
大家试想一下如果在高并发下有大量的请求都去查一个缓存中不存在的商品这些请求都会直接打到数据库。数据库由于承受不住压力而直接挂掉。那么如何解决这个问题呢这就需要用redis分布式锁了。
### setNx加锁
使用redis的分布式锁首先想到的是`setNx`命令。
```java
if (jedis.setnx(lockKey, val) == 1) {
jedis.expire(lockKey, timeout);
}
```
用该命令其实可以加锁但和后面的设置超时时间是分开的并非原子操作。假如加锁成功了但是设置超时时间失败了该lockKey就变成永不失效的了。在高并发场景中该问题会导致非常严重的后果。那么有没有保证原子性的加锁命令呢
### set加锁
使用redis的set命令它可以指定多个参数。
```java
String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
if ("OK".equals(result)) {
return true;
}
return false;
```
其中:
- lockKey锁的标识
- requestId请求id
- NX只在键不存在时才对键进行设置操作。
- PX设置键的过期时间为 millisecond 毫秒。
- expireTime过期时间
由于该命令只有一步,所以它是原子操作。
### 释放锁
接下来有些朋友可能会问在加锁时既然已经有了lockKey锁标识为什么要需要记录requestId呢因为requestId是在释放锁的时候用的。
```java
if (jedis.get(lockKey).equals(requestId)) {
jedis.del(lockKey);
return true;
}
return false;
```
在释放锁的时候只能释放自己加的锁不允许释放别人加的锁。这里为什么要用requestId用userId不行吗
如果用userId的话假设本次请求流程走完了准备删除锁。此时巧合锁到了过期时间失效了。而另外一个请求巧合使用的相同userId加锁会成功。而本次请求删除锁的时候删除的其实是别人的锁了。
当然使用lua脚本也能避免该问题
```java
if redis.call('get', KEYS[1]) == ARGV[1] then
return redis.call('del', KEYS[1])
else
return 0
end
```
它能保证查询锁是否存在和删除锁是原子操作。
### 自旋锁
上面的加锁方法看起来好像没有问题但如果你仔细想想如果有1万的请求同时去竞争那把锁可能只有一个请求是成功的其余的9999个请求都会失败。
在秒杀场景下会有什么问题每1万个请求有1个成功。再1万个请求有1个成功。如此下去直到库存不足。这就变成均匀分布的秒杀了跟我们想象中的不一样。
如何解决这个问题呢?答:使用自旋锁。
```java
try {
Long start = System.currentTimeMillis();
while(true) {
String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
if ("OK".equals(result)) {
return true;
}
long time = System.currentTimeMillis() - start;
if (time>=timeout) {
return false;
}
try {
Thread.sleep(50);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
} finally{
unlock(lockKey,requestId);
}
return false;
```
在规定的时间比如500毫秒内自旋不断尝试加锁如果成功则直接返回。如果失败则休眠50毫秒再发起新一轮的尝试。如果到了超时时间还未加锁成功则直接返回失败。
### redisson
除了上面的问题之外使用redis分布式锁还有锁竞争问题、续期问题、锁重入问题、多个redis实例加锁问题等。这些问题使用redisson可以解决由于篇幅的原因在这里先保留一点悬念有疑问的私聊给我。后面会出一个专题介绍分布式锁敬请期待。
## mq异步处理
我们都知道在真实的秒杀场景中,有三个核心流程:
![秒杀商品-三个核心流程](images/Architecture/秒杀商品-三个核心流程.png)
而这三个核心流程中真正并发量大的是秒杀功能下单和支付功能实际并发量很小。所以我们在设计秒杀系统时有必要把下单和支付功能从秒杀的主流程中拆分出来特别是下单功能要做成mq异步处理的。而支付功能比如支付宝支付是业务场景本身保证的异步。于是秒杀后下单的流程变成如下
![秒杀商品-下单的流程](images/Architecture/秒杀商品-下单的流程.png)
如果使用mq需要关注以下几个问题
### 消息丢失问题
秒杀成功了往mq发送下单消息的时候有可能会失败。原因有很多比如网络问题、broker挂了、mq服务端磁盘问题等。这些情况都可能会造成消息丢失。那么如何防止消息丢失呢加一张消息发送表。
![秒杀商品-消息丢失问题-加消息发送表](images/Architecture/秒杀商品-消息丢失问题-加消息发送表.png)
在生产者发送mq消息之前先把该条消息写入消息发送表初始状态是待处理然后再发送mq消息。消费者消费消息时处理完业务逻辑之后再回调生产者的一个接口修改消息状态为已处理。如果生产者把消息写入消息发送表之后再发送mq消息到mq服务端的过程中失败了造成了消息丢失。这时候要如何处理呢使用job增加重试机制。
![秒杀商品-消息丢失问题-加Job](images/Architecture/秒杀商品-消息丢失问题-加Job.png)
用job每隔一段时间去查询消息发送表中状态为待处理的数据然后重新发送mq消息。
### 重复消费问题
本来消费者消费消息时在ack应答的时候如果网络超时本身就可能会消费重复的消息。但由于消息发送者增加了重试机制会导致消费者重复消息的概率增大。那么如何解决重复消息问题呢加一张消息处理表。
![秒杀商品-消息丢失问题-加消息处理表](images/Architecture/秒杀商品-消息丢失问题-加消息处理表.png)
消费者读到消息之后,先判断一下消息处理表,是否存在该消息,如果存在,表示是重复消费,则直接返回。如果不存在,则进行下单操作,接着将该消息写入消息处理表中,再返回。有个比较关键的点是:下单和写消息处理表,要放在同一个事务中,保证原子操作。
### 垃圾消息问题
这套方案表面上看起来没有问题但如果出现了消息消费失败的情况。比如由于某些原因消息消费者下单一直失败一直不能回调状态变更接口这样job会不停的重试发消息。最后会产生大量的垃圾消息。那么如何解决这个问题呢
![秒杀商品-消息丢失问题-加Job优化](images/Architecture/秒杀商品-消息丢失问题-加Job优化.png)
每次在job重试时需要先判断一下消息发送表中该消息的发送次数是否达到最大限制如果达到了则直接返回。如果没有达到则将次数加1然后发送消息。这样如果出现异常只会产生少量的垃圾消息不会影响到正常的业务。
### 延迟消费问题
通常情况下如果用户秒杀成功了下单之后在15分钟之内还未完成支付的话该订单会被自动取消回退库存。那么在15分钟内未完成支付订单被自动取消的功能要如何实现呢我们首先想到的可能是job因为它比较简单。但job有个问题需要每隔一段时间处理一次实时性不太好。还有更好的方案使用延迟队列。我们都知道rocketmq自带了延迟队列的功能。
![秒杀商品-延迟消费](images/Architecture/秒杀商品-延迟消费.png)
下单时消息生产者会先生成订单,此时状态为待支付,然后会向延迟队列中发一条消息。达到了延迟时间,消息消费者读取消息之后,会查询该订单的状态是否为待支付。如果是待支付状态,则会更新订单状态为取消状态。如果不是待支付状态,说明该订单已经支付过了,则直接返回。还有个关键点,用户完成支付之后,会修改订单状态为已支付。
![秒杀商品-增加已支付](images/Architecture/秒杀商品-增加已支付.png)
## 如何限流
通过秒杀活动,如果我们运气爆棚,可能会用非常低的价格买到不错的商品(这种概率堪比买福利彩票中大奖)。但有些高手,并不会像我们一样老老实实,通过秒杀页面点击秒杀按钮,抢购商品。他们可能在自己的服务器上,模拟正常用户登录系统,跳过秒杀页面,直接调用秒杀接口。如果是我们手动操作,一般情况下,一秒钟只能点击一次秒杀按钮。
![秒杀商品-正常用户请求](images/Architecture/秒杀商品-正常用户请求.png)
但是如果是服务器,一秒钟可以请求成上千接口。
![秒杀商品-非法用户请求](images/Architecture/秒杀商品-非法用户请求.png)
这种差距实在太明显了,如果不做任何限制,绝大部分商品可能是被机器抢到,而非正常的用户,有点不太公平。所以,我们有必要识别这些非法请求,做一些限制。那么,我们该如何现在这些非法请求呢?目前有两种常用的限流方式:
- 基于nginx限流
- 基于redis限流
### 对同一用户限流
为了防止某个用户,请求接口次数过于频繁,可以只针对该用户做限制。
![秒杀商品-对同一用户限流](images/Architecture/秒杀商品-对同一用户限流.png)
限制同一个用户id比如每分钟只能请求5次接口。
### 对同一ip限流
有时候只对某个用户限流是不够的有些高手可以模拟多个用户请求这种nginx就没法识别。这时需要加同一ip限流功能。
![秒杀商品-对同一IP限流](images/Architecture/秒杀商品-对同一IP限流.png)
限制同一个ip比如每分钟只能请求5次接口。但这种限流方式可能会有误杀的情况比如同一个公司或网吧的出口ip是相同的如果里面有多个正常用户同时发起请求有些用户可能会被限制住。
### 对接口限流
别以为限制了用户和ip就万事大吉有些高手甚至可以使用代理每次都请求都换一个ip。这时可以限制请求的接口总次数。
![秒杀商品-对接口限流](images/Architecture/秒杀商品-对接口限流.png)
在高并发场景下,这种限制对于系统的稳定性是非常有必要的。但可能由于有些非法请求次数太多,达到了该接口的请求上限,而影响其他的正常用户访问该接口。看起来有点得不偿失。
### 加验证码
相对于上面三种方式,加验证码的方式可能更精准一些,同样能限制用户的访问频次,但好处是不会存在误杀的情况。
![秒杀商品-加验证码](images/Architecture/秒杀商品-加验证码.png)
通常情况下,用户在请求之前,需要先输入验证码。用户发起请求之后,服务端会去校验该验证码是否正确。只有正确才允许进行下一步操作,否则直接返回,并且提示验证码错误。此外,验证码一般是一次性的,同一个验证码只允许使用一次,不允许重复使用。普通验证码,由于生成的数字或者图案比较简单,可能会被破解。优点是生成速度比较快,缺点是有安全隐患。还有一个验证码叫做:`移动滑块`,它生成速度比较慢,但比较安全,是目前各大互联网公司的首选。
### 提高业务门槛
上面说的加验证码虽然可以限制非法用户请求,但是有些影响用户体验。用户点击秒杀按钮前,还要先输入验证码,流程显得有点繁琐,秒杀功能的流程不是应该越简单越好吗?
其实,有时候达到某个目的,不一定非要通过技术手段,通过业务手段也一样。
12306刚开始的时候全国人民都在同一时刻抢火车票由于并发量太大系统经常挂。后来重构优化之后将购买周期放长了可以提前20天购买火车票并且可以在9点、10、11点、12点等整点购买火车票。调整业务之后当然技术也有很多调整将之前集中的请求分散开了一下子降低了用户并发量。
回到这里我们通过提高业务门槛比如只有会员才能参与秒杀活动普通注册用户没有权限。或者只有等级到达3级以上的普通用户才有资格参加该活动。
这样简单的提高一点门槛,即使是黄牛党也束手无策,他们总不可能为了参加一次秒杀活动,还另外花钱充值会员吧?
# 其它设计 # 其它设计
## 短链接 ## 短链接

Binary file not shown.

After

Width:  |  Height:  |  Size: 118 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 57 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 113 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 198 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 70 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 246 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 94 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 100 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 97 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 177 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 154 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 69 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 148 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 104 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 354 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 359 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 226 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 96 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 98 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 117 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 249 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 369 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 123 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 111 KiB

Loading…
Cancel
Save