SpringCloud Alibaba教程

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

第一章 微服务介绍

系统架构演变

随着互联网的发展网站应用的规模也在不断的扩大进而导致系统架构也在不断的进行变化。
从互联网早起到现在系统架构大体经历了下面几个过程: 单体应用架构—>垂直应用架构—>分布 式架构—>SOA架构—>微服务架构当然还有悄然兴起的Service Mesh(服务网格化)。
接下来我们就来了解一下每种系统架构是什么样子的 以及各有什么优缺点。

单体应用架构

互联网早期一般的网站应用流量较小只需一个应用将所有功能代码都部署在一起就可以这 样可以减少开发、部署和维护的成本。
比如说一个电商系统里面会包含很多用户管理商品管理订单管理物流管理等等很多模块 我们会把它们做成一个web项目然后部署到一台tomcat服务器上。

优点

项目架构简单小型项目的话 开发成本低项目部署在一个节点上 维护方便

缺点

全部功能集成在一个工程中对于大型项目来讲不易开发和维护项目模块之间紧密耦合单点容错率低
无法针对不同模块进行针对性优化和水平扩展

垂直应用架构

随着访问量的逐渐增大单一应用只能依靠增加节点来应对但是这时候会发现并不是所有的模块 都会有比较大的访问量.
还是以上面的电商为例子 用户访问量的增加可能影响的只是用户和订单模块 但是对消息模块的影响就比较小. 那么此时我们希望只多增加几个订单模块 而不增加消息模块. 此时单体应用就做不到了 垂直应用就应运而生了.
所谓的垂直应用架构就是将原来的一个应用拆成互不相干的几个应用以提升效率。比如我们可 以将上面电商的单体应用拆分成:
电商系统(用户管理 商品管理 订单管理)
后台系统(用户管理 订单管理 客户管理)
CMS系统(广告管理 营销管理)
这样拆分完毕之后一旦用户访问量变大只需要增加电商系统的节点就可以了而无需增加后台 和CMS的节点。

优点

系统拆分实现了流量分担解决了并发问题而且可以针对不同模块进行优化和水平扩展
一个系统的问题不会影响到其他系统提高容错率

缺点

系统之间相互独立 无法进行相互调用系统之间相互独立 会有重复的开发任务

分布式架构

当垂直应用越来越多重复的业务代码就会越来越多。这时候我们就思考可不可以将重复的代码 抽取出来做成统一的业务层作为独立的服务然后由前端控制层调用不同的业务层服务呢
这就产生了新的分布式系统架构。它将把工程拆分成表现层和服务层两个部分服务层中包含业务 逻辑。表现层只需要处理和页面的交互业务逻辑都是调用服务层的服务来实现。

优点
抽取公共的功能为服务层提高代码复用性
缺点
系统间耦合度变高调用关系错综复杂难以维护

SOA架构

在分布式架构下当服务越来越多容量的评估小服务资源的浪费等问题逐渐显现此时需增加 一个调度中心对集群进行实时管理。此时用于资源调度和治理中心(SOA Service Oriented Architecture面向服务的架构)是关键。

优点:
使用注册中心解决了服务间调用关系的自动调节
缺点:
服务间会有依赖关系一旦某个环节出错会影响较大( 服务雪崩 )
服务关心复杂运维、测试部署困难

微服务架构

微服务架构在某种程度上是面向服务的架构SOA继续发展的下一步它更加强调服务的"彻底拆分"。

优点
服务原子化拆分独立打包、部署和升级保证每个微服务清晰的任务划分利于扩展微服务之间采用Restful等轻量级http协议相互调用
缺点
分布式系统开发的技术成本高容错、分布式事务等

微服务架构介绍

微服务架构 简单的说就是将单体应用进一步拆分拆分成更小的服务每个服务都是一个可以独立运行的项目。

微服务架构的常见问题

一旦采用微服务系统架构就势必会遇到这样几个问题
这么多小服务如何管理他们(服务治理 注册中心[服务注册 发现 剔除])
这么多小服务他们之间如何通讯(**restful **rpc)
这么多小服务客户端怎么访问他们(网关)
这么多小服务一旦出现问题了应该如何自处理(容错)
这么多小服务一旦出现问题了应该如何排错? (链路追踪)
对于上面的问题是任何一个微服务设计者都不能绕过去的因此大部分的微服务产品都针对每一 个问题提供了相应的组件来解决它们。

微服务架构的常见概念

服务治理

服务治理就是进行服务的自动化管理其核心是服务的自动注册与发现。
服务注册服务实例将自身服务信息注册到注册中心。
服务发现服务实例通过注册中心获取到注册到其中的服务实例的信息通过这些信息去请求它们提 供的服务。
服务剔除服务注册中心将出问题的服务自动剔除到可用列表之外使其不会被调用到。

服务调用

在微服务架构中通常存在多个服务之间的远程调用的需求。目前主流的远程调用技术有基于
HTTP的RESTful接口以及基于TCP的RPC协议。
REST(Representational State Transfer)
这是一种HTTP调用的格式更标准更通用无论哪种语言都支持http协议
RPCRemote Promote Call
一种进程间通信方式。允许像调用本地服务一样调用远程服务。RPC框架的主要目标就是让远程服 务调用更简单、透明。RPC框架负责屏蔽底层的传输方式、序列化方式和通信细节。开发人员在使 用的时候只需要了解谁在什么位置提供了什么样的远程服务接口即可并不需要关心底层通信细节 和调用过程。
区别与联系

比较项RESTfulRPC
通讯协议HTTP一般使用TCP
性能略低较高
灵活度
应用微服务架构SOA架构

服务网关

随着微服务的不断增多不同的微服务一般会有不同的网络地址而外部客户端可能需要调用多个 服务的接口才能完成一个业务需求如果让客户端直接与各个微服务通信可能出现
客户端需要调用不同的url地址增加难度
在一定的场景下存在跨域请求的问题
每个微服务都需要进行单独的身份认证
针对这些问题API网关顺势而生。
API网关直面意思是将所有API调用统一接入到API网关层由网关层统一接入和输出。一个网关的 基本功能有统一接入、安全防护、协议适配、流量管控、长短链接支持、容错能力。有了网关之后 各个API服务提供团队可以专注于自己的的业务逻辑处理而API网关更专注于安全、流量、路由等问题。

服务容错

在微服务当中一个请求经常会涉及到调用几个服务如果其中某个服务不可用没有做服务容错 的话极有可能会造成一连串的服务不可用这就是雪崩效应。
我们没法预防雪崩效应的发生只能尽可能去做好容错。服务容错的三个核心思想是
不被外界环境影响
不被上游请求压垮
不被下游响应拖垮

链路追踪

随着微服务架构的流行服务按照不同的维度进行拆分一次请求往往需要涉及到多个服务。互联 网应用构建在不同的软件模块集上这些软件模块有可能是由不同的团队开发、可能使用不同的编程 语言来实现、有可能布在了几千台服务器横跨多个不同的数据中心。因此就需要对一次请求涉及的 多个服务链路进行日志记录性能监控即链路追踪

微服务架构的常见解决方案

ServiceComb


Apache ServiceComb前身是华为云的微服务引擎 CSE (Cloud Service Engine) 云服务是全球首个Apache微服务顶级项目。它提供了一站式的微服务开源解决方案致力于帮助企业、用户和开发 者将企业应用轻松微服务化上云并实现对微服务应用的高效运维管理。

SpringCloud


Spring Cloud是一系列框架的集合。它利用Spring Boot的开发便利性巧妙地简化了分布式系统基础设施的开发如服务发现注册、配置中心、消息总线、负载均衡、断路器、数据监控等都可以用Spring Boot的开发风格做到一键启动和部署。
Spring Cloud并没有重复制造轮子它只是将目前各家公司开发的比较成熟、经得起实际考验的服务框架组合起来通过Spring Boot风格进行再封装屏蔽掉了复杂的配置和实现原理最终给开发者留出了一套简单易懂、易部署和易维护的分布式系统开发工具包。

SpringCloud Alibaba

Spring Cloud Alibaba 致力于提供微服务开发的一站式解决方案。此项目包含开发分布式应用微服务的必需组件方便开发者通过 Spring Cloud 编程模型轻松使用这些组件来开发分布式应用服务。

SpringCloud Alibaba介绍

Spring Cloud Alibaba 致力于提供微服务开发的一站式解决方案。此项目包含开发分布式应用微服务的必需组件方便开发者通过 Spring Cloud 编程模型轻松使用这些组件来开发分布式应用服务。
依托 Spring Cloud Alibaba您只需要添加一些注解和少量配置就可以将 Spring Cloud 应用接入阿里微服务解决方案通过阿里中间件来迅速搭建分布式应用系统。

主要功能

服务限流降级默认支持 WebServlet、WebFlux OpenFeign、RestTemplate、Spring Cloud Gateway Zuul Dubbo 和 RocketMQ 限流降级功能的接入可以在运行时通过控制台实时修改限流降级规则还支持查看限流降级 Metrics 监控。
服务注册与发现适配 Spring Cloud 服务注册与发现标准默认集成了 Ribbon 的支持。
分布式配置管理支持分布式系统中的外部化配置配置更改时自动刷新。 消息驱动能力基于 Spring Cloud Stream 为微服务应用构建消息驱动能力。
分布式事务使用 @GlobalTransactional 注解 高效并且对业务零侵入地解决分布式事务问题。阿里云对象存储阿里云提供的海量、安全、低成本、高可靠的云存储服务。支持在任何应用、任 何时间、任何地点存储和访问任意类型的数据。
分布式任务调度提供秒级、精准、高可靠、高可用的定时基于 Cron 表达式任务调度服务。同时提供分布式的任务执行模型如网格任务。网格任务支持海量子任务均匀分配到所有Workerschedulerx-client上执行。
阿里云短信服务覆盖全球的短信服务友好、高效、智能的互联化通讯能力帮助企业迅速搭建 客户触达通道。

组件

Sentinel把流量作为切入点从流量控制、熔断降级、系统负载保护等多个维度保护服务的稳 定性。
Nacos一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。RocketMQ一款开源的分布式消息系统基于高可用分布式集群技术提供低延时的、高可靠 的消息发布与订阅服务。
DubboApache Dubbo™ 是一款高性能 Java RPC 框架。
Seata阿里巴巴开源产品一个易于使用的高性能微服务分布式事务解决方案。
Alibaba Cloud ACM一款在分布式架构环境中对应用配置进行集中管理和推送的应用配置中心产品。
Alibaba Cloud OSS: 阿里云对象存储服务Object Storage Service简称 OSS是阿里云提供的海量、安全、低成本、高可靠的云存储服务。您可以在任何应用、任何时间、任何地点存储和 访问任意类型的数据。
Alibaba Cloud SchedulerX: 阿里中间件团队开发的一款分布式任务调度产品提供秒级、精准、高可靠、高可用的定时基于 Cron 表达式任务调度服务。
Alibaba Cloud SMS: 覆盖全球的短信服务友好、高效、智能的互联化通讯能力帮助企业迅速搭建客户触达通道。

第二章 微服务环境搭建

我们本次是使用的电商项目中的商品、订单、用户为案例进行讲解。

案例准备

技术选型

maven3.3.9
数据库MySQL 5.7
持久层: SpingData Jpa
其他: SpringCloud Alibaba 技术栈

模块设计

springcloud-alibaba 父工程
shop-common 公共模块【实体类】
shop-user 用户微服务 【端口: 807x】
shop-product 商品微服务 【端口: 808x】
shop-order 订单微服务 【端口: 809x】

微服务调用

在微服务架构中最常见的场景就是微服务之间的相互调用。我们以电商系统中常见的用户下单为 例来演示微服务的调用客户向订单微服务发起一个下单的请求在进行保存订单之前需要调用商品微 服务查询商品的信息。
我们一般把服务的主动调用方称为服务消费者把服务的被调用方称为服务提供者

在这种场景下订单微服务就是一个服务消费者 商品微服务就是一个服务提供者。

创建父工程

创建一个maven工程然后在pom.xml文件中添加下面内容

<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <modelVersion>4.0.0</modelVersion>


  <parent>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-parent</artifactId>
    <version>2.1.3.RELEASE</version>
  </parent>


  <groupId>com.itheima</groupId>
    <artifactId>springcloud-alibaba</artifactId>
    <version>1.0-SNAPSHOT</version>
  <packaging>pom</packaging>


  <properties>
    <java.version>1.8</java.version>
    <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
    <project.reporting.outputEncoding>UTF- 8</project.reporting.outputEncoding>
    <spring-cloud.version>Greenwich.RELEASE</spring-cloud.version>
    <spring-cloud-alibaba.version>2.1.0.RELEASE</spring-cloud- alibaba.version>
  </properties>


  <dependencyManagement>
    <dependencies>
      <dependency>
        <groupId>org.springframework.cloud</groupId>
        <artifactId>spring-cloud-dependencies</artifactId>
        <version>${spring-cloud.version}</version>
        <type>pom</type>
        <scope>import</scope>
      </dependency>
      <dependency>


        <groupId>com.alibaba.cloud</groupId>
        <artifactId>spring-cloud-alibaba-dependencies</artifactId>
        <version>${spring-cloud-alibaba.version}</version>
        <type>pom</type>
        <scope>import</scope>
      </dependency>
    </dependencies>
  </dependencyManagement>
</project>

版本对应

创建基础模块

  1. 创建shop-common 模块在pom.xml中添加依赖
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
  <artifactId>springcloud-alibaba</artifactId>
  <groupId>com.itheima</groupId>
  <version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>shop-common</artifactId>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-jpa</artifactId>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>


<version>1.2.56</version>
</dependency>
  <dependency>
    <groupId>mysql</groupId>
    	<artifactId>mysql-connector-java</artifactId>
    <version>5.1.6</version>
  </dependency>
</dependencies>
</project>
  1. 创建实体类
//用户
@Entity(name = "shop_user") @Data
public class User { @Id
@GeneratedValue(strategy = GenerationType.IDENTITY) private Integer uid;//主键
private String username;//用户名
private String password;//密码private String telephone;//手机号
}
//商品
@Entity(name = "shop_product") @Data
public class Product { @Id
@GeneratedValue(strategy = GenerationType.IDENTITY) private Integer pid;//主键

private String pname;//商品名称private Double pprice;//商品价格private Integer stock;//库存
}
//订单
@Entity(name = "shop_order") @Data
public class Order { @Id
@GeneratedValue(strategy = GenerationType.IDENTITY)
private Long oid;//订单id
private Integer uid;//用户id
private String username;//用户名




private Integer pid;//商品id
private String pname;//商品名称private Double pprice;//商品单价
private Integer number;//购买数量
}

创建用户微服务

步骤:

  1. 创建模块 导入依赖
  2. 创建SpringBoot主类
  3. 加入配置文件
  4. 创建必要的接口和实现类(controller service dao)

新建一个shop-user 模块然后进行下面操作

  1. 创建pom.xml
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
  http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <parent>
    <artifactId>springcloud-alibaba</artifactId>
    <groupId>com.itheima</groupId>
    <version>1.0-SNAPSHOT</version>
  </parent>
  <modelVersion>4.0.0</modelVersion>


  <artifactId>shop-user</artifactId>


  <dependencies>
    <dependency>
      <groupId>com.itheima</groupId>
      <artifactId>shop-common</artifactId>
      <version>1.0-SNAPSHOT</version>
    </dependency>
  </dependencies>
</project>
  1. 编写主类
@SpringBootApplication @EnableDiscoveryClient
    public class UserApplication {
        public static void main(String[] args) { SpringApplication.run(UserApplication.class args);
                                               }
    }
  1. 创建配置文件
server: port: 8071
spring: application:
name: service-product datasource:
driver-class-name: com.mysql.jdbc.Driver url: jdbc:mysql:///shop?
serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8&useSSL=true username: root
password: root jpa:
properties: hibernate:
hbm2ddl:
auto: update
dialect: org.hibernate.dialect.MySQL5InnoDBDialect

创建商品微服务

  1. 创建一个名为shop_product 的模块并添加springboot依赖
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
  http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <parent>
    <artifactId>springcloud-alibaba</artifactId>
    <groupId>com.itheima</groupId>
    <version>1.0-SNAPSHOT</version>
  </parent>
  <modelVersion>4.0.0</modelVersion>


  <artifactId>shop-product</artifactId>


  <dependencies>
    <dependency>


      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
      <groupId>com.itheima</groupId>
      <artifactId>shop-common</artifactId>
      <version>1.0-SNAPSHOT</version>
    </dependency>
  </dependencies>
</project>
  1. 创建工程的主类
package com.itheima;


@SpringBootApplication
    public class ProductApplication {
        public static void main(String[] args) { SpringApplication.run(ProductApplication.class args);
                                               }
    }
  1. 创建配置文件application.yml
server: port: 8081
spring: application:
name: service-product datasource:
driver-class-name: com.mysql.jdbc.Driver url: jdbc:mysql:///shop?
serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8&useSSL=true username: root
password: root jpa:
properties: hibernate:
hbm2ddl:
auto: update
dialect: org.hibernate.dialect.MySQL5InnoDBDialect
  1. 创建ProductDao接口
package com.itheima.dao;

public interface ProductDao extends JpaRepository<Product,Integer> {
}
  1. 创建ProductService接口和实现类
package com.itheima.service.impl;


@Service
    public class ProductServiceImpl implements ProductService {
        @Autowired
 private ProductDao productDao;


@Override
public Product findByPid(Integer pid) { return productDao.findById(pid).get();
                                     }
}
  1. 创建Controller
@RestController @Slf4j
public class ProductController {


@Autowired
private ProductService productService;


@GetMapping("/product/{pid}")
public Product product(@PathVariable("pid") Integer pid) { Product product = productService.findByPid(pid); log.info("查询到商品:" + JSON.toJSONString(product)); return product;
}
}
  1. 启动工程等到数据库表创建完毕之后加入测试数据
INSERT INTO shop_product VALUE(NULL,'小米','1000','5000'); INSERT INTO shop_product VALUE(NULL,'华为','2000','5000'); INSERT INTO shop_product VALUE(NULL,'苹果','3000','5000'); INSERT INTO shop_product VALUE(NULL,'OPPO','4000','5000');
  1. 通过浏览器访问服务

创建订单微服务

  1. 创建一个名为shop-order 的模块,并添加springboot依赖
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0
  http://maven.apache.org/xsd/maven-4.0.0.xsd">
  <parent>
    <artifactId>springcloud-alibaba</artifactId>
    <groupId>com.itheima</groupId>
    <version>1.0-SNAPSHOT</version>
  </parent>
  <modelVersion>4.0.0</modelVersion>


  <artifactId>shop-order</artifactId>


  <dependencies>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-web</artifactId>
    </dependency>
    <dependency>
      <groupId>com.itheima</groupId>
      <artifactId>shop-common</artifactId>
      <version>1.0-SNAPSHOT</version>
    </dependency>
  </dependencies>
</project>
  1. 创建工程的主类
package com.itheima;


@SpringBootApplication
    public class OrderApplication {
        public static void main(String[] args) { SpringApplication.run(OrderApplication.class, args);
                                               }
    }
  1. 创建配置文件application.yml
server: 
	port: 8091
spring:
	application:
		name: service-product
	datasource:
    driver-class-name: com.mysql.jdbc.Driver
    url: jdbc:mysql:///shop?
serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8&useSSL=true
  username: root
  password: root
jpa:
	properties:
		hibernate:
			hbm2ddl:
				auto: update
			dialect: org.hibernate.dialect.MySQL5InnoDBDialect
  1. 创建OrderDao接口
package com.itheima.dao;


public interface OrderDao extends JpaRepository<Order,Long> {
}
  1. 创建OrderService接口和实现类
@Service
public class OrderServiceImpl implements OrderService { 
    @Autowired
    private OrderDao orderDao;
    
    
    @Override
    public void save(Order order) { orderDao.save(order);
    }
}
  1. 创建RestTemplate
@SpringBootApplication
public class OrderApplication {
    public static void main(String[] args) { 
        SpringApplication.run(OrderApplication.class, args);
    }
    
    
    @Bean
    public RestTemplate getRestTemplate() { 
        return new RestTemplate();
    }
}
  1. 创建Controller
package com.itheima.controller;
@RestController
@Slf4j
public class OrderController {
@Autowired
private RestTemplate restTemplate;
@Autowired
private OrderService orderService;
//准备买1件商品
@GetMapping("/order/prod/{pid}")
public Order order(
    @PathVariable("pid") Integer pid) { 
    log.info(">>客户下单这时候要调用商品微服务查询商品信息");
    //通过restTemplate调用商品微服务
    Product product = restTemplate.getForObject( "http://localhost:8081/product/" + pid, Product.class);
    
    
    log.info(">>商品信息,查询结果:" + JSON.toJSONString(product));
    Order order = new Order(); order.setUid(1);
    order.setUsername("测试用户");
    order.setPid(product.getPid()); order.setPname(product.getPname()); order.setPprice(product.getPprice()); order.setNumber(1);
    orderService.save(order);
    return order;
    }
}

7 启动工程,通过浏览器访问服务进行测试

第三章 Nacos Discovery–服务治理

服务治理介绍

先来思考一个问题

通过上一章的操作我们已经可以实现微服务之间的调用。但是我们把服务提供者的网络地址
ip端口等硬编码到了代码中这种做法存在许多问题
一旦服务提供者地址变化就需要手工修改代码
一旦是多个服务提供者无法实现负载均衡功能
一旦服务变得越来越多人工维护调用关系困难
那么应该怎么解决呢 这时候就需要通过注册中心动态的实现服务治理

什么是服务治理

服务治理是微服务架构中最核心最基本的模块。用于实现各个微服务的自动化注册与发现
**服务注册**在服务治理框架中都会构建一个注册中心每个服务单元向注册中心登记自己提供服 务的详细信息。并在注册中心形成一张服务的清单服务注册中心需要以心跳的方式去监测清单中 的服务是否可用如果不可用需要在服务清单中剔除不可用的服务。
服务发现服务调用方向服务注册中心咨询服务并获取所有服务的实例清单实现对具体服务实 例的访问。

通过上面的调用图会发现除了微服务还有一个组件是
服务注册中心
它是微服务架构非常重要 的一个组件在微服务架构里主要起到了协调者的一个作用。注册中心一般包含如下几个功能

  • 服务发现

服务注册保存服务提供者和服务调用者的信息
服务订阅服务调用者订阅服务提供者的信息注册中心向订阅者推送提供者的信息

  • 服务配置

配置订阅服务提供者和服务调用者订阅微服务相关的
配置配置下发主动将配置推送给服务提供者和服务调用者

  • 服务健康检测

检测服务提供者的健康情况如果发现异常执行服务剔除

常见的注册中心

Zookeeper
zookeeper是一个分布式服务框架是Apache Hadoop 的一个子项目它主要是用来解决分布式 应用中经常遇到的一些数据管理问题如统一命名服务、状态同步服务、集群管理、分布式应用 配置项的管理等。

Eureka

Eureka是Springcloud Netflix中的重要组件主要作用就是做服务注册和发现。但是现在已经闭源

Consul

Consul是基于GO语言开发的开源工具主要面向分布式服务化的系统提供服务注册、服务发现 和配置管理的功能。Consul的功能都很实用其中包括服务注册/发现、健康检查、Key/Value 存储、多数据中心和分布式一致性保证等特性。Consul本身只是一个二进制的可执行文件所以 安装和部署都非常简单只需要从官网下载后在执行对应的启动脚本即可。

Nacos

Nacos是一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。它是 Spring Cloud Alibaba 组件之一负责服务注册发现和服务配置可以这样认为nacos=eureka+config。

nacos简介

Nacos 致力于帮助您发现、配置和管理微服务。Nacos 提供了一组简单易用的特性集帮助您快速实现动态服务发现、服务配置、服务元数据及流量管理。
从上面的介绍就可以看出nacos的作用就是一个注册中心用来管理注册上来的各个微服务。

nacos实战入门

接下来我们就在现有的环境中加入nacos并将我们的两个微服务注册上去。

搭建nacos环境

第1步: 安装nacos

下载地址: https://github.com/alibaba/nacos/releases
下载zip格式的安装包然后进行解压缩操作

第2步: 启动nacos

#切换目录
cd nacos/bin #命令启动
startup.cmd -m standalone

第3步: 访问nacos
打开浏览器输入http://localhost:8848/nacos即可访问服务 默认密码是nacos/nacos

将商品微服务注册到nacos

接下来开始修改shop-product 模块的代码 将其注册到nacos服务上

  1. 在pom.xml中添加nacos的依赖
<!--nacos客户端-->
<dependency>
	<groupId>com.alibaba.cloud</groupId>
	<artifactId>spring-cloud-starter-alibaba-nacos-discovery</artifactId>
</dependency>
  1. 在主类上添加**@EnableDiscoveryClient**注解
@SpringBootApplication 
@EnableDiscoveryClient
public class ProductApplication
  1. 在application.yml中添加nacos服务的地址
spring: cloud:
	nacos:
		discovery:
			server-addr: 127.0.0.1:8848
  1. 启动服务 观察nacos的控制面板中是否有注册上来的商品微服务

将订单微服务注册到nacos

接下来开始修改shop_order 模块的代码 将其注册到nacos服务上

  1. 在pom.xml中添加nacos的依赖
<!--nacos客户端-->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-nacos-discovery</artifactId>
</dependency>
  1. 在主类上添加**@EnableDiscoveryClient**注解
@SpringBootApplication 
@EnableDiscoveryClient
public class OrderApplication
  1. 在application.yml中添加nacos服务的地址
spring: 
	cloud:
		nacos:
			discovery:
				server-addr: 127.0.0.1:8848
  1. 修改OrderController 实现微服务调用
@RestController
@Slf4j
public class OrderController {
    @Autowired
    private RestTemplate restTemplate;
    @Autowired
    private OrderService orderService;
    @Autowired
    private DiscoveryClient discoveryClient;

    //准备买1件商品
    @GetMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) {
        log.info(">>客户下单这时候要调用商品微服务查询商品信息");
//从nacos中获取服务地址
        ServiceInstance serviceInstance =
                discoveryClient.getInstances("service-product").get(0);
        String url = serviceInstance.getHost() + ":" +
                serviceInstance.getPort();
        log.info(">>从nacos中获取到的微服务地址为:" + url);
//通过restTemplate调用商品微服务
        Product product = restTemplate.getForObject(
                "http://" + url + "/product/" + pid, Product.class);
        log.info(">>商品信息,查询结果:" + JSON.toJSONString(product));
        Order order = new Order();
        order.setUid(1);
        order.setUsername("测试用户");
        order.setPid(product.getPid());


        order.setPname(product.getPname());
        order.setPprice(product.getPprice());
        order.setNumber(1);
        orderService.save(order);
        return order;
    }
}

DiscoveryClient是专门负责服务注册和发现的我们可以通过它获取到注册到注册中心的所有服务

  1. 启动服务 观察nacos的控制面板中是否有注册上来的订单微服务然后通过访问消费者服务验证调用是否成功

实现服务调用的负载均衡

什么是负载均衡

通俗的讲 负载均衡就是将负载工作任务访问请求进行分摊到多个操作单元服务器,组件上进行执行。
根据负载均衡发生位置的不同,一般分为服务端负载均衡客户端负载均衡。服务端负载均衡指的是发生在服务提供者一方,比如常见的nginx负载均衡
而客户端负载均衡指的是发生在服务请求的一方也就是在发送请求之前已经选好了由哪个实例处理请求。

我们在微服务调用关系中一般会选择客户端负载均衡也就是在服务调用的一方来决定服务由哪个提供者执行。

自定义实现负载均衡

  1. 通过idea再启动一个shop-product 微服务设置其端口为8082

  1. 通过nacos查看微服务的启动情况

  1. 修改shop-order 的代码实现负载均衡
@RestController @Slf4j
public class OrderController {


    @Autowired
    private RestTemplate restTemplate;


    @Autowired
    private OrderService orderService;


    @Autowired
    private DiscoveryClient discoveryClient;


    //准备买1件商品@GetMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) { log.info(">>客户下单这时候要调用商品微服务查询商品信息");

//从nacos中获取服务地址
//自定义规则实现随机挑选服务


        List<ServiceInstance> instances = discoveryClient.getInstances("service- product");
        int index = new Random().nextInt(instances.size());
        ServiceInstance serviceInstance = instances.get(index);
        String url = serviceInstance.getHost() + ":" + serviceInstance.getPort();
        log.info(">>从nacos中获取到的微服务地址为:" + url);
//通过restTemplate调用商品微服务
        Product product = restTemplate.getForObject("http://" + url + "/product/" + pid, Product.class);
        log.info(">>商品信息查询结果:" + JSON.toJSONString(product));
        Order order = new Order(); order.setUid(1);
        order.setUsername("测试用户");
        order.setPid(product.getPid()); order.setPname(product.getPname()); order.setPprice(product.getPprice()); order.setNumber(1);
        orderService.save(order);
        return order;
    }
}

第3步启动两个服务提供者和一个服务消费者多访问几次消费者测试效果

基于Ribbon实现负载均衡

Ribbon是Spring Cloud的一个组件 它可以让我们使用一个注解就能轻松的搞定负载均衡

第1步在RestTemplate 的生成方法上添加@LoadBalanced注解

@Bean
@LoadBalanced
public RestTemplate restTemplate(){
    return new RestTemplate();
 }

第2步修改服务调用的方法

@RestController 
@Slf4j
public class OrderController {


    @Autowired
    private RestTemplate restTemplate;


    @Autowired
    private OrderService orderService;


    //准备买1件商品@GetMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) { log.info(">>客户下单这时候要调用商品微服务查询商品信息");

//直接使用微服务名字 从nacos中获取服务地址
        String url = "service-product";


//通过restTemplate调用商品微服务
        Product product = restTemplate.getForObject(
                "http://" + url + "/product/" + pid, Product.class);


        log.info(">>商品信息查询结果:" + JSON.toJSONString(product));

        Order order = new Order(); order.setUid(1); order.setUsername("测试用户"); order.setPid(product.getPid()); order.setPname(product.getPname());
        order.setPprice(product.getPprice()); order.setNumber(1);

        orderService.save(order); return order;
    }
}
Ribbon支持的负载均衡策略

Ribbon内置了多种负载均衡策略,内部负载均衡的顶级接口为
com.netflix.loadbalancer.IRule , 具体的负载策略如下图所示:

image.png

我们可以通过修改配置来调整Ribbon的负载均衡策略具体代码如下

service-product: # 调用的提供者的名称
	ribbon:
		NFLoadBalancerRuleClassName: com.netflix.loadbalancer.RandomRule

基于Feign实现服务调用

什么是Feign

Feign是Spring Cloud提供的一个声明式的伪Http客户端 它使得调用远程服务就像调用本地服务一样简单 只需要创建一个接口并添加一个注解即可。
Nacos很好的兼容了Feign Feign默认集成了 Ribbon 所以在Nacos下使用Fegin默认就实现了负载均衡的效果。

Feign的使用

  1. 加入Fegin的依赖
<!--fegin组件-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-openfeign</artifactId>
</dependency>
  1. 在主类上添加Fegin的注解
@FeignClient("service-product")//声明调用的提供者的name
public interface ProductService {
//指定调用提供者的哪个方法
//@FeignClient+@GetMapping 就是一个完整的请求路径 http://serviceproduct/product/{pid}
@GetMapping(value = "/product/{pid}")
Product findByPid(@PathVariable("pid") Integer pid);
}
  1. 创建一个service 并使用Fegin实现微服务调用

    @FeignClient("service-product")//声明调用的提供者的name
    public interface ProductService {
    //指定调用提供者的哪个方法
    //@FeignClient+@GetMapping 就是一个完整的请求路径 http://serviceproduct/product/{pid}
    @GetMapping(value = "/product/{pid}")
    Product findByPid(@PathVariable("pid") Integer pid);
    }
    
  2. 修改controller代码并启动验证

    @RestController
    @Slf4j
    public class OrderController {
        @Autowired
        private OrderService orderService;
    
    
        @Autowired
        private ProductService productService;
    
    
        //准备买1件商品
        @GetMapping("/order/prod/{pid}")
        public Order order(@PathVariable("pid") Integer pid) {
            log.info(">>客户下单,这时候要调用商品微服务查询商品信息");
    //通过fegin调用商品微服务
            Product product = productService.findByPid(pid);
            log.info(">>商品信息,查询结果:" + JSON.toJSONString(product));
            Order order = new Order();
            order.setUid(1);
            order.setUsername("测试用户");
            order.setPid(product.getPid());
            order.setPname(product.getPname());
            order.setPprice(product.getPprice());
            order.setNumber(1);
            orderService.save(order);
            return order;
        }
    }
    
    1. 重启order微服务,查看效果

第四章 Sentinel–服务容错

高并发带来的问题

在微服务架构中我们将业务拆分成一个个的服务服务与服务之间可以相互调用但是由于网络 原因或者自身的原因服务并不能保证服务的100%可用如果单个服务出现问题调用这个服务就会 出现网络延迟此时若有大量的网络涌入会形成任务堆积最终导致服务瘫痪。

接下来我们来模拟一个高并发的场景
  1. 编写java代码
@RestController
@Slf4j
public class OrderController2 {
    @Autowired
    private OrderService orderService;
    @Autowired
    private ProductService productService;

    @RequestMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) {
        log.info("接收到{}号商品的下单请求,接下来调用商品微服务查询此商品信息", pid);


//调用商品微服务,查询商品信息
        Product product = productService.findByPid(pid);
        log.info("查询到{}号商品的信息,内容是:{}", pid, JSON.toJSONString(product));
//模拟一次网络延时
        try {
            Thread.sleep(100);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
//下单(创建订单)
        Order order = new Order();
        order.setUid(1);
        order.setUsername("测试用户");
        order.setPid(pid);
        order.setPname(product.getPname());
        order.setPprice(product.getPprice());
        order.setNumber(1);
//为了不产生太多垃圾数据,暂时不做订单保存
//orderService.createOrder(order);
        log.info("创建订单成功,订单信息为{}", JSON.toJSONString(order));
        return order;
    }

    @RequestMapping("/order/message")
    public String message() {
        return "高并发下的问题测试";
    }
}
  1. 修改配置文件中tomcat的并发数
server: 
	port: 8091 
	tomcat:
		max-threads: 10 #tomcat的最大并发值修改为10,默认是200
  1. 接下来使用压测工具,对请求进行压力测试下载地址https://jmeter.apache.org/
  • 第一步修改配置并启动软件

    进入bin目录,修改jmeter.properties文件中的语言支持为language=zh_CN然后点击jmeter.bat 启动软件。

  • 第二步添加线程组

第三步配置线程并发数

  • 第四步添加Http取样

  • 第五步配置取样并启动测试

  1. 访问message方法观察效果
结论:

此时会发现, 由于order方法囤积了大量请求, 导致message方法的访问出现了问题这就是服务雪崩的雏形。

服务雪崩效应

在分布式系统中,由于网络原因或自身的原因,服务一般无法保证 100% 可用。如果一个服务出现了问题调用这个服务就会出现线程阻塞的情况此时若有大量的请求涌入就会出现多条线程阻塞等 待进而导致服务瘫痪。
由于服务与服务之间的依赖性故障会传播会对整个微服务系统造成灾难性的严重后果这就是 服务故障的 **“雪崩效应” **。

雪崩发生的原因多种多样有不合理的容量设计或者是高并发下某一个方法响应变慢亦或是某 台机器的资源耗尽。我们无法完全杜绝雪崩源头的发生只有做好足够的容错保证在一个服务发生问 题不会影响到其它服务的正常运行。也就是"雪落而不雪崩"。

常见容错方案

要防止雪崩的扩散我们就要做好服务的容错容错说白了就是保护自己不被猪队友拖垮的一些措 施, 下面介绍常见的服务容错思路和组件。

常见的容错思路

常见的容错思路有隔离、超时、限流、熔断、降级这几种下面分别介绍一下。

隔离

它是指将系统按照一定的原则划分为若干个服务模块各个模块之间相对独立无强依赖。当有故 障发生时能将问题和影响隔离在某个模块内部而不扩散风险不波及其它模块不影响整体的 系统服务。常见的隔离方式有线程池隔离和信号量隔离.

超时

调用下游服务的时候设置一个最大响应时间如果超过这个时间下游未作出反应 就断开请求释放掉线程。

在上游服务

限流

制系统的输入和输出流量已达到保护系统的目的。为了保证系统的稳固运行,一旦达到 的需要限制的阈值,就需要限制流量并采取少量措施以完成限制流量的目的。

限流就是限
**熔断 **在互联网系统中当下游服务因访问压力过大而响应变慢或失败上游服务为了保护系统整体的可用性可以暂时切断对下游服务的调用。这种牺牲局部保全整体的措施就叫做熔断。

服务熔断一般有三种状态

  • 熔断关闭状态Closed

​ 服务没有故障时熔断器所处的状态对调用方的调用不做任何限制

  • 熔断开启状态Open

​ 后续对该服务接口的调用不再经过网络直接执行本地的fallback方法

  • 半熔断状态Half-Open

    尝试恢复服务调用允许有限的流量调用该服务并监控调用成功率。如果成功率达到预 期则说明服务已恢复进入熔断关闭状态如果成功率仍旧很低则重新进入熔断关闭状 态。

降级

降级其实就是个托底方案一旦服务无法正常调用就使用托底方案。

为服务提供一

常见的容错组件

Hystrix
Hystrix是由Netflix开源的一个延迟和容错库用于隔离访问远程系统、服务或者第三方库防止 级联失败从而提升系统的可用性与容错性。

Resilience4J

Resilicence4J一款非常轻量、简单并且文档非常清晰、丰富的熔断工具这也是Hystrix官方推 荐的替代产品。不仅如此Resilicence4j还原生支持Spring Boot 1.x/2.x而且监控也支持和prometheus等多款主流产品进行整合。

Sentinel

Sentinel 是阿里巴巴开源的一款断路器实现本身在阿里内部已经被大规模采用非常稳定。下面是三个组件在各方面的对比

image.png

Sentinel入门

什么是Sentinel

Sentinel (分布式系统的流量防卫兵) 是阿里开源的一套用于服务容错的综合性解决方案。它以流量为切入点, 从流量控制、熔断降级、系统负载保护等多个维度来保护服务的稳定性。

Sentinel 具有以下特征:

丰富的应用场景Sentinel 承接了阿里巴巴近 10 年的双十一大促流量的核心场景, 例如秒杀即突发流量控制在系统容量可以承受的范围、消息削峰填谷、集群流量控制、实时熔断下游不可用 应用等。
完备的实时监控Sentinel 提供了实时的监控功能。通过控制台可以看到接入应用的单台机器秒级数据, 甚至 500 台以下规模的集群的汇总运行情况。
广泛的开源生态Sentinel 提供开箱即用的与其它开源框架/库的整合模块, 例如与 Spring Cloud、Dubbo、gRPC 的整合。只需要引入相应的依赖并进行简单的配置即可快速地接入Sentinel。
完善的 SPI 扩展点Sentinel 提供简单易用、完善的 SPI 扩展接口。您可以通过实现扩展接口来快速地定制逻辑。例如定制规则管理、适配动态数据源等。

Sentinel 分为两个部分:

核心库Java 客户端不依赖任何框架/库,能够运行于所有 Java 运行时环境同时对 Dubbo / Spring Cloud 等框架也有较好的支持。
控制台Dashboard基于 Spring Boot 开发打包后可以直接运行不需要额外的 Tomcat 等应用容器。

微服务集成Sentinel

为微服务集成Sentinel非常简单, 只需要加入Sentinel的依赖即可

  1. 在pom.xml中加入下面依赖
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>
  1. 编写一个Controller测试使用
@RestController
@Slf4j
public class OrderController3 {
    @RequestMapping("/order/message1")
    public String message1() {
        return "message1";
    }
    @RequestMapping("/order/message2")
    public String message2() {
        return "message2";
    }
}

安装Sentinel控制台

Sentinel 提供一个轻量级的控制台, 它提供机器发现、单机资源实时监控以及规则管理等功能。
1 下载jar包,解压到文件夹

https://github.com/alibaba/Sentinel/releases

2 启动控制台

#直接使用jar命令启动项目(控制台本身是一个SpringBoot项目)
java -Dserver.port=8080 -Dcsp.sentinel.dashboard.server=localhost:8080 - Dproject.name=sentinel-dashboard -jar sentinel-dashboard-1.7.0.jar

3 修改shop-order ,在里面加入有关控制台的配置

spring: 
	cloud:
		sentinel: 
			transport:
                port: 9999 #跟控制台交流的端口,随意指定一个未使用的端口即可
                dashboard: localhost:8080 # 指定控制台服务的地址

第4步: 通过浏览器访问localhost:8080 进入控制台 ( 默认用户名密码是 sentinel/sentinel )

补充了解控制台的使用原理

Sentinel的控制台其实就是一个SpringBoot编写的程序。我们需要将我们的微服务程序注册到控制台上, 即在微服务中指定控制台的地址, 并且还要开启一个跟控制台传递数据的端口, 控制台也可以通过此端口调用微服务中的监控程序获取微服务的各种信息。

实现一个接口的限流

  1. 通过控制台为message1添加一个流控规则


  1. 通过控制台快速频繁访问, 观察效果

Sentinel的概念和功能

基本概念

资源

资源就是Sentinel要保护的东西
资源是 Sentinel 的关键概念。它可以是 Java 应用程序中的任何内容可以是一个服务也可以是一个方法甚至可以是一段代码。

我们入门案例中的message1方法就可以认为是一个资源

规则

规则就是用来定义如何进行保护资源的
作用在资源之上, 定义以什么样的方式保护资源主要包括流量控制规则、熔断降级规则以及系统保护规则。

我们入门案例中就是为message1资源设置了一种流控规则, 限制了进入message1的流量

重要功能

Sentinel的主要功能就是容错主要体现为下面这三个

流量控制

流量控制在网络传输中是一个常用的概念它用于调整网络包的数据。任意时间到来的请求往往是 随机不可控的而系统的处理能力是有限的。我们需要根据系统的处理能力对流量进行控制。Sentinel 作为一个调配器可以根据需要把随机的请求调整成合适的形状。

熔断降级

当检测到调用链路中某个资源出现不稳定的表现例如请求响应时间长或异常比例升高的时候则 对这个资源的调用进行限制让请求快速失败避免影响到其它的资源而导致级联故障。
Sentinel 对这个问题采取了两种手段:

  • 通过并发线程数进行限制

Sentinel 通过限制资源并发线程的数量来减少不稳定资源对其它资源的影响。当某个资源出现不稳定的情况下例如响应时间变长对资源的直接影响就是会造成线程数的逐步堆 积。当线程数在特定资源上堆积到一定的数量之后对该资源的新请求就会被拒绝。堆积的 线程完成任务后才开始继续接收请求。

  • 通过响应时间对资源进行降级

除了对并发线程数进行控制以外Sentinel 还可以通过响应时间来快速降级不稳定的资源。当依赖的资源出现响应时间过长后所有对该资源的访问都会被直接拒绝直到过了指定的 时间窗口之后才重新恢复。
Sentinel 和 Hystrix 的区别
两者的原则是一致的, 都是当一个资源出现问题时, 让其快速失败, 不要波及到其它服务但是在限制的手段上, 确采取了完全不一样的方法:
Hystrix 采用的是线程池隔离的方式, 优点是做到了资源之间的隔离, 缺点是增加了线程切换的成本。
Sentinel 采用的是通过并发线程的数量和响应时间来对资源做限制。

系统负载保护

Sentinel 同时提供系统维度的自适应保护能力。当系统负载较高的时候如果还持续让请求进入可能会导致系统崩溃无法响应。在集群环境下会把本应这台机器承载的流量转发到其 它的机器上去。如果这个时候其它的机器也处在一个边缘状态的时候Sentinel 提供了对应的保护机制让系统的入口流量和系统的负载达到一个平衡保证系统在能力范围之内处理最多的请 求。
总之一句话: 我们需要做的事情就是在Sentinel的资源上配置各种各样的规则来实现各种容错的功能。

Sentinel规则

流控规则

流量控制其原理是监控应用流量的QPS(每秒查询率) 或并发线程数等指标当达到指定的阈值时对流量进行控制以避免被瞬时的流量高峰冲垮从而保障应用的高可用性。
第1步: 点击簇点链路我们就可以看到访问过的接口地址然后点击对应的流控按钮进入流控规则配置页面。新增流控规则界面如下:

资源名唯一名称默认是请求路径可自定义
针对来源指定对哪个微服务进行限流默认指default意思是不区分来源全部限制

阈值类型/单机阈值

  • QPS每秒请求数量): 当调用该接口的QPS达到阈值的时候进行限流
  • 线程数当调用该接口的线程数达到阈值的时候进行限流

是否集群暂不需要集群
接下来我们以QPS为例来研究限流规则的配置。

简单配置

我们先做一个简单配置设置阈值类型为QPS单机阈值为3。即每秒请求量大于3的时候开始限流。

接下来在流控规则页面就可以看到这个配置。

然后快速访问/order/message1 接口观察效果。此时发现当QPS > 3的时候服务就不能正常响应而是返回Blocked by Sentinel (flow limiting)结果。

配置流控模式

点击上面设置流控规则的编辑按钮然后在编辑页面点击高级选项会看到有流控模式一栏。

sentinel共有三种流控模式分别是

  • 直接默认)接口达到限流条件时开启限流
  • 关联当关联的资源达到限流条件时开启限流 [适合做应用让步]
  • 链路当从某个接口过来的资源达到限流条件时开启限流

下面呢分别演示三种模式

直接流控模式

直接流控模式是最简单的模式当指定的接口达到限流条件时开启限流。上面案例使用的就是直接流控 模式。

关联流控模式

关联流控模式指的是当指定接口关联的接口达到限流条件时开启对指定接口开启限流。

第1步配置限流规则, 将流控模式设置为关联关联资源设置为的 /order/message2。

第3步通过postman软件向/order/message2连续发送请求注意QPS一定要大于3

第4步访问/order/message1,会发现已经被限流

链路流控模式

链路流控模式指的是当从某个接口过来的资源达到限流条件时开启限流。它的功能有点类似于针对 来源配置项区别在于针对来源是针对上级微服务而链路流控是针对上级接口也就是说它的粒度 更细。
第1步 编写一个service在里面添加一个方法message

@Service
public class OrderServiceImpl3 {
    @SentinelResource("message")
    public void message() {
    System.out.println("message");
    }
}

第2步 在Controller中声明两个方法分别调用service中的方法m

@RestController 
@Slf4j
public class OrderController3 {


    @Autowired
    private OrderServiceImpl3 orderServiceImpl3;


    @RequestMapping("/order/message1") public String message1() {
    orderServiceImpl3.message(); return "message1";
    }


    @RequestMapping("/order/message2") public String message2() {
    orderServiceImpl3.message(); return "message2";
    }
}

第3步: 禁止收敛URL的入口 context

从1.6.3 版本开始Sentinel Web fifilter默认收敛所有URL的入口context因此链路限流不生效。

1.7.0 版本开始对应SCA的2.1.1.RELEASE)官方在CommonFilter 引入了

WEB_CONTEXT_UNIFY 参数用于控制是否收敛context。将其配置为 false 即可根据不同的

URL 进行链路限流。

SCA 2.1.1.RELEASE之后的版本,可以通过配置spring.cloud.sentinel.web-context-unify=false即

可关闭收敛

我们当前使用的版本是SpringCloud Alibaba 2.1.0.RELEASE无法实现链路限流。

目前官方还未发布SCA 2.1.2.RELEASE所以我们只能使用2.1.1.RELEASE需要写代码的形式实

  1. 暂时将SpringCloud Alibaba的版本调整为2.1.1.RELEASE
<spring-cloud-alibaba.version>2.1.1.RELEASE</spring-cloud-alibaba.version>
  1. 配置文件中关闭sentinel的CommonFilter实例化
spring:
	cloud:
		sentinel:
			filter:
				enabled: false
  1. 添加一个配置类自己构建CommonFilter实例
package com.itheima.config;


import com.alibaba.csp.sentinel.adapter.servlet.CommonFilter; 
import org.springframework.boot.web.servlet.FilterRegistrationBean; 
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;


@Configuration
public class FilterContextConfig {

    @Bean
    public FilterRegistrationBean sentinelFilterRegistration() { FilterRegistrationBean registration = new FilterRegistrationBean(); registration.setFilter(new CommonFilter()); registration.addUrlPatterns("/*");
// 入口资源关闭聚合
        registration.addInitParameter(CommonFilter.WEB_CONTEXT_UNIFY, "false"); registration.setName("sentinelFilter");
        registration.setOrder(1); return registration;
    }
}

第4步: 控制台配置限流规则

第5步: 分别通过/order/message1 和/order/message2 访问, 发现2没问题, 1的被限流了

配置流控效果

  • 快速失败默认: 直接失败抛出异常不做任何额外的处理是最简单的效果

  • Warm Up它从开始阈值到最大QPS阈值会有一个缓冲阶段一开始的阈值是最大QPS阈值的

    1/3然后慢慢增长直到最大阈值适用于将突然增大的流量转换为缓步增长的场景。

  • 排队等待让请求以均匀的速度通过单机阈值为每秒通过数量其余的排队等待 它还会让设置一个超时时间当请求超过超时间时间还未处理则会被丢弃。

降级规则

降级规则就是设置当满足什么条件的时候对服务进行降级。Sentinel提供了三个衡量条件

  • 平均响应时间 当资源的平均响应时间超过阈值以 ms 为单位之后资源进入准降级状态。如果接下来 1s 内持续进入 5 个请求它们的 RT都持续超过这个阈值那么在接下的时间窗口以 s 为单位之内就会对这个方法进行服务降级。

注意 Sentinel 默认统计的 RT 上限是 4900 ms超出此阈值的都会算作 4900 ms若需要变更此上限可以通过启动配置项 -Dcsp.sentinel.statistic.max.rt=xxx 来配置。

  • 异常比例当资源的每秒异常总数占通过量的比值超过阈值之后资源进入降级状态即在接下的 时间窗口以 s 为单位)之内对这个方法的调用都会自动地返回。异常比率的阈值范围是 [0.0, 1.0]。

    第1步: 首先模拟一个异常

int i = 0;
@RequestMapping("/order/message2")
public String message2() {
i++;
//异常比例为0.333
if (i % 3 == 0){
throw new RuntimeException();
}
return "message2";
}

第2步: 设置异常比例为0.25

  • 异常数 当资源近 1 分钟的异常数目超过阈值之后会进行服务降级。注意由于统计时间窗口是分

钟级别的若时间窗口小于 60s则结束熔断状态后仍可能再进入熔断状态。

超过阈值之后会进

问题
流控规则和降级规则返回的异常页面是一样的我们怎么来区分到底是什么原因导致的呢

热点规则

热点参数流控规则是一种更细粒度的流控规则, 它允许将规则具体到参数上。

热点规则简单使用

第1步: 编写代码

@RequestMapping("/order/message3")
@SentinelResource("message3")//注意这里必须使用这个注解标识,热点规则不生效public String message3(String name, Integer age) {
    return name + age;
}

第2步: 配置热点规则

第3步: 分别用两个参数访问,会发现只对第一个参数限流了

热点规则增强使用

参数例外项允许对一个参数的具体值进行流控

编辑刚才定义的规则,增加参数例外项

授权规则

很多时候我们需要根据调用来源来判断该次请求是否允许放行这时候可以使用 Sentinel 的来源访问控制的功能。来源访问控制根据资源的请求来源origin限制资源是否通过

  • 若配置白名单则只有请求来源位于白名单内时才可通过
  • 若配置黑名单则请求来源位于黑名单时不通过其余的请求通过。


上面的资源名和授权类型不难理解但是流控应用怎么填写呢

其实这个位置要填写的是来源标识Sentinel提供了RequestOriginParser 接口来处理来源。
只要Sentinel保护的接口资源被访问Sentinel就会调用RequestOriginParser 的实现类去解析访问来源。

第1步: 自定义来源处理规则

@Component
public class RequestOriginParserDefinition implements RequestOriginParser{
    @Override
    public String parseOrigin(HttpServletRequest request) {
        String serviceName = request.getParameter("serviceName");
        return serviceName;
    }
}

第2步: 授权规则配置
这个配置的意思是只有serviceName=pc不能访问(黑名单)

第3步: 访问 http://localhost:8091/order/message1?serviceName=pc观察结果

系统规则

系统保护规则是从应用级别的入口流量进行控制从单台机器的总体 Load、RT、入口 QPS 、CPU 使用率和线程数五个维度监控应用数据让系统尽可能跑在最大吞吐量的同时保证系统整体的稳定性。

系统保护规则是应用整体维度的而不是资源维度的并且仅对入口流量 (进入应用的流量) 生效。

  • Load仅对 Linux/Unix-like 机器生效当系统 load1 超过阈值且系统当前的并发线程数超过系统容量时才会触发系统保护。系统容量由系统的 maxQps * minRt 计算得出。设定参考值一般 是 CPU cores * 2.5。
  • RT当单台机器上所有入口流量的平均 RT 达到阈值即触发系统保护单位是毫秒。线程数当单台机器上所有入口流量的并发线程数达到阈值即触发系统保护。
  • 入口 QPS当单台机器上所有入口流量的 QPS 达到阈值即触发系统保护。
  • CPU使用率当单台机器上所有入口流量的 CPU使用率达到阈值即触发系统保护。

扩展: 自定义异常返回

//异常处理页面@Component
public class ExceptionHandlerPage implements UrlBlockHandler {
//BlockException 异常接口,包含Sentinel的五个异常


 // FlowException 限流异常
// DegradeException 降级异常
// ParamFlowException 参数限流异常
// AuthorityException 授权异常
// SystemBlockException 系统负载异常
    @Override
    public void blocked(HttpServletRequest request, HttpServletResponse response, BlockException e) throws IOException {
        response.setContentType("application/json;charset=utf-8"); ResponseData data = null;

        if (e instanceof FlowException) {
            data = new ResponseData(-1, "接口被限流了...");
        } else if (e instanceof DegradeException) {
            data = new ResponseData(-2, "接口被降级了...");
        }
        response.getWriter().write(JSON.toJSONString(data));
    }
}
    @Data
    @AllArgsConstructor//全参构造@NoArgsConstructor//无参构造class ResponseData {
    private int code; 
    private String message;
}

@SentinelResource的使用

在定义了资源点之后我们可以通过Dashboard来设置限流和降级策略来对资源点进行保护。同时还能 通过@SentinelResource来指定出现异常时的处理策略。
用于定义资源并提供可选的异常处理和 fallback 配置项。其主要参数如下:
image.png

定义限流和降级后的处理方法

方式一直接将限流和降级方法定义在方法中

@Service 
@Slf4j
public class OrderServiceImpl3 {
    int i = 0;
    @SentinelResource(
            value = "message",
            blockHandler = "blockHandler",//指定发生BlockException时进入的方法fallback = "fallback"//指定发生Throwable时进入的方法


    )
    public String message() { i++;
        if (i % 3 == 0) {
            throw new RuntimeException();
        }


        return "message";
    }


    //BlockException时进入的方法
    public String blockHandler(BlockException ex) { log.error("{}", ex);
        return "接口被限流或者降级了...";
    }


    //Throwable时进入的方法
    public String fallback(Throwable throwable) { log.error("{}", throwable);
        return "接口发生异常了...";
    }
}

方式二: 将限流和降级方法外置到单独的类中

@Service
@Slf4j
public class OrderServiceImpl3 {
    int i = 0; @SentinelResource(
        value = "message",
        blockHandlerClass = OrderServiceImpl3BlockHandlerClass.class, blockHandler = "blockHandler",
        fallbackClass = OrderServiceImpl3FallbackClass.class, fallback = "fallback"
)
public String message() { i++;
    if (i % 3 == 0) {
        throw new RuntimeException();
    }
    return "message4";
}
}
@Slf4j
public class OrderServiceImpl3BlockHandlerClass {
    //注意这里必须使用static修饰方法
    public static String blockHandler(BlockException ex) {


        log.error("{}", ex);
        return "接口被限流或者降级了...";
    }
}


@Slf4j
public class OrderServiceImpl3FallbackClass {
    //注意这里必须使用static修饰方法
    public static String fallback(Throwable throwable) { log.error("{}", throwable);
        return "接口发生异常了...";
    }
}

Sentinel规则持久化

通过前面的讲解我们已经知道可以通过Dashboard来为每个Sentinel客户端设置各种各样的规 则但是这里有一个问题就是这些规则默认是存放在内存中极不稳定所以需要将其持久化。
本地文件数据源会定时轮询文件的变更读取规则。这样我们既可以在应用本地直接修改文件来更 新规则也可以通过 Sentinel 控制台推送规则。以本地文件数据源为例推送过程如下图所示

首先 Sentinel 控制台通过 API 将规则推送至客户端并更新到内存中接着注册的写数据源会将新的规则保存到本地的文件中。

  1. 编写处理类
package com.itheima.config;


//规则持久化
public class FilePersistence implements InitFunc {


    @Value("spring.application:name") private String appcationName;

    @Override
    public void init() throws Exception {
        String ruleDir = System.getProperty("user.home") + "/sentinel- rules/"+appcationName;
        String flowRulePath = ruleDir + "/flow-rule.json"; String degradeRulePath = ruleDir + "/degrade-rule.json"; String systemRulePath = ruleDir + "/system-rule.json";

        String authorityRulePath = ruleDir + "/authority-rule.json"; String paramFlowRulePath = ruleDir + "/param-flow-rule.json";

        this.mkdirIfNotExits(ruleDir); this.createFileIfNotExits(flowRulePath); this.createFileIfNotExits(degradeRulePath); this.createFileIfNotExits(systemRulePath); this.createFileIfNotExits(authorityRulePath); this.createFileIfNotExits(paramFlowRulePath);

// 流控规则
        ReadableDataSource<String, List<FlowRule>> flowRuleRDS = new FileRefreshableDataSource<>(
                flowRulePath, flowRuleListParser
        );
        FlowRuleManager.register2Property(flowRuleRDS.getProperty()); WritableDataSource<List<FlowRule>> flowRuleWDS = new
                FileWritableDataSource<>(
                flowRulePath, this::encodeJson
        );
        WritableDataSourceRegistry.registerFlowDataSource(flowRuleWDS);


// 降级规则
        ReadableDataSource<String, List<DegradeRule>> degradeRuleRDS = new FileRefreshableDataSource<>(
                degradeRulePath, degradeRuleListParser
        );
        DegradeRuleManager.register2Property(degradeRuleRDS.getProperty()); WritableDataSource<List<DegradeRule>> degradeRuleWDS = new
                FileWritableDataSource<>(
                degradeRulePath, this::encodeJson
        );
        WritableDataSourceRegistry.registerDegradeDataSource(degradeRuleWDS);


// 系统规则
        ReadableDataSource<String, List<SystemRule>> systemRuleRDS = new FileRefreshableDataSource<>(
                systemRulePath, systemRuleListParser
        );
        SystemRuleManager.register2Property(systemRuleRDS.getProperty()); WritableDataSource<List<SystemRule>> systemRuleWDS = new
                FileWritableDataSource<>(
                systemRulePath, this::encodeJson
        );
        WritableDataSourceRegistry.registerSystemDataSource(systemRuleWDS);


// 授权规则
        ReadableDataSource<String, List<AuthorityRule>> authorityRuleRDS = new FileRefreshableDataSource<>(
                authorityRulePath, authorityRuleListParser
        );
        AuthorityRuleManager.register2Property(authorityRuleRDS.getProperty()); WritableDataSource<List<AuthorityRule>> authorityRuleWDS = new
                FileWritableDataSource<>(
                authorityRulePath, this::encodeJson
        );


        WritableDataSourceRegistry.registerAuthorityDataSource(authorityRuleWDS);


// 热点参数规则
        ReadableDataSource<String, List<ParamFlowRule>> paramFlowRuleRDS = new FileRefreshableDataSource<>(
                paramFlowRulePath, paramFlowRuleListParser
        );
        ParamFlowRuleManager.register2Property(paramFlowRuleRDS.getProperty()); WritableDataSource<List<ParamFlowRule>> paramFlowRuleWDS = new
                FileWritableDataSource<>(
                paramFlowRulePath, this::encodeJson
        );


        ModifyParamFlowRulesCommandHandler.setWritableDataSource(paramFlowRuleWDS);
    }


    private Converter<String, List<FlowRule>> flowRuleListParser = source -> JSON.parseObject(
            source,
            new TypeReference<List<FlowRule>>() {
            }
    );
    private Converter<String, List<DegradeRule>> degradeRuleListParser = source
            -> JSON.parseObject(
            source,
            new TypeReference<List<DegradeRule>>() {
            }
    );
    private Converter<String, List<SystemRule>> systemRuleListParser = source -> JSON.parseObject(
            source,
            new TypeReference<List<SystemRule>>() {
            }
    );


    private Converter<String, List<AuthorityRule>> authorityRuleListParser = source -> JSON.parseObject(
            source,
            new TypeReference<List<AuthorityRule>>() {
            }
    );


    private Converter<String, List<ParamFlowRule>> paramFlowRuleListParser = source -> JSON.parseObject(
            source,
            new TypeReference<List<ParamFlowRule>>() {
            }
    );


    private void mkdirIfNotExits(String filePath) throws IOException { File file = new File(filePath);
        if (!file.exists()) { file.mkdirs();
        }
    }


    private void createFileIfNotExits(String filePath) throws IOException { File file = new File(filePath);
        if (!file.exists()) { file.createNewFile();
        }
    }


    private <T> String encodeJson(T t) { return JSON.toJSONString(t);
    }
}
  1. 添加配置

在resources下创建配置目录 META-INF/services ,然后添加文件
com.alibaba.csp.sentinel.init.InitFunc

在文件中添加配置类的全路径

com.itheima.config.FilePersistence

Feign整合Sentinel

第1步: 引入sentinel的依赖

<!--sentinel客户端-->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
</dependency>

第2步: 在配置文件中开启Feign对Sentinel的支持

feign:
	sentinel: 
		enabled: true

第3步: 创建容错类

//容错类要求必须实现被容错的接口,并为每个方法实现容错方案
@Component
@Slf4j
public class ProductServiceFallBack implements ProductService {
    @Override
    public Product findByPid(Integer pid) {
        Product product = new Product();
        product.setPid(-1);
        return product;
    }
}

第4步: 为被容器的接口指定容错类

//value用于指定调用nacos下哪个微服务
//fallback用于指定容错类
@FeignClient(value = "service-product", fallback = ProductServiceFallBack.class)
    public interface ProductService {
    @RequestMapping("/product/{pid}")//指定请求的URI部分
    Product findByPid(@PathVariable Integer pid);
}

第5步: 修改controller

@RestController
@Slf4j
public class OrderController { 
    @Autowired
    private OrderService orderService;
    @Autowired
    private ProductService productService;
//下单--fegin


    @RequestMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) {
        log.info("接收到{}号商品的下单请求,接下来调用商品微服务查询此商品信息", pid);


//调用商品微服务,查询商品信息
        Product product = productService.findByPid(pid);

        if (product.getPid() == -1) { Order order = new Order(); order.setPname("下单失败"); return order;
        }


        log.info("查询到{}号商品的信息,内容是:{}", pid, JSON.toJSONString(product));


//下单(创建订单)
        Order order = new Order(); order.setUid(1); order.setUsername("测试用户"); order.setPid(pid); order.setPname(product.getPname());
        order.setPprice(product.getPprice()); order.setNumber(1);

        orderService.createOrder(order);


        log.info("创建订单成功,订单信息为{}", JSON.toJSONString(order)); try {
            Thread.sleep(100);
        } catch (InterruptedException e) { e.printStackTrace();
        }
        return order;
    }
}

第6步: 停止所有shop-product 服务,重启shop-order 服务,访问请求,观察容错效果

扩展: 如果想在容错类中拿到具体的错误,可以使用下面的方式

@FeignClient(
    value = "service-product",
    //fallback = ProductServiceFallBack.class,
    fallbackFactory = ProductServiceFallBackFactory.class)
    public interface ProductService {
    //@FeignClient的value + @RequestMapping的value值 其实就是完成的请求地址
    "http://service-product/product/" + pid
    @RequestMapping("/product/{pid}")//指定请求的URI部分
    Product findByPid(@PathVariable Integer pid);
}
@Component
public class ProductServiceFallBackFactory implements
    FallbackFactory<ProductService> {
        @Override
        public ProductService create(Throwable throwable) {
            return new ProductService() {
            @Override
            public Product findByPid(Integer pid) {
            throwable.printStackTrace();
            Product product = new Product();
            product.setPid(-1);
            return product;
            }
        };
    }
}

注意: fallback和fallbackFactory只能使用其中一种方式

第五章 Gateway–服务网关

网关简介

大家都都知道在微服务架构中一个系统会被拆分为很多个微服务。那么作为客户端要如何去调用 这么多的微服务呢如果没有网关的存在我们只能在客户端记录每个微服务的地址然后分别去调 用。


这样的架构会存在着诸多的问题

  • 客户端多次请求不同的微服务增加客户端代码或配置编写的复杂性

  • 认证复杂每个服务都需要独立认证。

  • 存在跨域请求在一定场景下处理相对复杂。

上面的这些问题可以借助API网关来解决。
所谓的API网关就是指系统的统一入口它封装了应用程序的内部结构为客户端提供统一服
务一些与业务本身功能无关的公共逻辑可以在这里实现诸如认证、鉴权、监控、路由转发等等。

添加上API网关之后系统的架构图变成了如下所示

我们也可以观察下我们现在的整体架构图

在业界比较流行的网关有下面这些

Ngnix+lua

使用nginx的反向代理和负载均衡可实现对api服务器的负载均衡及高可用
lua是一种脚本语言,可以来编写一些简单的逻辑, nginx支持lua脚本

Kong

基于Nginx+Lua开发性能高稳定有多个可用的插件(限流、鉴权等等)可以开箱即用。 问题 只支持Http协议二次开发自由扩展困难提供管理API缺乏更易用的管控、配置方式。
**Zuul **Netflix开源的网关功能丰富使用JAVA开发易于二次开发 问题缺乏管控无法动态配置依赖组件较多处理Http请求依赖的是Web容器性能不如Nginx

Spring Cloud Gateway

Spring公司为了替换Zuul而开发的网关服务将在下面具体介绍。

注意SpringCloud alibaba技术栈中并没有提供自己的网关我们可以采用Spring Cloud Gateway

来做网关

Gateway简介

Spring Cloud Gateway是Spring公司基于Spring 5.0Spring Boot 2.0 和 Project Reactor 等技术开发的网关它旨在为微服务架构提供一种简单有效的统一的 API 路由管理方式。它的目标是替代Netflix Zuul其不仅提供统一的路由方式并且基于 Filter 链的方式提供了网关基本的功能例如安全监控和限流。

优点
  • 性能强劲是第一代网关Zuul的1.6倍

  • 功能强大内置了很多实用的功能例如转发、监控、限流等

  • 设计优雅容易扩展

缺点
  • 其实现依赖Netty与WebFlux不是传统的Servlet编程模型学习成本高

  • 不能将其部署在Tomcat、Jetty等Servlet容器里只能打成jar包执行

  • 需要Spring Boot 2.0及以上的版本才支持

Gateway快速入门

要求: 通过浏览器访问api网关,然后通过网关将请求转发到商品微服务

基础版

第1步创建一个api-gateway 的模块,导入相关依赖

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="[http://maven.apache.org/POM/4.0.0](http://maven.apache.org/POM/4.0.0)" xmlns:xsi="[http://www.w3.org/2001/XMLSchema-instance](http://www.w3.org/2001/XMLSchema-instance)" xsi:schemaLocation="[http://maven.apache.org/POM/4.0.0](http://maven.apache.org/POM/4.0.0)
[http://maven.apache.org/xsd/maven-4.0.0.xsd](http://maven.apache.org/xsd/maven-4.0.0.xsd)">
<parent>
<artifactId>springcloud-alibaba</artifactId>
<groupId>com.itheima</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>api-gateway</artifactId>
<dependencies>
<!--gateway网关-->
<dependency>


<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-gateway</artifactId>
</dependency>
</dependencies>
</project>

第2步: 创建主类

package com.itheima;

@SpringBootApplication
public class GatewayApplication {
    public static void main(String[] args) { 						SpringApplication.run(GatewayApplication.class, args);
    }
}

第3步: 添加配置文件

server:
	port: 7000
spring:
	application:
		name: api-gateway
		cloud:
			gateway:
                routes: # 路由数组[路由 就是指定当请求满足什么条件的时候转到哪个微服务]
                    - id: product_route # 当前路由的标识, 要求唯一
                    uri: http://localhost:8081 # 请求要转发到的地址
                    order: 1 # 路由的优先级,数字越小级别越高
                    predicates: # 断言(就是路由转发要满足的条件)
                    - Path=/product-serv/** # 当请求路径满足Path指定的规则时,才进行路由转发
                    filters: # 过滤器,请求在传递过程中可以通过过滤器对其进行一定的修改
                    - StripPrefix=1 # 转发之前去掉1层路径

第4步: 启动项目, 并通过网关去访问微服务

增强版

现在在配置文件中写死了转发路径的地址, 前面我们已经分析过地址写死带来的问题, 接下来我们从注册中心获取此地址。

第1步加入nacos依赖

<!--nacos客户端-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-discovery</artifactId>
</dependency>

第2步在主类上添加注解

@SpringBootApplication @EnableDiscoveryClient
public class ApiGatewayApplication {
	public static void main(String[] args) { 					SpringApplication.run(ApiGatewayApplication.class, args);
	}
}

第3步修改配置文件

server:
	port: 7000
spring:
	application:
		name: api-gateway
	cloud:
		nacos:
			discovery:
				server-addr: 127.0.0.1:8848
		gateway:
			discovery:
				locator:
					enabled: true # 让gateway可以发现nacos中的微服务
				routes:
					- id: product_route
						uri: lb://service-product # lb指的是从nacos中按照名称获取微服务,并遵循负载均
衡策略
						predicates:
                       	 - Path=/product-serv/**
                        filters:
                       	 - StripPrefix=1

第4步:测试

简写版

第1步: 去掉关于路由的配置

server:
	port: 7000

spring: 
	application:
		name: gateway 
	cloud:
		nacos:
			discovery:
				server-addr: 127.0.0.1:8848 
		gateway:
            discovery: 
            	locator:
           			 enabled: true

第2步: 启动项目并通过网关去访问微服务

这时候就发现只要按照网关地址/微服务/接口的格式去访问就可以得到成功响应。

Gateway核心架构

基本概念

路由(Route) 是 gateway 中最基本的组件之一表示一个具体的路由信息载体。主要定义了下面的几个信息:
id路由标识符区别于其他 Route。

uri路由指向的目的地uri即客户端请求最终被转发到的微服务。

order用于多个 Route 之间的排序数值越小排序越靠前匹配优先级越高。

predicate断言的作用是进行条件判断只有断言都返回真才会真正的执行路由。

filter过滤器用于修改请求和响应信息。

执行流程


执行流程大体如下

     1. Gateway Client向Gateway Server发送请求
     2. 请求首先会被HttpWebHandlerAdapter进行提取组装成网关上下文
     3. 然后网关的上下文会传递到DispatcherHandler它负责将请求分发给
     RoutePredicateHandlerMapping
  	 4. RoutePredicateHandlerMapping负责路由查找并根据路由断言判断路由是否可用
     5. 如果过断言成功由FilteringWebHandler创建过滤器链并调用
     6. 请求会一次经过PreFilter--微服务--PostFilter的方法最终返回响应

断言

Predicate(断言, 谓词) 用于进行条件判断只有断言都返回真才会真正的执行路由。

断言就是说: 在 **什么条件下 **才能进行路由转发

内置路由断言工厂

SpringCloud Gateway包括许多内置的断言工厂所有这些断言都与HTTP请求的不同属性匹配。具体如下

  • 基于Datetime类型的断言工厂

此类型的断言根据时间做判断主要有三个
AfterRoutePredicateFactory 接收一个日期参数判断请求日期是否晚于指定日期 BeforeRoutePredicateFactory 接收一个日期参数判断请求日期是否早于指定日期 BetweenRoutePredicateFactory 接收两个日期参数判断请求日期是否在指定时间段内

-After=2019-12-31T23:59:59.789+08:00[Asia/Shanghai]

  • 基于远程地址的断言工厂 RemoteAddrRoutePredicateFactory接收一个IP地址段判断请求主机地址是否在地址段中

-RemoteAddr=192.168.1.1/24

  • 基于Cookie的断言工厂

CookieRoutePredicateFactory接收两个参数cookie 名字和一个正则表达式。 判断请求
cookie是否具有给定名称且值与正则表达式匹配。

-Cookie=chocolate, ch.

  • 基于Header的断言工厂

HeaderRoutePredicateFactory接收两个参数标题名称和正则表达式。 判断请求Header是否具有给定名称且值与正则表达式匹配。

-Header=X-Request-Id, \d+

  • 基于Host的断言工厂

HostRoutePredicateFactory接收一个参数主机名模式。判断请求的Host是否满足匹配规则。

-Host=**.testhost.org

  • 基于Method请求方法的断言工厂

MethodRoutePredicateFactory接收一个参数判断请求类型是否跟指定的类型匹配。

-Method=GET

  • 基于Path请求路径的断言工厂

PathRoutePredicateFactory接收一个参数判断请求的URI部分是否满足路径规则。

-Path=/foo/{segment}

  • 基于Query请求参数的断言工厂

QueryRoutePredicateFactory 接收两个参数请求param和正则表达式 判断请求参数是否具有给定名称且值与正则表达式匹配。

-Query=baz, ba.

  • 基于路由权重的断言工厂

WeightRoutePredicateFactory接收一个[组名,权重], 然后对于同一个组内的路由按照权重转发

routes:

-id: weight_route1 uri: host1 predicates:
-Path=/product/**

-Weight=group3, 1
-id: weight_route2 uri: host2 predicates:

-Path=/product/**
-Weight= group3, 9

内置路由断言工厂的使用

接下来我们验证几个内置断言的使用:

server:
	port: 7000
spring:
	application:
		name: api-gateway
	cloud:
		nacos:
			discovery:
				server-addr: 127.0.0.1:8848
		gateway:
			discovery:
				locator:
					enabled: true
				routes:
                    - id: product_route
                        uri: lb://service-product
                        predicates:
                            - Path=/product-serv/**
                            - Before=2019-11-28T00:00:00.000+08:00 #限制请求时间在2019-11-28之前
                            - Method=POST #限制请求方式为POST
                        filters:
                       	 - StripPrefix=1

自定义路由断言工厂

我们来设定一个场景: 假设我们的应用仅仅让age在(min,max)之间的人来访问。

第1步在配置文件中,添加一个Age的断言配置

spring:
	application:
		name: api-gateway
	cloud:
		nacos:
			discovery:
				server-addr: 127.0.0.1:8848
			gateway:
				discovery:
                    locator:
                   	 enabled: true
                routes:
                   - id: product-route
                     uri: lb://service-product
                     predicates:
                         - Path=/product-serv/**
                         - Age=18,60 # 限制年龄只有在18到60岁之间的人能访问
                     filters:
                   	  - StripPrefix=1

第2步自定义一个断言工厂, 实现断言方法

package com.itheima.predicates;
//泛型 用于接收一个配置类,配置类用于接收中配置文件中的配置
@Component
public class AgeRoutePredicateFactory
        extends AbstractRoutePredicateFactory<AgeRoutePredicateFactory.Config> {


    public AgeRoutePredicateFactory() { super(AgeRoutePredicateFactory.Config.class);
    }


    //用于从配置文件中获取参数值赋值到配置类中的属性上@Override
    public List<String> shortcutFieldOrder() {
//这里的顺序要跟配置文件中的参数顺序一致
        return Arrays.asList("minAge", "maxAge");
    }


    //断言@Override
    public Predicate<ServerWebExchange> apply(AgeRoutePredicateFactory.Config config) {
        return new Predicate<ServerWebExchange>() { @Override
        public boolean test(ServerWebExchange serverWebExchange) {
//从serverWebExchange获取传入的参数


            String ageStr =


                    serverWebExchange.getRequest().getQueryParams().getFirst("age"); if (StringUtils.isNotEmpty(ageStr)) {
                int age = Integer.parseInt(ageStr);
                return age > config.getMinAge() && age < config.getMaxAge();
            }
            return true;
        }
        };
    }
}


//自定义一个配置类, 用于接收配置文件中的参数
@Data
class Config {
    private int minAge; private int maxAge;
}

第4步启动测试

#测试发现当age在(20,60)可以访问,其它范围不能访问

http://localhost:7000/product-serv/product/1?age=30

http://localhost:7000/product-serv/product/1?age=10

过滤器

三个知识点:

  1. 作用: 过滤器就是在请求的传递过程中,对请求和响应做一些手脚

  2. 生命周期: Pre Post

  3. 分类: 局部过滤器(作用在某一个路由上) 全局过滤器(作用全部路由上)

    在Gateway中, Filter的生命周期只有两个“pre” 和 “post”。

  • PRE 这种过滤器在请求被路由之前调用。我们可利用这种过滤器实现身份验证、在集群中选择请求的微服务、记录调试信息等。

  • POST这种过滤器在路由到微服务以后执行。这种过滤器可用来为响应添加标准的HTTP Header、收集统计信息和指标、将响应从微服务发送给客户端等。

Gateway 的Filter从作用范围可分为两种: GatewayFilter与GlobalFilter。

  • GatewayFilter应用到单个路由或者一个分组的路由上。

  • GlobalFilter应用到所有的路由上。

局部过滤器

局部过滤器是针对单个路由的过滤器。

内置局部过滤器

在SpringCloud Gateway中内置了很多不同类型的网关路由过滤器。具体如下

image.png

内置局部过滤器的使用

server:
	port: 7000
spring:
	application:
		name: api-gateway
	cloud:
		nacos:
			discovery:
				server-addr: localhost:8848
			gateway:
				discovery:
					locator:
						enabled: true
                    routes:
                        - id: product_route
                          uri: lb://service-product
                          order: 1
                          predicates:
                           - Path=/product-serv/**
                          filters:
                            - StripPrefix=1
                            - SetStatus=2000 # 修改返回状态

自定义局部过滤器

spring:
application:
name: gateway
cloud:
nacos:
discovery:
server-addr: 127.0.0.1:8848
gateway:
discovery:
locator:
enabled: true
routes:
- id: consumer
order: -1
uri: lb://consumer
predicates:
- Path=/consumer-serv/**
filters:
- StripPrefix=1
- Log=true,false # 控制日志是否开启

第2步自定义一个过滤器工厂,实现方法

//自定义局部过滤器
@Component
public class LogGatewayFilterFactory
        extends AbstractGatewayFilterFactory<LogGatewayFilterFactory.Config> {
    //构造函数
    public LogGatewayFilterFactory() {
        super(LogGatewayFilterFactory.Config.class);
    }
    //读取配置文件中的参数 赋值到 配置类中
    @Override
    public List<String> shortcutFieldOrder() {
        return Arrays.asList("consoleLog", "cacheLog");
    }
    //过滤器逻辑
    @Override
    public GatewayFilter apply(LogGatewayFilterFactory.Config config) {
        return new GatewayFilter() {
            @Override
            public Mono<Void> filter(ServerWebExchange exchange,
                                     GatewayFilterChain chain) {
                if (config.isCacheLog()) {3步启动测试
                    5.6.2 全局过滤器
                    全局过滤器作用于所有路由, 无需配置。通过全局过滤器可以实现对权限的统一校验安全性验证等功
                    能。
                    5.6.2.1 内置全局过滤器
                    SpringCloud Gateway内部也是通过一系列的内置全局过滤器对整个路由转发进行处理如下
                    5.6.2.2 自定义全局过滤器
                    内置的过滤器已经可以完成大部分的功能但是对于企业开发的一些业务功能处理还是需要我们
                    自己编写过滤器来实现的那么我们一起通过代码的形式自定义一个过滤器去完成统一的权限校验。
                    开发中的鉴权逻辑
                    System.out.println("cacheLog已经开启了....");
                }
                if (config.isConsoleLog()) {
                    System.out.println("consoleLog已经开启了....");
                }
                return chain.filter(exchange);
            }
        };
    }
    //配置类 接收配置参数
    @Data
    @NoArgsConstructor
    public static class Config {
        private boolean consoleLog;
        private boolean cacheLog;
    }
}

第3步启动测试

全局过滤器

全局过滤器作用于所有路由, 无需配置。通过全局过滤器可以实现对权限的统一校验安全性验证等功能。

内置全局过滤器

SpringCloud Gateway内部也是通过一系列的内置全局过滤器对整个路由转发进行处理如下

自定义全局过滤器

内置的过滤器已经可以完成大部分的功能但是对于企业开发的一些业务功能处理还是需要我们 自己编写过滤器来实现的那么我们一起通过代码的形式自定义一个过滤器去完成统一的权限校验。
开发中的鉴权逻辑

  • 当客户端第一次请求服务时服务端对用户进行信息认证登录

  • 认证通过将用户信息进行加密形成token返回给客户端作为登录凭证

  • 以后每次请求客户端都携带认证的token

  • 服务端对token进行解密判断是否有效。

如上图对于验证用户是否已经登录鉴权的过程可以在网关统一检验。检验的标准就是请求中是否携带token凭证以及token的正确性。
下面的我们自定义一个GlobalFilter去校验所有请求的请求参数中是否包含“token”如何不包含请求
参数“token”则不转发路由否则执行正常的逻辑。

package com.itheima.filters;


//自定义全局过滤器需要实现GlobalFilter和Ordered接口@Component
public class AuthGlobalFilter implements GlobalFilter, Ordered {


    //完成判断逻辑@Override
    public Mono<Void> filter(ServerWebExchange exchange, GatewayFilterChain chain) {
        String token = exchange.getRequest().getQueryParams().getFirst("token"); if (StringUtils.isBlank(token)) {
            System.out.println("鉴权失败");
            exchange.getResponse().setStatusCode(HttpStatus.UNAUTHORIZED); return exchange.getResponse().setComplete();
        }
//调用chain.filter继续向下游执行return chain.filter(exchange);
    }


    //顺序,数值越小,优先级越高@Override
    public int getOrder() {


        return 0;
    }
}

网关限流

网关是所有请求的公共入口所以可以在网关进行限流而且限流的方式也很多我们本次采用前 面学过的Sentinel组件来实现网关的限流。Sentinel支持对SpringCloud Gateway、Zuul等主流网关进行限流。

从1.6.0版本开始Sentinel提供了SpringCloud Gateway的适配模块可以提供两种资源维度的限流 route维度即在Spring配置文件中配置的路由条目资源名为对应的routeId
自定义API维度用户可以利用Sentinel提供的API来自定义一些API分组

  1. 导入依赖
<dependency>
<groupId>com.alibaba.csp</groupId>
<artifactId>sentinel-spring-cloud-gateway-adapter</artifactId>
</dependency>
  1. 编写配置类

基于Sentinel 的Gateway限流是通过其提供的Filter来完成的使用时只需注入对应的
SentinelGatewayFilter实例以及 SentinelGatewayBlockExceptionHandler 实例即可。

@Configuration
public class GatewayConfiguration {
    private final List<ViewResolver> viewResolvers;

    private final ServerCodecConfigurer serverCodecConfigurer;


    public GatewayConfiguration(ObjectProvider<List<ViewResolver>> viewResolversProvider,
                                ServerCodecConfigurer serverCodecConfigurer) {
        this.viewResolvers =
                viewResolversProvider.getIfAvailable(Collections::emptyList); this.serverCodecConfigurer = serverCodecConfigurer;
    }


    // 初始化一个限流的过滤器
    @Bean @Order(Ordered.HIGHEST_PRECEDENCE)
    public GlobalFilter sentinelGatewayFilter() { return new SentinelGatewayFilter();
    }




    // 配置初始化的限流参数
    @PostConstruct
    public void initGatewayRules() { Set<GatewayFlowRule> rules = new HashSet<>(); rules.add(
            new GatewayFlowRule("product_route") //资源名称,对应路由id
                    .setCount(1) // 限流阈值
                    .setIntervalSec(1) // 统计时间窗口单位是秒默认是 1 秒
    );
        GatewayRuleManager.loadRules(rules);
    }


    // 配置限流的异常处理器
    @Bean @Order(Ordered.HIGHEST_PRECEDENCE)
    public SentinelGatewayBlockExceptionHandler sentinelGatewayBlockExceptionHandler() {
        return new SentinelGatewayBlockExceptionHandler(viewResolvers, serverCodecConfigurer);
    }


    // 自定义限流异常页面
    @PostConstruct
    public void initBlockHandlers() {
        BlockRequestHandler blockRequestHandler = new BlockRequestHandler() { public Mono<ServerResponse> handleRequest(ServerWebExchange
                                                                                                                                serverWebExchange, Throwable throwable) {
            Map map = new HashMap<>(); map.put("code", 0);
            map.put("message", "接口被限流了");
            return ServerResponse.status(HttpStatus.OK).

                    contentType(MediaType.APPLICATION_JSON_UTF8). body(BodyInserters.fromObject(map));
        }
        };
        GatewayCallbackManager.setBlockHandler(blockRequestHandler);
    }  
}
  1. 测试

在一秒钟内多次访问http://localhost:7000/product-serv/product/1就可以看到限流启作用了。

自定义API分组

自定义API分组是一种更细粒度的限流规则定义

/**

 * 配置初始化的限流参数
 */
@PostConstruct
public void initGatewayRules() { Set<GatewayFlowRule> rules = new HashSet<>(); rules.add(new
        GatewayFlowRule("product_api1").setCount(1).setIntervalSec(1)); rules.add(new
        GatewayFlowRule("product_api2").setCount(1).setIntervalSec(1)); GatewayRuleManager.loadRules(rules);
        }
//自定义API分组
@PostConstruct
private void initCustomizedApis() { Set<ApiDefinition> definitions = new HashSet<>();
        ApiDefinition api1 = new ApiDefinition("product_api1")
        .setPredicateItems(new HashSet<ApiPredicateItem>() {{
        // 以/product-serv/product/api1 开头的请求
        add(new ApiPathPredicateItem().setPattern("/product- serv/product/api1/**").
        setMatchStrategy(SentinelGatewayConstants.URL_MATCH_STRATEGY_PREFIX));
        }});
        ApiDefinition api2 = new ApiDefinition("product_api2")
        .setPredicateItems(new HashSet<ApiPredicateItem>() {{
        // 以/product-serv/product/api2/demo1 完成的url路径匹配


        add(new ApiPathPredicateItem().setPattern("/product- serv/product/api2/demo1"));
        }});
        definitions.add(api1); definitions.add(api2);
        GatewayApiDefinitionManager.loadApiDefinitions(definitions);
 }

第六章 Sleuth–链路追踪

链路追踪介绍

在大型系统的微服务化构建中一个系统被拆分成了许多模块。这些模块负责不同的功能组合成 系统最终可以提供丰富的功能。在这种架构中一次请求往往需要涉及到多个服务。互联网应用构建 在不同的软件模块集上这些软件模块有可能是由不同的团队开发、可能使用不同的编程语言来实 现、有可能布在了几千台服务器横跨多个不同的数据中心也就意味着这种架构形式也会存在一些问题

  • 如何快速发现问题
  • 如何判断故障影响范围
  • 如何梳理服务依赖以及依赖的合理性
  • 如何分析链路性能问题以及实时容量规划

分布式链路追踪Distributed Tracing就是将一次分布式请求还原成调用链路进行日志记录性能监控并将一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪 台机器上、每个服务节点的请求状态等等。

常见的链路追踪技术有下面这些

  • **cat **由大众点评开源基于Java开发的实时应用监控平台包括实时应用监控业务监控 。 集成方案是通过代码埋点的方式来实现监控比如 拦截器过滤器等。 对代码的侵入性很大集成成本较高。风险较大。

  • **zipkin **由Twitter公司开源开放源代码分布式的跟踪系统用于收集服务的定时数据以解决微服务架构中的延迟问题包括数据的收集、存储、查找和展现。该产品结合spring-cloud-sleuth 使用较为简单 集成很方便 但是功能较简单。

  • **pinpoint **Pinpoint是韩国人开源的基于字节码注入的调用链分析以及应用监控分析工具。特点是支持多种插件UI功能强大接入端无代码侵入。

  • skywalking

    SkyWalking是本土开源的基于字节码注入的调用链分析以及应用监控分析工具。特点是支持多 种插件UI功能较强接入端无代码侵入。目前已加入Apache孵化器。

  • Sleuth

    SpringCloud 提供的分布式系统中链路追踪解决方案。

    注意SpringCloud alibaba技术栈中并没有提供自己的链路追踪技术的我们可以采用Sleuth + Zinkin来做链路追踪解决方案

Sleuth入门

Sleuth介绍

SpringCloud Sleuth主要功能就是在分布式系统中提供追踪解决方案。它大量借用了Google Dapper的设计 先来了解一下Sleuth中的术语和相关概念。

  • Trace

由一组Trace Id相同的Span串联形成一个树状结构。为了实现请求跟踪当请求到达分布式系统的入口端点时只需要服务跟踪框架为该请求创建一个唯一的标识即TraceId同时在分布式系 统内部流转的时候框架始终保持传递该唯一值直到整个请求的返回。那么我们就可以使用该唯 一标识将所有的请求串联起来形成一条完整的请求链路。

  • Span 代表了一组基本的工作单元。为了统计各处理单元的延迟当请求到达各个服务组件的时候也通过一个唯一标识SpanId来标记它的开始、具体过程和结束。通过SpanId的开始和结 束时间戳就能统计该span的调用时间除此之外我们还可以获取如事件的名称。请求信息等元数据。

  • Annotation

用它记录一段时间内的事件内部使用的重要注释
csClient Send客户端发出请求开始一个请求的生命
srServer Received服务端接受到请求开始进行处理 sr-cs = 网络延迟服务调用的时间

ssServer Send服务端处理完毕准备发送到客户端ss - sr = 服务器上的请求处理时间

crClient Reveived客户端接受到服务端的响应请求结束。 cr - sr = 请求的总时间

Sleuth入门

微服务名称, traceId, spanid,是否将链路的追踪结果输出到第三方平台

[api-gateway,3977125f73391553,3977125f73391553,false] [service-order,3977125f73391553,57547b5bf71f8242,false] [service-product,3977125f73391553,449f5b3f3ef8d5c5,false]

接下来通过之前的项目案例整合Sleuth完成入门案例的编写。修改父工程引入Sleuth依赖

<!--链路追踪 Sleuth-->
<dependency>
    <groupId>org.springframework.cloud</groupId>
    <artifactId>spring-cloud-starter-sleuth</artifactId>
</dependency>

启动微服务调用之后我们可以在控制台观察到sleuth的日志输出

其中 5399d5cb061971bd 是TraceId 5399d5cb061971bd 是SpanId依次调用有一个全局的
TraceId将调用链路串起来。仔细分析每个微服务的日志不难看出请求的具体过程。
查看日志文件并不是一个很好的方法当微服务越来越多日志文件也会越来越多通过Zipkin可以 将日志聚合并进行可视化展示和全文检索。

Zipkin的集成

ZipKin介绍

Zipkin 是 Twitter 的一个开源项目它基于Google Dapper实现它致力于收集服务的定时数据 以解决微服务架构中的延迟问题包括数据的收集、存储、查找和展现
我们可以使用它来收集各个服务器上请求链路的跟踪数据并通过它提供的REST API接口来辅助我们查询跟踪数据以实现对分布式系统的监控程序从而及时地发现系统中出现的延迟升高问题并找出系 统性能瓶颈的根源。
除了面向开发的 API 接口之外它也提供了方便的UI组件来帮助我们直观的搜索跟踪信息和分析请求链路明细比如可以查询某段时间内各用户请求的处理时间等。
Zipkin 提供了可插拔数据存储方式In-Memory、MySql、Cassandra 以及 Elasticsearch。

上图展示了 Zipkin 的基础架构它主要由 4 个核心组件构成

  • Collector收集器组件它主要用于处理从外部系统发送过来的跟踪信息将这些信息转换为Zipkin内部处理的 Span 格式以支持后续的存储、分析、展示等功能。Storage存储组件它主要对处理收集器接收到的跟踪信息默认会将这些信息存储在内存中 我们也可以修改此存储策略通过使用其他存储组件将跟踪信息存储到数据库中。
  • RESTful APIAPI 组件它主要用来提供外部访问接口。比如给客户端展示跟踪信息或是外接系统访问以实现监控等。
  • Web UIUI 组件 基于API组件实现的上层应用。通过UI组件用户可以方便而有直观地查询和分析跟踪信息。
  • Zipkin分为两端一个是 Zipkin服务端一个是 Zipkin客户端客户端也就是微服务的应用。 客户端会配置服务端的 URL 地址一旦发生服务间的调用的时候会被配置在微服务里面的 Sleuth 的监听器监听并生成相应的 Trace 和 Span 信息发送给服务端。

ZipKin服务端安装

第1步: 下载ZipKin的jar包

https://search.maven.org/remote_content?g=io.zipkin.java&a=zipkin- server&v=LATEST&c=exec

访问上面的网址即可得到一个jar包这就是ZipKin服务端的jar包

第2步: 通过命令行输入下面的命令启动ZipKin Server

java -jar zipkin-server-2.12.9-exec.jar

第3步通过浏览器访问 http://localhost:9411访问

Zipkin客户端集成

ZipKin客户端和Sleuth的集成非常简单只需要在微服务中添加其依赖和配置即可。 第1步在每个微服务上添加依赖

<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
</dependency>

第2步添加配置

spring:
	zipkin:
		base-url: http://127.0.0.1:9411/ #zipkin server的请求地址
		discoveryClientEnabled: false #让nacos把它当成一个URL而不要当做服务名
	sleuth:
		sampler:
			probability: 1.0 #采样的百分比

第3步: 访问微服务

http://localhost:7000/order-serv/order/prod/1

第4步: 访问zipkin的UI界面观察效果

第5步点击其中一条记录可观察一次访问的详细线路。

ZipKin数据持久化

Zipkin Server默认会将追踪数据信息保存到内存但这种方式不适合生产环境。Zipkin支持将追踪数据持久化到mysql数据库或elasticsearch中。

使用mysql实现数据持久化

第1步: 创建mysql数据环境

CREATE TABLE IF NOT EXISTS zipkin_spans (
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL,
`id` BIGINT NOT NULL,
`name` VARCHAR(255) NOT NULL,
`parent_id` BIGINT,
`debug` BIT(1),
`start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL',

`duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE
utf8_general_ci;


ALTER TABLE zipkin_spans ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `id`) COMMENT 'ignore insert on duplicate';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`, `id`) COMMENT 'for joining with zipkin_annotations';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTracesByIds';
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and getSpanNames';
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces ordering and range';

CREATE TABLE IF NOT EXISTS zipkin_annotations (
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
`span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
`a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or Annotation.value if type == -1',
`a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller than 64KB',
`a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if Annotation',
`a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp',
`endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is
null',
`endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint
is null, or no IPv6 address',
`endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is null',
`endpoint_service_name` VARCHAR(255) COMMENT 'Null when Binary/Annotation.endpoint is null'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE
utf8_general_ci;


ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`,
`span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate'; ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`,
`span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT 'for getTraces and getServiceNames';

ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces';


ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces'; ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`)
COMMENT 'for dependencies job';


CREATE TABLE IF NOT EXISTS zipkin_dependencies (
`day` DATE NOT NULL,
`parent` VARCHAR(255) NOT NULL,
`child` VARCHAR(255) NOT NULL,
`call_count` BIGINT
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE
utf8_general_ci;


ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(`day`, `parent`, `child`);

第2步: 在启动ZipKin Server的时候,指定数据保存的mysql的信息

java -jar zipkin-server-2.12.9-exec.jar --STORAGE_TYPE=mysql -- MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root -
-MYSQL_PASS=root

使用elasticsearch实现数据持久化

第1步: 下载elasticsearch
下载地址https://www.elastic.co/cn/downloads/past-releases/elasticsearch-6-8-4

第2步: 启动elasticsearch

第3步: 在启动ZipKin Server的时候指定数据保存的elasticsearch的信息

java -jar zipkin-server-2.12.9-exec.jar --STORAGE_TYPE=elasticsearch --ES- HOST=localhost:9200

第七章 Rocketmq–消息驱动

MQ简介

什么是MQ

MQMessage Queue是一种跨进程的通信机制用于传递消息。通俗点说就是一个先进先出的数据结构。

MQ的应用场景

异步解耦

最常见的一个场景是用户注册后需要发送注册邮件和短信通知以告知用户注册成功。传统的做法如 下

此架构下注册、邮件、短信三个任务全部完成后才返回注册结果到客户端用户才能使用账号登录。 但是对于用户来说注册功能实际只需要注册系统存储用户的账户信息后该用户便可以登录而后续 的注册短信和邮件不是即时需要关注的步骤。
所以实际当数据写入注册系统后注册系统就可以把其他的操作放入对应的消息队列 MQ 中然后马上返回用户结果由消息队列 MQ 异步地进行这些操作。架构图如下

异步解耦是消息队列 MQ 的主要特点主要目的是减少请求响应时间和解耦。主要的使用场景就是将比较耗时而且不需要即时同步返回结果的操作作为消息放入消息队列。同时由于使用了消息队列MQ只要保证消息格式不变消息的发送方和接收方并不需要彼此联系也不需要受对方的影响即 解耦合。

流量削峰

流量削峰也是消息队列 MQ 的常用场景一般在秒杀或团队抢购(高并发)活动中使用广泛。
在秒杀或团队抢购活动中由于用户请求量较大导致流量暴增秒杀的应用在处理如此大量的访问流 量后下游的通知系统无法承载海量的调用量甚至会导致系统崩溃等问题而发生漏通知的情况。为解 决这些问题可在应用和下游通知系统之间加入消息队列 MQ。

秒杀处理流程如下所述

        1. 用户发起海量秒杀请求到秒杀业务处理系统。
        2. 秒杀处理系统按照秒杀处理逻辑将满足秒杀条件的请求发送至消息队列    MQ。
        3. 下游的通知系统订阅消息队列 MQ   的秒杀相关消息再将秒杀成功的消息发送到相应用户。
        4. 用户收到秒杀成功的通知。

常见的MQ产品

目前业界有很多MQ产品比较出名的有下面这些

  • ZeroMQ

号称最快的消息队列系统尤其针对大吞吐量的需求场景。扩展性好开发比较灵活采用C语言 实现实际上只是一个socket库的重新封装如果做为消息队列使用需要开发大量的代码。ZeroMQ仅提供非持久性的队列也就是说如果down机数据将会丢失。

  • RabbitMQ

使用erlang语言开发性能较好适合于企业级的开发。但是不利于做二次开发和维护。

  • ActiveMQ

历史悠久的Apache开源项目。已经在很多产品中得到应用实现了JMS1.1规范可以和spring- jms轻松融合实现了多种协议支持持久化到数据库对队列数较多的情况支持不好。

  • RocketMQ

阿里巴巴的MQ中间件由java语言开发性能非常好能够撑住双十一的大流量而且使用起来 很简单。

  • Kafka

Kafka是Apache下的一个子项目是一个高性能跨语言分布式Publish/Subscribe消息队列系统 相对于ActiveMQ是一个非常轻量级的消息系统除了性能非常好之外还是一个工作良好的分布 式系统。

RocketMQ入门

RocketMQ是阿里巴巴开源的分布式消息中间件现在是Apache的一个顶级项目。在阿里内部使用 非常广泛已经经过了"双11"这种万亿级的消息流转。

RocketMQ环境搭建

接下来我们先在linux平台下安装一个RocketMQ的服务

环境准备

下载RocketMQ

http://rocketmq.apache.org/release_notes/release-notes-4.4.0/

环境要求
  • Linux 64位操作系统

  • 64bit JDK 1.8+

安装RocketMQ

  1. 上传文件到Linux系统
[root@heima rocketmq]# ls /usr/local/src/ 
rocketmq-all-4.4.0-bin-release.zip
  1. 解压到安装目录
[root@heima src]# unzip rocketmq-all-4.4.0-bin-release.zip 
[root@heima src]# mv rocketmq-all-4.4.0-bin-release ../rocketmq

启动RocketMQ

  1. 切换到安装目录
[root@heima rocketmq]# ls
benchmark bin conf lib LICENSE NOTICE README.md
  1. 启动NameServer
[root@heima rocketmq]# nohup ./bin/mqnamesrv & 
[1] 1467
#只要进程不报错,就应该是启动成功了,可以查看一下日志
[root@heima rocketmq]# tail -f /root/logs/rocketmqlogs/namesrv.log
  1. 启动Broker
#编辑bin/runbroker.sh	和	bin/runserver.sh文件,修改里面的
#JAVA_OPT="${JAVA_OPT} -server -Xms8g -Xmx8g -Xmn4g"
#为JAVA_OPT="${JAVA_OPT} -server -Xms256m -Xmx256m -Xmn128m" 
[root@heima rocketmq]# nohup bin/mqbroker -n localhost:9876 &
[root@heima rocketmq]# tail -f /root/logs/rocketmqlogs/broker.log

测试RocketMQ

  1. 测试消息发送
[root@heima rocketmq]# export NAMESRV_ADDR=localhost:9876 
[root@heima rocketmq]# bin/tools.sh 
org.apache.rocketmq.example.quickstart.Producer
  1. 测试消息接收
[root@heima rocketmq]# export NAMESRV_ADDR=localhost:9876
[root@heima rocketmq]# bin/tools.sh 
org.apache.rocketmq.example.quickstart.Consumer

关闭RocketMQ

  [root@heima rocketmq]# bin/mqshutdown broker 
  [root@heima rocketmq]# bin/mqshutdown namesrv

RocketMQ的架构及概念

如上图所示整体可以分成4个角色分别是NameServerBrokerProducerConsumer。

  • Broker(邮递员)

​ Broker是RocketMQ的核心负责消息的接收存储投递等功能

  • NameServer(邮局)

​ 消息队列的协调者Broker向它注册路由信息同时Producer和Consumer向其获取路由信息

  • Producer(寄件人)

​ 消息的生产者需要从NameServer获取Broker信息然后与Broker建立连接向Broker发送消息

  • Consumer(收件人)

​ 消息的消费者需要从NameServer获取Broker信息然后与Broker建立连接从Broker获取消息

  • Topic(地区)

    用来区分不同类型的消息发送和接收消息前都需要先创建Topic针对Topic来发送和接收消息

  • Message Queue(邮件)

    为了提高性能和吞吐量引入了Message Queue一个Topic可以设置一个或多个Message Queue这样消息就可以并行往各个Message Queue发送消息消费者也可以并行的从多个Message Queue读取消息

  • Message

    Message 是消息的载体。

  • Producer Group

    生产者组简单来说就是多个发送同一类消息的生产者称之为一个生产者组。

  • Consumer Group

    消费者组消费同一类消息的多个 consumer 实例组成一个消费者组。

RocketMQ控制台安装

  1. 下载

在git上下载下面的工程 rocketmq-console-1.0.0

https://github.com/apache/rocketmq-externals/releases

  1. 修改配置文件

修改配置文件 rocketmq-console\src\main\resources\application.properties

server.port=7777 #项目启动后的端口号

rocketmq.config.namesrvAddr=192.168.109.131:9876 #nameserv的地址注意防火墙要开启9876端口

  1. 打成jar包并启动
#进入控制台项目将工程打成jar包
mvn clean package -Dmaven.test.skip=true 
# 启动控制台
java -jar target/rocketmq-console-ng-1.0.0.jar
  1. 访问控制台

消息发送和接收演示

接下来我们使用Java代码来演示消息的发送和接收

<dependency>
    <groupId>org.apache.rocketmq</groupId>
    <artifactId>rocketmq-spring-boot-starter</artifactId>
    <version>2.0.2</version>
</dependency>

发送消息

消息发送步骤:

  1. 创建消息生产者, 指定生产者所属的组名
  2. 指定Nameserver地址
  3. 启动生产者
  4. 创建消息对象指定主题、标签和消息体
  5. 发送消息
  6. 关闭生产者

接收消息

消息接收步骤:

  1. 创建消息消费者, 指定消费者所属的组名
  2. 指定Nameserver地址
  3. 指定消费者订阅的主题和标签
  4. 设置回调函数编写处理消息的方法
  5. 启动消息消费者
//发送消息
public class RocketMQSendTest {
   public static void main(String[] args) throws Exception {
//1. 创建消息生产者, 指定生产者所属的组名
      DefaultMQProducer producer = new DefaultMQProducer("myproducer-group");
//2. 指定Nameserver地址
      producer.setNamesrvAddr("192.168.109.131:9876");
//3. 启动生产者
      producer.start();
//4. 创建消息对象指定主题、标签和消息体
      Message msg = new Message("myTopic", "myTag",
              ("RocketMQ Message").getBytes());


//5. 发送消息
      SendResult sendResult = producer.send(msg,10000); System.out.println(sendResult);
//6. 关闭生产者
      producer.shutdown();
   }
}

案例

接下来我们模拟一种场景: 下单成功之后向下单用户发送短信。设计图如下

订单微服务发送消息

  1. 在shop-order 中添加rocketmq的依赖
<!--rocketmq-->
<dependency>
    <groupId>org.apache.rocketmq</groupId>
    <artifactId>rocketmq-spring-boot-starter</artifactId>
    <version>2.0.2</version>
    </dependency>
    <dependency>
    <groupId>org.apache.rocketmq</groupId>
    <artifactId>rocketmq-client</artifactId>
    <version>4.4.0</version>
</dependency>
  1. 添加配置
rocketmq:
	name-server: 192.168.109.131:9876 #rocketMQ服务的地址
	producer:
		group: shop-order # 生产者组
  1. 编写测试代码
@RestController @Slf4j
public class OrderController2 { @Autowired
private OrderService orderService; @Autowired
private ProductService productService; @Autowired
private RocketMQTemplate rocketMQTemplate;


   //准备买1件商品@GetMapping("/order/prod/{pid}")
   public Order order(@PathVariable("pid") Integer pid) { log.info(">>客户下单,这时候要调用商品微服务查询商品信息");

//通过fegin调用商品微服务
      Product product = productService.findByPid(pid);


      if (product == null){


         Order order = new Order(); order.setPname("下单失败"); return order;
      }


      log.info(">>商品信息,查询结果:" + JSON.toJSONString(product));

      Order order = new Order(); order.setUid(1); order.setUsername("测试用户"); order.setPid(product.getPid()); order.setPname(product.getPname());
      order.setPprice(product.getPprice()); order.setNumber(1); orderService.save(order);

//下单成功之后,将消息放到mq中rocketMQTemplate.convertAndSend("order-topic", order);


      return order;
   }
}

用户微服务订阅消息

  1. 修改shop-user 模块配置
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="[http://maven.apache.org/POM/4.0.0](http://maven.apache.org/POM/4.0.0)" xmlns:xsi="[http://www.w3.org/2001/XMLSchema-instance](http://www.w3.org/2001/XMLSchema-instance)" xsi:schemaLocation="[http://maven.apache.org/POM/4.0.0](http://maven.apache.org/POM/4.0.0)
[http://maven.apache.org/xsd/maven-4.0.0.xsd](http://maven.apache.org/xsd/maven-4.0.0.xsd)">
<parent>
<artifactId>springcloud-alibaba</artifactId>
<groupId>com.itheima</groupId>
<version>1.0-SNAPSHOT</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<artifactId>shop-user</artifactId>
<dependencies>
    <dependency>
    <groupId>com.itheima</groupId>
    <artifactId>shop-common</artifactId>
    <version>1.0-SNAPSHOT</version>
    </dependency>
    <dependency>
    <groupId>com.alibaba.cloud</groupId>


    <artifactId>spring-cloud-starter-alibaba-nacos- discovery</artifactId>
    </dependency>
    <dependency>
    <groupId>org.apache.rocketmq</groupId>
    <artifactId>rocketmq-spring-boot-starter</artifactId>
    <version>2.0.2</version>
    </dependency>
    <dependency>
    <groupId>org.apache.rocketmq</groupId>
    <artifactId>rocketmq-client</artifactId>
    <version>4.4.0</version>
    </dependency>
   </dependencies>
</project>
  1. 修改主类
@SpringBootApplication @EnableDiscoveryClient
public class UserApplication {
   public static void main(String[] args) { SpringApplication.run(UserApplication.class, args);
   }
}
  1. 修改配置文件
server:
	port: 8071
spring:
	application:
		name: service-user
	datasource:
        driver-class-name: com.mysql.jdbc.Driver
        url: jdbc:mysql:///shop?
          serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8&useSSL=true
        username: root
		password: root
	jpa:
        properties:
       	 hibernate:
       	 	hbm2ddl:
        		auto: update
      		dialect: org.hibernate.dialect.MySQL5InnoDBDialect
    cloud:
   	 nacos:
   		 discovery:
   			 server-addr: 127.0.0.1:8848
    rocketmq:
  	  name-server: 192.168.109.131:9876
  1. 编写消息接收服务

    package com.itheima.service;
    
    //发送短信的服务@Slf4j @Service
    @RocketMQMessageListener(consumerGroup = "shop-user", topic = "order-topic") public class SmsService implements RocketMQListener<Order> {
       @Override
       public void onMessage(Order order) {
          log.info("收到一个订单信息{},接下来发送短信", JSON.toJSONString(order));
       }
    }
    
  2. 启动服务执行下单操作观看后台输出

发送不同类型的消息

普通消息

RocketMQ提供三种方式来发送普通消息可靠同步发送、可靠异步发送和单向发送。

可靠同步发送

同步发送是指消息发送方发出数据后会在收到接收方发回响应之后才发下一个数据包的通讯方 式。
此种方式应用场景非常广泛例如重要通知邮件、报名短信通知、营销短信系统等。

可靠异步发送

异步发送是指发送方发出数据后不等接收方发回响应接着发送下个数据包的通讯方式。发送 方通过回调接口接收服务器响应并对响应结果进行处理。
异步发送一般用于链路耗时较长对 RT 响应时间较为敏感的业务场景例如用户视频上传后通知启动转码服务转码完成后通知推送转码结果等。

单向发送

单向发送是指发送方只负责发送消息不等待服务器回应且没有回调函数触发即只发送请求不 等待应答。
适用于某些耗时非常短但对可靠性要求并不高的场景例如日志收集。

<!--依赖-->
<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-test</artifactId>
    </dependency>
    <dependency>
    <groupId>junit</groupId>
    <artifactId>junit</artifactId>
</dependency>
//测试@RunWith(SpringRunner.class)
@SpringBootTest(classes = OrderApplication.class) public class MessageTypeTest {
   @Autowired
   private RocketMQTemplate rocketMQTemplate;


   //同步消息@Test
   public void testSyncSend() {
//参数一: topic 如果想添加tag 可以使用"topic:tag"的写法
//参数二: 消息内容
      SendResult sendResult =
              rocketMQTemplate.syncSend("test-topic-1", "这是一条同步消息"); System.out.println(sendResult);
   }


   //异步消息@Test
   public void testAsyncSend() throws InterruptedException { public void testSyncSendMsg() {
//参数一: topic, 如果想添加tag 可以使用"topic:tag"的写法
//参数二: 消息内容
//参数三: 回调函数, 处理返回结果
      rocketMQTemplate.asyncSend("test-topic-1", "这是一条异步消息", new SendCallback() {
         @Override
         public void onSuccess(SendResult sendResult) { System.out.println(sendResult);
         }


         @Override
         public void onException(Throwable throwable) { System.out.println(throwable);
         }
      });
//让线程不要终止Thread.sleep(30000000);


   }
//单向消息
      @Test
      public void testOneWay() {
         rocketMQTemplate.sendOneWay("test-topic-1", "这是一条单向消息");
      }
   }

三种发送方式的对比

发送方式发送 TPS发送结果反馈可靠性
同步发送不丢失
异步发送不丢失
单向发送最快可能丢失

顺序消息

顺序消息是消息队列提供的一种严格按照顺序来发布和消费的消息类型。

//同步顺序消息[异步顺序 单向顺序写法类似]
public void testSyncSendOrderly() {
//第三个参数用于队列的选择
        rocketMQTemplate.syncSendOrderly("test-topic-1", "这是一条异步顺序消息",
        "xxxx");
        }

事务消息

RocketMQ提供了事务消息通过事务消息就能达到分布式事务的最终一致。

事务消息交互流程:

两个概念:

  • 半事务消息暂不能投递的消息发送方已经成功地将消息发送到了RocketMQ服务端但是服务 端未收到生产者对该消息的二次确认此时该消息被标记成“暂不能投递”状态处于该种状态下的 消息即半事务消息。
  • 消息回查由于网络闪断、生产者应用重启等原因导致某条事务消息的二次确认丢失 RocketMQ服务端通过扫描发现某条消息长期处于“半事务消息”时需要主动向消息生产者询问该 消息的最终状态Commit 或是 Rollback该询问过程即消息回查。
事务消息发送步骤
  1. 发送方将半事务消息发送至RocketMQ服务端。
  2. RocketMQ服务端将消息持久化之后向发送方返回Ack确认消息已经发送成功此时消息为半事 务消息。
  3. 发送方开始执行本地事务逻辑。
  4. 发送方根据本地事务执行结果向服务端提交二次确认Commit 或是 Rollback服务端收到Commit 状态则将半事务消息标记为可投递订阅方最终将收到该消息服务端收到 Rollback 状态则删除半事务消息订阅方将不会接受该消息。
事务消息回查步骤
  1. 在断网或者是应用重启的特殊情况下上述步骤4提交的二次确认最终未到达服务端经过固定时 间后服务端将对该消息发起消息回查。
  2. 发送方收到消息回查后需要检查对应消息的本地事务执行的最终结果。
  3. 发送方根据检查得到的本地事务的最终状态再次提交二次确认服务端仍按照步骤4对半事务消息 进行操作。
//事物日志
@Entity(name = "shop_txlog") @Data
public class TxLog { @Id
private String txLogId; private String content; private Date date;
}
@Service
public class OrderServiceImpl4 {
    @Autowired

    private OrderDao orderDao;


    @Autowired
    private TxLogDao txLogDao;


    @Autowired
    private RocketMQTemplate rocketMQTemplate;


    public void createOrderBefore(Order order) { String txId = UUID.randomUUID().toString();

//发送半事务消息rocketMQTemplate.sendMessageInTransaction(
        "tx_producer_group", "tx_topic",
                MessageBuilder.withPayload(order).setHeader("txId",
                        txId).build(),


);
    }


    order


    //本地事物@Transactional
    public void createOrder(String txId, Order order) {
//本地事物代码orderDao.save(order);

//记录日志到数据库,回查使用TxLog txLog = new TxLog();
        txLog.setTxLogId(txId); txLog.setContent("事物测试"); txLog.setDate(new Date());
        txLogDao.save(txLog);
    }
}


@RocketMQTransactionListener(txProducerGroup = "tx_producer_group") public class OrderServiceImpl4Listener implements RocketMQLocalTransactionListener {

    @Autowired
    private TxLogDao txLogDao;


    @Autowired
    private OrderServiceImpl4 orderServiceImpl4;


//执行本地事物@Override

    public RocketMQLocalTransactionState executeLocalTransaction(Message msg, Object arg) {
        try {
//本地事物
            orderServiceImpl4.createOrder((String) msg.getHeaders().get("txId"), (Order) arg);
            return RocketMQLocalTransactionState.COMMIT;
        } catch (Exception e) {
            return RocketMQLocalTransactionState.ROLLBACK;
        }
    }


    //消息回查@Override
    public RocketMQLocalTransactionState checkLocalTransaction(Message msg) {
//查询日志记录
        TxLog txLog = txLogDao.findById((String) msg.getHeaders().get("txId")).get();

        if (txLog == null) {
            return RocketMQLocalTransactionState.COMMIT;
        } else {
            return RocketMQLocalTransactionState.ROLLBACK;
        }
    }
}

消息消费要注意的细节

@RocketMQMessageListener(
        consumerGroup = "shop",//消费者分组topic = "order-topic",//要消费的主题
        consumeMode = ConsumeMode.CONCURRENTLY, //消费模式:无序和有序messageModel = MessageModel.CLUSTERING, //消息模式:广播和集群,默认是集群
)
public class SmsService implements RocketMQListener<Order> {}

RocketMQ支持两种消息模式:

  • 广播消费: 每个消费者实例都会收到消息,也就是一条消息可以被每个消费者实例处理

  • 集群消费: 一条消息只能被一个消费者实例消费

第八章 SMS–短信服务

短信服务介绍

短信服务Short Message Service是阿里云为用户提供的一种通信服务的能力。

产品优势覆盖全面、高并发处理、消息堆积处理、开发管理简单、智能监控调度

产品功能短信通知、短信验证码、推广短信、异步通知、数据统计
应用场景短信验证码、系统信息推送、推广短信等

短信服务使用

接下来,我们使用短信验证码功能来演示短信服务的使用。流程如下:

准备工作

实名认证

https://help.aliyun.com/document_detail/48263.html?spm=a2c4g.11186623.2.25.1f9415ec9MLqK D

开通短信服务

申请认证秘钥

申请短信签名

申请短信模板

短信服务API介绍

短信发送(SendSms)

调用SendSms发送短信。

请求参数

image.png

返回数据
image.png

短信查询(QuerySendDetails)

调用QuerySendDetails接口查看短信发送记录和发送状态。

请求参数

image.png

返回数据

image.png

功能测试

第1步: 引入阿里云服务依赖

<!--短信发送-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-alicloud-sms</artifactId>
</dependency>

第2步: 使用阿里云提供的Demo测试短信发送

public class SmsDemo {


    //产品名称:云通信短信API产品,开发者无需替换static final String product = "Dysmsapi";
//产品域名,开发者无需替换
    static final String domain = "dysmsapi.aliyuncs.com";


    // TODO 此处需要替换成开发者自己的AK(在阿里云访问控制台寻找) static final String accessKeyId = "yourAccessKeyId";
    static final String accessKeySecret = "yourAccessKeySecret";


    //短信发送
    public static SendSmsResponse sendSms() throws ClientException {
//可自助调整超时时间System.setProperty("sun.net.client.defaultConnectTimeout", "10000");
        System.setProperty("sun.net.client.defaultReadTimeout", "10000");


//初始化acsClient,暂不支持region化
        IClientProfile profile = DefaultProfile.getProfile("cn-hangzhou", accessKeyId, accessKeySecret);
        DefaultProfile.addEndpoint("cn-hangzhou", "cn-hangzhou", product, domain);
        IAcsClient acsClient = new DefaultAcsClient(profile);


//组装请求对象-具体描述见控制台-文档部分内容SendSmsRequest request = new SendSmsRequest();
//必填:待发送手机号request.setPhoneNumbers("15000000000");
//必填:短信签名-可在短信控制台中找到request.setSignName("云通信");
//必填:短信模板-可在短信控制台中找到request.setTemplateCode("SMS_1000000");
//可选:模板中的变量替换JSON串,如模板内容为"亲爱的${name},您的验证码为${code}"时,
        此处的值为
        request.setTemplateParam("{\"name\":\"Tom\", \"code\":\"123\"}");


//选填-上行短信扩展码(无特殊需求用户请忽略此字段)
//request.setSmsUpExtendCode("90997");


//可选:outId为提供给业务方扩展字段,最终在短信回执消息中将此值带回给调用者request.setOutId("yourOutId");

//hint 此处可能会抛出异常,注意catch
        SendSmsResponse sendSmsResponse = acsClient.getAcsResponse(request);


        return sendSmsResponse;
    }


    //短信查询
    public static QuerySendDetailsResponse querySendDetails(String bizId) throws ClientException {

//可自助调整超时时间System.setProperty("sun.net.client.defaultConnectTimeout", "10000");
        System.setProperty("sun.net.client.defaultReadTimeout", "10000");


//初始化acsClient,暂不支持region化
        IClientProfile profile = DefaultProfile.getProfile("cn-hangzhou", accessKeyId, accessKeySecret);
        DefaultProfile.addEndpoint("cn-hangzhou", "cn-hangzhou", product,
                domain);
        IAcsClient acsClient = new DefaultAcsClient(profile);


//组装请求对象
        QuerySendDetailsRequest request = new QuerySendDetailsRequest();
//必填-号码request.setPhoneNumber("15000000000");
//可选-流水号request.setBizId(bizId);
//必填-发送日期 支持30天内记录查询,格式yyyyMMdd SimpleDateFormat ft = new SimpleDateFormat("yyyyMMdd");
        request.setSendDate(ft.format(new Date()));
//必填-页大小request.setPageSize(10L);
//必填-当前页码从1开始计数request.setCurrentPage(1L);

//hint 此处可能会抛出异常,注意catch QuerySendDetailsResponse querySendDetailsResponse =
        acsClient.getAcsResponse(request);


        return querySendDetailsResponse;
    }


    public static void main(String[] args) throws ClientException, InterruptedException {

//发短信
        SendSmsResponse response = sendSms(); System.out.println("短信接口返回的数据	");
        System.out.println("Code=" + response.getCode()); System.out.println("Message=" + response.getMessage()); System.out.println("RequestId=" + response.getRequestId()); System.out.println("BizId=" + response.getBizId());

        Thread.sleep(3000L);


//查明细
        if(response.getCode() != null && response.getCode().equals("OK")) { QuerySendDetailsResponse querySendDetailsResponse =
                querySendDetails(response.getBizId());
            System.out.println("短信明细查询接口返回数据	");
            System.out.println("Code=" + querySendDetailsResponse.getCode()); System.out.println("Message=" +
                    querySendDetailsResponse.getMessage());
            int i = 0;
            for(QuerySendDetailsResponse.SmsSendDetailDTO smsSendDetailDTO : querySendDetailsResponse.getSmsSendDetailDTOs())
            {
                System.out.println("SmsSendDetailDTO["+i+"]:"); System.out.println("Content=" + smsSendDetailDTO.getContent()); System.out.println("ErrCode=" + smsSendDetailDTO.getErrCode()); System.out.println("OutId=" + smsSendDetailDTO.getOutId()); System.out.println("PhoneNum=" +
                    smsSendDetailDTO.getPhoneNum());
                System.out.println("ReceiveDate=" + smsSendDetailDTO.getReceiveDate());
                System.out.println("SendDate=" + smsSendDetailDTO.getSendDate());
                System.out.println("SendStatus=" + smsSendDetailDTO.getSendStatus());
                System.out.println("Template=" + smsSendDetailDTO.getTemplateCode());
            }
            System.out.println("TotalCount=" + querySendDetailsResponse.getTotalCount());
            System.out.println("RequestId=" + querySendDetailsResponse.getRequestId());
        }
    }
}

下单之后发送短信

  1. 在shop-user 模块中加入sms依赖
<!--短信发送-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-alicloud-sms</artifactId>
</dependency>
  1. 将阿里短信给出的demo封装成工具类
public class SmsUtil {
    //替换成自己申请的accessKeyId
    private static String accessKeyId = "LTAIMLlf8NKYXn1M";
    //替换成自己申请的accessKeySecret
    private static String accessKeySecret = "hqyW0zTNzeSIFnZhMEkOaZXVVcr3Gj";


    static final String product = "Dysmsapi";
    static final String domain = "dysmsapi.aliyuncs.com";


    /**

     - 发送短信

     *

     - @param phoneNumbers 要发送短信到哪个手机号
     - @param signName	短信签名[必须使用前面申请的]
     - @param templateCode 短信短信模板ID[必须使用前面申请的]
     - @param param	模板中${code}位置传递的内容

     */
    public static void sendSms(String phoneNumbers, String signName, String templateCode, String param) {
        try {
            System.setProperty("sun.net.client.defaultConnectTimeout", "10000");
            System.setProperty("sun.net.client.defaultReadTimeout", "10000");


//初始化acsClient,暂不支持region化
            IClientProfile profile = DefaultProfile.getProfile("cn-hangzhou", accessKeyId, accessKeySecret);
            DefaultProfile.addEndpoint("cn-hangzhou", "cn-hangzhou", product,
                    domain);
            IAcsClient acsClient = new DefaultAcsClient(profile);


            SendSmsRequest request = new SendSmsRequest(); request.setPhoneNumbers(phoneNumbers); request.setSignName(signName); request.setTemplateCode(templateCode); request.setTemplateParam(param); request.setOutId("yourOutId");
            SendSmsResponse sendSmsResponse = acsClient.getAcsResponse(request); if (!"OK".equals(sendSmsResponse.getCode())) {
                throw new RuntimeException(sendSmsResponse.getMessage());
            }
        } catch (Exception e) {

            e.printStackTrace();
            throw new RuntimeException("发送短信失败");
        }
    }
}
  1. 修改短信发送的服务
import java.util.Random;

//发送短信的服务@Slf4j
@Service("shopSmsService") @RocketMQMessageListener(
        consumerGroup = "shop-user", //消费者组名
        topic = "order-topic",//消费主题
        consumeMode = ConsumeMode.CONCURRENTLY,//消费模式messageModel = MessageModel.CLUSTERING//消息模式
)
public class SmsService implements RocketMQListener<Order> {


    @Autowired
    private UserDao userDao;


    //消费逻辑@Override
    public void onMessage(Order message) {
        log.info("接收到了一个订单信息{},接下来就可以发送短信通知了", message);


//根据uid 获取手机号
        User user = userDao.findById(message.getUid()).get();


//生成验证码
        StringBuilder builder = new StringBuilder(); for (int i = 0; i < 6; i++) {
            builder.append(new Random().nextInt(9) + 1);
        }
        String smsCode = builder.toString();


        Param param = new Param(smsCode); try {
//发送短信 {"code":"123456"}
            SmsUtil.sendSms(user.getTelephone(), "黑马旅游网", "SMS_170836451", JSON.toJSONString(param));
            log.info("短信发送成功");
        } catch (Exception e) { e.printStackTrace();
        }
    }


    @Data

    @AllArgsConstructor @NoArgsConstructor class Param {
        private String code;
    }
}

第九章 Nacos Config–服务配置

服务配置中心介绍

首先我们来看一下,微服务架构下关于配置文件的一些问题

  1. 配置文件相对分散。在一个微服务架构下配置文件会随着微服务的增多变的越来越多而且分散 在各个微服务中不好统一配置和管理。
  2. 配置文件无法区分环境。微服务项目可能会有多个环境例如测试环境、预发布环境、生产环   境。每一个环境所使用的配置理论上都是不同的一旦需要修改就需要我们去各个微服务下手动 维护这比较困难。
  3. 配置文件无法实时更新。我们修改了配置文件之后必须重新启动微服务才能使配置生效这对一 个正在运行的项目来说是非常不友好的。

基于上面这些问题我们就需要配置中心的加入来解决这些问题。

配置中心的思路是

  • 首先把项目中各种配置全部都放到一个集中的地方进行统一管理并提供一套标准的接口。

  • 当各个服务需要获取配置的时候就来配置中心的接口拉取自己的配置。

  • 当配置中心中的各种参数有更新的时候也能通知到各个服务实时的过来同步最新的信息使之动 态更新。

当加入了服务配置中心之后我们的系统架构图会变成下面这样

在业界常见的服务配置中心有下面这些

  • Apollo

Apollo是由携程开源的分布式配置中心。特点有很多比如配置更新之后可以实时生效支持灰 度发布功能并且能对所有的配置进行版本管理、操作审计等功能提供开放平台API。并且资料 也写的很详细。

  • Disconf

Disconf是由百度开源的分布式配置中心。它是基于Zookeeper来实现配置变更后实时通知和生效 的。

  • SpringCloud Config

这是Spring Cloud中带的配置中心组件。它和Spring是无缝集成使用起来非常方便并且它的配置存储支持Git。不过它没有可视化的操作界面配置的生效也不是实时的需要重启或去刷新。

  • Nacos

这是SpingCloud alibaba技术栈中的一个组件前面我们已经使用它做过服务注册中心。其实它也集成了服务配置的功能我们可以直接使用它作为服务配置中心。

Nacos Config入门

使用nacos作为配置中心其实就是将nacos当做一个服务端将各个微服务看成是客户端我们 将各个微服务的配置文件统一存放在nacos上然后各个微服务从nacos上拉取配置即可。
接下来我们以商品微服务为例学习nacos config的使用。

1 搭建nacos环境【使用现有的nacos环境即可】

2 在微服务中引入nacos的依赖

<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
</dependency>

3 在微服务中添加nacos config的配置

注意:不能使用原来的application.yml作为配置文件而是新建一个bootstrap.yml作为配置文件

配置文件优先级(由高到低):
bootstrap.properties -> bootstrap.yml -> application.properties -> application.yml

spring: 
	application:
		name: service-product cloud:
	nacos:
		config:
            server-addr: 127.0.0.1:8848 #nacos中心地址file-extension: yaml # 配置文件格式
     profiles:
		active: dev # 环境标识

4 在nacos中添加配置

点击配置列表点击右边+号新建配置。在新建配置过程中要注意下面的细节

  1. Data ID不能随便写要跟配置文件中的对应对应关系如图所示
  2. 配置文件格式要跟配置文件的格式对应且目前仅仅支持YAML和Properties
  3. 配置内容按照上面选定的格式书写

5 注释本地的application.yam中的内容 启动程序进行测试

如果依旧可以成功访问程序说明我们nacos的配置中心功能已经实现

Nacos Config深入

配置动态刷新

在入门案例中我们实现了配置的远程存放但是此时如果修改了配置我们的程序是无法读取到 的因此我们需要开启配置的动态刷新功能。
在nacos中的service-product-dev.yaml配置项中添加下面配置:

config:
	appName: product
方式一: 硬编码方式
@RestController
public class NacosConfigController { @Autowired
private ConfigurableApplicationContext applicationContext;


    @GetMapping("/nacos-config-test1") public String nacosConfingTest1() {
        return applicationContext.getEnvironment().getProperty("config.appName");
    }
}

方式二: 注解方式(推荐)

@RestController
@RefreshScope//只需要在需要动态读取配置的类上添加此注解就可以public class NacosConfigController {


@Value("${config.appName}") private String appName;

//2 注解方式
@GetMapping("/nacos-config-test2") public String nacosConfingTest2() {
        return appName;
        }
        }

配置共享

当配置越来越多的时候我们就发现有很多配置是重复的这时候就考虑可不可以将公共配置文件 提取出来然后实现共享呢当然是可以的。接下来我们就来探讨如何实现这一功能。

同一个微服务的不同环境之间共享配置

如果想在同一个微服务的不同环境之间实现配置共享其实很简单。
只需要提取一个以spring.application.name 命名的配置文件然后将其所有环境的公共配置放在里面即可。

  1. 新建一个名为service-product.yaml配置存放商品微服务的公共配置

  1. 新建一个名为service-product-test.yaml配置存放测试环境的配置

  1. 新建一个名为consumer-dev.yaml配置存放开发环境的配置

  1. 添加测试方法
@RestController @RefreshScope
public class NacosConfigController { @Value("${config.env}")
private String env;


//3 同一微服务的不同环境下共享配置@GetMapping("/nacos-config-test3") public String nacosConfingTest3() {
return env;
}
}
  1. 访问测试

  1. 接下来修改bootstrap.yml中的配置将active设置成test再次访问观察结果
spring: 
	profiles:
		active: test # 环境标识
不同微服务中间共享配置

不同为服务之间实现配置共享的原理类似于文件引入就是定义一个公共配置然后在当前配置中引 入。

  1. 在nacos中定义一个DataID为all-service.yaml的配置用于所有微服务共享
spring: datasource:
driver-class-name: com.mysql.jdbc.Driver url: jdbc:mysql:///shop?
serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8&useSSL=true username: root
password: root jpa:
properties: hibernate:
hbm2ddl:
auto: update
dialect: org.hibernate.dialect.MySQL5InnoDBDialect cloud:
nacos:
discovery:
server-addr: 127.0.0.1:8848
  1. 在nacos的中修改service-product.yaml中为下面内容
server: port: 8081
config:
appName: product
  1. 修改bootstrap.yaml
spring: application:
name: service-product cloud:
nacos:
config:
server-addr: 127.0.0.1:8848 #nacos中心地址file-extension: yaml # 配置文件格式
shared-dataids: all-service.yaml # 配置要引入的配置
refreshable-dataids: all-service.yaml # 配置要实现动态配置刷新的配置
profiles:
active: dev # 环境标识
  1. 启动商品微服务进行测试

nacos的几个概念

命名空间(Namespace)

命名空间可用于进行不同环境的配置隔离。一般一个环境划分到一个命名空间

配置分组(Group)

配置分组用于将不同的服务可以归类到同一分组。一般将一个项目的配置分到一组

配置集(Data ID)

在系统中一个配置文件通常就是一个配置集。一般微服务的配置就是一个配置集

第十章 Seata–分布式事务

分布式事务基础

事务

事务指的就是一个操作单元在这个操作单元中的所有操作最终要保持一致的行为要么所有操作 都成功要么所有的操作都被撤销。简单地说事务提供一种“要么什么都不做要么做全套”机制。

本地事物

本地事物其实可以认为是数据库提供的事务机制。说到数据库事务就不得不说数据库事务中的四 大特性:

  • A原子性(Atomicity)一个事务中的所有操作要么全部完成要么全部不完成

  • C一致性(Consistency)在一个事务执行之前和执行之后数据库都必须处于一致性状态

  • I隔离性(Isolation)在并发环境中当不同的事务同时操作相同的数据时事务之间互不影响

  • D持久性(Durability)指的是只要事务成功结束它对数据库所做的更新就必须永久的保存下来

    数据库事务在实现时会将一次事务涉及的所有操作全部纳入到一个不可分割的执行单元该执行单 元中的所有操作要么都成功要么都失败只要其中任一操作执行失败都将导致整个事务的回滚

分布式事务

分布式事务指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布 式系统的不同节点之上。
简单的说就是一次大的操作由不同的小操作组成这些小的操作分布在不同的服务器上且属于不同 的应用分布式事务需要保证这些小操作要么全部成功要么全部失败。
本质上来说分布式事务就是为了保证不同数据库的数据一致性。

分布式事务的场景

单体系统访问多个数据库

一个服务需要调用多个数据库实例完成数据的增删改操作

  • 多个微服务访问同一个数据库

多个服务需要调用一个数据库实例完成数据的增删改操作

  • 多个微服务访问多个数据库

多个服务需要调用一个数据库实例完成数据的增删改操作

分布式事务解决方案

全局事务

全局事务基于DTP模型实现。DTP是由X/Open组织提出的一种分布式事务模型——X/Open Distributed Transaction Processing Reference Model。它规定了要实现分布式事务需要三种角色

  • AP: Application 应用系统 (微服务)

  • TM: Transaction Manager 事务管理器 (全局事务管理)

  • RM: Resource Manager 资源管理器 (数据库)

整个事务分成两个阶段:

  • 阶段一: 表决阶段所有参与者都将本事务执行预提交并将能否成功的信息反馈发给协调者。

  • 阶段二: 执行阶段协调者根据所有参与者的反馈通知所有参与者步调一致地执行提交或者回滚。

优点
  • 提高了数据一致性的概率实现成本较低
缺点
  • 单点问题: 事务协调者宕机

  • 同步阻塞: 延迟了提交时间加长了资源阻塞时间

  • 数据不一致: 提交第二阶段依然存在commit结果未知的情况有可能导致数据不一致

可靠消息服务

基于可靠消息服务的方案是通过消息中间件保证上、下游应用数据操作的一致性。假设有A和B两个 系统分别可以处理任务A和任务B。此时存在一个业务流程需要将任务A和任务B在同一个事务中处 理。就可以使用消息中间件来实现这种分布式事务。

第一步: 消息由系统A投递到中间件
     1. 在系统A处理任务A前首先向消息中间件发送一条消息
     2. 消息中间件收到后将该条消息持久化但并不投递。持久化成功后向A回复一个确认应答
     3. 系统A收到确认应答后则可以开始处理任务A
     4. 任务A处理完成后向消息中间件发送Commit或者Rollback请求。该请求发送完成后对系统A而 言该事务的处理过程就结束了
     5. 如果消息中间件收到Commit则向B系统投递消息如果收到Rollback则直接丢弃消息。但是 如果消息中间件收不到Commit和Rollback指令那么就要依靠"超时询问机制"。

超时询问机制

系统A除了实现正常的业务流程外还需提供一个事务询问的接口供消息中间件调
用。当消息中间件收到发布消息便开始计时如果到了超时没收到确认指令就会主动调用 系统A提供的事务询问接口询问该系统目前的状态。该接口会返回三种结果中间件根据三 种结果做出不同反应

提交:将该消息投递给系统B

回滚:直接将条消息丢弃
处理中:继续等待

第二步: 消息由中间件投递到系统B

消息中间件向下游系统投递完消息后便进入阻塞等待状态下游系统便立即进行任务的处理任务 处理完成后便向消息中间件返回应答。

  • 如果消息中间件收到确认应答后便认为该事务处理完毕

  • 如果消息中间件在等待确认应答超时之后就会重新投递直到下游消费者返回消费成功响应为止。 一般消息中间件可以设置消息重试的次数和时间间隔如果最终还是不能成功投递则需要手工干 预。这里之所以使用人工干预而不是使用让A系统回滚主要是考虑到整个系统设计的复杂度问 题。

    基于可靠消息服务的分布式事务前半部分使用异步注重性能后半部分使用同步注重开发成本。

最大努力通知

最大努力通知也被称为定期校对其实是对第二种解决方案的进一步优化。它引入了本地消息表来 记录错误消息然后加入失败消息的定期校对功能来进一步保证消息会被下游系统消费。

第一步: 消息由系统A投递到中间件
     1. 处理业务的同一事务中向本地消息表中写入一条记录
     2. 准备专门的消息发送者不断地发送本地消息表中的消息到消息中间件如果发送失败则重试
第二步: 消息由中间件投递到系统B
  1. 消息中间件收到消息后负责将该消息同步投递给相应的下游系统并触发下游系统的任务执行
  2. 当下游系统处理成功后向消息中间件反馈确认应答消息中间件便可以将该条消息删除从而该 事务完成
  3. 对于投递失败的消息利用重试机制进行重试对于重试失败的写入错误消息表
  4. 消息中间件需要提供失败消息的查询接口下游系统会定期查询失败消息并将其消费这种方式的优缺点

**优点 **一种非常经典的实现实现了最终一致性。
**缺点 **消息表会耦合到业务系统中如果没有封装好的解决方案会有很多杂活需要处理。

TCC事务

TCC即为Try Confirm Cancel它属于补偿型分布式事务。TCC实现分布式事务一共有三个步骤

  • Try尝试待执行的业务

    这个过程并未执行业务只是完成所有业务的一致性检查并预留好执行所需的全部资源

  • Confirm确认执行业务

    确认执行业务操作不做任何业务检查 只使用Try阶段预留的业务资源。通常情况下采用TCC 则认为 Confirm阶段是不会出错的。即只要Try成功Confirm一定成功。若Confirm阶段真的出错了需引入重试机制或人工处理。

  • Cancel取消待执行的业务

    取消Try阶段预留的业务资源。通常情况下采用TCC则认为Cancel阶段也是一定成功的。若

    Cancel阶段真的出错了需引入重试机制或人工处理。



TCC两阶段提交与XA两阶段提交的区别是
XA是资源层面的分布式事务强一致性在两阶段提交的整个过程中一直会持有资源的锁。

TCC是业务层面的分布式事务最终一致性不会一直持有资源的锁。
TCC事务的优缺点
优点把数据库层的二阶段提交上提到了应用层来实现规避了数据库层的2PC性能低下问题。

缺点TCC的Try、Confirm和Cancel操作功能需业务提供开发成本高。

Seata介绍

2019 年 1 月阿里巴巴中间件团队发起了开源项目 FescarFast & EaSy Commit And Rollback其愿景是让分布式事务的使用像本地事务的使用一样简单和高效并逐步解决开发者们 遇到的分布式事务方面的所有难题。后来更名为 Seata意为Simple Extensible Autonomous Transaction Architecture是一套分布式事务解决方案。
Seata的设计目标是对业务无侵入因此从业务无侵入的2PC方案着手在传统2PC的基础上演进。它把一个分布式事务理解成一个包含了若干分支事务的全局事务。全局事务的职责是协调其下管辖的分 支事务达成一致要么一起成功提交要么一起失败回滚。此外通常分支事务本身就是一个关系数据 库的本地事务。

Seata主要由三个重要组件组成
  • TCTransaction Coordinator 事务协调器管理全局的分支事务的状态用于全局性事务的提交和回滚。

  • TMTransaction Manager 事务管理器用于开启、提交或者回滚全局事务。

  • RMResource Manager 资源管理器用于分支事务上的资源管理向TC注册分支事务上报分支事务的状态接受TC的命令来提交或者回滚分支事务。

Seata的执行流程如下:
  1. A服务的TM向TC申请开启一个全局事务TC就会创建一个全局事务并返回一个唯一的XID
  2. A服务的RM向TC注册分支事务并及其纳入XID对应全局事务的管辖
  3. A服务执行分支事务向数据库做操作
  4. A服务开始远程调用B服务此时XID会在微服务的调用链上传播
  5. B服务的RM向TC注册分支事务并将其纳入XID对应的全局事务的管辖
  6. B服务执行分支事务向数据库做操作
  7. 全局事务调用链处理完毕TM根据有无异常向TC发起全局事务的提交或者回滚
  8. TC协调其管辖之下的所有分支事务 决定是否回滚
Seata实现2PC与传统2PC的差别
  1. 架构层次方面传统2PC方案的 RM 实际上是在数据库层RM本质上就是数据库自身通过XA协议实现而 Seata的RM是以jar包的形式作为中间件层部署在应用程序这一侧的。
  2. 两阶段提交方面传统2PC无论第二阶段的决议是commit还是rollback事务性资源的锁都要保持到Phase2完成才释放。而Seata的做法是在Phase1 就将本地事务提交这样就可以省去Phase2 持锁的时间整体提高效率。

Seata实现分布式事务控制

本示例通过Seata中间件实现分布式事务模拟电商中的下单和扣库存的过程
我们通过订单微服务执行下单操作然后由订单微服务调用商品微服务扣除库存

案例基本代码

修改order微服务

controller
@RestController @Slf4j
public class OrderController5 { @Autowired
private OrderServiceImpl5 orderService;


    //下单@RequestMapping("/order/prod/{pid}")
    public Order order(@PathVariable("pid") Integer pid) {
        log.info("接收到{}号商品的下单请求,接下来调用商品微服务查询此商品信息", pid); return orderService.createOrder(pid);
    }
}

OrderService

@Service @Slf4j
public class OrderServiceImpl5{


    @Autowired
    private OrderDao orderDao;


    @Autowired
    private ProductService productService;


    @Autowired
    private RocketMQTemplate rocketMQTemplate;


    @GlobalTransactional
    public Order createOrder(Integer pid) {
//1 调用商品微服务,查询商品信息
        Product product = productService.findByPid(pid);
        log.info("查询到{}号商品的信息,内容是:{}", pid, JSON.toJSONString(product));


//2 下单(创建订单)
        Order order = new Order(); order.setUid(1); order.setUsername("测试用户"); order.setPid(pid); order.setPname(product.getPname());
        order.setPprice(product.getPprice()); order.setNumber(1); orderDao.save(order);
        log.info("创建订单成功,订单信息为{}", JSON.toJSONString(order));


//3 扣库存
        productService.reduceInventory(pid, order.getNumber());


//4 向mq中投递一个下单成功的消息
        rocketMQTemplate.convertAndSend("order-topic", order);


        return order;
    }
}

ProductService

@FeignClient(value = "service-product") public interface ProductService {
    //减库存
    @RequestMapping("/product/reduceInventory")
    void reduceInventory(@RequestParam("pid") Integer pid, @RequestParam("num") int num);
}

修改Product微服务

controller
//减少库存@RequestMapping("/product/reduceInventory")
public void reduceInventory(Integer pid, int num) { 
    productService.reduceInventory(pid, num);
}

service

@Override
public void reduceInventory(Integer pid, int num) { 
    Product product = productDao.findById(pid).get(); 
    product.setStock(product.getStock() - num);//减库存productDao.save(product);
}

异常模拟

在ProductServiceImpl的代码中模拟一个异常, 然后调用下单接口

@Override
public void reduceInventory(Integer pid, Integer number) { Product product = productDao.findById(pid).get();
if (product.getStock() < number) {
throw new RuntimeException("库存不足");
}
int i = 1 / 0; product.setStock(product.getStock() - number); productDao.save(product);
}

启动Seata

下载seata

下载地址https://github.com/seata/seata/releases/v0.9.0/

修改配置文件

将下载得到的压缩包进行解压进入conf目录调整下面的配置文件

registry.conf
registry {
type = "nacos" nacos {
serverAddr = "localhost" namespace = "public" cluster = "default"
}
}


config {
type = "nacos" nacos {
serverAddr = "localhost" namespace = "public" cluster = "default"
}
}

nacos-config.txt

service.vgroup_mapping.service-product=default 
service.vgroup_mapping.service-order=default

这里的语法为 service.vgroup_mapping.${your-service-gruop}=default 中间的
${your-service-gruop} 为自己定义的服务组名称 这里需要我们在程序的配置文件中配置。

初始化seata在nacos的配置

#初始化seata 的nacos配置
#注意: 这里要保证nacos是已经正常运行的
cd conf
nacos-config.sh 127.0.0.1

执行成功后可以打开Nacos的控制台在配置列表中可以看到初始化了很多Group为SEATA_GROUP 的配置。

启动seata服务

cd bin
seata-server.bat -p 9000 -m file

启动后在 Nacos 的服务列表下面可以看到一个名为 serverAddr 的服务。

使用Seata实现事务控制

初始化数据表

在我们的数据库中加入一张undo_log表,这是Seata记录事务日志要用到的表

CREATE TABLE `undo_log`
(
`id` BIGINT(20) NOT NULL AUTO_INCREMENT,
`branch_id` BIGINT(20) NOT NULL,
`xid` VARCHAR(100) NOT NULL,
`context` VARCHAR(128) NOT NULL,
`rollback_info` LONGBLOB NOT NULL,
`log_status` INT(11) NOT NULL,
`log_created` DATETIME NOT NULL,
`log_modified` DATETIME NOT NULL,
`ext` VARCHAR(100) DEFAULT NULL,
PRIMARY KEY (`id`),
UNIQUE KEY `ux_undo_log` (`xid`, `branch_id`)
) ENGINE = INNODB
AUTO_INCREMENT = 1
DEFAULT CHARSET = utf8;

添加配置

在需要进行分布式控制的微服务中进行下面几项配置:

添加依赖
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-seata</artifactId>
</dependency>

<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
</dependency>

DataSourceProxyConfig
Seata 是通过代理数据源实现事务分支的所以需要配置 io.seata.rm.datasource.DataSourceProxy 的
Bean且是 @Primary默认的数据源否则事务不会回滚无法实现分布式事务

@Configuration
public class DataSourceProxyConfig { @Bean
@ConfigurationProperties(prefix = "spring.datasource") public DruidDataSource druidDataSource() {
    return new DruidDataSource();
}


    @Primary @Bean
    public DataSourceProxy dataSource(DruidDataSource druidDataSource) { return new DataSourceProxy(druidDataSource);
    }
}
registry.conf

在resources下添加Seata的配置文件 registry.conf

registry {
        type = "nacos" nacos {
        serverAddr = "localhost" namespace = "public" cluster = "default"
        }
        }
        config {
        type = "nacos" nacos {
        serverAddr = "localhost" namespace = "public"
        cluster = "default"


        }
        }

bootstrap.yaml

spring: application:
name: service-product cloud:
nacos:
config:
server-addr: localhost:8848 # nacos的服务端地址namespace: public
group: SEATA_GROUP alibaba:
seata:
tx-service-group: ${spring.application.name}

在order微服务开启全局事务

@GlobalTransactional//全局事务控制
public Order createOrder(Integer pid) {}
  1. 测试

再次下单测试

seata运行流程分析

要点说明
1、每个RM使用DataSourceProxy连接数据库其目的是使用ConnectionProxy使用数据源和数据连 接代理的目的就是在第一阶段将undo_log和业务数据放在一个本地事务提交这样就保存了只要有业务 操作就一定有undo_log。
2、在第一阶段undo_log中存放了数据修改前和修改后的值为事务回滚作好准备所以第一阶段完成 就已经将分支事务提交也就释放了锁资源。
3、TM开启全局事务开始将XID全局事务id放在事务上下文中通过feign调用也将XID传入下游分支 事务每个分支事务将自己的Branch ID分支事务ID与XID关联。
4、第二阶段全局事务提交TC会通知各各分支参与者提交分支事务在第一阶段就已经提交了分支事 务这里各各参与者只需要删除undo_log即可并且可以异步执行第二阶段很快可以完成。
5、第二阶段全局事务回滚TC会通知各各分支参与者回滚分支事务通过 XID 和 Branch ID 找到相应的回滚日志通过回滚日志生成反向的 SQL 并执行以完成分支事务回滚到之前的状态如果回滚失败则会重试回滚操作。

扩展章节 Dubbo–rpc通信

介绍

Dubbo是阿里巴巴开源的基于 Java 的高性能 RPC分布式服务框架致力于提供高性能和透明化的RPC远程服务调用方案以及SOA服务治理方案。
Spring-cloud-alibaba-dubbo 是基于SpringCloudAlibaba技术栈对dubbo技术的一种封装,目的在于实现基于RPC的服务调用。

实现

提供统一业务api

public interface ProductService {
    Product findByPid(Integer pid);
}

提供服务提供者

  1. 添加依赖
<!--dubbo-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-dubbo</artifactId>
</dependency>
  1. 添加dubbo配置
dubbo:
scan:
base-packages: com.itheima.service.impl # 开启包扫描
protocols: dubbo:
name: dubbo # 服务协议
port: -1 # 服务端口
registry:
address: spring-cloud://localhost # 注册中心
  1. 编写并暴露服务
//暴露服务:注意这里使用的是dubbo提供的注解@Service,而不是Spring的@Service
public class ProductServiceImpl implements ProductService { @Autowired
private ProductDao productDao;


    @Override
    public Product findByPid(Integer pid) { return productDao.findById(pid).get();
    }
}

提供服务消费者

  1. 添加依赖
<!--dubbo-->
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-starter-dubbo</artifactId>
</dependency>
  1. 添加dubbo配置
dubbo:
registry:
address: spring-cloud://localhost # 注册中心
cloud:
subscribed-services: service-product # 订阅的提供者名称
  1. 引用服务
@RestController @Slf4j
public class OrderController {


    @Autowired
    private OrderService orderService;


    //引用服务@Reference
    private ProductService productService;


    @RequestMapping("/order/prod/{pid}")
    public Order order(@PathVariable Integer pid) {
        log.info("接收到{}号商品的下单请求,接下来调用商品微服务查询此商品信息", pid);


//调用商品微服务,查询商品信息


        Product product = productService.findByPid(pid);
        log.info("查询到{}号商品的信息,内容是:{}", pid, JSON.toJSONString(product));


//下单(创建订单)
        Order order = new Order(); order.setUid(1); order.setUsername("测试用户"); order.setPid(pid); order.setPname(product.getPname());
        order.setPprice(product.getPprice()); order.setNumber(1); orderService.createOrder(order);
        log.info("创建订单成功,订单信息为{}", JSON.toJSONString(order));


        return order;
    }
}
  1. 服务调用测试

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: Spring