消息推送平台📝 推送下发【邮件】【短信】【微信服务号】【微信小程序】【企业微信】【钉钉】等消息类型。所使用的技术栈包括:SpringBoot、SpringDataJPA、MySQL、Docker、docker-compose、Kafka、Redis、Apollo、prometheus、Grafana、GrayLog、Flink、Xxl-job、Echarts等等
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
3y 15d13dc84f
1、完善hive安装教程
2 years ago
austin-common 1、完善hive安装教程 2 years ago
austin-cron 1、完善hive安装教程 2 years ago
austin-data-house 1、完善hive安装教程 2 years ago
austin-handler 1、完善hive安装教程 2 years ago
austin-service-api 1、完善hive安装教程 2 years ago
austin-service-api-impl 1、完善hive安装教程 2 years ago
austin-stream 1、完善hive安装教程 2 years ago
austin-support 1、完善hive安装教程 2 years ago
austin-web 1、完善hive安装教程 2 years ago
docker 更改 默认的docker-compose 配置 2 years ago
sql austin 数据仓库模块 发布 2 years ago
.gitignore 1. update gitgnore 3 years ago
Dockerfile 调试 微信服务号 登录注册 2 years ago
INSTALL.md 1、完善hive安装教程 2 years ago
LICENSE add LICENSE. 3 years ago
README.md 1、完善hive安装教程 2 years ago
docker-compose.yml 1、完善hive安装教程 2 years ago
pom.xml 数据仓库模块 init (未完成) 2 years ago
stream-start.sh 更改 默认的docker-compose 配置 2 years ago

README.md

作者 项目群交流 Bilibili 对线面试官 Gitee Starts Gitee Starts issue-open issue-close issue-close issue-close issue-close jdk版本 SpringBoot版本 Centos版本 MySQL版本 maven版本 ORM框架 ORM框架 分布式定时任务 分布式配置中心 分布式消息队列 分布式日志采集 计算引擎 系统监控 系统监控 部署 前端

🔥项目在线演示地址:http://139.9.66.219:3000/

🔥项目视频我正在Bilibili更新(三连越多,更新越有动力哟

🔥项目笔记关注公众号Java3y回复「austin」即可获取还能加项目交流群哟!

消息推送平台austin介绍

核心功能:统一的接口发送各种类型消息,对消息生命周期全链路追踪。

意义:只要公司内部有发送消息的需求,都应该要有类似austin的项目。消息推送平台对各类消息进行统一发送处理,这有利于对功能的收拢,以及提高业务需求开发的效率。

使用姿势

1、创建需要发送的渠道账号

2、创建消息模板

3、测试发送消息是否正常

4、查看消息下发情况

5、亦可在新建模板时选择定时任务,通过上传csv文件和指定cron表达式实现下发消息

部署姿势

austin项目强依赖MySQL/Redis/(大概需要2G内存)弱依赖kafka/prometheus/graylog/flink/xxl-job/apollo(完全部署所有的服务大概8G+内存)。如果缺少相关的组件可戳:安装相关组件教程

实在想要clone项目后不用自己部署环境直接在本地启动debug,我这提供了会员服务直连部署好的服务器。

1、austin使用的MySQL版本5.7x。如果目前使用的MySQL版本8.0,注意改变pom.xml所依赖的版本

2、填写application.propertiesaustin-database对应的ip/port/username/password信息

3、执行sql文件夹下的austin.sql创建对应的表

4、填写application.propertiesaustin.redis对应的ip/port信息

5、以上配置信息都在application.properties文件中修改。(prometheus/graylog/flink/xxl-job/apollo/kafka可选)

6austin前端管理系统部署,戳GitHubGitee跳转至对应的仓库

7、正常使用数据管理(查看实时数据链路下发)需要将austin-streamjar包上传至Flink,根据部署文档启动Flink。在打jar包前需要填写com.java3y.austin.stream.constants.AustinFlinkConstant中的rediskafkaip/port注意日志的topic在application.properties中的austin.business.log.topic.name。如果没有该topic需要提前创建使用Kafka作为消息队列实现)

8、正常使用定时任务需要部署xxl-job,根据部署文档启动xxl的调度中心并在application.properteis中填写 austin.xxl.job.ipaustin.xxl.job.port

9、正常使用分布式日志采集需要部署graylog,根据部署文档启动graylog,并在application.properteis中填写 austin.grayLog.ip

10、正常使用系统监控需要部署promethusgrafana,根据部署文档配置grafana图表。

11、正常使用动态配置中心需要部署apollo,根据部署文档启动apollo通过docker-compose启动需要在AustinApplication注入对应的ip和port(可看注释)。

会员服务

收费课程是以项目为主代码在Gitee和GitHub上都是开源的项目没有商业版后面也不会有。那么付费跟我自己去拉Git仓库拉代码下来看有什么区别

1、有很多人的自学能力和基础确实不太行不知道怎么开始学习从哪开始看起学习项目的过程中会走很多弯路很容易就迷茫了。付费最跟自学最主要的区别就是我的服务会更周到

我会告诉你怎么开始学这个开源项目,哪些是重点需要掌握的,如何利用最短的时间把握整个系统架构和编码的设计,把时间节省下来去做其他事情。

2、一个生产环境的系统肯定会依赖各种中间件《消息推送平台-Austin》也是一样的。我专门买了两台服务器已经搭建好必要的依赖付费的可以使用我的远程服务器,在本地就能直接启动运行体验和学习

3、项目在编写的过程中也经历多次的重构迭代迭代的内容我是不会将以往文章内容重新修正发布语雀的文档内容一定是及时同步,文档跟代码是保持一致的

4、干练清爽的项目commit可一步一步跟着commit还原整个系统的过程

5、除了项目还可以问我些学习经验、学习路线、简历编写、面试经验等等问题技术和学习上的知识知无不言

详情可以看戳:我开通了付费渠道

项目交流

由于austin项目交流群已经超过了两百人添加我的个人微信备注:【项目】,我空的时候会拉进项目交流群里

如何准备面试?

对线面试官公众号持续更新面试系列文章对线面试官系列深受各大开发的好评已有不少的同学通过对线面试官系列得到BATTMD等一线大厂的的offer。一个讲人话的面试系列,八股文不再是背诵。

想要获取这份电子书,点击关注下方公众号,回复「对线」得到我的联系方式即可进群获取电子书

里程碑

  • Maven+SpringBoot项目搭建
  • logback日志记录项目运行时信息引入common/guava/Hutool/Lombok/fastjson/OkHttp工具包
  • 接入腾讯云渠道发送一条短信
  • 使用SpringData JPA将短信发送记录存储至MySQL
  • 使用SpringBoot接入Kafka
  • 利用责任链完成对接入层的请求进行封装(责任链模式)
  • 消费层实现数据隔离(线程池:生产者与消费者模式)
  • 通用去重消息功能SpringBoot接入Redis并使用pipeline减少网络请求
  • 配置服务器和docker容器以及SpringBoot应用的监控prometheus+Grafana+auctuator
  • 接入分布式配置中心完成 丢失消息、白名单以及账号配置Apollo分布式配置中心
  • 邮件渠道接入
  • 日志链路数据追踪 + 注解式打印日志(优雅打印日志以及数据埋点)
  • 接入GrayLog分布式日志收集框架
  • 引入前端低代码平台AMIS搭建后台管理页面
  • 接入分布式定时任务框架定时发送任务xxl-job定时任务框架编写上传文件接口并使用LazyPending批处理人群文件数据
  • 接入实时流计算平台Flink实时日志数据根据用户维度和消息模板维度清洗至Redis
  • 通过AMIS低代码平台接入echarts图表展示实时聚合后的数据
  • 优雅停机、动态线程池参数配置
  • 企业微信渠道接入
  • 夜间屏蔽次日早晨推送xxl-job定时任务框架另类的延时队列
  • 钉钉渠道接入
  • 单机限流实现
  • 引入单测框架,编写部分单测用例
  • 接入微信服务号渠道(已有pull request代码待调试)
  • 接入微信小程序渠道(已有pull request代码)
  • 接入PUSH渠道
  • 接入云片短信渠道,并短信支持流量配置,拉取腾讯云短信回执
  • 完成接入钉钉机器人渠道所有类型的消息
  • 完成接入钉钉工作渠道所有类型的消息,包括对文件素材的上传功能
  • Kafka消息支持tag过滤
  • MQ层支持可插拔默认使用eventbus单机队列Kafka变为弱依赖
  • 渠道账号改为读取数据库,优化短信回执拉取功能
  • 接入微信服务号渠道(发送模板消息)完成
  • 接入微信小程序渠道(发送订阅消息)完成
  • 测试环境完成微信服务号扫码登录功能
  • 测试环境docker-compose完成接入MySQL/Redis/Flink/xxl-job/Kafka
  • 在线演示第一版发布
  • 数据仓库模块完成
  • 总体架构已完成,持续做基础建设和优化代码

近期更新时间2023年1月29号

近期更新功能:数据仓库模块austin-data-house调试成功