学习教程:七米-基于gin框架和gorm的web开发实战
参考博客:李文周的博客
HTTP通信
Go语言是一门强大的编程语言,内置了用于HTTP通信的标准库。使用Go语言进行HTTP通信通常涉及以下步骤:
-
导入必要的包:首先,您需要导入Go语言标准库中的net/http
包,以便使用HTTP相关功能。
-
创建HTTP路由器:您可以使用http.NewServeMux()
创建一个HTTP路由器,以处理不同的HTTP请求。路由器将根据请求的URL路径分发请求给不同的处理函数。
-
创建处理函数:您需要编写处理HTTP请求的函数。这些函数通常具有两个参数:http.ResponseWriter
用于发送HTTP响应,以及*http.Request
用于接收HTTP请求。
-
注册处理函数:将处理函数与路由器中的特定路径相关联,以确保正确的处理程序用于特定请求。
-
启动HTTP服务器:最后,您需要启动HTTP服务器,监听指定的端口,并开始接受和处理HTTP请求。
以下是一个简单的示例,演示了如何使用Go语言进行HTTP通信:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
package main
import (
"fmt"
"net/http"
)
// 处理HTTP请求的处理函数
func helloHandler(w http.ResponseWriter, r *http.Request) {
// 向客户端发送响应
fmt.Fprintln(w, "Hello, World!")
}
func main() {
// 创建HTTP路由器
mux := http.NewServeMux()
// 注册处理函数
mux.HandleFunc("/", helloHandler)
// 启动HTTP服务器并监听端口
port := 9090
serverAddr := fmt.Sprintf(":%d", port)
fmt.Printf("Server listening on port %d...\n", port)
err := http.ListenAndServe(serverAddr, mux)
if err != nil {
fmt.Printf("Error starting server: %v\n", err)
}
}
|
在这个示例中,我们创建了一个简单的HTTP服务器,它监听端口8080,并将所有请求路由到helloHandler
函数。helloHandler
函数会向客户端发送"Hello, World!“的响应。您可以在浏览器中访问http://localhost:9090
来测试这个简单的HTTP服务器。
请注意,这只是一个基本示例。在实际应用中,您可能需要处理不同类型的HTTP请求,解析请求参数,设置响应头等等。 Go语言的net/http
包提供了丰富的功能来满足各种HTTP通信需求。
Gin框架入门
1.介绍
Gin是一个流行的Go语言Web框架,用于构建高性能的Web应用程序和API。它提供了一组强大的工具和功能,使开发者能够轻松地构建可伸缩、高效和可维护的Web应用程序。以下是Gin框架的详细介绍:
-
轻量级和高性能:Gin是一个轻量级的框架,它在性能上表现出色。它使用了快速的HTTP路由引擎,因此非常适合构建高性能的Web应用程序。
-
HTTP路由:Gin提供了强大而灵活的HTTP路由功能,允许您定义各种路由规则和参数。您可以轻松地定义RESTful API端点,并支持路径参数、查询参数和请求体参数的处理。
-
中间件:中间件是Gin的一个强大特性,它允许您在请求进入处理程序之前或响应离开处理程序之后执行某些操作。这使得实现身份验证、日志记录、错误处理等功能非常容易。
-
错误处理:Gin具有内置的错误处理机制,允许您定义全局的错误处理程序或为特定路由定义自定义错误处理。这有助于提供清晰的错误信息和响应。
-
请求和响应处理:Gin提供了方便的方法来解析请求参数、读取请求体、设置响应头和发送JSON、XML等响应。它支持自动绑定请求数据到Go结构体,使得处理请求变得非常简单。
-
模板引擎:虽然Gin本身不包含模板引擎,但它很容易与第三方模板引擎集成,例如HTML模板或JSON模板。
-
WebSocket支持:Gin也支持WebSocket,使您能够构建实时应用程序,如聊天应用或实时通知系统。
-
热重载:Gin具有热重载功能,当您修改代码时,可以自动重新加载应用程序,无需手动停止和启动服务器。
以下是一个简单的Gin示例,展示了如何创建一个Hello World的Web应用程序:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
package main
import (
"github.com/gin-gonic/gin"
)
func main() {
// 创建Gin引擎
r := gin.Default()
// 定义路由处理函数
r.GET("/", func(c *gin.Context) {
c.String(200, "Hello, World!")
})
// 启动Web服务器
r.Run(":8080")
}
|
要开始使用Gin框架,您需要首先安装它,可以使用以下命令:
1
|
go get -u github.com/gin-gonic/gin
|
然后,您可以根据您的需求构建更复杂的Web应用程序和API,利用Gin提供的丰富功能和中间件来实现各种功能。 Gin的文档和社区资源丰富,可帮助您更深入地了解如何使用它构建强大的Web应用程序。
2.官方文档和学习资料
要深入学习Gin框架,您可以查阅以下官方文档和其他学习资料:
- 官方文档:
- Gin框架官方文档: 官方文档包含了Gin框架的详细说明、示例和API文档。这是学习Gin框架的最佳起点。
- GitHub仓库:
- Gin Web框架示例代码(英文):
- Go 技术论坛:
- Go 技术论坛:这个网站提供了关于Go Web开发的系列教程,其中包括了有关Gin框架的学习资源。
RESTful API
REST与技术无关,代表的是一种软件架构风格,REST是Representational State Transfer的简称,中文翻译为“表征状态转移”或“表现层状态转化”。
推荐阅读阮一峰 理解RESTful架构
简单来说,REST的含义就是客户端与Web服务器之间进行交互的时候,使用HTTP协议中的4个请求方法代表不同的动作。
GET
用来获取资源
POST
用来新建资源
PUT
用来更新资源
DELETE
用来删除资源。
只要API程序遵循了REST风格,那就可以称其为RESTful API。目前在前后端分离的架构中,前后端基本都是通过RESTful API来进行交互。
例如,我们现在要编写一个管理书籍的系统,我们可以查询对一本书进行查询、创建、更新和删除等操作,我们在编写程序的时候就要设计客户端浏览器与我们Web服务端交互的方式和路径。按照经验我们通常会设计成如下模式:
请求方法 |
URL |
含义 |
GET |
/book |
查询书籍信息 |
POST |
/create_book |
创建书籍记录 |
POST |
/update_book |
更新书籍信息 |
POST |
/delete_book |
删除书籍信息 |
同样的需求我们按照RESTful API设计如下:
请求方法 |
URL |
含义 |
GET |
/book |
查询书籍信息 |
POST |
/book |
创建书籍记录 |
PUT |
/book |
更新书籍信息 |
DELETE |
/book |
删除书籍信息 |
Gin框架支持开发RESTful API的开发。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
func main() {
r := gin.Default()
r.GET("/book", func(c *gin.Context) {
c.JSON(200, gin.H{
"message": "GET",
})
})
r.POST("/book", func(c *gin.Context) {
c.JSON(200, gin.H{
"message": "POST",
})
})
r.PUT("/book", func(c *gin.Context) {
c.JSON(200, gin.H{
"message": "PUT",
})
})
r.DELETE("/book", func(c *gin.Context) {
c.JSON(200, gin.H{
"message": "DELETE",
})
})
}
|
开发RESTful API的时候我们通常使用Postman来作为客户端的测试工具。
Gin渲染
参考博客:Gin框架介绍及使用
HTML渲染
我们首先定义一个存放模板文件的templates
文件夹,然后在其内部按照业务分别定义一个posts
文件夹和一个users
文件夹。 posts/index.html
文件的内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
{{define "posts/index.html"}}
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta http-equiv="X-UA-Compatible" content="ie=edge">
<title>posts/index</title>
</head>
<body>
{{.title}}
</body>
</html>
{{end}}
|
users/index.html
文件的内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
{{define "users/index.html"}}
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<meta http-equiv="X-UA-Compatible" content="ie=edge">
<title>users/index</title>
</head>
<body>
{{.title}}
</body>
</html>
{{end}}
|
Gin框架中使用LoadHTMLGlob()
或者LoadHTMLFiles()
方法进行HTML模板渲染。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
func main() {
r := gin.Default()
r.LoadHTMLGlob("templates/**/*")
//r.LoadHTMLFiles("templates/posts/index.html", "templates/users/index.html")
r.GET("/posts/index", func(c *gin.Context) {
c.HTML(http.StatusOK, "posts/index.html", gin.H{
"title": "posts/index",
})
})
r.GET("users/index", func(c *gin.Context) {
c.HTML(http.StatusOK, "users/index.html", gin.H{
"title": "users/index",
})
})
r.Run(":8080")
|
自定义模板函数
定义一个不转义相应内容的safe
模板函数如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
func main() {
router := gin.Default()
router.SetFuncMap(template.FuncMap{
"safe": func(str string) template.HTML{
return template.HTML(str)
},
})
router.LoadHTMLFiles("./index.tmpl")
router.GET("/index", func(c *gin.Context) {
c.HTML(http.StatusOK, "index.tmpl", "<a href='https://liwenzhou.com'>李文周的博客</a>")
})
router.Run(":8080")
}
|
在index.tmpl
中使用定义好的safe
模板函数:
1
2
3
4
5
6
7
8
9
|
<!DOCTYPE html>
<html lang="zh-CN">
<head>
<title>修改模板引擎的标识符</title>
</head>
<body>
<div>{{ . | safe }}</div>
</body>
</html>
|
静态文件处理
当我们渲染的HTML文件中引用了静态文件时,我们只需要按照以下方式在渲染页面前调用gin.Static
方法即可。
1
2
3
4
5
6
7
|
func main() {
r := gin.Default()
r.Static("/static", "./static")
r.LoadHTMLGlob("templates/**/*")
// ...
r.Run(":8080")
}
|
使用模板继承
Gin框架默认都是使用单模板,如果需要使用block template
功能,可以通过"github.com/gin-contrib/multitemplate"
库实现,具体示例如下:
首先,假设我们项目目录下的templates文件夹下有以下模板文件,其中home.tmpl
和index.tmpl
继承了base.tmpl
:
1
2
3
4
5
6
7
|
templates
├── includes
│ ├── home.tmpl
│ └── index.tmpl
├── layouts
│ └── base.tmpl
└── scripts.tmpl
|
然后我们定义一个loadTemplates
函数如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
func loadTemplates(templatesDir string) multitemplate.Renderer {
r := multitemplate.NewRenderer()
layouts, err := filepath.Glob(templatesDir + "/layouts/*.tmpl")
if err != nil {
panic(err.Error())
}
includes, err := filepath.Glob(templatesDir + "/includes/*.tmpl")
if err != nil {
panic(err.Error())
}
// 为layouts/和includes/目录生成 templates map
for _, include := range includes {
layoutCopy := make([]string, len(layouts))
copy(layoutCopy, layouts)
files := append(layoutCopy, include)
r.AddFromFiles(filepath.Base(include), files...)
}
return r
}
|
我们在main
函数中
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
func indexFunc(c *gin.Context){
c.HTML(http.StatusOK, "index.tmpl", nil)
}
func homeFunc(c *gin.Context){
c.HTML(http.StatusOK, "home.tmpl", nil)
}
func main(){
r := gin.Default()
r.HTMLRender = loadTemplates("./templates")
r.GET("/index", indexFunc)
r.GET("/home", homeFunc)
r.Run()
}
|
补充文件路径处理
关于模板文件和静态文件的路径,我们需要根据公司/项目的要求进行设置。可以使用下面的函数获取当前执行程序的路径。
1
2
3
4
5
6
|
func getCurrentPath() string {
if ex, err := os.Executable(); err == nil {
return filepath.Dir(ex)
}
return "./"
}
|
目前学习到第9集。
返回Json
2023.09.14
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
func main() {
r := gin.Default()
// 方法1:使用map
r.GET("/json01", func(c *gin.Context) {
data := gin.H{ // gin.H is a shortcut for map[string]any
"name": "tom",
"age": 26,
"gender": "male",
}
c.JSON(http.StatusOK, data)
})
// 方法2:使用struct,使用tag来定制json字段的名称。
r.GET("/json02", func(c *gin.Context) {
var person struct {
Name string `json:"name"` // 这里一定要是可导出的,否则json获取不到数据。如果想要指定json字段的名称,可以使用Tag。
Age int `json:"age"`
Gender string `json:"gender"`
}
person.Name = "Jane"
person.Age = 24
person.Gender = "female"
c.JSON(http.StatusOK, person) // 传入结构体类型的数据
})
r.Run(":9003")
}
|
context组件
在Gin框架中,context
是一个非常重要的组件,它用于处理HTTP请求和响应,以及在请求处理过程中传递数据和控制流。以下是对Gin框架中context
的详细介绍:
-
HTTP请求和响应管理:
context
对象封装了HTTP请求和响应的所有信息,包括HTTP方法、请求路径、请求头、请求参数、响应状态码、响应头等。通过context
,您可以轻松地访问和操作这些信息。
-
参数解析:
Gin的context
提供了方便的方法来解析HTTP请求中的参数,包括查询参数、表单数据、JSON请求体等。您可以使用Bind
、ShouldBind
等方法来将请求参数绑定到Go结构体中,从而方便地进行验证和处理。
-
路由参数:
context
还允许您从URL路径中提取参数。例如,如果您定义了一个路由/user/:id
,则可以使用context.Param("id")
来获取:id
占位符的值。
-
中间件支持:
Gin的中间件是一种机制,可以在请求处理过程中添加预处理逻辑,如身份验证、日志记录、错误处理等。context
对象可以在中间件之间传递,以便在请求处理过程中共享数据和控制流。中间件可以通过context
的方法来操作请求和响应。
-
错误处理:
在处理请求期间,如果发生错误,您可以使用context
的Abort
、JSON
等方法来处理错误并生成适当的响应。例如,您可以使用context.AbortWithStatus
来中止请求处理并返回指定的HTTP状态码。
-
响应生成:
使用context
,您可以方便地生成HTTP响应,包括设置响应状态码、响应头和响应体。例如,您可以使用context.JSON
、context.String
等方法来生成JSON响应或纯文本响应。
-
上下文数据传递:
您可以在context
对象中存储自定义数据,这些数据在请求处理过程中可以跨中间件和处理函数传递。这对于在整个请求周期中共享信息非常有用。
-
请求上下文的超时和取消:
Gin的context
支持上下文的超时和取消。这意味着您可以设置一个超时,以确保长时间运行的请求不会无限期地等待响应。
总之,Gin框架的context
是一个非常重要的组件,它为处理HTTP请求和响应提供了丰富的功能和工具,使得开发Web应用变得更加便捷和灵活。通过熟练使用context
,您可以更好地控制和管理您的Web应用程序的行为。
获取参数
1.query string参数
在 Gin 框架中,你可以使用上下文对象(c
)来获取查询字符串(query string)参数。查询字符串参数通常是在 URL 中以 ?
后面的键值对形式传递的,如 http://example.com/path?param1=value1¶m2=value2
。
以下是如何在 Gin 框架中获取查询字符串参数的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
package main
import (
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
// 定义一个路由处理程序,用于获取查询字符串参数
router.GET("/query", func(c *gin.Context) {
// 使用 c.DefaultQuery 方法获取查询字符串参数,并设置默认值(可选)
param1 := c.DefaultQuery("param1", "default_value")
// 使用 c.Query 方法获取查询字符串参数,如果参数不存在则返回空字符串
param2 := c.Query("param2")
// 打印获取到的参数值
c.JSON(200, gin.H{
"param1": param1,
"param2": param2,
})
})
router.Run(":8080")
}
|
在上述示例中,我们创建了一个路由 /query
,在这个路由下定义了一个处理程序函数。在处理程序函数内部,我们使用 c.DefaultQuery
方法来获取查询字符串参数 param1
,并设置了一个默认值。同时,使用 c.Query
方法来获取查询字符串参数 param2
。然后,我们将获取到的参数值返回给客户端。
运行这个示例,你可以通过访问 http://localhost:8080/query?param1=value1¶m2=value2
来测试获取查询字符串参数的功能。
在 Gin 框架中,你可以使用上下文对象(c
)来获取通过 POST 请求提交的表单参数。以下是如何获取表单参数的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
package main
import (
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
// 定义一个路由处理程序,用于处理 POST 请求提交的表单参数
router.POST("/submit", func(c *gin.Context) {
// 使用 c.PostForm 方法获取表单参数
param1 := c.PostForm("param1")
param2 := c.PostForm("param2")
// 打印获取到的参数值
c.JSON(200, gin.H{
"param1": param1,
"param2": param2,
})
})
router.Run(":8080")
}
|
在上述示例中,我们创建了一个路由 /submit
,在这个路由下定义了一个处理程序函数。在处理程序函数内部,我们使用 c.PostForm
方法来获取表单参数 param1
和 param2
的值。然后,我们将获取到的参数值返回给客户端。
要测试这个示例,你可以使用一个工具(例如,Postman 或 cURL)来发送 POST 请求,将表单参数发送到 http://localhost:8080/submit
。
注意:在实际应用中,你可能需要先检查参数是否存在,以及进行错误处理等操作,以确保应用的安全性和稳定性。
3.路径参数
在 Gin 框架中,你可以使用路由参数来获取路径中的参数。路径参数是路由中的一部分,可以通过路由模式中的占位符来捕获。以下是如何获取路径参数的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
package main
import (
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
// 定义一个路由,包含路径参数
router.GET("/user/:id", func(c *gin.Context) {
// 使用 c.Param 方法来获取路径参数
userID := c.Param("id")
// 打印获取到的路径参数值
c.JSON(200, gin.H{
"userID": userID,
})
})
router.Run(":8080")
}
|
在上述示例中,我们创建了一个路由 /user/:id
,其中 :id
是路径参数的占位符。在路由处理程序函数内部,我们使用 c.Param
方法来获取路径参数的值,并将其存储在 userID
变量中。然后,我们将获取到的路径参数值返回给客户端。
你可以通过访问类似 http://localhost:8080/user/123
的 URL 来测试路径参数的功能,其中 123
是路径参数的值。
如果你需要在路由中使用多个路径参数,只需在路由模式中添加更多的占位符,然后在处理程序函数中使用 c.Param
方法来获取它们的值。例如,/user/:id/:name
可以捕获两个路径参数 id
和 name
的值。
4.参数绑定
在 Gin 框架中,参数绑定是一种非常方便的方式,用于将 HTTP 请求中的参数(例如查询字符串参数、表单参数、路径参数)绑定到 Go 结构体的字段上,以便于处理请求和验证输入数据。Gin 框架支持多种参数绑定方式,包括 Query 参数绑定、表单参数绑定、JSON 参数绑定和路径参数绑定等。
以下是 Gin 框架中参数绑定的示例:
假设我们有一个简单的 Go 结构体定义如下:
1
2
3
4
|
type User struct {
ID int `form:"id" json:"id" binding:"required"`
Name string `form:"name" json:"name" binding:"required"`
}
|
然后,我们可以通过不同的方式绑定参数到这个结构体。
- Query 参数绑定:从查询字符串参数中绑定数据。
1
2
3
4
5
6
7
8
9
|
func GetUser(c *gin.Context) {
var user User
if err := c.ShouldBindQuery(&user); err == nil {
// 在这里可以使用 user 结构体中的字段
c.JSON(http.StatusOK, user)
} else {
c.JSON(http.StatusBadRequest, gin.H{"error": err.Error()})
}
}
|
- 表单参数绑定:从 POST 请求的表单参数中绑定数据。
1
2
3
4
5
6
7
8
9
|
func CreateUser(c *gin.Context) {
var user User
if err := c.ShouldBind(&user); err == nil {
// 在这里可以使用 user 结构体中的字段
c.JSON(http.StatusCreated, user)
} else {
c.JSON(http.StatusBadRequest, gin.H{"error": err.Error()})
}
}
|
- JSON 参数绑定:从 JSON 请求体中绑定数据。
1
2
3
4
5
6
7
8
9
|
func UpdateUser(c *gin.Context) {
var user User
if err := c.ShouldBindJSON(&user); err == nil {
// 在这里可以使用 user 结构体中的字段
c.JSON(http.StatusOK, user)
} else {
c.JSON(http.StatusBadRequest, gin.H{"error": err.Error()})
}
}
|
- 路径参数绑定:从路径参数中绑定数据。
1
2
3
4
5
6
7
8
9
|
func GetUserByID(c *gin.Context) {
var user User
if err := c.ShouldBindUri(&user); err == nil {
// 在这里可以使用 user 结构体中的字段
c.JSON(http.StatusOK, user)
} else {
c.JSON(http.StatusBadRequest, gin.H{"error": err.Error()})
}
}
|
这些示例展示了不同的参数绑定方式。在每个示例中,我们使用 ShouldBind
、ShouldBindQuery
、ShouldBindJSON
和 ShouldBindUri
方法来将请求参数绑定到 User
结构体中,并进行错误处理。在实际应用中,你可以根据请求的内容选择合适的参数绑定方式来处理数据。同时,你可以使用 binding
标签来定义参数的验证规则,以确保数据的完整性和正确性。
文件上传
在 Gin 框架中进行文件上传是一项常见的任务,它允许你接收客户端上传的文件并对其进行处理。以下是如何在 Gin 框架中执行文件上传的示例:
首先,确保你已经导入了 Gin 框架和 multipart/form-data
包:
1
2
3
4
|
import (
"github.com/gin-gonic/gin"
"net/http"
)
|
然后,你可以创建一个路由来处理文件上传请求。下面是一个示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
|
func main() {
r := gin.Default()
// 设置上传文件的最大大小(可选)
r.MaxMultipartMemory = 8 << 20 // 8 MB
// 创建一个路由,用于处理文件上传
r.POST("/upload", func(c *gin.Context) {
// 从请求中获取上传的文件
file, err := c.FormFile("file")
if err != nil {
c.JSON(http.StatusBadRequest, gin.H{
"error": err.Error(),
})
return
}
// 你可以在这里执行对上传文件的操作,比如保存到服务器或处理文件内容
// 示例:将上传的文件保存到服务器
filePath := "uploads/" + file.Filename
if err := c.SaveUploadedFile(file, filePath); err != nil {
c.JSON(http.StatusInternalServerError, gin.H{
"error": err.Error(),
})
return
}
c.JSON(http.StatusOK, gin.H{
"message": "File uploaded successfully",
"filename": file.Filename,
})
})
r.Run(":8080")
}
|
在上述示例中,我们首先创建了一个路由 /upload
,用于处理文件上传请求。在处理程序函数内部,我们使用 c.FormFile
方法来获取上传的文件。然后,我们可以选择保存文件到服务器或进行其他操作。
在示例中,我们使用 c.SaveUploadedFile
方法将上传的文件保存到服务器。你需要指定一个目标文件路径,这里我们将文件保存在 uploads/
目录下。
确保你在服务器上创建了 uploads/
目录,以便保存上传的文件。
最后,我们返回一个 JSON 响应,通知客户端文件上传成功。
要测试这个示例,你可以使用表单提交一个包含文件上传字段的 POST 请求。如果你使用 Postman 等工具,确保将请求类型设置为 multipart/form-data
,并添加一个文件字段(通常命名为 file
)。
这是一个简单的文件上传示例,你可以根据实际需求对文件进行更复杂的处理。同时,你也可以添加文件类型验证、文件大小限制等更多的安全措施。
重定向
在 Gin 框架中,你可以实现 HTTP 重定向和路由重定向,它们有一些区别:
1.HTTP 重定向
HTTP 重定向是通过发送特定的 HTTP 响应来实现的,通常使用 3xx 状态码来指示重定向。在 Gin 中,你可以使用 c.Redirect
方法来执行 HTTP 重定向。
1
2
3
|
func RedirectHandler(c *gin.Context) {
c.Redirect(http.StatusFound, "/new-location")
}
|
c
是 Gin 上下文对象。
http.StatusFound
是 HTTP 302 Found 状态码,用于指示重定向。
"/new-location"
是重定向目标 URL。
HTTP 重定向是在客户端与服务器之间进行的,客户端收到重定向响应后,会根据响应头中的新地址重新发起请求。
用户侧的URL地址会发生改变。
2.路由重定向
路由重定向是指在应用程序的路由层级进行的重定向,它是通过修改路由规则来实现的。在 Gin 中,你可以使用 c.Request.URL.Path
来进行路由重定向。
1
2
3
4
5
|
func RouteRedirectHandler(c *gin.Context) {
// 使用 c.Request.URL.Path 进行路由重定向
c.Request.URL.Path = "/new-route"
router.HandleContext(c)
}
|
路由重定向是在服务器端进行的,客户端不需要知道关于重定向的任何信息,它只需向原始路径发出请求,服务器会根据路由规则将其重定向到新的路径。
用户侧的URL地址不会发生变化。
总的来说,HTTP 重定向是通过发送 HTTP 响应告知客户端进行重定向,而路由重定向是在服务器端通过修改路由规则将请求重定向到新的路由处理程序函数。在 Gin 中,你可以根据具体需求选择使用哪种方式来实现重定向。
路由
在 Gin 框架中,路由可以分为以下几种类别:
-
基本路由:
基本路由是 Gin 中最简单的路由形式,它指定了请求的 HTTP 方法(GET、POST、PUT、DELETE 等)和路径。基本路由由 GET
、POST
、PUT
、DELETE
等方法调用创建。
1
2
3
4
5
6
7
8
9
|
router.GET("/get", func(c *gin.Context) {
// 处理 GET 请求
})
router.POST("/post", func(c *gin.Context) {
// 处理 POST 请求
})
// 同样的方式创建其他 HTTP 方法的路由
|
Any
和 NoRoute
是两个用于处理路由的特殊方法,它们具有不同的用途:
-
Any 方法:
Any
方法用于注册一个路由处理器,该处理器会匹配所有 HTTP 请求方法(GET、POST、PUT、DELETE 等)。这意味着你可以使用 Any
方法来处理多个不同 HTTP 方法的请求。
1
2
3
|
router.Any("/route", func(c *gin.Context) {
// 这个处理程序将匹配所有 HTTP 方法的请求
})
|
这对于需要在多个不同的请求方法下执行相同操作的路由非常有用。然而,需要注意的是,在某些情况下,你可能需要谨慎使用 Any
方法,因为它可能导致代码不够清晰。
-
NoRoute 方法:
NoRoute
方法用于设置一个处理程序,该处理程序会在请求的路径没有匹配到任何路由时执行。换句话说,当客户端请求的路径在路由中没有匹配项时,将触发 NoRoute
处理程序。
1
2
3
4
|
router.NoRoute(func(c *gin.Context) {
// 这个处理程序将在没有匹配路由的情况下执行
c.JSON(http.StatusNotFound, gin.H{"message": "Not Found"})
})
|
NoRoute
处理程序通常用于自定义 404 错误页面或返回 JSON 404 响应。它允许你更精确地控制在请求未匹配到任何路由时客户端会收到什么响应。
-
路由参数:
路由参数允许你在路径中包含变量,这些变量可以捕获 URL 中的特定部分。例如,:id
可以用于捕获数字或字符串等。
1
2
3
4
|
router.GET("/user/:id", func(c *gin.Context) {
userID := c.Param("id")
// 使用 userID 处理请求
})
|
-
查询字符串参数:
查询字符串参数是通过 URL 的查询字符串传递的参数,可以通过 c.Query
或 c.DefaultQuery
方法来获取。
1
2
3
4
|
router.GET("/search", func(c *gin.Context) {
query := c.Query("q")
// 使用 query 处理请求
})
|
-
分组路由:
分组路由允许你将多个路由分组在一起,以便在它们之间应用相同的中间件或共享相同的路由前缀。这有助于组织和管理路由。
1
2
3
4
5
6
7
8
9
10
|
v1 := router.Group("/v1")
{
v1.GET("/user", func(c *gin.Context) {
// 处理 v1 版本的用户路由
})
v1.GET("/post", func(c *gin.Context) {
// 处理 v1 版本的文章路由
})
}
|
-
中间件:
Gin 框架支持中间件,它们可以在路由处理之前或之后执行特定的逻辑。中间件可以用于验证身份、日志记录、权限控制等。
1
2
|
// 中间件示例
router.GET("/admin", AuthMiddleware(), AdminHandler)
|
-
分组中的中间件:
你可以在分组中为一组路由应用中间件,以便将相同的中间件应用于多个路由。
1
2
3
4
5
6
7
|
// 在分组中使用中间件
v1 := router.Group("/v1")
v1.Use(AuthMiddleware())
{
v1.GET("/user", UserHandler)
v1.GET("/post", PostHandler)
}
|
-
静态文件服务:
Gin 框架允许你为静态文件(如图像、样式表、脚本等)提供服务,以便可以通过 HTTP 访问它们。这可以通过 gin.Static
方法来实现。
1
|
router.Static("/static", "/path/to/static/files")
|
这些是 Gin 框架中常见的路由类别。你可以根据应用程序的需求组合和使用这些不同类型的路由。 Gin 的灵活性使得可以创建复杂的路由结构,以满足各种需求。
中间件
在 Gin 框架中,中间件是一种机制,它允许你在请求到达路由处理程序之前或之后执行一些逻辑。中间件通常用于执行一些公共的任务,例如身份验证、日志记录、数据验证、权限控制等。Gin 中间件是一组函数,可以按照指定的顺序应用到路由上。
以下是 Gin 框架中间件的详细介绍:
-
创建中间件:
中间件是一个函数,其签名如下:
中间件函数接受一个 Gin 上下文对象 c
,它允许你访问请求信息、响应信息以及进行处理。
-
应用中间件:
在 Gin 中,可以使用 Use
方法来将中间件应用到路由组或单个路由上。例如:
1
2
3
4
5
6
7
8
9
|
// 将中间件应用到所有路由组上
router.Use(LoggerMiddleware(), AuthMiddleware())
// 将中间件应用到路由分组中
v1 := router.Group("/v1")
v1.Use(LoggerMiddleware(),AuthMiddleware())
// 将中间件应用到单个路由上
router.GET("/admin", AuthMiddleware(), AdminHandler)
|
注意,中间件的执行顺序与它们添加到路由上的顺序有关,按照添加的顺序依次执行。
你可以将中间件应用到全局(对所有路由有效)或仅应用到特定的路由组或路由上。使用 Use
方法添加到全局中间件,使用 Group
方法创建路由组并在路由组上应用中间件,或者在单个路由上使用 Use
方法应用中间件。
-
中间件示例:
下面是一些常见的中间件示例:
-
日志记录中间件:用于记录请求和响应信息,以便调试和监控。
-
身份验证中间件:用于验证用户身份,通常检查令牌或会话是否有效。
-
权限控制中间件:用于检查用户是否有权限执行特定操作。
-
CORS 中间件:用于处理跨域资源共享 (CORS) 请求,以确保安全的跨域通信。
-
缓存中间件:用于缓存响应,以减少服务器负载和提高性能。
-
数据验证中间件:用于验证请求数据的有效性,防止恶意输入。
-
中间件的执行流程:
Gin 中间件的执行流程是串行的,按照添加的顺序依次执行。在每个中间件中,你可以执行一些前置操作,然后使用 c.Next()
将控制权传递给下一个中间件或路由处理程序。如果不调用 c.Next()
,后续中间件或路由将不会执行,请求会被终止。
1
2
3
4
5
|
func MyMiddleware(c *gin.Context) {
// 前置操作
c.Next() // 传递控制权给下一个中间件或路由处理程序
// 后置操作
}
|
如果需要在中间件中执行一些操作后终止请求流程,可以使用 c.Abort()
,它会阻止后续中间件和路由的执行。
-
中间件的参数:
你可以将参数传递给中间件函数,以便在中间件中访问它们。例如,如果你需要在中间件中传递配置信息,可以这样做:
1
2
3
4
5
6
7
8
9
|
func CustomMiddleware(config Config) gin.HandlerFunc {
return func(c *gin.Context) {
// 使用 config 参数执行中间件操作
c.Next()
}
}
// 在路由中应用带有参数的中间件
router.Use(CustomMiddleware(myConfig))
|
-
内置中间件:
Gin 框架提供了一些内置的中间件,如 gin.Logger()
用于记录请求日志、gin.Recovery()
用于处理恐慌和崩溃等。你可以使用这些内置中间件来快速添加常见功能。
-
中间件中的错误处理:
如果中间件中发生了错误,你可以使用 c.AbortWithError
来中止请求并返回错误响应。这可以用于处理身份验证失败、权限不足等情况。
1
2
3
4
5
6
7
|
func AuthMiddleware(c *gin.Context) {
if !isAuthenticated(c) {
c.AbortWithError(http.StatusUnauthorized, errors.New("Unauthorized"))
return
}
c.Next()
}
|
总的来说,Gin 框架中间件提供了一种灵活和强大的方式来管理和处理请求。你可以根据应用程序的需求创建自定义中间件,并将它们应用到不同的路由或路由组上,以实现各种功能和控制逻辑。
Gorm
1.ORM介绍
ORM 是对象关系映射(Object-Relational Mapping)的缩写,它是一种用于处理关系型数据库(如MySQL、PostgreSQL、SQLite等)和面向对象编程语言之间数据转换的技术。
关系型数据库使用表来存储数据,每个表都有特定的列和行。面向对象编程语言(如Java、Python、Go等)使用对象来表示数据和行为。ORM 技术的主要目标是解决关系数据库和面向对象编程语言之间的数据不匹配问题,将数据库中的数据映射到对象上,以便更轻松地进行数据操作。
以下是 ORM 技术的一些主要特点和好处:
-
对象表示数据:ORM 允许开发人员使用对象来表示数据库中的数据,使数据操作更直观、自然。
-
抽象数据库差异:ORM 库通常提供了一种抽象层,使开发人员可以编写与数据库无关的代码。这意味着你可以在不更改代码的情况下切换不同的数据库系统。
-
自动生成 SQL:ORM 库通常能够自动生成 SQL 查询和操作语句,减少了手动编写 SQL 的工作,同时也有助于防止 SQL 注入攻击。
-
关系管理:ORM 提供了方便的方式来管理数据库表之间的关系,包括一对一、一对多、多对多等关系。
-
数据验证:ORM 库通常提供了数据验证功能,帮助开发人员确保数据的完整性和正确性。
-
性能优化:一些高级 ORM 库具有性能优化功能,可以生成高效的 SQL 查询,并使用缓存等技术来提高查询速度。
-
跨平台和多语言支持:ORM 库通常支持多种编程语言和不同的操作系统,使其适用于多种开发环境。
-
减少重复代码:ORM 可以减少编写重复数据库访问代码的工作,提高了开发效率。
一些流行的 ORM 框架包括 Hibernate(Java)、Entity Framework(C#)、Django ORM(Python)、SQLAlchemy(Python)、GORM(Go)等。
2.GORM介绍
GORM(Golang Object Relational Mapping)是一个流行的 Go 语言 ORM 框架,用于处理关系型数据库的数据操作。它提供了强大的工具和功能,使开发人员能够更轻松地在 Go 语言中进行数据库操作,同时减少了与数据库交互的重复工作。
以下是 GORM 的一些主要特点和功能:
-
数据库无关性:GORM 支持多种关系型数据库,包括 MySQL、PostgreSQL、SQLite、SQL Server 等。这意味着你可以使用相同的 GORM 代码与不同类型的数据库交互。
-
模型定义:你可以创建 Go 结构体来定义数据库表的模型,并使用 GORM 的标签来指定字段名称、类型、约束等信息。这使得模型的定义非常直观。
1
2
3
4
5
|
type User struct {
gorm.Model
Name string
Email string `gorm:"unique"`
}
|
-
CRUD 操作:GORM 提供了一组强大的方法,用于执行数据库的增、删、改、查操作,包括创建记录、查询记录、更新记录和删除记录。
1
2
3
4
5
6
7
8
9
10
11
|
// 创建记录
db.Create(&user)
// 查询记录
db.First(&user, 1)
// 更新记录
db.Model(&user).Update("Name", "NewName")
// 删除记录
db.Delete(&user)
|
-
事务支持:GORM 允许你使用事务来确保一组操作要么全部成功,要么全部失败。这对于保持数据库的一致性非常重要。
1
2
3
4
5
|
tx := db.Begin()
// 执行数据库操作
if err := tx.Commit().Error; err != nil {
tx.Rollback()
}
|
-
自动迁移:GORM 支持自动迁移功能,可以根据模型定义自动创建数据库表,这减少了手动创建表的工作。
1
|
db.AutoMigrate(&User{})
|
-
关联关系:GORM 支持定义和管理数据库表之间的关联关系,包括一对一、一对多、多对多等。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
type User struct {
gorm.Model
Name string
Email string `gorm:"unique"`
Articles []Article
}
type Article struct {
gorm.Model
Title string
Content string
UserID uint
}
|
-
钩子函数:你可以在模型中定义钩子函数,以在记录创建、更新、删除等事件发生时执行自定义逻辑。
1
2
3
|
func (u *User) BeforeCreate(tx *gorm.DB) error {
// 在创建记录之前执行自定义逻辑
}
|
-
复杂查询:GORM 提供了丰富的查询方法,支持复杂的条件查询、排序、分页、预加载等。
1
|
db.Where("age > ?", 18).Order("created_at desc").Limit(10).Find(&users)
|
-
批量操作:你可以使用 GORM 执行批量插入、更新、删除等操作,从而提高了数据库操作的效率。
1
2
3
|
db.Create(&users)
db.Model(&users).Update("Status", "inactive")
db.Delete(&users)
|
总的来说,GORM 是一个功能强大且易于使用的 Go 语言 ORM 框架,它使开发人员能够轻松地与关系型数据库进行交互,同时提供了丰富的功能和灵活的查询语言。如果你在使用 Go 语言开发应用程序,并需要与数据库交互,GORM 是一个很好的选择。它的活跃社区和广泛的文档也使得学习和使用 GORM 更加容易。
官方文档:https://gorm.io/zh_CN/
GitHub:https://github.com/go-gorm/gorm
目前学习到第18集。
3.入门使用
2023.09.15
学习教程:枫枫知道-golang最简单的gorm教程
参考博客:枫枫知道-Gorm文档
1.下载Gorm和数据库驱动
1
2
|
go get gorm.io/driver/mysql
go get gorm.io/gorm
|
2.简单连接
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
username := "root" //账号
password := "root" //密码
host := "127.0.0.1" //数据库地址,可以是Ip或者域名
port := 3306 //数据库端口
Dbname := "gorm" //数据库名
timeout := "10s" //连接超时,10秒
// root:root@tcp(127.0.0.1:3306)/gorm?
dsn := fmt.Sprintf("%s:%s@tcp(%s:%d)/%s?charset=utf8mb4&parseTime=True&loc=Local&timeout=%s", username, password, host, port, Dbname, timeout)
//连接MYSQL, 获得DB类型实例,用于后面的数据库读写操作。
db, err := gorm.Open(mysql.Open(dsn))
if err != nil {
panic("连接数据库失败, error=" + err.Error())
}
// 连接成功
fmt.Println(db)
|
4.高级配置
跳过默认事务
为了确保数据一致性,GORM 会在事务里执行写入操作(创建、更新、删除)。如果没有这方面的要求,您可以在初始化时禁用它,这样可以获得60%的性能提升。
1
2
3
|
db, err := gorm.Open(mysql.Open("gorm.db"), &gorm.Config{
SkipDefaultTransaction: true,
})
|
命名策略
gorm采用的命名策略是,表名是蛇形复数,字段名是蛇形单数。默认情况下,名为 ID
的字段会作为表的主键。
例如:
1
2
3
4
5
|
type Student struct {
Name string
Age int
MyStudent string
}
|
gorm会为我们这样生成表结构:
1
|
CREATE TABLE `students` (`name` longtext,`age` bigint,`my_student` longtext)
|
我们也可以修改这些策略:
1
2
3
4
5
6
7
|
db, err := gorm.Open(mysql.Open(dsn), &gorm.Config{
NamingStrategy: schema.NamingStrategy{
TablePrefix: "f_", // 表名前缀
SingularTable: false, // 单数表名
NoLowerCase: false, // 关闭小写转换
},
})
|
也可以指定需要绑定的表的名称
1
2
3
|
func (Student) TableName() string { // 指定表名
return "student"
}
|
显示日志
gorm的默认日志是只打印错误和慢SQL
我们可以自己设置
1
2
3
4
5
6
|
var mysqlLogger logger.Interface
// 要显示的日志等级
mysqlLogger = logger.Default.LogMode(logger.Info)
db, err := gorm.Open(mysql.Open(dsn), &gorm.Config{
Logger: mysqlLogger,
})
|
如果你想自定义日志的显示,那么可以使用如下代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
|
newLogger := logger.New(
log.New(os.Stdout, "\r\n", log.LstdFlags), // (日志输出的目标,前缀和日志包含的内容)
logger.Config{
SlowThreshold: time.Second, // 慢 SQL 阈值
LogLevel: logger.Info, // 日志级别
IgnoreRecordNotFoundError: true, // 忽略ErrRecordNotFound(记录未找到)错误
Colorful: true, // 使用彩色打印
},
)
db, err := gorm.Open(mysql.Open(dsn), &gorm.Config{
Logger: newLogger,
})
|
部分展示日志
1
2
3
4
|
var model Student
session := DB.Session(&gorm.Session{Logger: newLogger})
session.First(&model)
// SELECT * FROM `students` ORDER BY `students`.`name` LIMIT 1
|
如果只想某些语句显示日志
1
|
DB.Debug().First(&model)
|
5.模型
模型是标准的 struct,由 Go 的基本数据类型、实现了 Scanner
和 Valuer
接口的自定义类型及其指针或别名组成
定义一张表
1
2
3
4
5
|
type Student struct {
ID uint // 默认使用ID作为主键
Name string
Email *string // 使用指针是为了存空值
}
|
常识:小写属性是不会生成字段的。
时间类型的示例:
1
|
CreateTime time.Time `gorm:"column:create_time;type:TIMESTAMP;default:CURRENT_TIMESTAMP;NOT NULL"
|
在gorm标签中,一定要指定类型为TIMESTAMP或datetime。
参考:gorm 中 createTime 该定义为什么类型对应mysql 的datetime 类型
Gorm 使用自动更新时间
自动生成表结构
1
2
|
// 可以放多个
DB.AutoMigrate(&Student{})
|
AutoMigrate
的逻辑是只新增,不删除,不修改(大小会修改)。
例如:将Name修改为Name1,进行迁移,会多出一个name1的字段。
生成的表结构如下:
1
|
CREATE TABLE `f_students` (`id` bigint unsigned AUTO_INCREMENT,`name` longtext,`email` longtext,PRIMARY KEY (`id`))
|
默认的类型太大了。
修改大小
有两种方式:
1
2
|
Name string `gorm:"type:varchar(12)"`
Name string `gorm:"size:2"`
|
字段标签
type
定义字段类型
size
定义字段大小
column
自定义列名
primaryKey
将列定义为主键
unique
将列定义为唯一键
default
定义列的默认值
not null
不可为空
embedded
嵌套字段
embeddedPrefix
嵌套字段前缀
comment
注释
多个标签之前用 ;
连接
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
type StudentInfo struct {
Email *string `gorm:"size:32"` // 使用指针是为了存空值
Addr string `gorm:"column:y_addr;size:16"`
Gender bool `gorm:"default:true"`
}
type Student struct {
Name string `gorm:"type:varchar(12);not null;comment:用户名"`
UUID string `gorm:"primaryKey;unique;comment:主键"`
Info StudentInfo `gorm:"embedded;embeddedPrefix:s_"`
}
// 建表语句
CREATE TABLE `students` (
`name` varchar(12) NOT NULL COMMENT '用户名',
`uuid` varchar(191) UNIQUE COMMENT '主键',
`s_email` varchar(32),
`s_y_addr` varchar(16),
`s_gender` boolean DEFAULT true,
PRIMARY KEY (`uuid`)
)
|
6.单表CRUD
先使用gorm对单张表进行增删改查
表结构
1
2
3
4
5
6
7
|
type Student struct {
ID uint `gorm:"size:3"`
Name string `gorm:"size:8"`
Age int `gorm:"size:3"`
Gender bool
Email *string `gorm:"size:32"`
}
|
1.插入操作
1.添加记录
1
2
3
4
5
6
7
8
9
|
email := "xxx@qq.com"
// 创建记录
student := Student{
Name: "枫枫",
Age: 21,
Gender: true,
Email: &email,
}
DB.Create(&student)
|
有两个地方需要注意
- 指针类型是为了更好的存null类型,但是传值的时候,也记得传指针
- Create接收的是一个指针,而不是值
由于我们传递的是一个指针,调用完Create之后,student这个对象上面就有该记录的信息了,如创建的id
1
2
3
|
DB.Create(&student)
fmt.Printf("%#v\n", student)
// main.Student{ID:0x2, Name:"zhangsan", Age:23, Gender:false, Email:(*string)(0x11d40980)}
|
2.批量插入
Create方法还可以用于插入多条记录
1
2
3
4
5
6
7
8
9
10
|
var studentList []Student
for i := 0; i < 100; i++ {
studentList = append(studentList, Student{
Name: fmt.Sprintf("机器人%d号", i+1),
Age: 21,
Gender: true,
Email: &email,
})
}
DB.Create(&studentList) // 使用切片进行批量插入
|
2.查询操作
1.查询单条记录
1
2
3
|
var student Student
DB.Take(&student)
fmt.Println(student)
|
获取单条记录的方法很多,我们对比sql就很直观了
1
2
3
4
5
6
7
8
|
DB = DB.Session(&gorm.Session{Logger: Log})
var student Student
DB.Take(&student)
// SELECT * FROM `students` LIMIT 1
DB.First(&student)
// SELECT * FROM `students` ORDER BY `students`.`id` LIMIT 1
DB.Last(&student)
// SELECT * FROM `students` ORDER BY `students`.`id` DESC LIMIT 1
|
2.根据主键查询
1
2
3
4
5
6
7
|
var student Student
DB.Take(&student, 2)
fmt.Println(student)
student = Student{} // 重新赋值
DB.Take(&student, "4")
fmt.Println(student)
|
Take的第二个参数,默认会根据主键查询,可以是字符串,可以是数字
3.根据其他条件查询
1
2
3
|
var student Student
DB.Take(&student, "name = ?", "机器人27号")
fmt.Println(student)
|
使用?作为占位符,将查询的内容放入?
1
|
SELECT * FROM `students` WHERE name = '机器人27号' LIMIT 1
|
这样可以有效的防止sql注入,它的原理就是将参数全部转义,如
1
2
|
DB.Take(&student, "name = ?", "机器人27号' or 1=1;#")
// SELECT * FROM `students` WHERE name = '机器人27号\' or 1=1;#' LIMIT 1
|
4.根据struct查询
1
2
3
4
5
6
|
var student Student
// 只能有一个主要值
student.ID = 2
//student.Name = "枫枫"
DB.Take(&student)
fmt.Println(student)
|
5.获取查询结果
获取查询的记录数
1
|
count := DB.Find(&studentList).RowsAffected
|
是否查询失败
1
|
err := DB.Find(&studentList).Error
|
查询失败有查询为空,查询条件错误,sql语法错误
可以使用判断
1
2
3
4
5
6
7
8
|
var student Student
err := DB.Take(&student, "xx").Error
switch err {
case gorm.ErrRecordNotFound:
fmt.Println("没有找到")
default:
fmt.Println("sql错误")
}
|
6.查询多条记录
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
var studentList []Student
DB.Find(&studentList)
for _, student := range studentList {
fmt.Println(student)
}
// 由于email是指针类型,所以看不到实际的内容
// 但是序列化之后,会转换为我们可以看得懂的方式
var studentList []Student
DB.Find(&studentList)
for _, student := range studentList {
data, _ := json.Marshal(student)
fmt.Println(string(data))
}
|
7.根据主键列表查询
1
2
3
4
|
var studentList []Student
DB.Find(&studentList, []int{1, 3, 5, 7})
DB.Find(&studentList, 1, 3, 5, 7) // 一样的
fmt.Println(studentList)
|
8.根据其他条件查询
1
|
DB.Find(&studentList, "name in ?", []string{"枫枫", "zhangsan"})
|
3.更新
更新的前提的先查询到记录
1.Save保存所有字段
用于单个记录的全字段更新
它会保存所有字段,即使零值也会保存
1
2
3
4
5
6
|
var student Student
DB.Take(&student)
student.Age = 23
// 全字段更新
DB.Save(&student)
// UPDATE `students` SET `name`='枫枫',`age`=23,`gender`=true,`email`='xxx@qq.com' WHERE `id` = 1
|
零值也会更新
1
2
3
4
5
6
|
var student Student
DB.Take(&student)
student.Age = 0
// 全字段更新
DB.Save(&student)
// UPDATE `students` SET `name`='枫枫',`age`=0,`gender`=true,`email`='xxx@qq.com' WHERE `id` = 1
|
2.更新指定字段
可以使用select选择要更新的字段
1
2
3
4
5
6
|
var student Student
DB.Take(&student)
student.Age = 21
// 全字段更新
DB.Select("age").Save(&student)
// UPDATE `students` SET `age`=21 WHERE `id` = 1
|
3.批量更新
例如我想给年龄21的学生,都更新一下邮箱
1
2
|
var studentList []Student
DB.Find(&studentList, "age = ?", 21).Update("email", "is21@qq.com")
|
还有一种更简单的方式
1
2
|
DB.Model(&Student{}).Where("age = ?", 21).Update("email", "is21@qq.com")
// UPDATE `students` SET `email`='is22@qq.com' WHERE age = 21
|
这样的更新方式也是可以更新零值的
4.更新多列
如果是结构体,它默认不会更新零值
1
2
3
4
5
6
7
|
email := "xxx@qq.com"
DB.Model(&Student{}).Where("age = ?", 21).Updates(Student{
Email: &email,
Gender: false, // 这个不会更新
})
// UPDATE `students` SET `email`='xxx@qq.com' WHERE age = 21
|
如果想让他更新零值,用select就好
1
2
3
4
5
6
|
email := "xxx1@qq.com"
DB.Model(&Student{}).Where("age = ?", 21).Select("gender", "email").Updates(Student{
Email: &email,
Gender: false,
})
// UPDATE `students` SET `gender`=false,`email`='xxx1@qq.com' WHERE age = 21
|
如果不想多写几行代码,则推荐使用map(这样也可以更新零值)
1
2
3
4
|
DB.Model(&Student{}).Where("age = ?", 21).Updates(map[string]any{
"email": &email,
"gender": false,
})
|
更新选定字段
4.删除
1.根据结构体删除
1
2
3
|
// student 的 ID 是 `10`
db.Delete(&student)
// DELETE from students where id = 10;
|
2.删除多个
1
2
3
4
|
db.Delete(&Student{}, []int{1,2,3})
// 查询到的切片列表
db.Delete(&studentList)
|
7.Hook
参考:https://gorm.io/zh_CN/docs/hooks.html
Hook 是在创建、查询、更新、删除等操作之前、之后调用的函数。
如果您已经为模型定义了指定的方法,它会在创建、更新、查询、删除时自动被调用。如果任何回调返回错误,GORM 将停止后续的操作并回滚事务。
钩子方法的函数签名应该是 func(*gorm.DB) error
。
Gorm 提供了多个 Hook 点,例如 BeforeCreate
、AfterCreate
、BeforeUpdate
、AfterUpdate
等,让你可以在模型创建、更新等事件发生时执行自定义代码。以下是如何在 Gorm 中创建 Hook 的示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
|
package main
import (
"fmt"
"gorm.io/driver/sqlite"
"gorm.io/gorm"
)
type User struct {
ID uint
Name string
}
// 也可以这样创建BeforeCreate的hook,会在创建对象前,自动调用BeforeCreate中的代码
// func (user *User) BeforeCreate(tx *gorm.DB) (err error){
// fmt.Println("Before creating a new record")
// return nil
// }
func main() {
// 连接到 SQLite 数据库
db, err := gorm.Open(sqlite.Open("test.db"), &gorm.Config{})
if err != nil {
panic("Failed to connect to database")
}
// 自动迁移模型
db.AutoMigrate(&User{})
// 创建 Hook,示例是在创建记录之前打印一条消息
db.BeforeCreate(func(tx *gorm.DB) (err error) {
fmt.Println("Before creating a new record")
return nil
})
// 创建用户记录
user := User{Name: "John Doe"}
db.Create(&user)
// 查询用户记录
var retrievedUser User
db.First(&retrievedUser, user.ID)
fmt.Printf("Retrieved user: %v\n", retrievedUser)
}
|
上述示例中,我们创建了一个名为 User
的模型,并在模型的 BeforeCreate
Hook 中打印了一条消息。在创建用户记录时,Hook 会在创建之前执行,然后继续执行正常的数据库操作。
你可以根据需要在其他 Hook 点执行自定义操作,例如 BeforeUpdate
、AfterUpdate
、BeforeDelete
、AfterDelete
等,以满足你的应用程序需求。在 Hook 中,你可以执行任何 Go 代码,从而实现更复杂的逻辑。请注意,Hook 函数必须具有特定的签名,以匹配 Gorm 的要求。
8.高级查询
重新构造一些数据用于查询
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
func main(){
var studentList []Student
DB.Find(&studentList).Delete(&studentList)
studentList = []Student{
{ID: 1, Name: "李元芳", Age: 32, Email: PtrString("lyf@yf.com"), Gender: true},
{ID: 2, Name: "张武", Age: 18, Email: PtrString("zhangwu@lly.cn"), Gender: true},
{ID: 3, Name: "枫枫", Age: 23, Email: PtrString("ff@yahoo.com"), Gender: true},
{ID: 4, Name: "刘大", Age: 54, Email: PtrString("liuda@qq.com"), Gender: true},
{ID: 5, Name: "李武", Age: 23, Email: PtrString("liwu@lly.cn"), Gender: true},
{ID: 6, Name: "李琦", Age: 14, Email: PtrString("liqi@lly.cn"), Gender: false},
{ID: 7, Name: "晓梅", Age: 25, Email: PtrString("xiaomeo@sl.com"), Gender: false},
{ID: 8, Name: "如燕", Age: 26, Email: PtrString("ruyan@yf.com"), Gender: false},
{ID: 9, Name: "魔灵", Age: 21, Email: PtrString("moling@sl.com"), Gender: true},
}
DB.Create(&studentList)
}
func PtrString(email string) *string {
return &email
}
|
1.Where
等价于sql语句中的where
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
var users []Student
// 查询用户名是枫枫的
DB.Where("name = ?", "枫枫").Find(&users)
fmt.Println(users)
// 查询用户名不是枫枫的
DB.Where("name <> ?", "枫枫").Find(&users)
fmt.Println(users)
// 查询用户名包含 如燕,李元芳的
DB.Where("name in ?", []string{"如燕", "李元芳"}).Find(&users)
fmt.Println(users)
// 查询姓李的
DB.Where("name like ?", "李%").Find(&users)
fmt.Println(users)
// 查询年龄大于23,是qq邮箱的
DB.Where("age > ? and email like ?", "23", "%@qq.com").Find(&users)
fmt.Println(users)
// 查询是qq邮箱的,或者是女的
DB.Where("gender = ? or email like ?", false, "%@qq.com").Find(&users)
fmt.Println(users)
|
2.使用结构体查询
使用结构体查询,会过滤零值,并且结构体中的条件都是and
关系。
1
2
3
|
// 会过滤零值
DB.Where(&Student{Name: "李元芳", Age: 0}).Find(&users)
fmt.Println(users)
|
3.使用map查询
不会过滤零值
1
2
3
|
DB.Where(map[string]any{"name": "李元芳", "age": 0}).Find(&users)
// SELECT * FROM `students` WHERE `age` = 0 AND `name` = '李元芳'
fmt.Println(users)
|
4.Not条件
和where中的not等价
1
2
3
|
// 排除年龄大于23的
DB.Not("age > 23").Find(&users)
fmt.Println(users)
|
5.Or条件
和where中的or等价
1
2
|
DB.Or("gender = ?", false).Or(" email like ?", "%@qq.com").Find(&users)
fmt.Println(users)
|
6.Select 选择字段
1
2
3
|
DB.Select("name", "age").Find(&users)
fmt.Println(users)
// 没有被选中,会被赋零值
|
可以使用扫描Scan,将选择的字段存入另一个结构体中
1
2
3
4
5
6
7
8
|
type User struct {
Name string
Age int
}
var students []Student
var users []User
DB.Select("name", "age").Find(&students).Scan(&users)
fmt.Println(users)
|
这样写也是可以的,不过最终会查询两次,还是不这样写
1
2
|
SELECT `name`,`age` FROM `students`
SELECT `name`,`age` FROM `students`
|
这样写就只查询一次了
1
2
3
4
5
6
7
|
type User struct {
Name string
Age int
}
var users []User
DB.Model(&Student{}).Select("name", "age").Scan(&users)
fmt.Println(users)
|
还可以这样
1
2
3
|
var users []User
DB.Table("students").Select("name", "age").Scan(&users)
fmt.Println(users)
|
Scan是根据column列名进行扫描的
1
2
3
4
5
6
7
|
type User struct {
Name123 string `gorm:"column:name"`
Age int
}
var users []User
DB.Table("students").Select("name", "age").Scan(&users)
fmt.Println(users)
|
7.排序
根据年龄倒序
1
2
3
4
5
|
var users []Student
DB.Order("age desc").Find(&users)
fmt.Println(users)
// desc 降序
// asc 升序
|
注意order的顺序
8.分页查询
1
2
3
4
5
6
7
8
9
10
|
var users []Student
// 一页两条,第1页
DB.Limit(2).Offset(0).Find(&users)
fmt.Println(users)
// 第2页
DB.Limit(2).Offset(2).Find(&users)
fmt.Println(users)
// 第3页
DB.Limit(2).Offset(4).Find(&users)
fmt.Println(users)
|
通用写法
1
2
3
4
5
6
7
8
|
var users []Student
// 一页多少条
limit := 2
// 第几页
page := 1
offset := (page - 1) * limit
DB.Limit(limit).Offset(offset).Find(&users)
fmt.Println(users)
|
9.去重
1
2
3
|
var ageList []int
DB.Table("students").Select("age").Distinct("age").Scan(&ageList)
fmt.Println(ageList)
|
或者
1
|
DB.Table("students").Select("distinct age").Scan(&ageList)
|
10.分组查询
1
2
3
4
|
var ageList []int
// 查询男生的个数和女生的个数
DB.Table("students").Select("count(id)").Group("gender").Scan(&ageList)
fmt.Println(ageList)
|
有个问题,哪一个是男生个数,那个是女生个数
所以我们应该精确一点
1
2
3
4
5
6
7
8
9
|
type AggeGroup struct {
Gender int
Count int `gorm:"column:count(id)"`
}
var agge []AggeGroup
// 查询男生的个数和女生的个数
DB.Table("students").Select("count(id)", "gender").Group("gender").Scan(&agge)
fmt.Println(agge)
|
如何再精确一点,具体的男生名字,女生名字
1
2
3
4
5
6
7
8
9
10
|
type AggeGroup struct {
Gender int
Count int `gorm:"column:count(id)"`
Name string `gorm:"column:group_concat(name)"`
}
var agge []AggeGroup
// 查询男生的个数和女生的个数
DB.Table("students").Select("count(id)", "gender", "group_concat(name)").Group("gender").Scan(&agge)
fmt.Println(agge)
|
11.执行原生sql
1
2
3
4
5
6
7
8
9
10
|
type AggeGroup struct {
Gender int
Count int `gorm:"column:count(id)"`
Name string `gorm:"column:group_concat(name)"`
}
var agge []AggeGroup
DB.Raw(`SELECT count(id), gender, group_concat(name) FROM students GROUP BY gender`).Scan(&agge)
fmt.Println(agge)
|
12.子查询
查询大于平均年龄的用户
1
2
|
# 原生sql
select * from students where age > (select avg(age) from students);
|
使用gorm编写
1
2
3
|
var users []Student
DB.Model(Student{}).Where("age > (?)", DB.Model(Student{}).Select("avg(age)")).Find(&users)
fmt.Println(users)
|
13.命名参数
1
2
3
4
5
|
var users []Student
DB.Where("name = @name and age = @age", sql.Named("name", "枫枫"), sql.Named("age", 23)).Find(&users)
DB.Where("name = @name and age = @age", map[string]any{"name": "枫枫", "age": 23}).Find(&users)
fmt.Println(users)
|
14.find到map
1
2
3
|
var res []map[string]any
DB.Table("students").Find(&res)
fmt.Println(res)
|
15.查询引用Scope
可以再model层写一些通用的查询方式,这样外界就可以直接调用方法即可
1
2
3
4
5
6
7
8
9
|
func Age23(db *gorm.DB) *gorm.DB {
return db.Where("age > ?", 23)
}
func main(){
var users []Student
DB.Scopes(Age23).Find(&users)
fmt.Println(users)
}
|
9.表的关联
1.一对多
一个用户可以发布多篇文章,一篇文章属于一个用户
1
2
3
4
5
6
7
8
9
10
11
12
|
type User struct {
ID uint `gorm:"size:4"`
Name string `gorm:"size:8"`
Articles []Article `gorm:"foreignKey:UID"` // 用户拥有的文章列表
}
type Article struct {
ID uint `gorm:"size:4"`
Title string `gorm:"size:120"`
UID uint `gorm:"size:4"` // 属于 这里的类型要和引用的外键类型一致,包括大小
User User `gorm:"foreignKey:UID"` // 属于 这里重写了外键关联
}
|
关于外键命名,外键名称就是关联表名+ID,类型是uint。
也可以使用gorm:"foreignKey
来重写外键,将外键指定为其他的字段。
1.添加
1.创建
创建用户,并且创建文章
1
2
3
4
|
a1 := Article{Title: "python"}
a2 := Article{Title: "golang"}
user := User{Name: "枫枫", Articles: []Article{a1, a2}}
DB.Create(&user)
|
gorm自动创建了两篇文章,以及创建了一个用户,还将他们的关系给关联上了
创建文章,关联已有用户
1
2
3
4
5
|
a1 := Article{Title: "golang零基础入门", UserID: 1}
DB.Create(&a1)
var user User
DB.Take(&user, 1)
DB.Create(&Article{Title: "python零基础入门", User: user})
|
2.外键添加
给现有用户绑定文章
1
2
3
4
5
6
7
8
|
var user User
DB.Take(&user, 2)
var article Article
DB.Take(&article, 5)
user.Articles = []Article{article}
DB.Save(&user)
|
也可以用Append方法
1
2
3
4
5
6
7
8
9
10
|
var user User
DB.Take(&user, 2)
var article Article
DB.Take(&article, 5)
//user.Articles = []Article{article}
//DB.Save(&user)
DB.Model(&user).Association("Articles").Append(&article)
|
给现有文章关联用户
1
2
3
4
5
|
var article Article
DB.Take(&article, 5)
article.UserID = 2
DB.Save(&article)
|
也可用Append方法
1
2
3
4
5
6
7
|
var user User
DB.Take(&user, 2)
var article Article
DB.Take(&article, 5)
DB.Model(&article).Association("User").Append(&user)
|
2.查询
查询用户,显示用户的文章列表
1
2
3
|
var user User
DB.Take(&user, 1)
fmt.Println(user)
|
直接这样,是显示不出文章列表
1.预加载
我们必须要使用预加载来加载文章列表
1
2
3
|
var user User
DB.Preload("Articles").Take(&user, 1)
fmt.Println(user)
|
预加载的名字就是外键关联的属性名
查询文章,显示文章用户的信息
同样的,使用预加载
1
2
3
|
var article Article
DB.Preload("User").Take(&article, 1)
fmt.Println(article)
|
2.嵌套预加载
查询文章,显示用户,并且显示用户关联的所有文章,这就得用到嵌套预加载了
1
2
3
|
var article Article
DB.Preload("User.Articles").Take(&article, 1)
fmt.Println(article)
|
3.带条件的预加载
查询用户下的所有文章列表,过滤某些文章
1
2
3
|
var user User
DB.Preload("Articles", "id = ?", 1).Take(&user, 1)
fmt.Println(user)
|
这样,就只有id为1的文章被预加载出来了
4.自定义预加载
1
2
3
4
5
|
var user User
DB.Preload("Articles", func(db *gorm.DB) *gorm.DB {
return db.Where("id in ?", []int{1, 2})
}).Take(&user, 1)
fmt.Println(user)
|
3.删除
1.级联删除
删除用户,与用户关联的文章也会删除
1
2
3
|
var user User
DB.Take(&user, 1)
DB.Select("Articles").Delete(&user)
|
2.清除外键关系
删除用户,与将与用户关联的文章,外键设置为null
1
2
3
|
var user User
DB.Preload("Articles").Take(&user, 2)
DB.Model(&user).Association("Articles").Delete(&user.Articles)
|
学习到第18集。(https://www.bilibili.com/video/BV1xg411t7RZ?p=18)
2.一对一
2023.09.16
一对一关系比较少,一般用于表的扩展
例如一张用户表,有很多字段
那么就可以把它拆分为两张表,常用的字段放主表,不常用的字段放详情表
1.表结构搭建
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
type User struct {
ID uint
Name string
Age int
Gender bool
UserInfo UserInfo // 通过UserInfo可以拿到用户详情信息
}
type UserInfo struct {
UserID uint // 外键
ID uint
Addr string
Like string
}
|
2.添加记录
添加用户,自动添加用户详情
1
2
3
4
5
6
7
8
9
|
DB.Create(&User{
Name: "枫枫",
Age: 21,
Gender: true,
UserInfo: UserInfo{
Addr: "湖南省",
Like: "写代码",
},
})
|
添加用户详情,关联已有用户
这个场景特别适合网站的注册,以及后续信息完善
刚开始注册的时候,只需要填写很基本的信息,这就是添加主表的一条记录
注册进去之后,去个人中心,添加头像,修改地址…
这就是添加附表
1
2
3
4
5
|
DB.Create(&UserInfo{
UserID: 2,
Addr: "南京市",
Like: "吃饭",
})
|
当然,也可以直接把用户对象传递进来
我们需要改一下表结构
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
type User struct {
ID uint
Name string
Age int
Gender bool
UserInfo UserInfo // 通过UserInfo可以拿到用户详情信息
}
type UserInfo struct {
User *User // 要改成指针,不然就嵌套引用了
UserID uint // 外键
ID uint
Addr string
Like string
}
|
不限于重新迁移,直接添加即可
1
2
3
4
5
6
7
|
var user User
DB.Take(&user, 2)
DB.Create(&UserInfo{
User: &user,
Addr: "南京市",
Like: "吃饭",
})
|
3.查询
一般是通过主表查副表
1
2
3
|
var user User
DB.Preload("UserInfo").Take(&user)
fmt.Println(user)
|
3.多对多
多对多关系,需要用第三张表存储两张表的关系
1.表结构搭建
1
2
3
4
5
6
7
8
9
10
11
|
type Tag struct {
ID uint
Name string
Articles []Article `gorm:"many2many:article_tags;"` // 用于反向引用
}
type Article struct {
ID uint
Title string
Tags []Tag `gorm:"many2many:article_tags;"`
}
|
2.多对多添加
添加文章,并创建标签
1
2
3
4
5
6
7
|
DB.Create(&Article{
Title: "python基础课程",
Tags: []Tag{
{Name: "python"},
{Name: "基础课程"},
},
})
|
添加文章,选择标签
1
2
3
4
5
6
|
var tags []Tag
DB.Find(&tags, "name = ?", "基础课程")
DB.Create(&Article{
Title: "golang基础",
Tags: tags,
})
|
3.多对多查询
查询文章,显示文章的标签列表
1
2
3
|
var article Article
DB.Preload("Tags").Take(&article, 1)
fmt.Println(article)
|
查询标签,显示文章列表
1
2
3
|
var tag Tag
DB.Preload("Articles").Take(&tag, 2)
fmt.Println(tag)
|
4.多对多更新
移除文章的标签
1
2
3
4
|
var article Article
DB.Preload("Tags").Take(&article, 1)
DB.Model(&article).Association("Tags").Delete(article.Tags)
fmt.Println(article)
|
更新文章的标签
1
2
3
4
5
6
7
|
var article Article
var tags []Tag
DB.Find(&tags, []int{2, 6, 7})
DB.Preload("Tags").Take(&article, 2)
DB.Model(&article).Association("Tags").Replace(tags)
fmt.Println(article)
|
5.自定义连接表
默认的连接表,只有双方的主键id,展示不了更多信息了
这是官方的例子,我修改了一下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
type Article struct {
ID uint
Title string
Tags []Tag `gorm:"many2many:article_tags"`
}
type Tag struct {
ID uint
Name string
}
type ArticleTag struct {
ArticleID uint `gorm:"primaryKey"`
TagID uint `gorm:"primaryKey"`
CreatedAt time.Time
}
|
6.生成表结构
1
2
3
4
5
6
|
// 设置Article的Tags表为ArticleTag
DB.SetupJoinTable(&Article{}, "Tags", &ArticleTag{})
// 如果tag要反向应用Article,那么也得加上
// DB.SetupJoinTable(&Tag{}, "Articles", &ArticleTag{})
err := DB.AutoMigrate(&Article{}, &Tag{}, &ArticleTag{})
fmt.Println(err)
|
7.操作案例
举一些简单的例子
- 添加文章并添加标签,并自动关联
- 添加文章,关联已有标签
- 给已有文章关联标签
- 替换已有文章的标签
- 添加文章并添加标签,并自动关联
1
2
3
4
5
6
7
8
9
10
11
|
DB.SetupJoinTable(&Article{}, "Tags", &ArticleTag{}) // 要设置这个,才能走到我们自定义的连接表
DB.Create(&Article{
Title: "flask零基础入门",
Tags: []Tag{
{Name: "python"},
{Name: "后端"},
{Name: "web"},
},
})
// CreatedAt time.Time 由于我们设置的是CreatedAt,gorm会自动填充当前时间,
// 如果是其他的字段,需要使用到ArticleTag 的添加钩子 BeforeCreate
|
1.添加文章,关联已有标签
1
2
3
4
5
6
7
|
DB.SetupJoinTable(&Article{}, "Tags", &ArticleTag{})
var tags []Tag
DB.Find(&tags, "name in ?", []string{"python", "web"})
DB.Create(&Article{
Title: "flask请求对象",
Tags: tags,
})
|
2.给已有文章关联标签
1
2
3
4
5
6
7
8
9
|
DB.SetupJoinTable(&Article{}, "Tags", &ArticleTag{})
article := Article{
Title: "django基础",
}
DB.Create(&article)
var at Article
var tags []Tag
DB.Find(&tags, "name in ?", []string{"python", "web"})
DB.Take(&at, article.ID).Association("Tags").Append(tags)
|
3.替换已有文章的标签
1
2
3
4
5
|
var article Article
var tags []Tag
DB.Find(&tags, "name in ?", []string{"后端"})
DB.Take(&article, "title = ?", "django基础")
DB.Model(&article).Association("Tags").Replace(tags)
|
4.查询文章列表,显示标签
1
2
3
|
var articles []Article
DB.Preload("Tags").Find(&articles)
fmt.Println(articles)
|
5.SetupJoinTable
添加和更新的时候得用这个
这样才能走自定义的连接表,以及走它的钩子函数
查询则不需要这个
6.自定义连接表主键
这个功能还是很有用的,例如你的文章表 可能叫ArticleModel,你的标签表可能叫TagModel
那么按照gorm默认的主键名,那就分别是ArticleModelID,TagModelID,太长了,根本就不实用
这个地方,官网给的例子看着也比较迷,不过我已经跑通了
主要是要修改这两项
joinForeignKey 连接的主键id
JoinReferences 关联的主键id
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
type ArticleModel struct {
ID uint
Title string
Tags []TagModel `gorm:"many2many:article_tags;joinForeignKey:ArticleID;JoinReferences:TagID"`
}
type TagModel struct {
ID uint
Name string
Articles []ArticleModel `gorm:"many2many:article_tags;joinForeignKey:TagID;JoinReferences:ArticleID"`
}
type ArticleTagModel struct {
ArticleID uint `gorm:"primaryKey"` // article_id
TagID uint `gorm:"primaryKey"` // tag_id
CreatedAt time.Time
}
|
7.生成表结构
1
2
3
4
|
DB.SetupJoinTable(&ArticleModel{}, "Tags", &ArticleTagModel{})
DB.SetupJoinTable(&TagModel{}, "Articles", &ArticleTagModel{})
err := DB.AutoMigrate(&ArticleModel{}, &TagModel{}, &ArticleTagModel{})
fmt.Println(err)
|
添加,更新,查询操作和上面的都是一样
8.操作连接表
如果通过一张表去操作连接表,这样会比较麻烦
比如查询某篇文章关联了哪些标签
或者是举个更通用的例子,用户和文章,某个用户在什么时候收藏了哪篇文章
无论是通过用户关联文章,还是文章关联用户都不太好查
最简单的就是直接查连接表
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
type UserModel struct {
ID uint
Name string
Collects []ArticleModel `gorm:"many2many:user_collect_models;joinForeignKey:UserID;JoinReferences:ArticleID"`
}
type ArticleModel struct {
ID uint
Title string
// 这里也可以反向引用,根据文章查哪些用户收藏了
}
// UserCollectModel 用户收藏文章表
type UserCollectModel struct {
UserID uint `gorm:"primaryKey"` // article_id
ArticleID uint `gorm:"primaryKey"` // tag_id
CreatedAt time.Time
}
func main() {
DB.SetupJoinTable(&UserModel{}, "Collects", &UserCollectModel{})
err := DB.AutoMigrate(&UserModel{}, &ArticleModel{}, &UserCollectModel{})
fmt.Println(err)
}
|
常用的操作就是根据用户查收藏的文章列表
1
2
3
|
var user UserModel
DB.Preload("Collects").Take(&user, "name = ?", "枫枫")
fmt.Println(user)
|
但是这样不太好做分页,并且也拿不到收藏文章的时间
1
2
3
|
var collects []UserCollectModel
DB.Find(&collects, "user_id = ?", 2)
fmt.Println(collects)
|
这样虽然可以查到用户id,文章id,收藏的时间,但是搜索只能根据用户id搜,返回也拿不到用户名,文章标题等
我们需要改一下表结构,不需要重新迁移,加一些字段
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
type UserModel struct {
ID uint
Name string
Collects []ArticleModel `gorm:"many2many:user_collect_models;joinForeignKey:UserID;JoinReferences:ArticleID"`
}
type ArticleModel struct {
ID uint
Title string
}
// UserCollectModel 用户收藏文章表
type UserCollectModel struct {
UserID uint `gorm:"primaryKey"` // article_id
UserModel UserModel `gorm:"foreignKey:UserID"`
ArticleID uint `gorm:"primaryKey"` // tag_id
ArticleModel ArticleModel `gorm:"foreignKey:ArticleID"`
CreatedAt time.Time
}
|
9.查询
1
2
3
4
5
6
7
8
9
10
|
var collects []UserCollectModel
var user UserModel
DB.Take(&user, "name = ?", "枫枫")
// 这里用map的原因是如果没查到,那就会查0值,如果是struct,则会忽略零值,全部查询
DB.Debug().Preload("UserModel").Preload("ArticleModel").Where(map[string]any{"user_id": user.ID}).Find(&collects)
for _, collect := range collects {
fmt.Println(collect)
}
|
10.自定义数据类型
在Go语言中使用Gorm框架自定义数据类型时,你可以创建一个自定义类型并实现Gorm的Scanner
和Valuer
接口,以便将其映射到数据库字段,包括JSON类型字段。下面是一个示例,演示如何自定义数据类型并将其映射到JSON字段。
1.Json
假设你要创建一个自定义数据类型MyJSON
,它表示一个可以存储为JSON的数据结构,并将其映射到数据库中的JSON字段。
- 创建自定义数据类型:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
package models
import (
"database/sql/driver"
"encoding/json"
"errors"
)
// MyJSON 自定义JSON类型
type MyJSON map[string]interface{}
// 实现Valuer接口,将MyJSON类型转换为数据库字段值
func (mj MyJSON) Value() (driver.Value, error) {
return json.Marshal(mj)
}
// 实现Scanner接口,从数据库字段值扫描到MyJSON类型
func (mj *MyJSON) Scan(value interface{}) error {
if value == nil {
*mj = nil
return nil
}
// 将数据库中的JSON字符串解析为MyJSON类型
var jsonData []byte
switch val := value.(type) {
case []byte:
jsonData = val
case string:
jsonData = []byte(val)
default:
return errors.New("Failed to scan MyJSON from database")
}
return json.Unmarshal(jsonData, mj)
}
|
- 在模型中使用自定义数据类型:
1
2
3
4
5
6
7
8
|
package models
import "github.com/jinzhu/gorm"
type Item struct {
ID uint
Data MyJSON // 使用自定义JSON数据类型
}
|
- 在数据库迁移中使用自定义数据类型:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
package main
import (
"github.com/jinzhu/gorm"
_ "github.com/jinzhu/gorm/dialects/sqlite"
"your_project/models"
)
func main() {
db, err := gorm.Open("sqlite3", "test.db")
if err != nil {
panic("Failed to connect database")
}
defer db.Close()
// 自动迁移数据库结构
db.AutoMigrate(&models.Item{})
}
|
现在,你已经成功地创建了一个自定义数据类型MyJSON
,并在Gorm模型中使用它。这使你能够将包含JSON数据的结构存储为数据库中的JSON字段,并在需要时自动转换为MyJSON
类型。你可以在模型中使用MyJSON
字段来存储和检索JSON数据。
2.Enum
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
|
type Status int
const (
Running Status = iota // 使用iota来递增常量
Except
OffLine
)
type Host struct {
IP string `json:"ip"`
Status Status `json:"status"`
}
// MarshalJSON 实现MarshalJSON()方法,会在json.Marshal()时被自动调用
func (status Status) MarshalJSON() ([]byte, error) { // 作Status数字和字符串之间的映射
var str string
switch status {
case Running:
str = "Running"
case Except:
str = "Except"
case OffLine:
str = "OffLine"
}
return json.Marshal(str)
}
func main() {
DB := DB.Session(&gorm.Session{Logger: mysqlLogger})
_ = DB.AutoMigrate(&Host{}) // 自动迁移数据库结构
// 添加数据
DB.Create(&Host{
IP: "192.168.12.56",
Status: Running,
})
DB.Create(&Host{
IP: "192.168.12.88",
Status: OffLine,
})
// 查询数据
var host Host
DB.Take(&host, "ip = ?", "192.168.12.56")
fmt.Println(host) // {192.168.12.56 1}
// 这样打印出来的值是数据库中实际存放的值,如果我们想要给前端返回Status值而不是数字,就需要实现MarshalJSON()方法。
// 在通过json.Marshal()对host进行序列化时,会自动调用MarshalJSON()函数,将数字转换为其对应的字符串。
// 序列化为JSON格式的字符串
data, _ := json.Marshal(host) // 自动调用MarshalJSON()函数
fmt.Println(string(data)) // {"ip":"192.168.12.56","status":"Running"}
}
|
MarshalJSON 方法:
在Gorm中,有时你可能需要自定义如何将数据库模型(model)的字段值转换为JSON格式。为了实现这个目标,你可以在Gorm的模型上定义一个 MarshalJSON
方法,该方法会在将模型序列化为JSON时被自动调用。
11.事务
事务就是用户定义的一系列数据库操作,这些操作可以视为一个完成的逻辑处理工作单元,要么全部执行,要么全部不执行,是不可分割的工作单元。
很形象的一个例子,张三给李四转账100元,在程序里面,张三的余额就要-100,李四的余额就要+100 整个事件是一个整体,哪一步错了,整个事件都是失败的
gorm事务默认是开启的。为了确保数据一致性,GORM 会在事务里执行写入操作(创建、更新、删除)。
如果没有这方面的要求,您可以在初始化时禁用它,这将获得大约 30%+ 性能提升。
一般不推荐禁用
1
2
3
4
|
// 全局禁用
db, err := gorm.Open(sqlite.Open("gorm.db"), &gorm.Config{
SkipDefaultTransaction: true,
})
|
本节课表结构
1
2
3
4
5
6
7
8
|
type User struct {
ID uint `json:"id"`
Name string `json:"name"`
Money int `json:"money"`
}
// InnoDB引擎才支持事务,MyISAM不支持事务
// DB.Set("gorm:table_options", "ENGINE=InnoDB").AutoMigrate(&User{})
|
1.普通事务
以张三给李四转账为例,不使用事务的后果
1
2
3
4
5
6
7
8
9
10
11
12
|
var zhangsan, lisi User
DB.Take(&zhangsan, "name = ?", "张三")
DB.Take(&lisi, "name = ?", "李四")
// 张三给李四转账100元
// 先给张三-100
zhangsan.Money -= 100
DB.Model(&zhangsan).Update("money", zhangsan.Money)
// 模拟失败的情况
// 再给李四+100
lisi.Money += 100
DB.Model(&lisi).Update("money", lisi.Money)
|
在失败的情况下,要么张三白白损失了100,要么李四凭空拿到100元
这显然是不合逻辑的,并且不合法的
那么,使用事务是怎样的
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
var zhangsan, lisi User
DB.Take(&zhangsan, "name = ?", "张三")
DB.Take(&lisi, "name = ?", "李四")
// 张三给李四转账100元
DB.Transaction(func(tx *gorm.DB) error {
// 先给张三-100
zhangsan.Money -= 100
err := tx.Model(&zhangsan).Update("money", zhangsan.Money).Error
if err != nil {
fmt.Println(err)
return err
}
// 再给李四+100
lisi.Money += 100
err = tx.Model(&lisi).Update("money", lisi.Money).Error
if err != nil {
fmt.Println(err)
return err
}
// 提交事务
return nil
})
|
使用事务之后,他们就是一体,一起成功,一起失败
db.Transaction 方法:
签名:func (db *DB) Transaction(fc func(tx *gorm.DB) error, opts ...*sql.TxOptions) error
fc func(tx *gorm.DB) error
: 这是一个接受 *gorm.DB
参数并返回 error
的函数,用于定义你要在事务中执行的操作。在这个函数内部,你可以执行数据库的查询、插入、更新和删除操作,如果发生错误,应该返回一个非空的错误值,以便事务能够回滚。
opts ...*sql.TxOptions
: 这是一个可选参数,用于指定事务的选项,例如事务的隔离级别、只读事务等。sql.TxOptions
是一个结构体,你可以在其中设置事务的属性。默认情况下,如果不提供这个参数,Gorm会使用数据库的默认选项。
如果在事务中的任何操作中发生错误,事务将自动回滚,并且错误将被传递给调用方。在这个方法内部,如果发生错误,应该返回一个非空的错误值,以便事务能够回滚。返回nil
表示事务操作成功。
2.手动事务
1
2
3
4
5
6
7
8
9
10
11
12
13
|
// 开始事务
tx := db.Begin()
// 在事务中执行一些 db 操作(从这里开始,您应该使用 'tx' 而不是 'db')
tx.Create(...)
// ...
// 遇到错误时回滚事务
tx.Rollback()
// 否则,提交事务
tx.Commit()
|
刚才的代码也可以这样实现
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
var zhangsan, lisi User
DB.Take(&zhangsan, "name = ?", "张三")
DB.Take(&lisi, "name = ?", "李四")
// 张三给李四转账100元
tx := DB.Begin()
// 先给张三-100
zhangsan.Money -= 100
err := tx.Model(&zhangsan).Update("money", zhangsan.Money).Error
if err != nil {
tx.Rollback()
}
// 再给李四+100
lisi.Money += 100
err = tx.Model(&lisi).Update("money", lisi.Money).Error
if err != nil {
tx.Rollback()
}
// 提交事务
tx.Commit()
|
已学完:枫枫知道-golang最简单的gorm教程
已学完:【最新Go Web开发教程】基于gin框架和gorm的web开发实战 (七米出品)
目前学习内容:七米-Go Web开发进阶实战(gin框架)(共23小时)
Gin框架源码
可以参考的教程:小徐先生1212-gin框架底层技术原理剖析
前缀树
1
2
3
4
5
6
7
8
9
10
11
|
// ServeHTTP conforms to the http.Handler interface.
func (engine *Engine) ServeHTTP(w http.ResponseWriter, req *http.Request) {
c := engine.pool.Get().(*Context)
c.writermem.reset(w) // 取出来之后再做初始化
c.Request = req
c.reset()
engine.handleHTTPRequest(c) // 处理http请求
engine.pool.Put(c)
}
|
通过对象池,减少垃圾回收的次数和内存申请的消耗。
1
2
3
4
5
|
// 这样可以在使用len(t)的时候,只计算一次len(t),减少计算的次数。
for i, tl := 0, len(t); i < tl; i++ {
if t[i].method != httpMethod { // 把应该立即返回的条件写在前面
continue
}
|
1
2
3
4
5
|
type Engine struct {
...
}
var _ IRouter = (*Engine)(nil)
|
这样写是为了确保Engine结构体实现了IRouter接口,把问题暴露在编译阶段(如果在写某个结构体的时候,需要让改结构体实现某个接口,就可以采用这样的写法)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
type methodTree struct {
method string
root *node
}
type methodTrees []methodTree
func (trees methodTrees) get(method string) *node {
for _, tree := range trees {
if tree.method == method {
return tree.root
}
}
return nil
}
|
每种请求方法都对应了一棵单独的树(共9种请求方法),methodTrees切片中存放了所有的请求方法,通过遍历methodTrees,就可以得到该方法对应的树结构。
1
2
3
4
5
6
7
8
9
10
11
|
func Default() *Engine {
...
engine := New()
...
}
func New() *Engine {
...
trees:make(methodTrees, 0, 9),
...
}
|
在初始化结构体时,一次性把容量申请到位,防止频繁地去扩容。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
type node struct {
// 节点路径,比如上面的s,earch,和upport
path string
// 和children字段对应, 保存的是分裂的分支的第一个字符
// 例如search和support, 那么s节点的indices对应的"eu"
// 代表有两个分支, 分支的首字母分别是e和u
indices string
// 儿子节点
children []*node
// 处理函数链条(切片)
handlers HandlersChain
// 优先级,子节点、子子节点等注册的handler数量
priority uint32
// 节点类型,包括static, root, param, catchAll
// static: 静态节点(默认),比如上面的s,earch等节点
// root: 树的根节点
// catchAll: 有*匹配的节点
// param: 参数节点
nType nodeType
// 路径上最大参数个数
maxParams uint8
// 节点是否是参数节点,比如上面的:post
wildChild bool
// 完整路径
fullPath string
}
|
这个node就是构造路由前缀树的结构体。
路由注册
1
2
3
4
5
6
|
func Default() *Engine {
debugPrintWARNINGDefault()
engine := New()
engine.Use(Logger(), Recovery())
return engine
}
|
1
2
3
|
func (group *RouterGroup) GET(relativePath string, handlers ...HandlerFunc) IRoutes {
return group.handle(http.MethodGet, relativePath, handlers)
}
|
在使用gin.Default()获取一个路由实例的时候,返回的是一个Engine类型的变量,但是在route.Get()时,Get()方法绑定的类型却是RouterGroup,为什么可以这样呢?
1
2
3
4
|
type Engine struct {
RouterGroup
...
}
|
因为Engine结构体中嵌套了RouterGroup。RouterGroup实现了Get()方法。用Engine类型的变量来调用Get()方法,是多态的一种体现。
Zap
2023.09.28
介绍
Zap是一个高性能的、结构化的日志库,专门为Go语言设计和优化。它是由Uber开发并维护的,旨在提供高性能的日志记录,同时保持简单和易用。以下是关于Zap库的详细介绍:
-
高性能:Zap被设计为一个极其高性能的日志库。它采用了零分配(zero-allocation)的设计,意味着在记录日志时不会分配不必要的内存,从而减少了垃圾回收的压力。这对于高并发和低延迟的应用程序特别重要。
-
结构化日志:Zap鼓励使用结构化日志记录方式,而不是传统的文本日志。结构化日志可以更轻松地进行查询和分析,因为每个日志消息都包含了一组字段和值。这有助于构建更可读和可搜索的日志。
-
多日志级别:Zap支持多种日志级别,包括Debug、Info、Warn、Error和DPanic(处理恶劣情况但不终止应用程序)。你可以根据需要选择适当的级别来记录不同严重程度的信息。
-
自定义日志输出:Zap允许你将日志输出到不同的目标,包括控制台、文件、网络和其他自定义目标。你可以根据应用程序的需求轻松定制日志输出。
-
性能测量:Zap内置了性能测量工具,可以用于测量日志记录操作的性能,以便进行优化。
-
丰富的上下文:Zap允许你添加上下文信息,例如请求ID、用户ID等,以便更容易跟踪问题和分析日志。
-
延迟初始化:Zap支持延迟初始化,这意味着你可以在应用程序启动时设置全局的日志配置,然后在需要时延迟初始化具体的日志记录器,以提高性能。
-
社区支持:Zap是一个活跃的开源项目,拥有大量的社区支持和贡献,因此你可以期望在文档、示例和问题解决方案方面找到丰富的资源。
下面是一个简单的示例,展示了如何在Go中使用Zap库:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
package main
import (
"go.uber.org/zap"
"go.uber.org/zap/zapcore"
)
func main() {
// 配置日志记录器
config := zap.NewDevelopmentConfig()
config.EncoderConfig.EncodeLevel = zapcore.CapitalColorLevelEncoder
logger, _ := config.Build()
// 记录日志消息
logger.Info("This is an info message",
zap.String("key", "value"),
zap.Int("count", 42),
)
// 关闭日志记录器
defer logger.Sync()
}
|
在实际应用程序中,你可以根据需要自定义日志记录器的配置,包括输出目标、日志级别和其他设置。Zap库的灵活性和性能使其成为许多Go项目的首选日志库之一。你可以查看Zap的官方文档以获取更多信息和示例:https://pkg.go.dev/go.uber.org/zap
默认的Go Logger
在介绍Uber-go的zap包之前,让我们先看看Go语言提供的基本日志功能。Go语言提供的默认日志包是https://golang.org/pkg/log/。
实现Go Logger
实现一个Go语言中的日志记录器非常简单——创建一个新的日志文件,然后设置它为日志的输出位置。
设置Logger
我们可以像下面的代码一样设置日志记录器
1
2
3
4
|
func SetupLogger() {
logFileLocation, _ := os.OpenFile("/Users/q1mi/test.log", os.O_CREATE|os.O_APPEND|os.O_RDWR, 0744)
log.SetOutput(logFileLocation)
}
|
使用Logger
让我们来写一些虚拟的代码来使用这个日志记录器。
在当前的示例中,我们将建立一个到URL的HTTP连接,并将状态代码/错误记录到日志文件中。
1
2
3
4
5
6
7
8
9
|
func simpleHttpGet(url string) {
resp, err := http.Get(url)
if err != nil {
log.Printf("Error fetching url %s : %s", url, err.Error())
} else {
log.Printf("Status Code for %s : %s", url, resp.Status)
resp.Body.Close()
}
}
|
Logger的运行
现在让我们执行上面的代码并查看日志记录器的运行情况。
1
2
3
4
5
|
func main() {
SetupLogger()
simpleHttpGet("www.google.com")
simpleHttpGet("http://www.google.com")
}
|
当我们执行上面的代码,我们能看到一个test.log
文件被创建,下面的内容会被添加到这个日志文件中。
1
2
|
2019/05/24 01:14:13 Error fetching url www.google.com : Get www.google.com: unsupported protocol scheme ""
2019/05/24 01:14:14 Status Code for http://www.google.com : 200 OK
|
Go Logger的优势和劣势
优势
它最大的优点是使用非常简单。我们可以设置任何io.Writer
作为日志记录输出并向其发送要写入的日志。
劣势
Uber-go Zap
Zap是非常快的、结构化的,分日志级别的Go日志库。
为什么选择Uber-go zap
- 它同时提供了结构化日志记录和printf风格的日志记录
- 它非常的快
根据Uber-go Zap的文档,它的性能比类似的结构化日志包更好——也比标准库更快。 以下是Zap发布的基准测试信息
记录一条消息和10个字段:
Package |
Time |
Time % to zap |
Objects Allocated |
⚡️ zap |
862 ns/op |
+0% |
5 allocs/op |
⚡️ zap (sugared) |
1250 ns/op |
+45% |
11 allocs/op |
zerolog |
4021 ns/op |
+366% |
76 allocs/op |
go-kit |
4542 ns/op |
+427% |
105 allocs/op |
apex/log |
26785 ns/op |
+3007% |
115 allocs/op |
logrus |
29501 ns/op |
+3322% |
125 allocs/op |
log15 |
29906 ns/op |
+3369% |
122 allocs/op |
记录一个静态字符串,没有任何上下文或printf风格的模板:
Package |
Time |
Time % to zap |
Objects Allocated |
⚡️ zap |
118 ns/op |
+0% |
0 allocs/op |
⚡️ zap (sugared) |
191 ns/op |
+62% |
2 allocs/op |
zerolog |
93 ns/op |
-21% |
0 allocs/op |
go-kit |
280 ns/op |
+137% |
11 allocs/op |
standard library |
499 ns/op |
+323% |
2 allocs/op |
apex/log |
1990 ns/op |
+1586% |
10 allocs/op |
logrus |
3129 ns/op |
+2552% |
24 allocs/op |
log15 |
3887 ns/op |
+3194% |
23 allocs/op |
安装
运行下面的命令安装zap
1
|
go get -u go.uber.org/zap
|
配置Zap Logger
Zap提供了两种类型的日志记录器—Sugared Logger
和Logger
。
在性能很好但不是很关键的上下文中,使用SugaredLogger
。它比其他结构化日志记录包快4-10倍,并且支持结构化和printf风格的日志记录。
在每一微秒和每一次内存分配都很重要的上下文中,使用Logger
。它甚至比SugaredLogger
更快,内存分配次数也更少,但它只支持强类型的结构化日志记录。
Logger
- 通过调用
zap.NewProduction()
/zap.NewDevelopment()
或者zap.Example()
创建一个Logger。
- 上面的每一个函数都将创建一个logger。唯一的区别在于它将记录的信息不同。例如production logger默认记录调用函数信息、日期和时间等。
- 通过Logger调用Info/Error等。
- 默认情况下日志都会打印到应用程序的console界面。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
var logger *zap.Logger
func main() {
InitLogger()
defer logger.Sync()
simpleHttpGet("www.google.com")
simpleHttpGet("http://www.google.com")
}
func InitLogger() {
logger, _ = zap.NewProduction()
}
func simpleHttpGet(url string) {
resp, err := http.Get(url)
if err != nil {
logger.Error(
"Error fetching url..",
zap.String("url", url),
zap.Error(err))
} else {
logger.Info("Success..",
zap.String("statusCode", resp.Status),
zap.String("url", url))
resp.Body.Close()
}
}
|
在上面的代码中,我们首先创建了一个Logger,然后使用Info/ Error等Logger方法记录消息。
日志记录器方法的语法是这样的:
1
|
func (log *Logger) MethodXXX(msg string, fields ...Field)
|
其中MethodXXX
是一个可变参数函数,可以是Info / Error/ Debug / Panic等。每个方法都接受一个消息字符串和任意数量的zapcore.Field
场参数。
每个zapcore.Field
其实就是一组键值对参数。
我们执行上面的代码会得到如下输出结果:
1
2
|
{"level":"error","ts":1572159218.912792,"caller":"zap_demo/temp.go:25","msg":"Error fetching url..","url":"www.sogo.com","error":"Get www.sogo.com: unsupported protocol scheme \"\"","stacktrace":"main.simpleHttpGet\n\t/Users/q1mi/zap_demo/temp.go:25\nmain.main\n\t/Users/q1mi/zap_demo/temp.go:14\nruntime.main\n\t/usr/local/go/src/runtime/proc.go:203"}
{"level":"info","ts":1572159219.1227388,"caller":"zap_demo/temp.go:30","msg":"Success..","statusCode":"200 OK","url":"http://www.sogo.com"}
|
Sugared Logger
现在让我们使用Sugared Logger来实现相同的功能。
- 大部分的实现基本都相同。
- 惟一的区别是,我们通过调用主logger的
. Sugar()
方法来获取一个SugaredLogger
。
- 然后使用
SugaredLogger
以printf
格式记录语句
下面是修改过后使用SugaredLogger
代替Logger
的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
var sugarLogger *zap.SugaredLogger
func main() {
InitLogger()
defer sugarLogger.Sync()
simpleHttpGet("www.google.com")
simpleHttpGet("http://www.google.com")
}
func InitLogger() {
logger, _ := zap.NewProduction()
sugarLogger = logger.Sugar()
}
func simpleHttpGet(url string) {
sugarLogger.Debugf("Trying to hit GET request for %s", url)
resp, err := http.Get(url)
if err != nil {
sugarLogger.Errorf("Error fetching URL %s : Error = %s", url, err)
} else {
sugarLogger.Infof("Success! statusCode = %s for URL %s", resp.Status, url)
resp.Body.Close()
}
}
|
当你执行上面的代码会得到如下输出:
1
2
|
{"level":"error","ts":1572159149.923002,"caller":"logic/temp2.go:27","msg":"Error fetching URL www.sogo.com : Error = Get www.sogo.com: unsupported protocol scheme \"\"","stacktrace":"main.simpleHttpGet\n\t/Users/q1mi/zap_demo/logic/temp2.go:27\nmain.main\n\t/Users/q1mi/zap_demo/logic/temp2.go:14\nruntime.main\n\t/usr/local/go/src/runtime/proc.go:203"}
{"level":"info","ts":1572159150.192585,"caller":"logic/temp2.go:29","msg":"Success! statusCode = 200 OK for URL http://www.sogo.com"}
|
你应该注意到的了,到目前为止这两个logger都打印输出JSON结构格式。
在本博客的后面部分,我们将更详细地讨论SugaredLogger,并了解如何进一步配置它。
定制logger
将日志写入文件而不是终端
我们要做的第一个更改是把日志写入文件,而不是打印到应用程序控制台。
- 我们将使用
zap.New(…)
方法来手动传递所有配置,而不是使用像zap.NewProduction()
这样的预置方法来创建logger。
1
|
func New(core zapcore.Core, options ...Option) *Logger
|
zapcore.Core
需要三个配置——Encoder
,WriteSyncer
,LogLevel
。
1.Encoder:编码器(如何写入日志)。我们将使用开箱即用的NewJSONEncoder()
,并使用预先设置的ProductionEncoderConfig()
。
1
|
zapcore.NewJSONEncoder(zap.NewProductionEncoderConfig())
|
2.WriterSyncer :指定日志将写到哪里去。我们使用zapcore.AddSync()
函数并且将打开的文件句柄传进去。
1
2
|
file, _ := os.Create("./test.log")
writeSyncer := zapcore.AddSync(file)
|
3.Log Level:哪种级别的日志将被写入。
我们将修改上述部分中的Logger代码,并重写InitLogger()
方法。其余方法—main()
/SimpleHttpGet()
保持不变。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
func InitLogger() {
writeSyncer := getLogWriter()
encoder := getEncoder()
core := zapcore.NewCore(encoder, writeSyncer, zapcore.DebugLevel)
logger := zap.New(core)
sugarLogger = logger.Sugar()
}
func getEncoder() zapcore.Encoder {
return zapcore.NewJSONEncoder(zap.NewProductionEncoderConfig())
}
func getLogWriter() zapcore.WriteSyncer {
file, _ := os.Create("./test.log")
return zapcore.AddSync(file)
}
|
当使用这些修改过的logger配置调用上述部分的main()
函数时,以下输出将打印在文件——test.log
中。
1
2
3
4
|
{"level":"debug","ts":1572160754.994731,"msg":"Trying to hit GET request for www.sogo.com"}
{"level":"error","ts":1572160754.994982,"msg":"Error fetching URL www.sogo.com : Error = Get www.sogo.com: unsupported protocol scheme \"\""}
{"level":"debug","ts":1572160754.994996,"msg":"Trying to hit GET request for http://www.sogo.com"}
{"level":"info","ts":1572160757.3755069,"msg":"Success! statusCode = 200 OK for URL http://www.sogo.com"}
|
将JSON Encoder更改为普通的Log Encoder
现在,我们希望将编码器从JSON Encoder更改为普通Encoder。为此,我们需要将NewJSONEncoder()
更改为NewConsoleEncoder()
。
1
|
return zapcore.NewConsoleEncoder(zap.NewProductionEncoderConfig())
|
当使用这些修改过的logger配置调用上述部分的main()
函数时,以下输出将打印在文件——test.log
中。
1
2
3
4
|
1.572161051846623e+09 debug Trying to hit GET request for www.sogo.com
1.572161051846828e+09 error Error fetching URL www.sogo.com : Error = Get www.sogo.com: unsupported protocol scheme ""
1.5721610518468401e+09 debug Trying to hit GET request for http://www.sogo.com
1.572161052068744e+09 info Success! statusCode = 200 OK for URL http://www.sogo.com
|
更改时间编码并添加调用者详细信息
鉴于我们对配置所做的更改,有下面两个问题:
- 时间是以非人类可读的方式展示,例如1.572161051846623e+09
- 调用方函数的详细信息没有显示在日志中
我们要做的第一件事是覆盖默认的ProductionConfig()
,并进行以下更改:
- 修改时间编码器
- 在日志文件中使用大写字母记录日志级别
1
2
3
4
5
6
|
func getEncoder() zapcore.Encoder {
encoderConfig := zap.NewProductionEncoderConfig()
encoderConfig.EncodeTime = zapcore.ISO8601TimeEncoder
encoderConfig.EncodeLevel = zapcore.CapitalLevelEncoder
return zapcore.NewConsoleEncoder(encoderConfig)
}
|
接下来,我们将修改zap logger代码,添加将调用函数信息记录到日志中的功能。为此,我们将在zap.New(..)
函数中添加一个Option
。
1
|
logger := zap.New(core, zap.AddCaller())
|
当使用这些修改过的logger配置调用上述部分的main()
函数时,以下输出将打印在文件——test.log
中。
1
2
3
4
|
2019-10-27T15:33:29.855+0800 DEBUG logic/temp2.go:47 Trying to hit GET request for www.sogo.com
2019-10-27T15:33:29.855+0800 ERROR logic/temp2.go:50 Error fetching URL www.sogo.com : Error = Get www.sogo.com: unsupported protocol scheme ""
2019-10-27T15:33:29.856+0800 DEBUG logic/temp2.go:47 Trying to hit GET request for http://www.sogo.com
2019-10-27T15:33:30.125+0800 INFO logic/temp2.go:52 Success! statusCode = 200 OK for URL http://www.sogo.com
|
AddCallerSkip
当我们不是直接使用初始化好的logger实例记录日志,而是将其包装成一个函数等,此时日录日志的函数调用链会增加,想要获得准确的调用信息就需要通过AddCallerSkip
函数来跳过。
1
|
logger := zap.New(core, zap.AddCaller(), zap.AddCallerSkip(1))
|
将日志输出到多个位置
我们可以将日志同时输出到文件和终端。
1
2
3
4
5
6
|
func getLogWriter() zapcore.WriteSyncer {
file, _ := os.Create("./test.log")
// 利用io.MultiWriter支持文件和终端两个输出目标
ws := io.MultiWriter(file, os.Stdout)
return zapcore.AddSync(ws)
}
|
将err日志单独输出到文件
有时候我们除了将全量日志输出到xx.log
文件中之外,还希望将ERROR
级别的日志单独输出到一个名为xx.err.log
的日志文件中。我们可以通过以下方式实现。
1
2
3
4
5
6
7
8
9
10
11
12
|
func InitLogger() {
encoder := getEncoder()
// test.log记录全量日志
logF, _ := os.Create("./test.log")
c1 := zapcore.NewCore(encoder, zapcore.AddSync(logF), zapcore.DebugLevel)
// test.err.log记录ERROR级别的日志
errF, _ := os.Create("./test.err.log")
c2 := zapcore.NewCore(encoder, zapcore.AddSync(errF), zap.ErrorLevel)
// 使用NewTee将c1和c2合并到core
core := zapcore.NewTee(c1, c2)
logger = zap.New(core, zap.AddCaller())
}
|
使用Lumberjack进行日志切割归档
这个日志程序中唯一缺少的就是日志切割归档功能。
Zap本身不支持切割归档日志文件
官方的说法是为了添加日志切割归档功能,我们将使用第三方库Lumberjack来实现。
目前只支持按文件大小切割,原因是按时间切割效率低且不能保证日志数据不被破坏。详情戳https://github.com/natefinch/lumberjack/issues/54。
想按日期切割可以使用github.com/lestrrat-go/file-rotatelogs这个库,虽然目前不维护了,但也够用了。
1
2
3
4
5
6
7
8
9
10
|
// 使用file-rotatelogs按天切割日志
import rotatelogs "github.com/lestrrat-go/file-rotatelogs"
l, _ := rotatelogs.New(
filename+".%Y%m%d%H%M",
rotatelogs.WithMaxAge(30*24*time.Hour), // 最长保存30天
rotatelogs.WithRotationTime(time.Hour*24), // 24小时切割一次
)
zapcore.AddSync(l)
|
安装
执行下面的命令安装 Lumberjack v2 版本。
1
|
go get gopkg.in/natefinch/lumberjack.v2
|
zap logger中加入Lumberjack
要在zap中加入Lumberjack支持,我们需要修改WriteSyncer
代码。我们将按照下面的代码修改getLogWriter()
函数:
1
2
3
4
5
6
7
8
9
10
|
func getLogWriter() zapcore.WriteSyncer {
lumberJackLogger := &lumberjack.Logger{
Filename: "./test.log",
MaxSize: 10,
MaxBackups: 5,
MaxAge: 30,
Compress: false,
}
return zapcore.AddSync(lumberJackLogger)
}
|
Lumberjack Logger采用以下属性作为输入:
- Filename: 日志文件的位置
- MaxSize:在进行切割之前,日志文件的最大大小(以MB为单位)
- MaxBackups:保留旧文件的最大个数
- MaxAges:保留旧文件的最大天数
- Compress:是否压缩/归档旧文件
测试所有功能
最终,使用Zap/Lumberjack logger的完整示例代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
|
package main
import (
"net/http"
"gopkg.in/natefinch/lumberjack.v2"
"go.uber.org/zap"
"go.uber.org/zap/zapcore"
)
var sugarLogger *zap.SugaredLogger
func main() {
InitLogger()
defer sugarLogger.Sync()
simpleHttpGet("www.sogo.com")
simpleHttpGet("http://www.sogo.com")
}
func InitLogger() {
writeSyncer := getLogWriter()
encoder := getEncoder()
core := zapcore.NewCore(encoder, writeSyncer, zapcore.DebugLevel)
logger := zap.New(core, zap.AddCaller())
sugarLogger = logger.Sugar()
}
func getEncoder() zapcore.Encoder {
encoderConfig := zap.NewProductionEncoderConfig()
encoderConfig.EncodeTime = zapcore.ISO8601TimeEncoder
encoderConfig.EncodeLevel = zapcore.CapitalLevelEncoder
return zapcore.NewConsoleEncoder(encoderConfig)
}
func getLogWriter() zapcore.WriteSyncer {
lumberJackLogger := &lumberjack.Logger{
Filename: "./test.log",
MaxSize: 1,
MaxBackups: 5,
MaxAge: 30,
Compress: false,
}
return zapcore.AddSync(lumberJackLogger)
}
func simpleHttpGet(url string) {
sugarLogger.Debugf("Trying to hit GET request for %s", url)
resp, err := http.Get(url)
if err != nil {
sugarLogger.Errorf("Error fetching URL %s : Error = %s", url, err)
} else {
sugarLogger.Infof("Success! statusCode = %s for URL %s", resp.Status, url)
resp.Body.Close()
}
}
|
执行上述代码,下面的内容会输出到文件——test.log中。
1
2
3
4
|
2019-10-27T15:50:32.944+0800 DEBUG logic/temp2.go:48 Trying to hit GET request for www.sogo.com
2019-10-27T15:50:32.944+0800 ERROR logic/temp2.go:51 Error fetching URL www.sogo.com : Error = Get www.sogo.com: unsupported protocol scheme ""
2019-10-27T15:50:32.944+0800 DEBUG logic/temp2.go:48 Trying to hit GET request for http://www.sogo.com
2019-10-27T15:50:33.165+0800 INFO logic/temp2.go:53 Success! statusCode = 200 OK for URL http://www.sogo.com
|
同时,可以在main
函数中循环记录日志,测试日志文件是否会自动切割和归档(日志文件每1MB会切割并且在当前目录下最多保存5个备份)。
至此,我们总结了如何将Zap日志程序集成到Go应用程序项目中。
Gin框架中使用Zap
使用zap接收gin框架默认的日志并配置日志归档
我们在基于gin框架开发项目时通常都会选择使用专业的日志库来记录项目中的日志,go语言常用的日志库有zap
、logrus
等。网上也有很多类似的教程,我之前也翻译过一篇《在Go语言项目中使用Zap日志库》。
但是我们该如何在日志中记录gin框架本身输出的那些日志呢?
gin默认的中间件
首先我们来看一个最简单的gin项目:
1
2
3
4
5
6
7
|
func main() {
r := gin.Default()
r.GET("/hello", func(c *gin.Context) {
c.String("hello liwenzhou.com!")
})
r.Run(
}
|
接下来我们看一下gin.Default()
的源码:
1
2
3
4
5
6
|
func Default() *Engine {
debugPrintWARNINGDefault()
engine := New()
engine.Use(Logger(), Recovery())
return engine
}
|
也就是我们在使用gin.Default()
的同时是用到了gin框架内的两个默认中间件Logger()
和Recovery()
。
其中Logger()
是把gin框架本身的日志输出到标准输出(我们本地开发调试时在终端输出的那些日志就是它的功劳),而Recovery()
是在程序出现panic的时候恢复现场并写入500响应的。
基于zap的中间件
我们可以模仿Logger()
和Recovery()
的实现,使用我们的日志库来接收gin框架默认输出的日志。
这里以zap为例,我们实现两个中间件如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
|
// GinLogger 接收gin框架默认的日志
func GinLogger(logger *zap.Logger) gin.HandlerFunc {
return func(c *gin.Context) {
start := time.Now()
path := c.Request.URL.Path
query := c.Request.URL.RawQuery
c.Next()
cost := time.Since(start)
logger.Info(path,
zap.Int("status", c.Writer.Status()),
zap.String("method", c.Request.Method),
zap.String("path", path),
zap.String("query", query),
zap.String("ip", c.ClientIP()),
zap.String("user-agent", c.Request.UserAgent()),
zap.String("errors", c.Errors.ByType(gin.ErrorTypePrivate).String()),
zap.Duration("cost", cost),
)
}
}
// GinRecovery recover掉项目可能出现的panic
func GinRecovery(logger *zap.Logger, stack bool) gin.HandlerFunc {
return func(c *gin.Context) {
defer func() {
if err := recover(); err != nil {
// Check for a broken connection, as it is not really a
// condition that warrants a panic stack trace.
var brokenPipe bool
if ne, ok := err.(*net.OpError); ok {
if se, ok := ne.Err.(*os.SyscallError); ok {
if strings.Contains(strings.ToLower(se.Error()), "broken pipe") || strings.Contains(strings.ToLower(se.Error()), "connection reset by peer") {
brokenPipe = true
}
}
}
httpRequest, _ := httputil.DumpRequest(c.Request, false)
if brokenPipe {
logger.Error(c.Request.URL.Path,
zap.Any("error", err),
zap.String("request", string(httpRequest)),
)
// If the connection is dead, we can't write a status to it.
c.Error(err.(error)) // nolint: errcheck
c.Abort()
return
}
if stack {
logger.Error("[Recovery from panic]",
zap.Any("error", err),
zap.String("request", string(httpRequest)),
zap.String("stack", string(debug.Stack())),
)
} else {
logger.Error("[Recovery from panic]",
zap.Any("error", err),
zap.String("request", string(httpRequest)),
)
}
c.AbortWithStatus(http.StatusInternalServerError)
}
}()
c.Next()
}
}
|
如果不想自己实现,可以使用github上有别人封装好的https://github.com/gin-contrib/zap。
这样我们就可以在gin框架中使用我们上面定义好的两个中间件来代替gin框架默认的Logger()
和Recovery()
了。
1
2
|
r := gin.New()
r.Use(GinLogger(), GinRecovery())
|
在gin项目中使用zap
最后我们再加入我们项目中常用的日志切割,完整版的logger.go
代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
|
package logger
import (
"gin_zap_demo/config"
"net"
"net/http"
"net/http/httputil"
"os"
"runtime/debug"
"strings"
"time"
"github.com/gin-gonic/gin"
"github.com/natefinch/lumberjack"
"go.uber.org/zap"
"go.uber.org/zap/zapcore"
)
var lg *zap.Logger
// InitLogger 初始化Logger
func InitLogger(cfg *config.LogConfig) (err error) {
writeSyncer := getLogWriter(cfg.Filename, cfg.MaxSize, cfg.MaxBackups, cfg.MaxAge)
encoder := getEncoder()
var l = new(zapcore.Level)
err = l.UnmarshalText([]byte(cfg.Level))
if err != nil {
return
}
core := zapcore.NewCore(encoder, writeSyncer, l)
lg = zap.New(core, zap.AddCaller())
zap.ReplaceGlobals(lg) // 替换zap包中全局的logger实例,后续在其他包中只需使用zap.L()调用即可
return
}
func getEncoder() zapcore.Encoder {
encoderConfig := zap.NewProductionEncoderConfig()
encoderConfig.EncodeTime = zapcore.ISO8601TimeEncoder
encoderConfig.TimeKey = "time"
encoderConfig.EncodeLevel = zapcore.CapitalLevelEncoder
encoderConfig.EncodeDuration = zapcore.SecondsDurationEncoder
encoderConfig.EncodeCaller = zapcore.ShortCallerEncoder
return zapcore.NewJSONEncoder(encoderConfig)
}
func getLogWriter(filename string, maxSize, maxBackup, maxAge int) zapcore.WriteSyncer {
lumberJackLogger := &lumberjack.Logger{
Filename: filename,
MaxSize: maxSize,
MaxBackups: maxBackup,
MaxAge: maxAge,
}
return zapcore.AddSync(lumberJackLogger)
}
// GinLogger 接收gin框架默认的日志
func GinLogger() gin.HandlerFunc {
return func(c *gin.Context) {
start := time.Now()
path := c.Request.URL.Path
query := c.Request.URL.RawQuery
c.Next()
cost := time.Since(start)
lg.Info(path,
zap.Int("status", c.Writer.Status()),
zap.String("method", c.Request.Method),
zap.String("path", path),
zap.String("query", query),
zap.String("ip", c.ClientIP()),
zap.String("user-agent", c.Request.UserAgent()),
zap.String("errors", c.Errors.ByType(gin.ErrorTypePrivate).String()),
zap.Duration("cost", cost),
)
}
}
// GinRecovery recover掉项目可能出现的panic,并使用zap记录相关日志
func GinRecovery(stack bool) gin.HandlerFunc {
return func(c *gin.Context) {
defer func() {
if err := recover(); err != nil {
// Check for a broken connection, as it is not really a
// condition that warrants a panic stack trace.
var brokenPipe bool
if ne, ok := err.(*net.OpError); ok {
if se, ok := ne.Err.(*os.SyscallError); ok {
if strings.Contains(strings.ToLower(se.Error()), "broken pipe") || strings.Contains(strings.ToLower(se.Error()), "connection reset by peer") {
brokenPipe = true
}
}
}
httpRequest, _ := httputil.DumpRequest(c.Request, false)
if brokenPipe {
lg.Error(c.Request.URL.Path,
zap.Any("error", err),
zap.String("request", string(httpRequest)),
)
// If the connection is dead, we can't write a status to it.
c.Error(err.(error)) // nolint: errcheck
c.Abort()
return
}
if stack {
lg.Error("[Recovery from panic]",
zap.Any("error", err),
zap.String("request", string(httpRequest)),
zap.String("stack", string(debug.Stack())),
)
} else {
lg.Error("[Recovery from panic]",
zap.Any("error", err),
zap.String("request", string(httpRequest)),
)
}
c.AbortWithStatus(http.StatusInternalServerError)
}
}()
c.Next()
}
}
|
然后定义日志相关配置:
1
2
3
4
5
6
7
|
type LogConfig struct {
Level string `json:"level"`
Filename string `json:"filename"`
MaxSize int `json:"maxsize"`
MaxAge int `json:"max_age"`
MaxBackups int `json:"max_backups"`
}
|
在项目中先从配置文件加载配置信息,再调用logger.InitLogger(config.Conf.LogConfig)
即可完成logger实例的初识化。其中,通过r.Use(logger.GinLogger(), logger.GinRecovery(true))
注册我们的中间件来使用zap接收gin框架自身的日志,在项目中需要的地方通过使用zap.L().Xxx()
方法来记录自定义日志信息。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
|
package main
import (
"fmt"
"gin_zap_demo/config"
"gin_zap_demo/logger"
"net/http"
"os"
"go.uber.org/zap"
"github.com/gin-gonic/gin"
)
func main() {
// load config from config.json
if len(os.Args) < 1 {
return
}
if err := config.Init(os.Args[1]); err != nil {
panic(err)
}
// init logger
if err := logger.InitLogger(config.Conf.LogConfig); err != nil {
fmt.Printf("init logger failed, err:%v\n", err)
return
}
gin.SetMode(config.Conf.Mode)
r := gin.Default()
// 注册zap相关中间件
r.Use(logger.GinLogger(), logger.GinRecovery(true))
r.GET("/hello", func(c *gin.Context) {
// 假设你有一些数据需要记录到日志中
var (
name = "q1mi"
age = 18
)
// 记录日志并使用zap.Xxx(key, val)记录相关字段
zap.L().Debug("this is hello func", zap.String("user", name), zap.Int("age", age))
c.String(http.StatusOK, "hello liwenzhou.com!")
})
addr := fmt.Sprintf(":%v", config.Conf.Port)
r.Run(addr)
}
|
Viper
Viper是适用于Go应用程序的完整配置解决方案。它被设计用于在应用程序中工作,并且可以处理所有类型的配置需求和格式。
鉴于viper
库本身的README已经写得十分详细,这里就将其翻译成中文,并在最后附上两个项目中使用viper
的示例代码以供参考。
安装
1
|
go get github.com/spf13/viper
|
什么是Viper?
Viper是适用于Go应用程序(包括Twelve-Factor App
)的完整配置解决方案。它被设计用于在应用程序中工作,并且可以处理所有类型的配置需求和格式。它支持以下特性:
- 设置默认值
- 从
JSON
、TOML
、YAML
、HCL
、envfile
和Java properties
格式的配置文件读取配置信息
- 实时监控和重新读取配置文件(可选)
- 从环境变量中读取
- 从远程配置系统(etcd或Consul)读取并监控配置变化
- 从命令行参数读取配置
- 从buffer读取配置
- 显式配置值
为什么选择Viper?
在构建现代应用程序时,你无需担心配置文件格式;你想要专注于构建出色的软件。Viper的出现就是为了在这方面帮助你的。
Viper能够为你执行下列操作:
- 查找、加载和反序列化
JSON
、TOML
、YAML
、HCL
、INI
、envfile
和Java properties
格式的配置文件。
- 提供一种机制为你的不同配置选项设置默认值。
- 提供一种机制来通过命令行参数覆盖指定选项的值。
- 提供别名系统,以便在不破坏现有代码的情况下轻松重命名参数。
- 当用户提供了与默认值相同的命令行或配置文件时,可以很容易地分辨出它们之间的区别。
Viper会按照下面的优先级。每个项目的优先级都高于它下面的项目:
- 显示调用
Set
设置值
- 命令行参数(flag)
- 环境变量
- 配置文件
- key/value存储
- 默认值
重要: 目前Viper配置的键(Key)是大小写不敏感的。目前正在讨论是否将这一选项设为可选。
把值存入Viper
建立默认值
一个好的配置系统应该支持默认值。键不需要默认值,但如果没有通过配置文件、环境变量、远程配置或命令行标志(flag)设置键,则默认值非常有用。
例如:
1
2
3
|
viper.SetDefault("ContentDir", "content")
viper.SetDefault("LayoutDir", "layouts")
viper.SetDefault("Taxonomies", map[string]string{"tag": "tags", "category": "categories"})
|
读取配置文件
Viper需要最少知道在哪里查找配置文件的配置。Viper支持JSON
、TOML
、YAML
、HCL
、envfile
和Java properties
格式的配置文件。Viper可以搜索多个路径,但目前单个Viper实例只支持单个配置文件。Viper不默认任何配置搜索路径,将默认决策留给应用程序。
下面是一个如何使用Viper搜索和读取配置文件的示例。不需要任何特定的路径,但是至少应该提供一个配置文件预期出现的路径。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
// 方式1:
viper.SetConfigFile("./config.yaml") // 指定配置文件路径
// 方式2:
// viper.SetConfigName("config") // 配置文件名称(无扩展名)(当存在多个同名但不同类型的配置文件时,可能导致异常)
// viper.AddConfigPath("/etc/appname/") // 查找配置文件所在的路径
// viper.AddConfigPath("$HOME/.appname") // 多次调用以添加多个搜索路径
// viper.AddConfigPath(".") // 还可以在工作目录中查找配置
viper.SetConfigType("yaml") // 基本上是配合远程配置中心使用的,告诉viper当前的数据使用的是什么格式去解析
err := viper.ReadInConfig() // 查找并读取配置文件
if err != nil { // 处理读取配置文件的错误
panic(fmt.Errorf("Fatal error config file: %s \n", err))
}
|
在加载配置文件出错时,你可以像下面这样处理找不到配置文件的特定情况:
1
2
3
4
5
6
7
8
9
|
if err := viper.ReadInConfig(); err != nil {
if _, ok := err.(viper.ConfigFileNotFoundError); ok {
// 配置文件未找到错误;如果需要可以忽略
} else {
// 配置文件被找到,但产生了另外的错误
}
}
// 配置文件找到并成功解析
|
注意[自1.6起]: 你也可以有不带扩展名的文件,并以编程方式指定其格式。对于位于用户$HOME
目录中的配置文件没有任何扩展名,如.bashrc
。
这里补充两个问题供读者解答并自行验证
当你使用如下方式读取配置时,viper会从./conf
目录下查找任何以config
为文件名的配置文件,如果同时存在./conf/config.json
和./conf/config.yaml
两个配置文件的话,viper
会从哪个配置文件加载配置呢?
1
2
|
viper.SetConfigName("config")
viper.AddConfigPath("./conf")
|
在上面两个语句下搭配使用viper.SetConfigType("yaml")
指定配置文件类型可以实现预期的效果吗?
写入配置文件
从配置文件中读取配置文件是有用的,但是有时你想要存储在运行时所做的所有修改。为此,可以使用下面一组命令,每个命令都有自己的用途:
- WriteConfig - 将当前的
viper
配置写入预定义的路径并覆盖(如果存在的话)。如果没有预定义的路径,则报错。
- SafeWriteConfig - 将当前的
viper
配置写入预定义的路径。如果没有预定义的路径,则报错。如果存在,将不会覆盖当前的配置文件。
- WriteConfigAs - 将当前的
viper
配置写入给定的文件路径。将覆盖给定的文件(如果它存在的话)。
- SafeWriteConfigAs - 将当前的
viper
配置写入给定的文件路径。不会覆盖给定的文件(如果它存在的话)。
根据经验,标记为safe
的所有方法都不会覆盖任何文件,而是直接创建(如果不存在),而默认行为是创建或截断。
一个小示例:
1
2
3
4
5
|
viper.WriteConfig() // 将当前配置写入“viper.AddConfigPath()”和“viper.SetConfigName”设置的预定义路径
viper.SafeWriteConfig()
viper.WriteConfigAs("/path/to/my/.config")
viper.SafeWriteConfigAs("/path/to/my/.config") // 因为该配置文件写入过,所以会报错
viper.SafeWriteConfigAs("/path/to/my/.other_config")
|
监控并重新读取配置文件
Viper支持在运行时实时读取配置文件的功能。
需要重新启动服务器以使配置生效的日子已经一去不复返了,viper驱动的应用程序可以在运行时读取配置文件的更新,而不会错过任何消息。
只需告诉viper实例watchConfig。可选地,你可以为Viper提供一个回调函数,以便在每次发生更改时运行。
确保在调用WatchConfig()
之前添加了所有的配置路径。
1
2
3
4
5
|
viper.WatchConfig()
viper.OnConfigChange(func(e fsnotify.Event) {
// 配置文件发生变更之后会调用的回调函数
fmt.Println("Config file changed:", e.Name)
})
|
从io.Reader读取配置
Viper预先定义了许多配置源,如文件、环境变量、标志和远程K/V存储,但你不受其约束。你还可以实现自己所需的配置源并将其提供给viper。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
viper.SetConfigType("yaml") // 或者 viper.SetConfigType("YAML")
// 任何需要将此配置添加到程序中的方法。
var yamlExample = []byte(`
Hacker: true
name: steve
hobbies:
- skateboarding
- snowboarding
- go
clothing:
jacket: leather
trousers: denim
age: 35
eyes : brown
beard: true
`)
viper.ReadConfig(bytes.NewBuffer(yamlExample))
viper.Get("name") // 这里会得到 "steve"
|
覆盖设置
这些可能来自命令行标志,也可能来自你自己的应用程序逻辑。
1
2
|
viper.Set("Verbose", true)
viper.Set("LogFile", LogFile)
|
注册和使用别名
别名允许多个键引用单个值
1
2
3
4
5
6
7
|
viper.RegisterAlias("loud", "Verbose") // 注册别名(此处loud和Verbose建立了别名)
viper.Set("verbose", true) // 结果与下一行相同
viper.Set("loud", true) // 结果与前一行相同
viper.GetBool("loud") // true
viper.GetBool("verbose") // true
|
使用环境变量
Viper完全支持环境变量。这使Twelve-Factor App
开箱即用。有五种方法可以帮助与ENV协作:
AutomaticEnv()
BindEnv(string...) : error
SetEnvPrefix(string)
SetEnvKeyReplacer(string...) *strings.Replacer
AllowEmptyEnv(bool)
使用ENV变量时,务必要意识到Viper将ENV变量视为区分大小写。
Viper提供了一种机制来确保ENV变量是惟一的。通过使用SetEnvPrefix
,你可以告诉Viper在读取环境变量时使用前缀。BindEnv
和AutomaticEnv
都将使用这个前缀。
BindEnv
使用一个或两个参数。第一个参数是键名称,第二个是环境变量的名称。环境变量的名称区分大小写。如果没有提供ENV变量名,那么Viper将自动假设ENV变量与以下格式匹配:前缀+ “_” +键名全部大写。当你显式提供ENV变量名(第二个参数)时,它 不会 自动添加前缀。例如,如果第二个参数是“id”,Viper将查找环境变量“ID”。
在使用ENV变量时,需要注意的一件重要事情是,每次访问该值时都将读取它。Viper在调用BindEnv
时不固定该值。
AutomaticEnv
是一个强大的助手,尤其是与SetEnvPrefix
结合使用时。调用时,Viper会在发出viper.Get
请求时随时检查环境变量。它将应用以下规则。它将检查环境变量的名称是否与键匹配(如果设置了EnvPrefix
)。
SetEnvKeyReplacer
允许你使用strings.Replacer
对象在一定程度上重写 Env 键。如果你希望在Get()
调用中使用-
或者其他什么符号,但是环境变量里使用_
分隔符,那么这个功能是非常有用的。可以在viper_test.go
中找到它的使用示例。
或者,你可以使用带有NewWithOptions
工厂函数的EnvKeyReplacer
。与SetEnvKeyReplacer
不同,它接受StringReplacer
接口,允许你编写自定义字符串替换逻辑。
默认情况下,空环境变量被认为是未设置的,并将返回到下一个配置源。若要将空环境变量视为已设置,请使用AllowEmptyEnv
方法。
Env 示例:
1
2
3
4
5
6
|
SetEnvPrefix("spf") // 将自动转为大写
BindEnv("id")
os.Setenv("SPF_ID", "13") // 通常是在应用程序之外完成的
id := Get("id") // 13
|
使用Flags
Viper 具有绑定到标志的能力。具体来说,Viper支持Cobra库中使用的Pflag
。
与BindEnv
类似,该值不是在调用绑定方法时设置的,而是在访问该方法时设置的。这意味着你可以根据需要尽早进行绑定,即使在init()
函数中也是如此。
对于单个标志,BindPFlag()
方法提供此功能。
例如:
1
2
|
serverCmd.Flags().Int("port", 1138, "Port to run Application server on")
viper.BindPFlag("port", serverCmd.Flags().Lookup("port"))
|
你还可以绑定一组现有的pflags (pflag.FlagSet):
举个例子:
1
2
3
4
5
6
|
pflag.Int("flagname", 1234, "help message for flagname")
pflag.Parse()
viper.BindPFlags(pflag.CommandLine)
i := viper.GetInt("flagname") // 从viper而不是从pflag检索值
|
在 Viper 中使用 pflag 并不阻碍其他包中使用标准库中的 flag 包。pflag 包可以通过导入这些 flags 来处理flag包定义的flags。这是通过调用pflag包提供的便利函数AddGoFlagSet()
来实现的。
例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
package main
import (
"flag"
"github.com/spf13/pflag"
)
func main() {
// 使用标准库 "flag" 包
flag.Int("flagname", 1234, "help message for flagname")
pflag.CommandLine.AddGoFlagSet(flag.CommandLine)
pflag.Parse()
viper.BindPFlags(pflag.CommandLine)
i := viper.GetInt("flagname") // 从 viper 检索值
...
}
|
flag接口
如果你不使用Pflag
,Viper 提供了两个Go接口来绑定其他 flag 系统。
FlagValue
表示单个flag。这是一个关于如何实现这个接口的非常简单的例子:
1
2
3
4
5
|
type myFlag struct {}
func (f myFlag) HasChanged() bool { return false }
func (f myFlag) Name() string { return "my-flag-name" }
func (f myFlag) ValueString() string { return "my-flag-value" }
func (f myFlag) ValueType() string { return "string" }
|
一旦你的 flag 实现了这个接口,你可以很方便地告诉Viper绑定它:
1
|
viper.BindFlagValue("my-flag-name", myFlag{})
|
FlagValueSet
代表一组 flags 。这是一个关于如何实现这个接口的非常简单的例子:
1
2
3
4
5
6
7
8
9
|
type myFlagSet struct {
flags []myFlag
}
func (f myFlagSet) VisitAll(fn func(FlagValue)) {
for _, flag := range flags {
fn(flag)
}
}
|
一旦你的flag set实现了这个接口,你就可以很方便地告诉Viper绑定它:
1
2
3
4
|
fSet := myFlagSet{
flags: []myFlag{myFlag{}, myFlag{}},
}
viper.BindFlagValues("my-flags", fSet)
|
远程Key/Value存储支持
在Viper中启用远程支持,需要在代码中匿名导入viper/remote
这个包。
1
|
import _ "github.com/spf13/viper/remote"
|
Viper将读取从Key/Value存储(例如etcd或Consul)中的路径检索到的配置字符串(如JSON
、TOML
、YAML
、HCL
、envfile
和Java properties
格式)。这些值的优先级高于默认值,但是会被从磁盘、flag或环境变量检索到的配置值覆盖。(译注:也就是说Viper加载配置值的优先级为:磁盘上的配置文件>命令行标志位>环境变量>远程Key/Value存储>默认值。)
Viper使用crypt从K/V存储中检索配置,这意味着如果你有正确的gpg密匙,你可以将配置值加密存储并自动解密。加密是可选的。
你可以将远程配置与本地配置结合使用,也可以独立使用。
crypt
有一个命令行助手,你可以使用它将配置放入K/V存储中。crypt
默认使用在http://127.0.0.1:4001的etcd。
1
2
|
$ go get github.com/bketelsen/crypt/bin/crypt
$ crypt set -plaintext /config/hugo.json /Users/hugo/settings/config.json
|
确认值已经设置:
1
|
$ crypt get -plaintext /config/hugo.json
|
有关如何设置加密值或如何使用Consul的示例,请参见crypt
文档。
远程Key/Value存储示例-未加密
etcd
1
2
3
|
viper.AddRemoteProvider("etcd", "http://127.0.0.1:4001","/config/hugo.json")
viper.SetConfigType("json") // 因为在字节流中没有文件扩展名,所以这里需要设置下类型。支持的扩展名有 "json", "toml", "yaml", "yml", "properties", "props", "prop", "env", "dotenv"
err := viper.ReadRemoteConfig()
|
Consul
你需要 Consul Key/Value存储中设置一个Key保存包含所需配置的JSON值。例如,创建一个keyMY_CONSUL_KEY
将下面的值存入Consul key/value 存储:
1
2
3
4
5
6
7
8
9
10
|
{
"port": 8080,
"hostname": "liwenzhou.com"
}
viper.AddRemoteProvider("consul", "localhost:8500", "MY_CONSUL_KEY")
viper.SetConfigType("json") // 需要显示设置成json
err := viper.ReadRemoteConfig()
fmt.Println(viper.Get("port")) // 8080
fmt.Println(viper.Get("hostname")) // liwenzhou.com
|
Firestore
1
2
3
|
viper.AddRemoteProvider("firestore", "google-cloud-project-id", "collection/document")
viper.SetConfigType("json") // 配置的格式: "json", "toml", "yaml", "yml"
err := viper.ReadRemoteConfig()
|
当然,你也可以使用SecureRemoteProvider
。
远程Key/Value存储示例-加密
1
2
3
|
viper.AddSecureRemoteProvider("etcd","http://127.0.0.1:4001","/config/hugo.json","/etc/secrets/mykeyring.gpg")
viper.SetConfigType("json") // 因为在字节流中没有文件扩展名,所以这里需要设置下类型。支持的扩展名有 "json", "toml", "yaml", "yml", "properties", "props", "prop", "env", "dotenv"
err := viper.ReadRemoteConfig()
|
监控etcd中的更改-未加密
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
// 或者你可以创建一个新的viper实例
var runtime_viper = viper.New()
runtime_viper.AddRemoteProvider("etcd", "http://127.0.0.1:4001", "/config/hugo.yml")
runtime_viper.SetConfigType("yaml") // 因为在字节流中没有文件扩展名,所以这里需要设置下类型。支持的扩展名有 "json", "toml", "yaml", "yml", "properties", "props", "prop", "env", "dotenv"
// 第一次从远程读取配置
err := runtime_viper.ReadRemoteConfig()
// 反序列化
runtime_viper.Unmarshal(&runtime_conf)
// 开启一个单独的goroutine一直监控远端的变更
go func(){
for {
time.Sleep(time.Second * 5) // 每次请求后延迟一下
// 目前只测试了etcd支持
err := runtime_viper.WatchRemoteConfig()
if err != nil {
log.Errorf("unable to read remote config: %v", err)
continue
}
// 将新配置反序列化到我们运行时的配置结构体中。你还可以借助channel实现一个通知系统更改的信号
runtime_viper.Unmarshal(&runtime_conf)
}
}()
|
从Viper获取值
在Viper中,有几种方法可以根据值的类型获取值。存在以下功能和方法:
Get(key string) : interface{}
GetBool(key string) : bool
GetFloat64(key string) : float64
GetInt(key string) : int
GetIntSlice(key string) : []int
GetString(key string) : string
GetStringMap(key string) : map[string]interface{}
GetStringMapString(key string) : map[string]string
GetStringSlice(key string) : []string
GetTime(key string) : time.Time
GetDuration(key string) : time.Duration
IsSet(key string) : bool
AllSettings() : map[string]interface{}
需要认识到的一件重要事情是,每一个Get方法在找不到值的时候都会返回零值。为了检查给定的键是否存在,提供了IsSet()
方法。
例如:
1
2
3
4
|
viper.GetString("logfile") // 不区分大小写的设置和获取
if viper.GetBool("verbose") {
fmt.Println("verbose enabled")
}
|
访问嵌套的键
访问器方法也接受深度嵌套键的格式化路径。例如,如果加载下面的JSON文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
{
"host": {
"address": "localhost",
"port": 5799
},
"datastore": {
"metric": {
"host": "127.0.0.1",
"port": 3099
},
"warehouse": {
"host": "198.0.0.1",
"port": 2112
}
}
}
|
Viper可以通过传入.
分隔的路径来访问嵌套字段:
1
|
GetString("datastore.metric.host") // (返回 "127.0.0.1")
|
这遵守上面建立的优先规则;搜索路径将遍历其余配置注册表,直到找到为止。(译注:因为Viper支持从多种配置来源,例如磁盘上的配置文件>命令行标志位>环境变量>远程Key/Value存储>默认值,我们在查找一个配置的时候如果在当前配置源中没找到,就会继续从后续的配置源查找,直到找到为止。)
例如,在给定此配置文件的情况下,datastore.metric.host
和datastore.metric.port
均已定义(并且可以被覆盖)。如果另外在默认值中定义了datastore.metric.protocol
,Viper也会找到它。
然而,如果datastore.metric
被直接赋值覆盖(被flag,环境变量,set()
方法等等…),那么datastore.metric
的所有子键都将变为未定义状态,它们被高优先级配置级别“遮蔽”(shadowed)了。
最后,如果存在与分隔的键路径匹配的键,则返回其值。例如:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
{
"datastore.metric.host": "0.0.0.0",
"host": {
"address": "localhost",
"port": 5799
},
"datastore": {
"metric": {
"host": "127.0.0.1",
"port": 3099
},
"warehouse": {
"host": "198.0.0.1",
"port": 2112
}
}
}
GetString("datastore.metric.host") // 返回 "0.0.0.0"
|
提取子树
从Viper中提取子树。
例如,viper
实例现在代表了以下配置:
1
2
3
4
5
6
7
|
app:
cache1:
max-items: 100
item-size: 64
cache2:
max-items: 200
item-size: 80
|
执行后:
1
|
subv := viper.Sub("app.cache1")
|
subv
现在就代表:
1
2
|
max-items: 100
item-size: 64
|
假设我们现在有这么一个函数:
1
|
func NewCache(cfg *Viper) *Cache {...}
|
它基于subv
格式的配置信息创建缓存。现在,可以轻松地分别创建这两个缓存,如下所示:
1
2
3
4
5
|
cfg1 := viper.Sub("app.cache1")
cache1 := NewCache(cfg1)
cfg2 := viper.Sub("app.cache2")
cache2 := NewCache(cfg2)
|
反序列化
你还可以选择将所有或特定的值解析到结构体、map等。
有两种方法可以做到这一点:
Unmarshal(rawVal interface{}) : error
UnmarshalKey(key string, rawVal interface{}) : error
举个例子:
1
2
3
4
5
6
7
8
9
10
11
12
|
type config struct {
Port int
Name string
PathMap string `mapstructure:"path_map"`
}
var C config
err := viper.Unmarshal(&C)
if err != nil {
t.Fatalf("unable to decode into struct, %v", err)
}
|
如果你想要解析那些键本身就包含.
(默认的键分隔符)的配置,你需要修改分隔符:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
v := viper.NewWithOptions(viper.KeyDelimiter("::"))
v.SetDefault("chart::values", map[string]interface{}{
"ingress": map[string]interface{}{
"annotations": map[string]interface{}{
"traefik.frontend.rule.type":"PathPrefix",
"traefik.ingress.kubernetes.io/ssl-redirect": "true",
},
},
})
type config struct {
Chart struct{
Values map[string]interface{}
}
}
var C config
v.Unmarshal(&C)
|
Viper还支持解析到嵌入的结构体:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
/*
Example config:
module:
enabled: true
token: 89h3f98hbwf987h3f98wenf89ehf
*/
type config struct {
Module struct {
Enabled bool
moduleConfig `mapstructure:",squash"`
}
}
// moduleConfig could be in a module specific package
type moduleConfig struct {
Token string
}
var C config
err := viper.Unmarshal(&C)
if err != nil {
t.Fatalf("unable to decode into struct, %v", err)
}
|
Viper在后台使用github.com/mitchellh/mapstructure来解析值,其默认情况下使用mapstructure
tag。
注意 当我们需要将viper读取的配置反序列到我们定义的结构体变量中时,一定要使用mapstructure
tag哦!
序列化成字符串
你可能需要将viper中保存的所有设置序列化到一个字符串中,而不是将它们写入到一个文件中。你可以将自己喜欢的格式的序列化器与AllSettings()
返回的配置一起使用。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
import (
yaml "gopkg.in/yaml.v2"
// ...
)
func yamlStringSettings() string {
c := viper.AllSettings()
bs, err := yaml.Marshal(c)
if err != nil {
log.Fatalf("unable to marshal config to YAML: %v", err)
}
return string(bs)
}
|
使用单个还是多个Viper实例?
Viper是开箱即用的。你不需要配置或初始化即可开始使用Viper。由于大多数应用程序都希望使用单个中央存储库管理它们的配置信息,所以viper包提供了这个功能。它类似于单例模式。
在上面的所有示例中,它们都以其单例风格的方法演示了如何使用viper。
使用多个viper实例
你还可以在应用程序中创建许多不同的viper实例。每个都有自己独特的一组配置和值。每个人都可以从不同的配置文件,key value存储区等读取数据。每个都可以从不同的配置文件、键值存储等中读取。viper包支持的所有功能都被镜像为viper实例的方法。
例如:
1
2
3
4
5
6
7
|
x := viper.New()
y := viper.New()
x.SetDefault("ContentDir", "content")
y.SetDefault("ContentDir", "foobar")
//...
|
当使用多个viper实例时,由用户来管理不同的viper实例。
使用Viper示例
假设我们的项目现在有一个./conf/config.yaml
配置文件,内容如下:
1
2
|
port: 8123
version: "v1.2.3"
|
接下来通过示例代码演示两种在项目中使用viper
管理项目配置信息的方式。
直接使用viper管理配置
这里用一个demo演示如何在gin框架搭建的web项目中使用viper
,使用viper加载配置文件中的信息,并在代码中直接使用viper.GetXXX()
方法获取对应的配置值。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
package main
import (
"fmt"
"net/http"
"github.com/gin-gonic/gin"
"github.com/spf13/viper"
)
func main() {
viper.SetConfigFile("./conf/config.yaml") // 指定配置文件路径
err := viper.ReadInConfig() // 读取配置信息
if err != nil { // 读取配置信息失败
panic(fmt.Errorf("Fatal error config file: %s \n", err))
}
// 监控配置文件变化
viper.WatchConfig()
r := gin.Default()
// 访问/version的返回值会随配置文件的变化而变化
r.GET("/version", func(c *gin.Context) {
c.String(http.StatusOK, viper.GetString("version"))
})
if err := r.Run(
fmt.Sprintf(":%d", viper.GetInt("port"))); err != nil {
panic(err)
}
}
|
使用结构体变量保存配置信息
除了上面的用法外,我们还可以在项目中定义与配置文件对应的结构体,viper
加载完配置信息后使用结构体变量保存配置信息。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
|
package main
import (
"fmt"
"net/http"
"github.com/fsnotify/fsnotify"
"github.com/gin-gonic/gin"
"github.com/spf13/viper"
)
type Config struct {
Port int `mapstructure:"port"`
Version string `mapstructure:"version"`
}
var Conf = new(Config)
func main() {
viper.SetConfigFile("./conf/config.yaml") // 指定配置文件路径
err := viper.ReadInConfig() // 读取配置信息
if err != nil { // 读取配置信息失败
panic(fmt.Errorf("Fatal error config file: %s \n", err))
}
// 将读取的配置信息保存至全局变量Conf
if err := viper.Unmarshal(Conf); err != nil {
panic(fmt.Errorf("unmarshal conf failed, err:%s \n", err))
}
// 监控配置文件变化
viper.WatchConfig()
// 注意!!!配置文件发生变化后要同步到全局变量Conf
viper.OnConfigChange(func(in fsnotify.Event) {
fmt.Println("夭寿啦~配置文件被人修改啦...")
if err := viper.Unmarshal(Conf); err != nil {
panic(fmt.Errorf("unmarshal conf failed, err:%s \n", err))
}
})
r := gin.Default()
// 访问/version的返回值会随配置文件的变化而变化
r.GET("/version", func(c *gin.Context) {
c.String(http.StatusOK, Conf.Version)
})
if err := r.Run(fmt.Sprintf(":%d", Conf.Port)); err != nil {
panic(err)
}
}
|
**参考链接:**https://github.com/spf13/viper/blob/master/README.md
优雅关机和重启
我们编写的Web项目部署之后,经常会因为需要进行配置变更或功能迭代而重启服务,单纯的kill -9 pid
的方式会强制关闭进程,这样就会导致服务端当前正在处理的请求失败,那有没有更优雅的方式来实现关机或重启呢?
阅读本文需要了解一些UNIX系统中信号
的概念,请提前查阅资料预习。
优雅地关机
什么是优雅关机?
优雅关机就是服务端关机命令发出后不是立即关机,而是等待当前还在处理的请求全部处理完毕后再退出程序,是一种对客户端友好的关机方式。而执行Ctrl+C
关闭服务端时,会强制结束进程导致正在访问的请求出现问题。
如何实现优雅关机?
Go 1.8版本之后, http.Server 内置的 Shutdown() 方法就支持优雅地关机,具体示例如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
|
// +build go1.8
package main
import (
"context"
"log"
"net/http"
"os"
"os/signal"
"syscall"
"time"
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
router.GET("/", func(c *gin.Context) {
time.Sleep(5 * time.Second)
c.String(http.StatusOK, "Welcome Gin Server")
})
srv := &http.Server{
Addr: ":8080",
Handler: router,
}
go func() {
// 开启一个goroutine启动服务
if err := srv.ListenAndServe(); err != nil && err != http.ErrServerClosed {
log.Fatalf("listen: %s\n", err)
}
}()
// 等待中断信号来优雅地关闭服务器,为关闭服务器操作设置一个5秒的超时
quit := make(chan os.Signal, 1) // 创建一个接收信号的通道
// kill 默认会发送 syscall.SIGTERM 信号
// kill -2 发送 syscall.SIGINT 信号,我们常用的Ctrl+C就是触发系统SIGINT信号
// kill -9 发送 syscall.SIGKILL 信号,但是不能被捕获,所以不需要添加它
// signal.Notify把收到的 syscall.SIGINT或syscall.SIGTERM 信号转发给quit
signal.Notify(quit, syscall.SIGINT, syscall.SIGTERM) // 此处不会阻塞
<-quit // 阻塞在此,当接收到上述两种信号时才会往下执行
log.Println("Shutdown Server ...")
// 创建一个5秒超时的context
ctx, cancel := context.WithTimeout(context.Background(), 5*time.Second)
defer cancel()
// 5秒内优雅关闭服务(将未处理完的请求处理完再关闭服务),超过5秒就超时退出
if err := srv.Shutdown(ctx); err != nil {
log.Fatal("Server Shutdown: ", err)
}
log.Println("Server exiting")
}
|
如何验证优雅关机的效果呢?
上面的代码运行后会在本地的8080
端口开启一个web服务,它只注册了一条路由/
,后端服务会先sleep 5秒钟然后才返回响应信息。
我们按下Ctrl+C
时会发送syscall.SIGINT
来通知程序优雅关机,具体做法如下:
- 打开终端,编译并执行上面的代码
- 打开一个浏览器,访问
127.0.0.1:8080/
,此时浏览器白屏等待服务端返回响应。
- 在终端迅速执行
Ctrl+C
命令给程序发送syscall.SIGINT
信号
- 此时程序并不立即退出而是等我们第2步的响应返回之后再退出,从而实现优雅关机。
优雅地重启
优雅关机实现了,那么该如何实现优雅重启呢?
我们可以使用 fvbock/endless 来替换默认的 ListenAndServe
启动服务来实现, 示例代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
package main
import (
"log"
"net/http"
"time"
"github.com/fvbock/endless"
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
router.GET("/", func(c *gin.Context) {
time.Sleep(5 * time.Second)
c.String(http.StatusOK, "hello gin!")
})
// 默认endless服务器会监听下列信号:
// syscall.SIGHUP,syscall.SIGUSR1,syscall.SIGUSR2,syscall.SIGINT,syscall.SIGTERM和syscall.SIGTSTP
// 接收到 SIGHUP 信号将触发`fork/restart` 实现优雅重启(kill -1 pid会发送SIGHUP信号)
// 接收到 syscall.SIGINT或syscall.SIGTERM 信号将触发优雅关机
// 接收到 SIGUSR2 信号将触发HammerTime
// SIGUSR1 和 SIGTSTP 被用来触发一些用户自定义的hook函数
if err := endless.ListenAndServe(":8080", router); err!=nil{
log.Fatalf("listen: %s\n", err)
}
log.Println("Server exiting")
}
|
如何验证优雅重启的效果呢?
我们通过执行kill -1 pid
命令发送syscall.SIGINT
来通知程序优雅重启,具体做法如下:
- 打开终端,
go build -o graceful_restart
编译并执行./graceful_restart
,终端输出当前pid(假设为43682)
- 将代码中处理请求函数返回的
hello gin!
修改为hello q1mi!
,再次编译go build -o graceful_restart
- 打开一个浏览器,访问
127.0.0.1:8080/
,此时浏览器白屏等待服务端返回响应。
- 在终端迅速执行
kill -1 43682
命令给程序发送syscall.SIGHUP
信号
- 等第3步浏览器收到响应信息
hello gin!
后再次访问127.0.0.1:8080/
会收到hello q1mi!
的响应。
- 在不影响当前未处理完请求的同时完成了程序代码的替换,实现了优雅重启。
但是需要注意的是,此时程序的PID变化了,因为endless
是通过fork
子进程处理新请求,待原进程处理完当前请求后再退出的方式实现优雅重启的。所以当你的项目是使用类似supervisor
的软件管理进程时就不适用这种方式了。
总结
无论是优雅关机还是优雅重启归根结底都是通过监听特定系统信号,然后执行一定的逻辑处理保障当前系统正在处理的请求被正常处理后再关闭当前进程。使用优雅关机还是使用优雅重启以及怎么实现,这就需要根据项目实际情况来决定了。
雪花算法
2023.09.29
介绍
雪花算法(Snowflake Algorithm)是一种用于生成分布式唯一ID的算法,最初由Twitter开发并开源。这个算法的目标是在分布式系统中生成全局唯一的ID,同时保持ID的趋势递增,以提高数据库索引性能。雪花算法生成的ID通常是64位长的整数,可以分为以下各个部分:
-
第一位 占用1bit,其值始终是0,没有实际作用。
-
时间戳 占用41bit,单位为毫秒,总共可以容纳约69年的时间。当然,我们的时间毫秒计数不会真的从1970年开始记,那样我们的系统跑到 2039/9/7 23:7:35
就不能用了,所以这里的时间戳只是相对于某个时间的增量,比如我们的系统上线是2020-07-01,那么我们完全可以把这个timestamp当作是从2020-07-01 00:00:00.000
的偏移量。
-
工作机器id 占用10bit,其中高位5bit是数据中心ID,低位5bit是工作节点ID,最多可以容纳1024个节点。
-
序列号 占用12bit,用来记录同毫秒内产生的不同id。每个节点每毫秒0开始不断累加,最多可以累加到4095,同一毫秒一共可以产生4096个ID。
SnowFlake算法在同一毫秒内最多可以生成多少个全局唯一ID呢?
同一毫秒的ID数量=1024 X4096=4194304
生成Snowflake ID的过程通常是线程安全的,因为它主要依赖于时间戳,但需要确保在同一毫秒内不会生成超过序列号允许的最大数量的ID。
需要注意的是,由于时间戳在高位,所以生成的ID趋势递增,这有助于提高数据库索引性能。
最后,需要根据具体的需求和系统架构来调整雪花算法的参数,以确保在分布式系统中生成的ID的唯一性和趋势递增。
snowflake的Go实现
1.bwmarrin/snowflake
https://github.com/bwmarrin/snowflake 是一个相当轻量化的snowflake的Go实现。
Snowflake 是一个Go包,提供
- 一个非常简单的 Twitter 雪花生成器。
- 解析现有雪花 ID 的方法。
- 将雪花 ID 转换为多种其他数据类型并返回的方法。
- JSON Marshal/Unmarshal 函数可在 JSON API 中轻松使用雪花 ID。
- 单调时钟计算可防止时钟漂移。
1 Bit Unused |
41 Bit Timestamp |
10 Bit NodeID |
12 Bit Sequence ID |
支持动态的调整每一个因子所占的位数。
示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
package main
import (
"fmt"
sf "github.com/bwmarrin/snowflake"
"time"
)
var node *sf.Node
func Init(startTime string, machineID int64) (err error) {
var st time.Time
st, err = time.Parse("2006-01-02", startTime)
if err != nil {
return
}
sf.Epoch = st.UnixNano() / 1000000
node, err = sf.NewNode(machineID)
return
}
func GenID() int64 {
return node.Generate().Int64()
}
func main() {
if err := Init("2020-07-01", 1); err != nil {
fmt.Printf("init failed, err:%v\n", err)
return
}
for i := 0; i < 100; i++ { // 生成100个ID
id := GenID()
fmt.Println(id)
}
}
|
2.sony/sonyflake
https://github.com/sony/sonyflake 是Sony公司的一个开源项目,基本思路和snowflake差不多,不过位分配上稍有不同:
1 Bit Unused |
39 Bit Timestamp |
8 Bit Sequence ID |
16 Bit NodeID |
这里的时间只用了39个bit,但时间的单位变成了10ms,所以理论上比41位表示的时间还要久(174年)。Sequence ID
和之前的定义一致,Machine ID
其实就是节点id。sonyflake
库有以下配置参数:
1
2
3
4
5
|
type Settings struct {
StartTime time.Time
MachineID func() (uint16, error)
CheckMachineID func(uint16) bool
}
|
这是系统定义好的结构体,我们只需要给结构体变量赋值即可。
其中:
StartTime
选项和我们之前的 Epoch
差不多,如果不设置的话,默认是从2014-09-01 00:00:00 +0000 UTC
开始。
MachineID
可以由用户自定义的函数,如果用户不定义的话,会默认将本机IP的低16位作为machine id
。
CheckMachineID
是由用户提供的检查MachineD
是否冲突的函数。
示例:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
|
package main
import (
"fmt"
"github.com/sony/sonyflake"
"time"
)
var (
sonyFlake *sonyflake.Sonyflake
sonyMachineID uint16
)
func getMachineID() (uint16, error) {
return sonyMachineID, nil
}
// Init02 需传入当前的机器ID
func Init02(startTime string, machineId uint16) (err error) {
sonyMachineID = machineId
var st time.Time
st, err = time.Parse("2006-01-02", startTime)
if err != nil {
return err
}
settings := sonyflake.Settings{
StartTime: st,
MachineID: getMachineID,
}
sonyFlake = sonyflake.NewSonyflake(settings)
return
}
func GenID02() (id uint64, err error) {
if sonyFlake == nil {
err = fmt.Errorf("snoy flake not inited")
return
}
id, err = sonyFlake.NextID() // 生成新的id
return
}
func main() {
if err := Init02("2020-07-01", 1); err != nil {
fmt.Printf("Init failed, err:%v\n", err)
return
}
for i := 0; i < 100; i++ {
id, _ := GenID02()
fmt.Println(id)
}
}
|
validator库
介绍
在Go语言中,有一个叫做"validator"的库,用于数据验证和验证结构体字段。这个库的主要作用是帮助开发人员验证输入的数据是否符合预期的格式和要求,通常用于Web应用程序中的表单验证、API参数验证等场景。下面是关于Go语言中的"validator"库的详细介绍:
-
库名称和导入:Go语言中最常用的验证库是"github.com/go-playground/validator/v10”。你可以使用Go模块来导入它,通常导入的方式如下:
1
|
import "github.com/go-playground/validator/v10"
|
-
基本使用:以下是"validator"库的基本使用步骤:
a. 创建一个验证器实例:
1
|
validate := validator.New()
|
b. 定义一个结构体来表示要验证的数据,并使用标签来定义每个字段的验证规则。例如:
1
2
3
4
5
|
type User struct {
Username string `validate:"required,min=3,max=20"`
Email string `validate:"required,email"`
Age int `validate:"gte=0,lte=150"`
}
|
c. 使用验证器来验证结构体实例:
1
2
3
4
5
6
7
8
9
10
|
user := User{
Username: "john_doe",
Email: "john@example.com",
Age: 30,
}
err := validate.Struct(user)
if err != nil {
// 处理验证错误
}
|
-
内置验证标签:“validator"库提供了许多内置的验证标签,例如:
required
:字段不能为空。
min
和 max
:指定字段的最小和最大长度或值。
email
:验证邮箱地址的格式。
gte
和 lte
:字段必须大于或等于某个值,或小于或等于某个值。
-
自定义验证规则:你可以轻松地定义自己的自定义验证规则。例如,如果要验证字段是否为特定值,可以创建自定义验证函数并将其应用于字段。
1
2
3
4
5
6
7
8
9
10
|
func isCountryCode(fl validator.FieldLevel) bool {
countryCode := fl.Field().String()
return countryCode == "US" || countryCode == "CA" || countryCode == "UK"
}
type Address struct {
CountryCode string `validate:"required,country_code"`
}
validate.RegisterValidation("country_code", isCountryCode)
|
-
错误处理:如果验证失败,“validator"库会返回一个包含错误信息的结构体,你可以从中提取验证错误并采取适当的措施。
1
2
3
4
5
6
|
if err != nil {
for _, err := range err.(validator.ValidationErrors) {
// 处理每个验证错误
fmt.Println(err.Field(), err.Tag(), err.Param())
}
}
|
-
标签定制:你可以使用标签中的参数来自定义错误消息。例如:
1
2
3
|
type User struct {
Username string `validate:"required,min=3,max=20"`
}
|
在这个示例中,你可以使用参数为min
和max
的自定义错误消息来覆盖默认的错误消息。
“validator"库是一个强大的数据验证工具,能够帮助你确保应用程序接收到符合预期格式和规则的输入数据。你可以根据项目的需求和验证场景来定义验证规则,从而提高应用程序的健壮性和可靠性。请注意,上述示例是一个简化版本,实际应用中可能需要更复杂的验证逻辑和自定义规则。
用户认证
HTTP 是一个无状态的协议,一次请求结束后,下次在发送服务器就不知道这个请求是谁发来的了 (同个IP 不代表同一个用户),在 Web 应用中,用户的认证和鉴权是非常重要的一环,实践中有多种可用方案,并且各有千秋。
Cookie- Session认证模式
在Web 应用发展的初期,大部分采用基于Cookie-Session 的会话管理方式,逻辑如下:
- 客户端使用用户名、密码进行认证;
- 服务端验证用户名、密码正确后生成并存储 Session,将 SessionlD 通过 Cookie 返回给客户端客户端访问;
- 要认证的接口时在 Cookie 中携带 SessionlD;
- 服务端通过 SessionID 查找 Session 并进行鉴权,返回给客户端需要的数据。
基于Session的方式存在多种问题:
- 服务端需要存储 Session,并且由于 Session 需要经常快速查找,通常存储在内存或内存数据库中,同时在线用户较多时需要占用大量的服务器资源。
- 当需要扩展时,创建 Session 的服务器可能不是验证 Session 的服务器,所以还需要将所有Session 单独存储并共享。
- 由于客户端使用 Cookie 存储 SessionID,在跨域场景下需要进行兼容性处理,同时这种方式也难以防范 CSRF 攻击。
Token 认证模式
鉴于基于 Session 的会话管理方式存在上述多个缺点,基于 Token 的无状态会话管理方式诞生了,所谓无状态,就是服务端可以不再存储信息,甚至是不再存储 Session,逻辑如下:
- 客户端使用用户名、密码进行认证;
- 服务端验证用户名、密码正确后生成 Token 返回给客户端;
- 客户端保存Token,访问需要认证的接口时在URL 参数或 HTTP Header 中加入 Token;
- 服务端通过解码 Token 进行鉴权,返回给客户端需要的数据。
基于Token的会话管理方式有效解决了基于Session 的会话管理方式带来的问题。
- 服务端不需要存储和用户鉴权有关的信息,鉴权信息会被加密到 Token 中,服务端只需要读取Token 中包含的鉴权信息即可;
- 避免了共享Session 导致的不易扩展问题;
- 不需要依赖 Cookie,有效避免 Cookie 带来的 CSRF 攻击问题;
- 使用CORS可以快速解决跨域问题。
JWT
介绍
WT是JSON Web Token 的缩写,是为了在网络应用环境间传递声明而执行的一种基于ISON的开放标准((RFC 7519)。JWT 本身没有定义任何技术实现,它只是定义了一种基于 Token 的会话管理的规则,涵盖Token 需要包含的标准内容和 Token 的生成过程,特别适用于分布式站点的单点登录 (SSO)场景。
一个JWT Token 就像这样:
1
|
eyJhbGci0iJIUzI1NiIsInR5cCI6IkpxVCJ9.eyJc2Vyx21kIjoyODAxODcyNz040DMyMzU4NSwizXhwIjoxNTkGNTQwMjkxLCJpc3Mi0iJibHVlYmVsbcJ9.lk_ZrAtYGCeZhk3iupHxP1kgjBJzQTVTtX0iZYFx9wU
|
它是由.
分隔的三部分组成,这三部分依次是:
- 头部 (Header)
- 负载 (Payload)
- 签名 (Signature)
头部和负载以JSON 形式存在,这就是JWT 中的JSON,三部分的内容都分别单独经过了 Base64编码,以.
拼接成一个 JWT Token。
JWT的 Header 中存储了所使用的加密算法和 Token 类型。
1
2
3
4
|
{
"alg":"HS256",
"typ":"JWT"
}
|
Payload
Payload 表示负载,也是一个JSON 对象,JWT 规定了7个官方字段供选用:
1
2
3
4
5
6
7
|
iss (issuer): 签发人
exp (expiration time): 过期时间
sub (subject): 主题
aud (audience): 受众
nbf (Not Before): 生效时间
iat (Issued At): 签发时间
jti (JWT ID): 编号
|
除了官方字段,开发者也可以自己指定字段和内容,例如下面的内容:
1
2
3
4
5
|
{
"sub": "1234567890",
"name": "John Doe",
"admin": true
}
|
注意,JWT 默认是不加密的,任何人都可以读到,所以不要把秘密信息放在这个部分。这个JSON 对象也要使用 Base64URL 算法转成字符串。
Signature
Signature 部分是对前两部分的签名,防止数据篡改。
首先,需要指定一个密钥 (secret) 。这个密钥只有服务器才知道,不能泄露给用户。然后,使用Header 里面指定的签名算法 (默认是HMACSHA256),按照下面的公式产生签名。
1
|
HMACSHA256(base64UrlEncode(header) + "."+ base64UrlEncode(payload),secret)
|
JWT优缺点
JWT 拥有基于 Token 的会话管理方式所拥有的一切优势,不依赖 Cookie,使得其可以防止 CSRF 攻击,也能在禁用 Cookie 的浏览器环境中正常运行。
而 JWT 的最大优势是服务端不再需要存储 Session,使得服务端认证鉴权业务可以方便扩展,避免存储 Session 所需要引入的 Redis 等组件,降低了系统架构复杂度。但这也是 JWT 最大的劣势,由于有效期存储在 Token 中,JWT Token 一旦签发,就会在有效期内一直可用,无法在服务端废止,当用户进行登出操作,只能依赖客户端删除掉本地存储的 JWT Tken,如果需要禁用用户,单纯使用 JWT 就无法做到。
基于Jwt实现认证实践
2023.09.30
前面讲的 Token,都是Access Token,也就是访问资源接口时所需要的 Token,还有另外一种Token,Refresh Token,通常情况下,Refresh Token 的有效期会比较长,而Access Token 的有效期比较短,当Access Token 由于过期而失效时,使用 Refresh Token 就可以获取到新的 Access Token,如果 Refresh Token 也失效了,用户就只能重新登录了。
在JWT 的实践中,引入 Refresh Token,将会话管理流程改进如下:
- 客户端使用用户名密码进行认证;
- 服务端生成有效时间较短的Access Token (例如10分钟),和有效时间较长的 RefreshToken (例如 7天);
- 客户端访问需要认证的接口时,携带 Access Token;
- 如果Access Token 没有过期,服务端鉴权后返回给客户端需要的数据;
- 如果携带 Acess Token 访问需要认证的接口时鉴权失败 (例如返回401 错误),则客户端使用Refresh Token 向刷新接口申请新的 Access Token;
- 如果 Refresh Token 没有过期,服务端向客户端下发新的 Access Token;
- 客户端使用新的Access Token 访问需要认证的接口。
生成access token和refresh token
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
func GenToken(userID int64) (aToken, rToken string, err error) {
// 创建⼀个我们⾃⼰的声明
c := MyClaims{
userID, // ⾃定义字段
jwt.StandardClaims{
ExpiresAt: time.Now().Add(TokenExpireDuration).Unix(), // 过期时间
Issuer: "bluebell", // 签发⼈
},
}
// 加密并获得完整的编码后的字符串token
aToken, err = jwt.NewWithClaims(jwt.SigningMethodHS256,
c).SignedString(mySecret)
// refresh token 不需要存任何⾃定义数据
rToken, err = jwt.NewWithClaims(jwt.SigningMethodHS256, jwt.StandardClaims{
ExpiresAt: time.Now().Add(time.Second * 30).Unix(), // 过期时间
Issuer: "bluebell", // 签发⼈
}).SignedString(mySecret)
// 使⽤指定的secret签名并获得完整的编码后的字符串token
return
}
|
解析access token
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
// ParseToken 解析JWT
func ParseToken(tokenString string) (claims *MyClaims, err error) {
// 解析token
var token *jwt.Token
claims = new(MyClaims)
token, err = jwt.ParseWithClaims(tokenString, claims, keyFunc)
if err != nil {
return
}
if !token.Valid { // 校验token
err = errors.New("invalid token")
}
return
}
|
刷新AccessToken
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
// RefreshToken 刷新AccessToken
func RefreshToken(aToken, rToken string) (newAToken, newRToken string, err
error) {
// refresh token无效直接返回
if _, err = jwt.Parse(rToken, keyFunc); err != nil {
return
}
// 从旧access token中解析出claims数据
var claims MyClaims
_, err = jwt.ParseWithClaims(aToken, &claims, keyFunc)
v, _ := err.(*jwt.ValidationError)
// 当access token是过期错误 并且 refresh token没有过期时就创建⼀个新的access token和refresh token(这里可以自主选择是否生成新的refresh token)
if v.Errors == jwt.ValidationErrorExpired {
return GenToken(claims.UserID)
}
return
}
|
如果不想自己实现上述功能,你也可以使用Github上别人封装好的包,比如:https://github.com/appleboy/gin-jwt。
参考: RFC 6749 OAuth2.0中关于refresh token的介绍
http://www.ruanyifeng.com/blog/2018/07/json_web_token-tutorial.html
https://www.jianshu.com/p/25ab2f456904
air实时热重载
要在 Go 语言程序中使用 air
库实现实时热重载,你可以按照以下步骤操作:
-
安装 air
工具:首先,你需要安装 air
工具,它是一个用于 Go 应用程序热重载的命令行工具。你可以使用以下命令安装:
1
|
go get -u github.com/cosmtrek/air
|
注意:在windows系统下,需要使用go env GOPATH
查看GoPath路径,然后切换到该路径下,执行go install github.com/cosmtrek/air@latest
命令,来安装air
(会生成一个bin
目录,里面存放air.exe
文件)。
-
创建 air
配置文件:在你的项目根目录下创建一个名为 .air.toml
的配置文件,用于配置 air
工具。以下是一个示例配置文件:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
|
# .air.toml
# [Air](https://github.com/cosmtrek/air) TOML 格式的配置文件
# 工作目录
# 使用 . 或绝对路径,请注意 `tmp_dir` 目录必须在 `root` 目录下
root = "."
tmp_dir = "tmp"
[build]
# 只需要写你平常编译使用的shell命令。你也可以使用 `make`
# Windows平台示例: cmd = "go build -o tmp\main.exe ."
cmd = "go build -o ./tmp/main ."
# 由`cmd`命令得到的二进制文件名
# Windows平台示例:bin = "tmp\main.exe"
bin = "tmp/main"
# 自定义执行程序的命令,可以添加额外的编译标识例如添加 GIN_MODE=release
# Windows平台示例:full_bin = "tmp\main.exe"
full_bin = "APP_ENV=dev APP_USER=air ./tmp/main"
# 监听以下文件扩展名的文件.
include_ext = ["go", "tpl", "tmpl", "html"]
# 忽略这些文件扩展名或目录
exclude_dir = ["assets", "tmp", "vendor", "frontend/node_modules"]
# 监听以下指定目录的文件
include_dir = []
# 排除以下文件
exclude_file = []
# 如果文件更改过于频繁,则没有必要在每次更改时都触发构建。可以设置触发构建的延迟时间
delay = 1000 # ms
# 发生构建错误时,停止运行旧的二进制文件。
stop_on_error = true
# air的日志文件名,该日志文件放置在你的`tmp_dir`中
log = "air_errors.log"
[log]
# 显示日志时间
time = true
[color]
# 自定义每个部分显示的颜色。如果找不到颜色,使用原始的应用程序日志。
main = "magenta"
watcher = "cyan"
build = "yellow"
runner = "green"
[misc]
# 退出时删除tmp目录
clean_on_exit = true
|
请根据你的项目结构和需求调整上述配置。
-
运行 air
工具:在终端中切换到你的项目目录,并运行以下命令启动 air
工具:
air
将监控你在配置文件中指定的文件和目录,并在文件变化时自动重新构建和运行你的应用程序。
-
编写 Go 代码:编写你的 Go 应用程序代码,确保代码在重新构建后能够正确运行。
-
进行实时热重载:当你修改代码文件时,air
将自动检测到变化并触发重新构建和重启你的应用程序。你可以在终端中看到构建和重启的日志输出。
请注意,air
是一个强大的工具,能够提供实时热重载的便利,但在生产环境中不应该使用它。在生产环境中,应该使用编译后的二进制文件运行你的应用程序,以确保稳定性和性能。 air
主要用于开发和调试阶段,以提高开发效率。
内存对齐
2023.10.01
介绍
参考:【Golang】这个内存对齐呀!?
Go语言中的内存对齐是一种用于优化内存访问和提高性能的技术。内存对齐是计算机体系结构中的一个重要概念,它确保数据结构中的字段在内存中按照一定的规则排列,以便CPU能够更有效地访问这些数据。在Go中,内存对齐通常是由编译器和运行时系统来处理的,而不需要手动控制。以下是关于Go语言中内存对齐的一些详细信息:
-
原始数据类型的内存对齐:
- 在Go语言中,原始数据类型(如int、float、bool等)的内存对齐通常按照它们的大小进行,例如int32会按照4字节对齐,int64会按照8字节对齐。这意味着它们将始终从内存的4字节或8字节边界开始存储。
-
结构体的内存对齐:
- 在Go语言中,结构体的字段也会根据其大小进行内存对齐。通常,结构体字段的对齐方式是根据字段中最大的对齐值来确定的。例如,如果一个结构体有一个int32(对齐4字节)和一个float64(对齐8字节)字段,那么它的对齐方式将按照8字节对齐,以适应float64的大小。
-
对齐规则:
- Go语言的内存对齐规则通常是平台相关的,因为不同的操作系统和体系结构可能有不同的要求。编译器和运行时系统会根据目标平台的要求来确定数据结构的内存布局和对齐方式。
-
结构体字段的对齐控制:
- 在Go语言中,可以使用
struct
标签来控制结构体字段的对齐方式。例如,可以使用struct
标签中的align
选项来指定字段的对齐方式,但这通常不是必要的,除非你有特定的对齐需求。
-
内存对齐的性能影响:
- 内存对齐可以提高内存访问的性能,因为它允许CPU更有效地加载和存储数据。不正确的内存对齐可能会导致性能下降,因为它会增加数据访问的开销。
总之,Go语言中的内存对齐是一个重要的底层概念,但通常不需要手动干预。Go的编译器和运行时系统会负责处理内存对齐,以确保代码在不同平台上具有良好的性能和可移植性。如果你对特定平台的内存布局有特殊要求,可以考虑使用struct
标签来控制对齐方式,但大多数情况下,Go会自动处理这些细节。
结构体中的使用
结构体中可以利用内存对齐,来减少空间的占用。
1.将字段按照大小顺序排列:将结构体字段按照它们的大小进行排序,这可以减少内存浪费。较小的字段放在前面,较大的字段放在后面。
1
2
3
4
5
|
goCopy codetype MyStruct struct {
Field1 int32
Field2 float64
Field3 string
}
|
2.使用struct
标签来调整字段对齐:虽然Go不提供直接的字段顺序控制,但你可以使用struct
标签来调整字段的对齐方式,例如,使用align
选项来指定对齐方式。
1
2
3
4
5
|
goCopy codetype MyStruct struct {
Field1 int32 `struct:"align:4"`
Field2 float64
Field3 string
}
|
请注意,尽管你可以使用上述方法来尝试优化内存布局,但在大多数情况下,Go的编译器和运行时系统已经足够智能,能够自动执行内存对齐和布局的优化。因此,通常情况下不需要手动控制内存对齐,而应该专注于编写可读性和维护性更好的代码,让Go编译器来处理底层的内存管理细节。
示例
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
type MyStruct1 struct {
a int8
b string // 占用16字节
c int8
}
type MyStruct2 struct {
a int8
c int8
b string // 占用16字节
}
func main() {
s11 := MyStruct1{
a: 1,
b: "hello",
c: 1,
}
s21 := MyStruct2{
a: 1,
b: "hello",
c: 1,
}
fmt.Println(unsafe.Sizeof(s11)) // 32
fmt.Println(unsafe.Sizeof(s21)) // 24
}
|
在示例中,MyStruct1
结构体的字段顺序是 a int8
, b string
, c int8
。对于大多数的平台,int8
的大小是1字节,而 string
类型包括一个指向底层数据的指针和一个长度字段,大小为16字节(64位系统)。
在大多数64位系统上,string
的内存对齐通常是8字节,因为这些系统的指针大小通常是8字节。在32位系统上,string
的内存对齐通常是4字节,因为32位系统的指针大小通常是4字节。
可以使用unsafe.Sizeof()
来查看变量内存占用情况,使用unsafe.Alignof()
来查看变量的内存对齐情况。
1
2
3
|
var s string
size := unsafe.Sizeof(s) // 16
align := unsafe.Alignof(s) // 8
|
首先,让我们计算每个字段的大小:
a int8
:1字节
b string
:通常8字节(指针) + 8字节(长度) = 16字节
c int8
:1字节
然后,考虑内存对齐的要求。在大多数平台上,内存对齐要求是按照字段的大小将其对齐到某个倍数。通常,int8
对齐到1字节,string
在64位系统上对齐到8字节。
现在,让我们计算 MyStruct1
结构体的总大小:
a
需要1字节。
b
需要16字节。
c
需要1字节。
但由于string
会对齐到8字节,所以变量a
之后会空出7字节的内存,然后才能存放变量b
。
现在,将这些字段的大小相加:8 + 16 + 1 = 25 字节。但是,由于内存对齐的要求,Go 编译器会将结构体的大小舍入到最接近的8字节(因为结构体中字段中最大对齐值为8)的倍数。所以,MyStruct1
结构体的实际大小是32字节,而不是25字节。
因此,MyStruct1
结构体的占用内存为32字节。
MyStruct2
结构体的字段顺序是 a int8
, c int8
, b string
。
内存占用情况:变量a
和变量c
分别占用1个字节(共2字节),变量b
内存对齐到8字节,因此变量c
后面会空出6个字节的内存,然后才能存放变量b
。
因此,MyStruct1
结构体的占用内存为:8+16=24 字节。(已满足结构体的内存对齐值8)
JSON解析之数字精度
2023.10.03
参考:JSON实战拾遗之数字精度
在我们使用雪花算法生成id时,通常会生成类型为int64的id,但是前端在处理数据时,大概率会使用JavaScript来进行处理。
Go语言中int64的表示范围:-2^62 — 2^62(包含边界)
但是JS中整数类型的范围为: -2^53 — 2^53(包含边界)。
在传给前端的时候,如何保证不出现数据越界的问题呢?
解决方法:转换为字符串进行传递。具体如下:
- 在把后端的数据(struct、map等)转换为Json格式的字符串(序列化)的时候,把可能越界的字段转换为string类型;
- 在后端反序列化前端传过来的数据时,在把该字段转换为int64之后,然后再反序列化。
实际操作:只需要在json的tag中加上“string”即可。如:
1
2
3
|
type Data struct {
ID int64 `json:"id,string"` // 在json标签中加入string即可
}
|
Swagger
介绍
要在 Go 语言中使用 Gin 和 Swagger 来生成 API 文档,你可以使用 swaggo/gin-swagger
包结合注释和代码生成工具 swag
来完成。以下是详细的步骤:
-
安装 swag
工具:
使用以下命令来安装 swag
工具:
1
|
go get -u github.com/swaggo/swag/cmd/swag
|
-
在你的项目中使用注释来描述 API:
在你的 Gin 路由处理函数和结构体上使用注释来描述 API。例如:
1
2
3
4
5
6
7
8
9
10
|
// @Summary 获取用户信息
// @Description 获取特定用户的详细信息
// @Produce json
// @Param id path int true "用户ID"
// @Success 200 {object} UserResponse
// @Failure 400 {object} ErrorResponse
// @Router /user/{id} [get]
func GetUser(c *gin.Context) {
// 处理获取用户信息的逻辑
}
|
在上面的例子中,我们使用了注释来描述一个获取用户信息的 API。
-
使用 swag
生成文档:
在项目的根目录下执行以下命令来生成 Swagger 文档:
这将会在项目的根目录下生成一个 docs
文件夹,并在其中生成 Swagger 文档的相关文件。
-
配置 Gin 来提供 Swagger UI:
在你的 Gin 项目中,你需要配置路由来提供 Swagger UI。通常,你可以在路由中添加以下代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
|
package main
import (
"Gin_Project/src/20_swager/controller"
_ "Gin_Project/src/20_swager/docs" // 千万不要忘了导入把你上一步生成的docs
"github.com/gin-gonic/gin"
swaggerFiles "github.com/swaggo/files"
ginSwagger "github.com/swaggo/gin-swagger"
)
func main() {
r := gin.Default()
v1 := r.Group("/api/v1")
{
v1.GET("/ping", controller.PingHandler)
v1.POST("/login", controller.LoginHandler)
r.GET("/swagger/*any", ginSwagger.WrapHandler(swaggerFiles.Handler))
}
r.Run()
}
|
这将创建一个路由,通过访问 “/swagger/index.html” 来打开 Swagger UI,从而查看生成的 API 文档。
-
启动 Gin 服务器:
最后,通过调用 setupRouter()
函数来创建路由,并启动 Gin 服务器:
1
2
3
4
|
func main() {
r := setupRouter()
r.Run(":8080")
}
|
现在,你的 Gin 服务器应该在端口 8080 上运行,并且可以通过访问 “/swagger/index.html” 来查看生成的 API 文档。
这就是在 Go 语言中使用 Gin 和 Swagger 来生成 API 文档的基本步骤。通过合理使用注释和 swag
工具,你可以自动生成清晰的 API 文档,以便开发人员和团队成员查看和理解你的 API。
gin-swagger
同时还提供了DisablingWrapHandler
函数,方便我们通过设置某些环境变量来禁用Swagger。例如:
1
|
r.GET("/swagger/*any", gs.DisablingWrapHandler(swaggerFiles.Handler, "NAME_OF_ENV_VARIABLE"))
|
此时如果将环境变量NAME_OF_ENV_VARIABLE
设置为任意值,则/swagger/*any
将返回404响应,就像未指定路由时一样。
官方文档
GitHub:https://github.com/swaggo/gin-swagger
说明文档:https://github.com/swaggo/swag/blob/master/README_zh-CN.md
用法示例:https://github.com/swaggo/swag/blob/master/example/celler/main.go
限流策略
限流又称为流量控制(流控),通常是指限制到达系统的并发请求数。
我们生活中也会经常遇到限流的场景,比如:某景区限制每日进入景区的游客数量为8万人;沙河地铁站早高峰通过站外排队逐一放行的方式限制同一时间进入车站的旅客数量等。
限流虽然会影响部分用户的使用体验,但是却能在一定程度上报障系统的稳定性,不至于崩溃(大家都没了用户体验)。
而互联网上类似需要限流的业务场景也有很多,比如电商系统的秒杀、微博上突发热点新闻、双十一购物节、12306抢票等等。这些场景下的用户请求量通常会激增,远远超过平时正常的请求量,此时如果不加任何限制很容易就会将后端服务打垮,影响服务的稳定性。
此外,一些厂商公开的API服务通常也会限制用户的请求次数,比如百度地图开放平台等会根据用户的付费情况来限制用户的请求数等。
常用的限流策略
漏桶
漏桶法限流很好理解,假设我们有一个水桶按固定的速率向下方滴落一滴水,无论有多少请求,请求的速率有多大,都按照固定的速率流出,对应到系统中就是按照固定的速率处理请求。
漏桶法的关键点在于漏桶始终按照固定的速率运行,但是它并不能很好的处理有大量突发请求的场景,毕竟在某些场景下我们可能需要提高系统的处理效率,而不是一味的按照固定速率处理请求。
关于漏桶的实现,uber团队有一个开源的github.com/uber-go/ratelimit库。 这个库的使用方法比较简单,Take()
方法会返回漏桶下一次滴水的时间。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
import (
"fmt"
"time"
"go.uber.org/ratelimit"
)
func main() {
rl := ratelimit.New(100) // per second
prev := time.Now()
for i := 0; i < 10; i++ {
now := rl.Take()
fmt.Println(i, now.Sub(prev))
prev = now
}
// Output:
// 0 0
// 1 10ms
// 2 10ms
// 3 10ms
// 4 10ms
// 5 10ms
// 6 10ms
// 7 10ms
// 8 10ms
// 9 10ms
}
|
它的源码实现也比较简单,这里大致说一下关键的地方,有兴趣的同学可以自己去看一下完整的源码。
限制器是一个接口类型,其要求实现一个Take()
方法:
1
2
3
4
|
type Limiter interface {
// Take方法应该阻塞已确保满足 RPS
Take() time.Time
}
|
实现限制器接口的结构体定义如下,这里可以重点留意下maxSlack
字段,它在后面的Take()
方法中的处理。
1
2
3
4
5
6
7
8
|
type limiter struct {
sync.Mutex // 锁
last time.Time // 上一次的时刻
sleepFor time.Duration // 需要等待的时间
perRequest time.Duration // 每次的时间间隔
maxSlack time.Duration // 最大的富余量
clock Clock // 时钟
}
|
limiter
结构体实现Limiter
接口的Take()
方法内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
|
// Take 会阻塞确保两次请求之间的时间走完
// Take 调用平均数为 time.Second/rate.
func (t *limiter) Take() time.Time {
t.Lock()
defer t.Unlock()
now := t.clock.Now()
// 如果是第一次请求就直接放行
if t.last.IsZero() {
t.last = now
return t.last
}
// sleepFor 根据 perRequest 和上一次请求的时刻计算应该sleep的时间
// 由于每次请求间隔的时间可能会超过perRequest, 所以这个数字可能为负数,并在多个请求之间累加
t.sleepFor += t.perRequest - now.Sub(t.last)
// 我们不应该让sleepFor负的太多,因为这意味着一个服务在短时间内慢了很多随后会得到更高的RPS。
if t.sleepFor < t.maxSlack {
t.sleepFor = t.maxSlack
}
// 如果 sleepFor 是正值那么就 sleep
if t.sleepFor > 0 {
t.clock.Sleep(t.sleepFor)
t.last = now.Add(t.sleepFor)
t.sleepFor = 0
} else {
t.last = now
}
return t.last
}
|
上面的代码根据记录每次请求的间隔时间和上一次请求的时刻来计算当次请求需要阻塞的时间——sleepFor
,这里需要留意的是sleepFor
的值可能为负,在经过间隔时间长的两次访问之后会导致随后大量的请求被放行,所以代码中针对这个场景有专门的优化处理。创建限制器的New()
函数中会为maxSlack
设置初始值,也可以通过WithoutSlack
这个Option取消这个默认值。
1
2
3
4
5
6
7
8
9
10
11
12
13
|
func New(rate int, opts ...Option) Limiter {
l := &limiter{
perRequest: time.Second / time.Duration(rate),
maxSlack: -10 * time.Second / time.Duration(rate),
}
for _, opt := range opts {
opt(l)
}
if l.clock == nil {
l.clock = clock.New()
}
return l
}
|
令牌桶
令牌桶其实和漏桶的原理类似,令牌桶按固定的速率往桶里放入令牌,并且只要能从桶里取出令牌就能通过,令牌桶支持突发流量的快速处理。
对于从桶里取不到令牌的场景,我们可以选择等待也可以直接拒绝并返回。
对于令牌桶的Go语言实现,大家可以参照github.com/juju/ratelimit库。这个库支持多种令牌桶模式,并且使用起来也比较简单。
创建令牌桶的方法:
1
2
3
4
5
6
7
|
// 创建指定填充速率和容量大小的令牌桶
func NewBucket(fillInterval time.Duration, capacity int64) *Bucket
// 创建指定填充速率、容量大小和每次填充的令牌数的令牌桶
func NewBucketWithQuantum(fillInterval time.Duration, capacity, quantum int64) *Bucket
// 创建填充速度为指定速率和容量大小的令牌桶
// NewBucketWithRate(0.1, 200) 表示每秒填充20个令牌
func NewBucketWithRate(rate float64, capacity int64) *Bucket
|
取出令牌的方法如下:
1
2
3
4
5
6
7
8
9
10
|
// 取token(非阻塞)
func (tb *Bucket) Take(count int64) time.Duration
func (tb *Bucket) TakeAvailable(count int64) int64
// 最多等maxWait时间取token
func (tb *Bucket) TakeMaxDuration(count int64, maxWait time.Duration) (time.Duration, bool)
// 取token(阻塞)
func (tb *Bucket) Wait(count int64)
func (tb *Bucket) WaitMaxDuration(count int64, maxWait time.Duration) bool
|
虽说是令牌桶,但是我们没有必要真的去生成令牌放到桶里,我们只需要每次来取令牌的时候计算一下,当前是否有足够的令牌就可以了,具体的计算方式可以总结为下面的公式:
1
|
当前令牌数 = 上一次剩余的令牌数 + (本次取令牌的时刻-上一次取令牌的时刻)/放置令牌的时间间隔 * 每次放置的令牌数
|
github.com/juju/ratelimit这个库中关于令牌数计算的源代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
func (tb *Bucket) currentTick(now time.Time) int64 {
return int64(now.Sub(tb.startTime) / tb.fillInterval)
}
func (tb *Bucket) adjustavailableTokens(tick int64) {
if tb.availableTokens >= tb.capacity {
return
}
tb.availableTokens += (tick - tb.latestTick) * tb.quantum
if tb.availableTokens > tb.capacity {
tb.availableTokens = tb.capacity
}
tb.latestTick = tick
return
}
|
获取令牌的TakeAvailable()
函数关键部分的源代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
func (tb *Bucket) takeAvailable(now time.Time, count int64) int64 {
if count <= 0 {
return 0
}
tb.adjustavailableTokens(tb.currentTick(now))
if tb.availableTokens <= 0 {
return 0
}
if count > tb.availableTokens {
count = tb.availableTokens
}
tb.availableTokens -= count
return count
}
|
大家从代码中也可以看到其实令牌桶的实现并没有很复杂。
gin中使用限流中间件
在gin框架构建的项目中,我们可以将限流组件定义成中间件。
这里使用令牌桶作为限流策略,编写一个限流中间件如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
func RateLimitMiddleware(fillInterval time.Duration, cap int64) func(c *gin.Context) {
bucket := ratelimit.NewBucket(fillInterval, cap)
return func(c *gin.Context) {
// 如果取不到令牌就中断本次请求返回 rate limit...
if bucket.TakeAvailable(1) < 1 {
c.String(http.StatusOK, "rate limit...")
c.Abort()
return
}
c.Next()
}
}
|
对于该限流中间件的注册位置,我们可以按照不同的限流策略将其注册到不同的位置,例如:
- 如果要对全站限流就可以注册成全局的中间件。
- 如果是某一组路由需要限流,那么就只需将该限流中间件注册到对应的路由组即可。
Go性能优化
2023.10.04
Go语言项目中的性能优化主要有以下几个方面:
- CPU profile:报告程序的 CPU 使用情况,按照一定频率去采集应用程序在 CPU 和寄存器上面的数据
- Memory Profile(Heap Profile):报告程序的内存使用情况
- Block Profiling:报告 goroutines 不在运行状态的情况,可以用来分析和查找死锁等性能瓶颈
- Goroutine Profiling:报告 goroutines 的使用情况,有哪些 goroutine,它们的调用关系是怎样的
采集性能数据
Go语言内置了获取程序的运行数据的工具,包括以下两个标准库:
runtime/pprof
:采集工具型应用运行数据进行分析
net/http/pprof
:采集服务型应用运行时数据进行分析
pprof开启后,每隔一段时间(10ms)就会收集下当前的堆栈信息,获取各个函数占用的CPU以及内存资源;最后通过对这些采样数据进行分析,形成一个性能分析报告。
注意,我们只应该在性能测试的时候才在代码中引入pprof。
工具型应用
如果你的应用程序是运行一段时间就结束退出类型。那么最好的办法是在应用退出的时候把 profiling 的报告保存到文件中,进行分析。对于这种情况,可以使用runtime/pprof
库。 首先在代码中导入runtime/pprof
工具:
CPU性能分析
开启CPU性能分析:
1
|
pprof.StartCPUProfile(w io.Writer)
|
停止CPU性能分析:
应用执行结束后,就会生成一个文件,保存了我们的 CPU profiling 数据。得到采样数据之后,使用go tool pprof
工具进行CPU性能分析。
内存性能优化
记录程序的堆栈信息
1
|
pprof.WriteHeapProfile(w io.Writer)
|
得到采样数据之后,使用go tool pprof
工具进行内存性能分析。
go tool pprof
默认是使用-inuse_space
进行统计,还可以使用-inuse-objects
查看分配对象的数量。
服务型应用
如果你的应用程序是一直运行的,比如 web 应用,那么可以使用net/http/pprof
库,它能够在提供 HTTP 服务进行分析。
如果使用了默认的http.DefaultServeMux
(通常是代码直接使用 http.ListenAndServe(“0.0.0.0:8000”, nil)),只需要在你的web server端代码中按如下方式导入net/http/pprof
1
|
import _ "net/http/pprof"
|
如果你使用自定义的 Mux,则需要手动注册一些路由规则:
1
2
3
4
5
|
r.HandleFunc("/debug/pprof/", pprof.Index)
r.HandleFunc("/debug/pprof/cmdline", pprof.Cmdline)
r.HandleFunc("/debug/pprof/profile", pprof.Profile)
r.HandleFunc("/debug/pprof/symbol", pprof.Symbol)
r.HandleFunc("/debug/pprof/trace", pprof.Trace)
|
如果你使用的是gin框架,那么推荐使用github.com/gin-contrib/pprof,在代码中通过以下命令注册pprof相关路由。
不管哪种方式,你的 HTTP 服务都会多出/debug/pprof
endpoint,访问它会得到类似下面的内容:
这个路径下还有几个子页面:
- /debug/pprof/profile:访问这个链接会自动进行 CPU profiling,持续 30s,并生成一个文件供下载
- /debug/pprof/heap: Memory Profiling 的路径,访问这个链接会得到一个内存 Profiling 结果的文件
- /debug/pprof/block:block Profiling 的路径
- /debug/pprof/goroutines:运行的 goroutines 列表,以及调用关系
不管是工具型应用还是服务型应用,我们使用相应的pprof库获取数据之后,下一步的都要对这些数据进行分析,我们可以使用go tool pprof
命令行工具。
go tool pprof
最简单的使用方式为:
1
|
go tool pprof [binary] [source]
|
其中:
- binary 是应用的二进制文件,用来解析各种符号;
- source 表示 profile 数据的来源,可以是本地的文件,也可以是 http 地址。
注意事项: 获取的 Profiling 数据是动态的,要想获得有效的数据,请保证应用处于较大的负载(比如正在生成中运行的服务,或者通过其他工具模拟访问压力)。否则如果应用处于空闲状态,得到的结果可能没有任何意义。
具体示例
首先我们来写一段有问题的代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
|
// runtime_pprof/main.go
package main
import (
"flag"
"fmt"
"os"
"runtime/pprof"
"time"
)
// 一段有问题的代码
func logicCode() {
var c chan int
for {
select {
case v := <-c:
fmt.Printf("recv from chan, value:%v\n", v)
default:
}
}
}
func main() {
var isCPUPprof bool
var isMemPprof bool
flag.BoolVar(&isCPUPprof, "cpu", false, "turn cpu pprof on")
flag.BoolVar(&isMemPprof, "mem", false, "turn mem pprof on")
flag.Parse()
if isCPUPprof {
file, err := os.Create("./cpu.pprof")
if err != nil {
fmt.Printf("create cpu pprof failed, err:%v\n", err)
return
}
pprof.StartCPUProfile(file)
defer pprof.StopCPUProfile()
}
for i := 0; i < 8; i++ {
go logicCode()
}
time.Sleep(20 * time.Second)
if isMemPprof {
file, err := os.Create("./mem.pprof")
if err != nil {
fmt.Printf("create mem pprof failed, err:%v\n", err)
return
}
pprof.WriteHeapProfile(file)
file.Close()
}
}
|
通过flag我们可以在命令行控制是否开启CPU和Mem的性能分析。 将上面的代码保存并编译成runtime_pprof
可执行文件,执行时加上-cpu
命令行参数如下:
等待30秒后会在当前目录下生成一个cpu.pprof
文件。
命令行交互界面
我们使用go工具链里的pprof
来分析一下。
1
|
go tool pprof cpu.pprof
|
执行上面的代码会进入交互界面如下:
1
2
3
4
5
6
|
runtime_pprof $ go tool pprof cpu.pprof
Type: cpu
Time: Jun 28, 2019 at 11:28am (CST)
Duration: 20.13s, Total samples = 1.91mins (568.60%)
Entering interactive mode (type "help" for commands, "o" for options)
(pprof)
|
我们可以在交互界面输入top3
来查看程序中占用CPU前3位的函数:
1
2
3
4
5
6
7
8
|
(pprof) top3
Showing nodes accounting for 100.37s, 87.68% of 114.47s total
Dropped 17 nodes (cum <= 0.57s)
Showing top 3 nodes out of 4
flat flat% sum% cum cum%
42.52s 37.15% 37.15% 91.73s 80.13% runtime.selectnbrecv
35.21s 30.76% 67.90% 39.49s 34.50% runtime.chanrecv
22.64s 19.78% 87.68% 114.37s 99.91% main.logicCode
|
其中:
- flat:当前函数占用CPU的耗时
- flat::当前函数占用CPU的耗时百分比
- sun%:函数占用CPU的耗时累计百分比
- cum:当前函数加上调用当前函数的函数占用CPU的总耗时
- cum%:当前函数加上调用当前函数的函数占用CPU的总耗时百分比
- 最后一列:函数名称
在大多数的情况下,我们可以通过分析这五列得出一个应用程序的运行情况,并对程序进行优化。
我们还可以使用list 函数名
命令查看具体的函数分析,例如执行list logicCode
查看我们编写的函数的详细分析。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
(pprof) list logicCode
Total: 1.91mins
ROUTINE ================ main.logicCode in .../runtime_pprof/main.go
22.64s 1.91mins (flat, cum) 99.91% of Total
. . 12:func logicCode() {
. . 13: var c chan int
. . 14: for {
. . 15: select {
. . 16: case v := <-c:
22.64s 1.91mins 17: fmt.Printf("recv from chan, value:%v\n", v)
. . 18: default:
. . 19:
. . 20: }
. . 21: }
. . 22:}
|
通过分析发现大部分CPU资源被17行占用,我们分析出select语句中的default没有内容会导致上面的case v:=<-c:
一直执行。我们在default分支添加一行time.Sleep(time.Second)
即可。
图形化
或者可以直接输入web,通过svg图的方式查看程序中详细的CPU占用情况。 想要查看图形化的界面首先需要安装graphviz图形化工具。
Mac:
Windows: 下载graphviz 将graphviz
安装目录下的bin文件夹添加到Path环境变量中。 在终端输入dot -version
查看是否安装成功。
关于图形的说明: 每个框代表一个函数,理论上框的越大表示占用的CPU资源越多。 方框之间的线条代表函数之间的调用关系。 线条上的数字表示函数调用的次数。 方框中的第一行数字表示当前函数占用CPU的百分比,第二行数字表示当前函数累计占用CPU的百分比。
除了分析CPU性能数据,pprof也支持分析内存性能数据。比如,使用下面的命令分析http服务的heap性能数据,查看当前程序的内存占用以及热点内存对象使用的情况。
1
2
3
4
5
6
|
# 查看内存占用数据
go tool pprof -inuse_space http://127.0.0.1:8080/debug/pprof/heap
go tool pprof -inuse_objects http://127.0.0.1:8080/debug/pprof/heap
# 查看临时内存分配数据
go tool pprof -alloc_space http://127.0.0.1:8080/debug/pprof/heap
go tool pprof -alloc_objects http://127.0.0.1:8080/debug/pprof/heap
|
go-torch和火焰图
火焰图(Flame Graph)是 Bredan Gregg 创建的一种性能分析图表,因为它的样子近似 🔥而得名。上面的 profiling 结果也转换成火焰图,如果对火焰图比较了解可以手动来操作,不过这里我们要介绍一个工具:go-torch
。这是 uber 开源的一个工具,可以直接读取 golang profiling 数据,并生成一个火焰图的 svg 文件。
安装go-torch
1
|
go get -v github.com/uber/go-torch
|
火焰图 svg 文件可以通过浏览器打开,它对于调用图的最优点是它是动态的:可以通过点击每个方块来 zoom in 分析它上面的内容。
火焰图的调用顺序从下到上,每个方块代表一个函数,它上面一层表示这个函数会调用哪些函数,方块的大小代表了占用 CPU 使用的长短。火焰图的配色并没有特殊的意义,默认的红、黄配色是为了更像火焰而已。
go-torch 工具的使用非常简单,没有任何参数的话,它会尝试从http://localhost:8080/debug/pprof/profile
获取 profiling 数据。它有三个常用的参数可以调整:
- -u –url:要访问的 URL,这里只是主机和端口部分
- -s –suffix:pprof profile 的路径,默认为 /debug/pprof/profile
- –seconds:要执行 profiling 的时间长度,默认为 30s
安装 FlameGraph
要生成火焰图,需要事先安装 FlameGraph工具,这个工具的安装很简单(需要perl环境支持),只要把对应的可执行文件加入到环境变量中即可。
- 下载安装perl:https://www.perl.org/get.html
- 下载FlameGraph:
git clone https://github.com/brendangregg/FlameGraph.git
- 将
FlameGraph
目录加入到操作系统的环境变量中。
- Windows平台的同学,需要把
go-torch/render/flamegraph.go
文件中的GenerateFlameGraph
按如下方式修改,然后在go-torch
目录下执行go install
即可。
1
2
3
4
5
6
7
8
9
10
|
// GenerateFlameGraph runs the flamegraph script to generate a flame graph SVG. func GenerateFlameGraph(graphInput []byte, args ...string) ([]byte, error) {
flameGraph := findInPath(flameGraphScripts)
if flameGraph == "" {
return nil, errNoPerlScript
}
if runtime.GOOS == "windows" {
return runScript("perl", append([]string{flameGraph}, args...), graphInput)
}
return runScript(flameGraph, args, graphInput)
}
|
压测工具wrk
推荐使用https://github.com/wg/wrk 或 https://github.com/adjust/go-wrk
使用go-torch
使用wrk进行压测:
1
|
go-wrk -n 50000 http://127.0.0.1:8080/book/list
|
在上面压测进行的同时,打开另一个终端执行:
1
|
go-torch -u http://127.0.0.1:8080 -t 30
|
30秒之后终端会初夏如下提示:Writing svg to torch.svg
然后我们使用浏览器打开torch.svg
就能看到如下火焰图了。
火焰图的y轴表示cpu调用方法的先后,x轴表示在每个采样调用时间内,方法所占的时间百分比,越宽代表占据cpu时间越多。通过火焰图我们就可以更清楚的找出耗时长的函数调用,然后不断的修正代码,重新采样,不断优化。
此外还可以借助火焰图分析内存性能数据:
1
2
3
4
|
go-torch -inuse_space http://127.0.0.1:8080/debug/pprof/heap
go-torch -inuse_objects http://127.0.0.1:8080/debug/pprof/heap
go-torch -alloc_space http://127.0.0.1:8080/debug/pprof/heap
go-torch -alloc_objects http://127.0.0.1:8080/debug/pprof/heap
|
pprof与性能测试结合
go test
命令有两个参数和 pprof 相关,它们分别指定生成的 CPU 和 Memory profiling 保存的文件:
- -cpuprofile:cpu profiling 数据要保存的文件地址
- -memprofile:memory profiling 数据要报文的文件地址
我们还可以选择将pprof与性能测试相结合,比如:
比如下面执行测试的同时,也会执行 CPU profiling,并把结果保存在 cpu.prof 文件中:
1
|
go test -bench . -cpuprofile=cpu.prof
|
比如下面执行测试的同时,也会执行 Mem profiling,并把结果保存在 cpu.prof 文件中:
1
|
go test -bench . -memprofile=./mem.prof
|
需要注意的是,Profiling 一般和性能测试一起使用,这个原因在前文也提到过,只有应用在负载高的情况下 Profiling 才有意义。
使用Docker部署
本文介绍了如何使用Docker
以及Docker Compose
部署我们的 Go Web 程序。
为什么需要Docker?
使用docker的主要目标是容器化。也就是为你的应用程序提供一致的环境,而不依赖于它运行的主机。
想象一下你是否也会遇到下面这个场景,你在本地开发了你的应用程序,它很可能有很多的依赖环境或包,甚至对依赖的具体版本都有严格的要求,当开发过程完成后,你希望将应用程序部署到web服务器。这个时候你必须确保所有依赖项都安装正确并且版本也完全相同,否则应用程序可能会崩溃并无法运行。如果你想在另一个web服务器上也部署该应用程序,那么你必须从头开始重复这个过程。这种场景就是Docker发挥作用的地方。
对于运行我们应用程序的主机,不管是笔记本电脑还是web服务器,我们唯一需要做的就是运行一个docker容器平台。从以后,你就不需要担心你使用的是MacOS,Ubuntu,Arch还是其他。你只需定义一次应用,即可随时随地运行。
Docker部署示例
准备代码
这里我先用一段使用net/http
库编写的简单代码为例讲解如何使用Docker进行部署,后面再讲解稍微复杂一点的项目部署案例。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
package main
import (
"fmt"
"net/http"
)
func main() {
http.HandleFunc("/", hello)
server := &http.Server{
Addr: ":8888",
}
fmt.Println("server startup...")
if err := server.ListenAndServe(); err != nil {
fmt.Printf("server startup failed, err:%v\n", err)
}
}
func hello(w http.ResponseWriter, _ *http.Request) {
w.Write([]byte("hello liwenzhou.com!"))
}
|
上面的代码通过8888
端口对外提供服务,返回一个字符串响应:hello liwenzhou.com!
。
创建Docker镜像
镜像(image)包含运行应用程序所需的所有东西——代码或二进制文件、运行时、依赖项以及所需的任何其他文件系统对象。
或者简单地说,镜像(image)是定义应用程序及其运行所需的一切。
编写Dockerfile
要创建Docker镜像(image)必须在配置文件中指定步骤。这个文件默认我们通常称之为Dockerfile
。(虽然这个文件名可以随意命名它,但最好还是使用默认的Dockerfile
。)
现在我们开始编写Dockerfile
,具体内容如下:
注意:某些步骤不是唯一的,可以根据自己的需要修改诸如文件路径、最终可执行文件的名称等
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
FROM golang:alpine
# 为我们的镜像设置必要的环境变量
ENV GO111MODULE=on \
GOPROXY=https://goproxy.cn,direct \
CGO_ENABLED=0 \
GOOS=linux \
GOARCH=amd64
# 移动到工作目录:/build
WORKDIR /build
# 将代码复制到容器中
COPY . .
# 将我们的代码编译成二进制可执行文件app
RUN go build -o app .
# 移动到用于存放生成的二进制文件的 /dist 目录
WORKDIR /dist
# 将二进制文件从 /build 目录复制到这里
RUN cp /build/app .
# 声明服务端口
EXPOSE 8888
# 启动容器时运行的命令
CMD ["/dist/app"]
|
Dockerfile解析
From
我们正在使用基础镜像golang:alpine
来创建我们的镜像。这和我们要创建的镜像一样是一个我们能够访问的存储在Docker仓库的基础镜像。这个镜像运行的是alpine Linux发行版,该发行版的大小很小并且内置了Go,非常适合我们的用例。有大量公开可用的Docker镜像,请查看https://hub.docker.com/_/golang
Env
用来设置我们编译阶段需要用的环境变量。
WORKDIR,COPY,RUN
这几个命令做的事都写在注释里了,很好理解。
EXPORT,CMD
最后,我们声明服务端口,因为我们的应用程序监听的是这个端口并通过这个端口对外提供服务。并且我们还定义了在我们运行镜像的时候默认执行的命令CMD ["/dist/app"]
。
构建镜像
在项目目录下,执行下面的命令创建镜像,并指定镜像名称为goweb_app
:
1
|
docker build . -t goweb_app
|
等待构建过程结束,输出如下提示:
1
2
3
|
...
Successfully built 90d9283286b7
Successfully tagged goweb_app:latest
|
现在我们已经准备好了镜像,但是目前它什么也没做。我们接下来要做的是运行我们的镜像,以便它能够处理我们的请求。运行中的镜像称为容器。
执行下面的命令来运行镜像:
1
|
docker run -p 8888:8888 goweb_app
|
标志位-p
用来定义端口绑定。由于容器中的应用程序在端口8888上运行,我们将其绑定到主机端口也是8888。如果要绑定到另一个端口,则可以使用-p $HOST_PORT:8888
。例如-p 5000:8888
。
现在就可以测试下我们的web程序是否工作正常,打开浏览器输入http://127.0.0.1:8888
就能看到我们事先定义的响应内容如下:
分阶段构建示例
我们的Go程序编译之后会得到一个可执行的二进制文件,其实在最终的镜像中是不需要go编译器的,也就是说我们只需要一个运行最终二进制文件的容器即可。
Docker的最佳实践之一是通过仅保留二进制文件来减小镜像大小,为此,我们将使用一种称为多阶段构建的技术,这意味着我们将通过多个步骤构建镜像。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
|
FROM golang:alpine AS builder
# 为我们的镜像设置必要的环境变量
ENV GO111MODULE=on \
GOPROXY=https://goproxy.cn,direct \
CGO_ENABLED=0 \
GOOS=linux \
GOARCH=amd64
# 移动到工作目录:/build
WORKDIR /build
# 将代码复制到容器中
COPY . .
# 将我们的代码编译成二进制可执行文件 app
RUN go build -o app .
###################
# 接下来创建一个小镜像
###################
FROM scratch
# 从builder镜像中把/dist/app 拷贝到当前目录
COPY --from=builder /build/app /
# 需要运行的命令
ENTRYPOINT ["/app"]
|
使用这种技术,我们剥离了使用golang:alpine
作为编译镜像来编译得到二进制可执行文件的过程,并基于scratch
生成一个简单的、非常小的新镜像。我们将二进制文件从命名为builder
的第一个镜像中复制到新创建的scratch
镜像中。有关scratch镜像的更多信息,请查看https://hub.docker.com/_/scratch
附带其他文件的部署示例
这里以我之前《Go Web视频教程》中的小清单项目为例,项目的Github仓库地址为:https://github.com/Q1mi/bubble。
如果项目中带有静态文件或配置文件,需要将其拷贝到最终的镜像文件中。
我们的bubble项目用到了静态文件和配置文件,具体目录结构如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
|
bubble
├── README.md
├── bubble
├── conf
│ └── config.ini
├── controller
│ └── controller.go
├── dao
│ └── mysql.go
├── example.png
├── go.mod
├── go.sum
├── main.go
├── models
│ └── todo.go
├── routers
│ └── routers.go
├── setting
│ └── setting.go
├── static
│ ├── css
│ │ ├── app.8eeeaf31.css
│ │ └── chunk-vendors.57db8905.css
│ ├── fonts
│ │ ├── element-icons.535877f5.woff
│ │ └── element-icons.732389de.ttf
│ └── js
│ ├── app.007f9690.js
│ └── chunk-vendors.ddcb6f91.js
└── templates
├── favicon.ico
└── index.html
|
我们需要将templates
、static
、conf
三个文件夹中的内容拷贝到最终的镜像文件中。更新后的Dockerfile
如下
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
|
FROM golang:alpine AS builder
# 为我们的镜像设置必要的环境变量
ENV GO111MODULE=on \
GOPROXY=https://goproxy.cn,direct \
CGO_ENABLED=0 \
GOOS=linux \
GOARCH=amd64
# 移动到工作目录:/build
WORKDIR /build
# 将代码复制到容器中
COPY . .
# 下载依赖信息
RUN go mod download
# 将我们的代码编译成二进制可执行文件 bubble
RUN go build -o bubble .
###################
# 接下来创建一个小镜像
###################
FROM scratch
# 从builder镜像中把静态文件拷贝到当前目录
COPY ./templates /templates
COPY ./static /static
# 从builder镜像中把配置文件拷贝到当前目录
COPY ./conf /conf
# 从builder镜像中把/dist/app 拷贝到当前目录
COPY --from=builder /build/bubble /
# 需要运行的命令
ENTRYPOINT ["/bubble", "conf/config.ini"]
|
简单来说就是多了几步COPY的步骤,大家看一下Dockerfile
中的注释即可。
Tips: 这里把COPY静态文件的步骤放在上层,把COPY二进制可执行文件放在下层,争取多使用缓存。
关联其他容器
又因为我们的项目中使用了MySQL,我们可以选择使用如下命令启动一个MySQL容器,它的别名为mysql8019
;root用户的密码为root1234
;挂载容器中的/var/lib/mysql
到本地的/Users/q1mi/docker/mysql
目录;内部服务端口为3306,映射到外部的13306端口。
1
|
docker run --name mysql8019 -p 13306:3306 -e MYSQL_ROOT_PASSWORD=root1234 -v /Users/q1mi/docker/mysql:/var/lib/mysql -d mysql:8.0.19
|
这里需要修改一下我们程序中配置的MySQL的host地址为容器别名,使它们在内部通过别名(此处为mysql8019)联通。
1
2
3
4
5
6
|
[mysql]
user = root
password = root1234
host = mysql8019
port = 3306
db = bubble
|
修改后记得重新构建bubble_app
镜像:
1
|
docker build . -t bubble_app
|
我们这里运行bubble_app
容器的时候需要使用--link
的方式与上面的mysql8019
容器关联起来,具体命令如下:
1
|
docker run --link=mysql8019:mysql8019 -p 8888:8888 bubble_app
|
Docker Compose模式
除了像上面一样使用--link
的方式来关联两个容器之外,我们还可以使用Docker Compose
来定义和运行多个容器。
Compose
是用于定义和运行多容器 Docker 应用程序的工具。通过 Compose,你可以使用 YML 文件来配置应用程序需要的所有服务。然后,使用一个命令,就可以从 YML 文件配置中创建并启动所有服务。
使用Compose基本上是一个三步过程:
- 使用
Dockerfile
定义你的应用环境以便可以在任何地方复制。
- 定义组成应用程序的服务,
docker-compose.yml
以便它们可以在隔离的环境中一起运行。
- 执行
docker-compose up
命令来启动并运行整个应用程序。
我们的项目需要两个容器分别运行mysql
和bubble_app
,我们编写的docker-compose.yml
文件内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
# yaml 配置
version: "3.7"
services:
mysql8019:
image: "mysql:8.0.19"
ports:
- "33061:3306"
command: "--default-authentication-plugin=mysql_native_password --init-file /data/application/init.sql"
environment:
MYSQL_ROOT_PASSWORD: "root1234"
MYSQL_DATABASE: "bubble"
MYSQL_PASSWORD: "root1234"
volumes:
- ./init.sql:/data/application/init.sql
bubble_app:
build: .
command: sh -c "./wait-for.sh mysql8019:3306 -- ./bubble ./conf/config.ini"
depends_on:
- mysql8019
ports:
- "8888:8888"
|
这个 Compose 文件定义了两个服务:bubble_app
和 mysql8019
。其中:
bubble_app
使用当前目录下的Dockerfile
文件构建镜像,并通过depends_on
指定依赖mysql8019
服务,声明服务端口8888并绑定对外8888端口。
mysql8019
mysql8019 服务使用 Docker Hub 的公共 mysql:8.0.19 镜像,内部端口3306,外部端口33061。
注意:
这里有一个问题需要注意,我们的bubble_app
容器需要等待mysql8019
容器正常启动之后再尝试启动,因为我们的web程序在启动的时候会初始化MySQL连接。这里共有两个地方要更改,第一个就是我们Dockerfile
中要把最后一句注释掉:
1
2
3
4
|
# Dockerfile
...
# 需要运行的命令(注释掉这一句,因为需要等MySQL启动之后再启动我们的Web程序)
# ENTRYPOINT ["/bubble", "conf/config.ini"]
|
第二个地方是在bubble_app
下面添加如下命令,使用提前编写的wait-for.sh
脚本检测mysql8019:3306
正常后再执行后续启动Web应用程序的命令:
1
|
command: sh -c "./wait-for.sh mysql8019:3306 -- ./bubble ./conf/config.ini"
|
当然,因为我们现在要在bubble_app
镜像中执行sh命令,所以不能在使用scratch
镜像构建了,这里改为使用debian:stretch-slim
,同时还要安装wait-for.sh
脚本用到的netcat
,最后不要忘了把wait-for.sh
脚本文件COPY到最终的镜像中,并赋予可执行权限哦。更新后的Dockerfile
内容如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
|
FROM golang:alpine AS builder
# 为我们的镜像设置必要的环境变量
ENV GO111MODULE=on \
GOPROXY=https://goproxy.cn,direct \
CGO_ENABLED=0 \
GOOS=linux \
GOARCH=amd64
# 移动到工作目录:/build
WORKDIR /build
# 将代码复制到容器中
COPY . .
# 下载依赖信息
RUN go mod download
# 将我们的代码编译成二进制可执行文件 bubble
RUN go build -o bubble .
###################
# 接下来创建一个小镜像
###################
FROM debian:stretch-slim
# 从builder镜像中把脚本拷贝到当前目录
COPY ./wait-for.sh /
# 从builder镜像中把静态文件拷贝到当前目录
COPY ./templates /templates
COPY ./static /static
# 从builder镜像中把配置文件拷贝到当前目录
COPY ./conf /conf
# 从builder镜像中把/dist/app 拷贝到当前目录
COPY --from=builder /build/bubble /
RUN set -eux; \
apt-get update; \
apt-get install -y \
--no-install-recommends \
netcat; \
chmod 755 wait-for.sh
# 需要运行的命令
# ENTRYPOINT ["/bubble", "conf/config.ini"]
|
所有的条件都准备就绪后,就可以执行下面的命令跑起来了:
完整版代码示例,请查看我的github仓库:https://github.com/Q1mi/deploy_bubble_using_docker。
总结
使用Docker容器能够极大简化我们在配置依赖环境方面的操作,但同时也对我们的技术储备提了更高的要求。对于Docker不管你是熟悉抑或是不熟悉,技术发展的车轮都滚滚向前。
参考链接:
https://levelup.gitconnected.com/complete-guide-to-create-docker-container-for-your-golang-application-80f3fb59a15e
部署项目的N种方法
本文以部署 Go Web 程序为例,介绍了在 CentOS7 服务器上部署 Go 语言程序的若干方法。
1.独立部署
Go 语言支持跨平台交叉编译,也就是说我们可以在 Windows 或 Mac 平台下编写代码,并且将代码编译成能够在 Linux amd64 服务器上运行的程序。
对于简单的项目,通常我们只需要将编译后的二进制文件拷贝到服务器上,然后设置为后台守护进程运行即可。
编译
编译可以通过以下命令或编写 makefile 来操作。
1
|
CGO_ENABLED=0 GOOS=linux GOARCH=amd64 go build -o ./bin/bluebell
|
下面假设我们将本地编译好的 bluebell 二进制文件、配置文件和静态文件等上传到服务器的/data/app/bluebell
目录下。
补充一点,如果嫌弃编译后的二进制文件太大,可以在编译的时候加上-ldflags "-s -w"
参数去掉符号表和调试信息,一般能减小20%的大小。
1
|
CGO_ENABLED=0 GOOS=linux GOARCH=amd64 go build -ldflags "-s -w" -o ./bin/bluebell
|
如果还是嫌大的话可以继续使用 upx 工具对二进制可执行文件进行压缩。
我们编译好 bluebell 项目后,相关必要文件的目录结构如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
├── bin
│ └── bluebell
├── conf
│ └── config.yaml
├── static
│ ├── css
│ │ └── app.0afe9dae.css
│ ├── favicon.ico
│ ├── img
│ │ ├── avatar.7b0a9835.png
│ │ ├── iconfont.cdbe38a0.svg
│ │ ├── logo.da56125f.png
│ │ └── search.8e85063d.png
│ └── js
│ ├── app.9f3efa6d.js
│ ├── app.9f3efa6d.js.map
│ ├── chunk-vendors.57f9e9d6.js
│ └── chunk-vendors.57f9e9d6.js.map
└── templates
└── index.html
|
nohup
nohup 用于在系统后台不挂断地运行命令,不挂断指的是退出执行命令的终端也不会影响程序的运行。
我们可以使用 nohup 命令来运行应用程序,使其作为后台守护进程运行。由于在主流的 Linux 发行版中都会默认安装 nohup 命令工具,我们可以直接输入以下命令来启动我们的项目:
1
|
sudo nohup ./bin/bluebell conf/config.yaml > nohup_bluebell.log 2>&1 &
|
其中:
./bluebell conf/config.yaml
是我们应用程序的启动命令
nohup ... &
表示在后台不挂断的执行上述应用程序的启动命令
> nohup_bluebell.log
表示将命令的标准输出重定向到 nohup_bluebell.log 文件
2>&1
表示将标准错误输出也重定向到标准输出中,结合上一条就是把执行命令的输出都定向到 nohup_bluebell.log 文件
上面的命令执行后会返回进程 id
当然我们也可以通过以下命令查看 bluebell 相关活动进程:
输出:
1
2
|
root 6338 4048 0 08:43 pts/0 00:00:00 ./bin/bluebell conf/config.yaml
root 6376 4048 0 08:43 pts/0 00:00:00 grep --color=auto bluebell
|
此时就可以打开浏览器输入http://服务器公网ip:端口
查看应用程序的展示效果了。

supervisor
Supervisor 是业界流行的一个通用的进程管理程序,它能将一个普通的命令行进程变为后台守护进程,并监控该进程的运行状态,当该进程异常退出时能将其自动重启。
首先使用 yum 来安装 supervisor:
如果你还没有安装过 EPEL,可以通过运行下面的命令来完成安装,如果已安装则跳过此步骤:
1
|
sudo yum install epel-release
|
安装 supervisor
1
|
sudo yum install supervisor
|
Supervisor 的配置文件为:/etc/supervisord.conf
,Supervisor 所管理的应用的配置文件放在 /etc/supervisord.d/
目录中,这个目录可以在 supervisord.conf 中的include
配置。
1
2
|
[include]
files = /etc/supervisord.d/*.conf
|
启动supervisor服务:
1
|
sudo supervisord -c /etc/supervisord.conf
|
我们在/etc/supervisord.d
目录下创建一个名为bluebell.conf
的配置文件,具体内容如下。
1
2
3
4
5
6
7
8
9
|
[program:bluebell] ;程序名称
user=root ;执行程序的用户
command=/data/app/bluebell/bin/bluebell /data/app/bluebell/conf/config.yaml ;执行的命令
directory=/data/app/bluebell/ ;命令执行的目录
stopsignal=TERM ;重启时发送的信号
autostart=true
autorestart=true ;是否自动重启
stdout_logfile=/var/log/bluebell-stdout.log ;标准输出日志位置
stderr_logfile=/var/log/bluebell-stderr.log ;标准错误日志位置
|
创建好配置文件之后,重启supervisor服务
1
|
sudo supervisorctl update # 更新配置文件并重启相关的程序
|
查看bluebell的运行状态:
1
|
sudo supervisorctl status bluebell
|
输出:
1
|
bluebell RUNNING pid 10918, uptime 0:05:46
|
最后补充一下常用的supervisr管理命令:
1
2
3
4
5
|
supervisorctl status # 查看所有任务状态
supervisorctl shutdown # 关闭所有任务
supervisorctl start 程序名 # 启动任务
supervisorctl stop 程序名 # 关闭任务
supervisorctl reload # 重启supervisor
|
接下来就是打开浏览器查看网站是否正常了。
2.搭配nginx部署
在需要静态文件分离、需要配置多个域名及证书、需要自建负载均衡层等稍复杂的场景下,我们一般需要搭配第三方的web服务器(Nginx、Apache)来部署我们的程序。
正向代理与反向代理
正向代理可以简单理解为客户端的代理,你访问墙外的网站用的那个属于正向代理。

反向代理可以简单理解为服务器的代理,通常说的 Nginx 和 Apache 就属于反向代理。

Nginx 是一个免费的、开源的、高性能的 HTTP 和反向代理服务,主要负责负载一些访问量比较大的站点。Nginx 可以作为一个独立的 Web 服务,也可以用来给 Apache 或是其他的 Web 服务做反向代理。相比于 Apache,Nginx 可以处理更多的并发连接,而且每个连接的内存占用的非常小。
使用yum安装nginx
EPEL 仓库中有 Nginx 的安装包。如果你还没有安装过 EPEL,可以通过运行下面的命令来完成安装:
1
|
sudo yum install epel-release
|
安装nginx
安装完成后,执行下面的命令设置Nginx开机启动:
1
|
sudo systemctl enable nginx
|
启动Nginx
1
|
sudo systemctl start nginx
|
查看Nginx运行状态:
1
|
sudo systemctl status nginx
|
Nginx配置文件
通过上面的方法安装的 nginx,所有相关的配置文件都在 /etc/nginx/
目录中。Nginx 的主配置文件是 /etc/nginx/nginx.conf
。
默认还有一个nginx.conf.default
的配置文件示例,可以作为参考。你可以为多个服务创建不同的配置文件(建议为每个服务(域名)创建一个单独的配置文件),每一个独立的 Nginx 服务配置文件都必须以 .conf
结尾,并存储在 /etc/nginx/conf.d
目录中。
Nginx常用命令
补充几个 Nginx 常用命令。
1
2
3
4
|
nginx -s stop # 停止 Nginx 服务
nginx -s reload # 重新加载配置文件
nginx -s quit # 平滑停止 Nginx 服务
nginx -t # 测试配置文件是否正确
|
Nginx反向代理部署
我们推荐使用 nginx 作为反向代理来部署我们的程序,按下面的内容修改 nginx 的配置文件。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name localhost;
access_log /var/log/bluebell-access.log;
error_log /var/log/bluebell-error.log;
location / {
proxy_pass http://127.0.0.1:8084;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
}
|
执行下面的命令检查配置文件语法:
执行下面的命令重新加载配置文件:
接下来就是打开浏览器查看网站是否正常了。
当然我们还可以使用 nginx 的 upstream 配置来添加多个服务器地址实现负载均衡。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
upstream backend {
server 127.0.0.1:8084;
# 这里需要填真实可用的地址,默认轮询
#server backend1.example.com;
#server backend2.example.com;
}
server {
listen 80;
server_name localhost;
access_log /var/log/bluebell-access.log;
error_log /var/log/bluebell-error.log;
location / {
proxy_pass http://backend/;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
}
|
Nginx分离静态文件请求
上面的配置是简单的使用 nginx 作为反向代理处理所有的请求并转发给我们的 Go 程序处理,其实我们还可以有选择的将静态文件部分的请求直接使用 nginx 处理,而将 API 接口类的动态处理请求转发给后端的 Go 程序来处理。

下面继续修改我们的 nginx 的配置文件来实现上述功能。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
|
worker_processes 1;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
server {
listen 80;
server_name bluebell;
access_log /var/log/bluebell-access.log;
error_log /var/log/bluebell-error.log;
# 静态文件请求
location ~ .*\.(gif|jpg|jpeg|png|js|css|eot|ttf|woff|svg|otf)$ {
access_log off;
expires 1d;
root /data/app/bluebell;
}
# index.html页面请求
# 因为是单页面应用这里使用 try_files 处理一下,避免刷新页面时出现404的问题
location / {
root /data/app/bluebell/templates;
index index.html;
try_files $uri $uri/ /index.html;
}
# API请求
location /api {
proxy_pass http://127.0.0.1:8084;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
}
|
前后端分开部署
前后端的代码没必要都部署到相同的服务器上,也可以分开部署到不同的服务器上,下图是前端服务将 API 请求转发至后端服务的方案。

上面的部署方案中,所有浏览器的请求都是直接访问前端服务,而如果是浏览器直接访问后端API服务的部署模式下,如下图。
此时前端和后端通常不在同一个域下,我们还需要在后端代码中添加跨域支持。

这里使用github.com/gin-contrib/cors库来支持跨域请求。
最简单的允许跨域的配置是使用cors.Default()
,它默认允许所有跨域请求。
1
2
3
4
5
6
7
8
9
|
func main() {
router := gin.Default()
// same as
// config := cors.DefaultConfig()
// config.AllowAllOrigins = true
// router.Use(cors.New(config))
router.Use(cors.Default())
router.Run()
}
|
此外,还可以使用cors.Config
自定义具体的跨域请求相关配置项:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
package main
import (
"time"
"github.com/gin-contrib/cors"
"github.com/gin-gonic/gin"
)
func main() {
router := gin.Default()
// CORS for https://foo.com and https://github.com origins, allowing:
// - PUT and PATCH methods
// - Origin header
// - Credentials share
// - Preflight requests cached for 12 hours
router.Use(cors.New(cors.Config{
AllowOrigins: []string{"https://foo.com"},
AllowMethods: []string{"PUT", "PATCH"},
AllowHeaders: []string{"Origin"},
ExposeHeaders: []string{"Content-Length"},
AllowCredentials: true,
AllowOriginFunc: func(origin string) bool {
return origin == "https://github.com"
},
MaxAge: 12 * time.Hour,
}))
router.Run()
}
|
3.容器部署
容器部署方案可参照我之前的博客:使用Docker和Docker Compose部署Go Web应用,这里就不再赘述了。
至此(2023.10.04),教程:七米-Go Web开发进阶实战(gin框架)(共23小时) 就已经全部学完了,历时21天。后面的性能优化和项目部署部分只是简单的过了一遍,把笔记记录了过来,还需要在后面的实战中加以练习。
本教程主要学习的内容:
HTTP通信、Gin框架的使用、RESTful API、Grom、Zap、Viper、雪花算法、Validator、JWT、Swagger、限流策略、性能优化、项目部署等。总体上对Go Web开发的全流程有了大致的了解,但不够深入,需要在后面的学习中对每个方面都进一步深入学习和实践。