精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

測試小姐姐問我 gRPC 怎么用,我直接把這篇文章甩給了她

開發 前端
這篇咱們還是從實戰出發,主要介紹 gRPC 的發布訂閱模式,REST 接口和超時控制。個人感覺,超時控制還是最重要的,在平時的開發過程中需要多多注意。

[[430935]]

上篇文章 gRPC,爆贊 直接爆了,內容主要包括:簡單的 gRPC 服務,流處理模式,驗證器,Token 認證和證書認證。

這篇咱們還是從實戰出發,主要介紹 gRPC 的發布訂閱模式,REST 接口和超時控制。

發布和訂閱模式

發布訂閱是一個常見的設計模式,開源社區中已經存在很多該模式的實現。其中 docker 項目中提供了一個 pubsub 的極簡實現,下面是基于 pubsub 包實現的本地發布訂閱代碼:

  1. package main 
  2.  
  3. import ( 
  4.     "fmt" 
  5.     "strings" 
  6.     "time" 
  7.  
  8.     "github.com/moby/moby/pkg/pubsub" 
  9.  
  10. func main() { 
  11.     p := pubsub.NewPublisher(100*time.Millisecond, 10) 
  12.  
  13.     golang := p.SubscribeTopic(func(v interface{}) bool { 
  14.         if key, ok := v.(string); ok { 
  15.             if strings.HasPrefix(key"golang:") { 
  16.                 return true 
  17.             } 
  18.         } 
  19.         return false 
  20.     }) 
  21.     docker := p.SubscribeTopic(func(v interface{}) bool { 
  22.         if key, ok := v.(string); ok { 
  23.             if strings.HasPrefix(key"docker:") { 
  24.                 return true 
  25.             } 
  26.         } 
  27.         return false 
  28.     }) 
  29.  
  30.     go p.Publish("hi"
  31.     go p.Publish("golang: https://golang.org"
  32.     go p.Publish("docker: https://www.docker.com/"
  33.     time.Sleep(1) 
  34.  
  35.     go func() { 
  36.         fmt.Println("golang topic:", <-golang) 
  37.     }() 
  38.     go func() { 
  39.         fmt.Println("docker topic:", <-docker) 
  40.     }() 
  41.  
  42.     <-make(chan bool) 

這段代碼首先通過 pubsub.NewPublisher 創建了一個對象,然后通過 p.SubscribeTopic 實現訂閱,p.Publish 來發布消息。

執行效果如下:

  1. docker topic: docker: https://www.docker.com/ 
  2. golang topic: golang: https://golang.org 
  3. fatal error: all goroutines are asleep - deadlock! 
  4.  
  5. goroutine 1 [chan receive]: 
  6. main.main() 
  7.     /Users/zhangyongxin/src/go-example/grpc-example/pubsub/server/pubsub.go:43 +0x1e7 
  8. exit status 2 

訂閱消息可以正常打印。

但有一個死鎖報錯,是因為這條語句 <-make(chan bool) 引起的。但是如果沒有這條語句就不能正常打印訂閱消息。

這里就不是很懂了,有沒有大佬知道,歡迎留言,求指導。

接下來就用 gRPC 和 pubsub 包實現發布訂閱模式。

需要實現四個部分:

  1. proto 文件;
  2. 服務端: 用于接收訂閱請求,同時也接收發布請求,并將發布請求轉發給訂閱者;
  3. 訂閱客戶端: 用于從服務端訂閱消息,處理消息;
  4. 發布客戶端: 用于向服務端發送消息。

proto 文件

首先定義 proto 文件:

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. message String { 
  6.     string value = 1; 
  7.  
  8. service PubsubService { 
  9.     rpc Publish (String) returns (String); 
  10.     rpc SubscribeTopic (String) returns (stream String); 
  11.     rpc Subscribe (String) returns (stream String); 

定義三個方法,分別是一個發布 Publish 和兩個訂閱 Subscribe 和 SubscribeTopic。

Subscribe 方法接收全部消息,而 SubscribeTopic 根據特定的 Topic 接收消息。

服務端

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "fmt" 
  6.     "log" 
  7.     "net" 
  8.     "server/proto" 
  9.     "strings" 
  10.     "time" 
  11.  
  12.     "github.com/moby/moby/pkg/pubsub" 
  13.     "google.golang.org/grpc" 
  14.     "google.golang.org/grpc/reflection" 
  15.  
  16. type PubsubService struct { 
  17.     pub *pubsub.Publisher 
  18.  
  19. func (p *PubsubService) Publish(ctx context.Context, arg *proto.String) (*proto.String, error) { 
  20.     p.pub.Publish(arg.GetValue()) 
  21.     return &proto.String{}, nil 
  22.  
  23. func (p *PubsubService) SubscribeTopic(arg *proto.String, stream proto.PubsubService_SubscribeTopicServer) error { 
  24.     ch := p.pub.SubscribeTopic(func(v interface{}) bool { 
  25.         if key, ok := v.(string); ok { 
  26.             if strings.HasPrefix(key, arg.GetValue()) { 
  27.                 return true 
  28.             } 
  29.         } 
  30.         return false 
  31.     }) 
  32.  
  33.     for v := range ch { 
  34.         if err := stream.Send(&proto.String{Value: v.(string)}); nil != err { 
  35.             return err 
  36.         } 
  37.     } 
  38.     return nil 
  39.  
  40. func (p *PubsubService) Subscribe(arg *proto.String, stream proto.PubsubService_SubscribeServer) error { 
  41.     ch := p.pub.Subscribe() 
  42.  
  43.     for v := range ch { 
  44.         if err := stream.Send(&proto.String{Value: v.(string)}); nil != err { 
  45.             return err 
  46.         } 
  47.     } 
  48.     return nil 
  49.  
  50. func NewPubsubService() *PubsubService { 
  51.     return &PubsubService{pub: pubsub.NewPublisher(100*time.Millisecond, 10)} 
  52.  
  53. func main() { 
  54.     lis, err := net.Listen("tcp"":50051"
  55.     if err != nil { 
  56.         log.Fatalf("failed to listen: %v", err) 
  57.     } 
  58.  
  59.     // 簡單調用 
  60.     server := grpc.NewServer() 
  61.     // 注冊 grpcurl 所需的 reflection 服務 
  62.     reflection.Register(server) 
  63.     // 注冊業務服務 
  64.     proto.RegisterPubsubServiceServer(server, NewPubsubService()) 
  65.  
  66.     fmt.Println("grpc server start ..."
  67.     if err := server.Serve(lis); err != nil { 
  68.         log.Fatalf("failed to serve: %v", err) 
  69.     } 

對比之前的發布訂閱程序,其實這里是將 *pubsub.Publisher 作為了 gRPC 的結構體 PubsubService 的一個成員。

然后還是按照 gRPC 的開發流程,實現結構體對應的三個方法。

最后,在注冊服務時,將 NewPubsubService() 服務注入,實現本地發布訂閱功能。

訂閱客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "fmt" 
  7.     "io" 
  8.     "log" 
  9.  
  10.     "google.golang.org/grpc" 
  11.  
  12. func main() { 
  13.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  14.     if err != nil { 
  15.         log.Fatal(err) 
  16.     } 
  17.     defer conn.Close() 
  18.  
  19.     client := proto.NewPubsubServiceClient(conn) 
  20.     stream, err := client.Subscribe( 
  21.         context.Background(), &proto.String{Value: "golang:"}, 
  22.     ) 
  23.     if nil != err { 
  24.         log.Fatal(err) 
  25.     } 
  26.  
  27.     go func() { 
  28.         for { 
  29.             reply, err := stream.Recv() 
  30.             if nil != err { 
  31.                 if io.EOF == err { 
  32.                     break 
  33.                 } 
  34.                 log.Fatal(err) 
  35.             } 
  36.             fmt.Println("sub1: ", reply.GetValue()) 
  37.         } 
  38.     }() 
  39.  
  40.     streamTopic, err := client.SubscribeTopic( 
  41.         context.Background(), &proto.String{Value: "golang:"}, 
  42.     ) 
  43.     if nil != err { 
  44.         log.Fatal(err) 
  45.     } 
  46.  
  47.     go func() { 
  48.         for { 
  49.             reply, err := streamTopic.Recv() 
  50.             if nil != err { 
  51.                 if io.EOF == err { 
  52.                     break 
  53.                 } 
  54.                 log.Fatal(err) 
  55.             } 
  56.             fmt.Println("subTopic: ", reply.GetValue()) 
  57.         } 
  58.     }() 
  59.  
  60.     <-make(chan bool) 

新建一個 NewPubsubServiceClient 對象,然后分別實現 client.Subscribe 和 client.SubscribeTopic 方法,再通過 goroutine 不停接收消息。

發布客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "log" 
  7.  
  8.     "google.golang.org/grpc" 
  9.  
  10. func main() { 
  11.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  12.     if err != nil { 
  13.         log.Fatal(err) 
  14.     } 
  15.     defer conn.Close() 
  16.     client := proto.NewPubsubServiceClient(conn) 
  17.  
  18.     _, err = client.Publish( 
  19.         context.Background(), &proto.String{Value: "golang: hello Go"}, 
  20.     ) 
  21.     if err != nil { 
  22.         log.Fatal(err) 
  23.     } 
  24.  
  25.     _, err = client.Publish( 
  26.         context.Background(), &proto.String{Value: "docker: hello Docker"}, 
  27.     ) 
  28.     if nil != err { 
  29.         log.Fatal(err) 
  30.     } 
  31.  

新建一個 NewPubsubServiceClient 對象,然后通過 client.Publish 方法發布消息。

當代碼全部寫好之后,我們開三個終端來測試一下:

終端1 上啟動服務端:

  1. go run main.go 

終端2 上啟動訂閱客戶端:

  1. go run sub_client.go 

終端3 上執行發布客戶端:

  1. go run pub_client.go 

這樣,在 終端2 上就有對應的輸出了:

  1. subTopic:  golang: hello Go 
  2. sub1:  golang: hello Go 
  3. sub1:  docker: hello Docker 

也可以再多開幾個訂閱終端,那么每一個訂閱終端上都會有相同的內容輸出。

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/pubsub

REST 接口

gRPC 一般用于集群內部通信,如果需要對外提供服務,大部分都是通過 REST 接口的方式。開源項目 grpc-gateway 提供了將 gRPC 服務轉換成 REST 服務的能力,通過這種方式,就可以直接訪問 gRPC API 了。

但我覺得,實際上這么用的應該還是比較少的。如果提供 REST 接口的話,直接寫一個 HTTP 服務會方便很多。

proto 文件

第一步還是創建一個 proto 文件:

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. import "google/api/annotations.proto"
  6.  
  7. message StringMessage { 
  8.   string value = 1; 
  9.  
  10. service RestService { 
  11.     rpc Get(StringMessage) returns (StringMessage) { 
  12.         option (google.api.http) = { 
  13.             get: "/get/{value}" 
  14.         }; 
  15.     } 
  16.     rpc Post(StringMessage) returns (StringMessage) { 
  17.         option (google.api.http) = { 
  18.             post: "/post" 
  19.             body: "*" 
  20.         }; 
  21.     } 

定義一個 REST 服務 RestService,分別實現 GET 和 POST 方法。

安裝插件:

  1. go get -u github.com/grpc-ecosystem/grpc-gateway/protoc-gen-grpc-gateway 

生成對應代碼:

  1. protoc -I/usr/local/include -I. \ 
  2.     -I$GOPATH/pkg/mod \ 
  3.     -I$GOPATH/pkg/mod/github.com/grpc-ecosystem/grpc-gateway@v1.16.0/third_party/googleapis \ 
  4.     --grpc-gateway_out=. --go_out=plugins=grpc:.\ 
  5.     --swagger_out=. \ 
  6.     helloworld.proto 

--grpc-gateway_out 參數可生成對應的 gw 文件,--swagger_out 參數可生成對應的 API 文檔。

在我這里生成的兩個文件如下:

  1. helloworld.pb.gw.go 
  2. helloworld.swagger.json 

REST 服務

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "log" 
  6.     "net/http" 
  7.  
  8.     "rest/proto" 
  9.  
  10.     "github.com/grpc-ecosystem/grpc-gateway/runtime" 
  11.     "google.golang.org/grpc" 
  12.  
  13. func main() { 
  14.     ctx := context.Background() 
  15.     ctx, cancel := context.WithCancel(ctx) 
  16.     defer cancel() 
  17.  
  18.     mux := runtime.NewServeMux() 
  19.  
  20.     err := proto.RegisterRestServiceHandlerFromEndpoint( 
  21.         ctx, mux, "localhost:50051"
  22.         []grpc.DialOption{grpc.WithInsecure()}, 
  23.     ) 
  24.     if err != nil { 
  25.         log.Fatal(err) 
  26.     } 
  27.  
  28.     http.ListenAndServe(":8080", mux) 

這里主要是通過實現 gw 文件中的 RegisterRestServiceHandlerFromEndpoint 方法來連接 gRPC 服務。

gRPC 服務

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "net" 
  6.  
  7.     "rest/proto" 
  8.  
  9.     "google.golang.org/grpc" 
  10.  
  11. type RestServiceImpl struct{} 
  12.  
  13. func (r *RestServiceImpl) Get(ctx context.Context, message *proto.StringMessage) (*proto.StringMessage, error) { 
  14.     return &proto.StringMessage{Value: "Get hi:" + message.Value + "#"}, nil 
  15.  
  16. func (r *RestServiceImpl) Post(ctx context.Context, message *proto.StringMessage) (*proto.StringMessage, error) { 
  17.     return &proto.StringMessage{Value: "Post hi:" + message.Value + "@"}, nil 
  18.  
  19. func main() { 
  20.     grpcServer := grpc.NewServer() 
  21.     proto.RegisterRestServiceServer(grpcServer, new(RestServiceImpl)) 
  22.     lis, _ := net.Listen("tcp"":50051"
  23.     grpcServer.Serve(lis) 

gRPC 服務的實現方式還是和以前一樣。

以上就是全部代碼,現在來測試一下:

啟動三個終端:

終端1 啟動 gRPC 服務:

  1. go run grpc_service.go 

終端2 啟動 REST 服務:

  1. go run rest_service.go 

終端3 來請求 REST 服務:

  1. $ curl localhost:8080/get/gopher 
  2. {"value":"Get hi:gopher"
  3.  
  4. $ curl localhost:8080/post -X POST --data '{"value":"grpc"}' 
  5. {"value":"Post hi:grpc"

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/rest

超時控制

最后一部分介紹一下超時控制,這部分內容是非常重要的。

一般的 WEB 服務 API,或者是 Nginx 都會設置一個超時時間,超過這個時間,如果還沒有數據返回,服務端可能直接返回一個超時錯誤,或者客戶端也可能結束這個連接。

如果沒有這個超時時間,那是相當危險的。所有請求都阻塞在服務端,會消耗大量資源,比如內存。如果資源耗盡的話,甚至可能會導致整個服務崩潰。

那么,在 gRPC 中怎么設置超時時間呢?主要是通過上下文 context.Context 參數,具體來說就是 context.WithDeadline 函數。

proto 文件

創建最簡單的 proto 文件,這個不多說。

  1. syntax = "proto3"
  2.  
  3. package proto; 
  4.  
  5. // The greeting service definition. 
  6. service Greeter { 
  7.     // Sends a greeting 
  8.     rpc SayHello (HelloRequest) returns (HelloReply) {} 
  9.  
  10. // The request message containing the user's name
  11. message HelloRequest { 
  12.     string name = 1; 
  13.  
  14. // The response message containing the greetings 
  15. message HelloReply { 
  16.     string message = 1; 

客戶端

  1. package main 
  2.  
  3. import ( 
  4.     "client/proto" 
  5.     "context" 
  6.     "fmt" 
  7.     "log" 
  8.     "time" 
  9.  
  10.     "google.golang.org/grpc" 
  11.     "google.golang.org/grpc/codes" 
  12.     "google.golang.org/grpc/status" 
  13.  
  14. func main() { 
  15.     // 簡單調用 
  16.     conn, err := grpc.Dial("localhost:50051", grpc.WithInsecure()) 
  17.     defer conn.Close() 
  18.  
  19.     ctx, cancel := context.WithDeadline(context.Background(), time.Now().Add(time.Duration(3*time.Second))) 
  20.     defer cancel() 
  21.  
  22.     client := proto.NewGreeterClient(conn) 
  23.     // 簡單調用 
  24.     reply, err := client.SayHello(ctx, &proto.HelloRequest{Name"zzz"}) 
  25.     if err != nil { 
  26.         statusErr, ok := status.FromError(err) 
  27.         if ok { 
  28.             if statusErr.Code() == codes.DeadlineExceeded { 
  29.                 log.Fatalln("client.SayHello err: deadline"
  30.             } 
  31.         } 
  32.  
  33.         log.Fatalf("client.SayHello err: %v", err) 
  34.     } 
  35.     fmt.Println(reply.Message) 

通過下面的函數設置一個 3s 的超時時間:

  1. ctx, cancel := context.WithDeadline(context.Background(), time.Now().Add(time.Duration(3*time.Second))) 
  2. defer cancel() 

然后在響應錯誤中對超時錯誤進行檢測。

服務端

  1. package main 
  2.  
  3. import ( 
  4.     "context" 
  5.     "fmt" 
  6.     "log" 
  7.     "net" 
  8.     "runtime" 
  9.     "server/proto" 
  10.     "time" 
  11.  
  12.     "google.golang.org/grpc" 
  13.     "google.golang.org/grpc/codes" 
  14.     "google.golang.org/grpc/reflection" 
  15.     "google.golang.org/grpc/status" 
  16.  
  17. type greeter struct { 
  18.  
  19. func (*greeter) SayHello(ctx context.Context, req *proto.HelloRequest) (*proto.HelloReply, error) { 
  20.     data := make(chan *proto.HelloReply, 1) 
  21.     go handle(ctx, req, data) 
  22.     select { 
  23.     case res := <-data: 
  24.         return res, nil 
  25.     case <-ctx.Done(): 
  26.         return nil, status.Errorf(codes.Canceled, "Client cancelled, abandoning."
  27.     } 
  28.  
  29. func handle(ctx context.Context, req *proto.HelloRequest, data chan<- *proto.HelloReply) { 
  30.     select { 
  31.     case <-ctx.Done(): 
  32.         log.Println(ctx.Err()) 
  33.         runtime.Goexit() //超時后退出該Go協程 
  34.     case <-time.After(4 * time.Second): // 模擬耗時操作 
  35.         res := proto.HelloReply{ 
  36.             Message: "hello " + req.Name
  37.         } 
  38.         // //修改數據庫前進行超時判斷 
  39.         // if ctx.Err() == context.Canceled{ 
  40.         //  ... 
  41.         //  //如果已經超時,則退出 
  42.         // } 
  43.         data <- &res 
  44.     } 
  45.  
  46. func main() { 
  47.     lis, err := net.Listen("tcp"":50051"
  48.     if err != nil { 
  49.         log.Fatalf("failed to listen: %v", err) 
  50.     } 
  51.  
  52.     // 簡單調用 
  53.     server := grpc.NewServer() 
  54.     // 注冊 grpcurl 所需的 reflection 服務 
  55.     reflection.Register(server) 
  56.     // 注冊業務服務 
  57.     proto.RegisterGreeterServer(server, &greeter{}) 
  58.  
  59.     fmt.Println("grpc server start ..."
  60.     if err := server.Serve(lis); err != nil { 
  61.         log.Fatalf("failed to serve: %v", err) 
  62.     } 

服務端增加一個 handle 函數,其中 case <-time.After(4 * time.Second) 表示 4s 之后才會執行其對應代碼,用來模擬超時請求。

如果客戶端超時時間超過 4s 的話,就會產生超時報錯。

下面來模擬一下:

服務端:

  1. $ go run main.go 
  2. grpc server start ... 
  3. 2021/10/24 22:57:40 context deadline exceeded 

客戶端:

  1. $ go run main.go 
  2. 2021/10/24 22:57:40 client.SayHello err: deadline 
  3. exit status 1 

源碼地址: https://github.com/yongxinz/go-example/tree/main/grpc-example/deadline

總結

本文主要介紹了 gRPC 的三部分實戰內容,分別是:

  1. 發布訂閱模式
  2. REST 接口
  3. 超時控制

個人感覺,超時控制還是最重要的,在平時的開發過程中需要多多注意。

本文轉載自微信公眾號「AlwaysBeta」

 

責任編輯:姜華 來源: AlwaysBeta
相關推薦

2021-05-19 08:31:15

壓測數據結構與算法工具

2025-06-23 08:20:00

PaimonFluss大數據

2020-11-12 10:37:29

微服務

2021-02-22 13:32:19

MySQLSQL索引

2022-05-23 09:41:27

分庫分表數據庫算法

2020-04-28 09:15:58

HashMapJava數組

2017-11-10 14:12:35

2019-05-30 09:32:49

2021-04-14 14:28:14

Python點攢抖音

2024-02-19 00:00:00

后管系統權限

2019-11-04 15:00:50

MySQL索引B+樹

2019-11-05 14:06:07

MySQLB+索引

2021-03-08 10:25:37

MySQL數據庫索引

2020-04-20 13:11:21

HashMap底層存儲

2021-03-08 12:47:42

MySQL查詢數據

2021-09-30 09:59:23

OSPF網絡協議網絡技術

2020-11-25 08:25:02

二叉樹節點

2019-10-21 10:01:58

Python素描技術

2022-05-27 08:18:00

HashMapHash哈希表

2020-05-26 10:20:56

Python開發工具
點贊
收藏

51CTO技術棧公眾號

大桥未久一区二区三区| 久久久久久久综合狠狠综合| 久久久97精品| 手机在线国产视频| 三级网站视频在在线播放| 奇米四色…亚洲| 欧美日韩国产成人| 日韩一级视频在线观看| 亚洲国产91视频| 国产精品美女久久久久久久久久久| 亚洲影视中文字幕| 4438国产精品一区二区| 99热在线成人| 亚洲精品资源美女情侣酒店| а 天堂 在线| 欧美亚洲大片| 亚洲一区免费视频| 精品国产一区二区三区日日嗨| 国产精品成人久久久| 日本一二区不卡| 日韩三级电影网址| 日韩欧美一区二| 国产午夜精品久久久久免费视| 久久综合色一综合色88| 福利视频久久| 欧美国产成人精品一区二区三区| 欧美日韩精品| 久久综合久中文字幕青草 | 欧美激情综合| 中文精品99久久国产香蕉| 中文字幕视频在线免费观看| 小早川怜子影音先锋在线观看| 一区二区三区四区在线| 亚洲精品在线视频观看| 婷婷伊人综合中文字幕| 视频精品一区二区| 97激碰免费视频| 精国产品一区二区三区a片| 欧美gayvideo| 精品国产伦一区二区三区观看方式 | 黑人巨大精品欧美黑白配亚洲| 欧美一性一乱一交一视频| 国产在线视频二区| 国产一区二区三区四区老人| 欧美xxxx做受欧美.88| 四虎地址8848| 久久久久久久久久久妇女| 在线成人av影院| 97公开免费视频| 日本欧美一区| 日本道精品一区二区三区 | 久久激情五月婷婷| 国产精品美女久久久久av超清| 亚洲 欧美 日韩 在线| 欧美日韩99| 欧美大片网站在线观看| 久草视频免费播放| 91精品二区| 欧美另类极品videosbest最新版本| 麻豆视频在线免费看| 久久久久蜜桃| 欧美黑人一级爽快片淫片高清| 日本视频在线免费| 久久久久久久久久久妇女| 久久综合88中文色鬼| 久久网一区二区| 亚洲天堂男人| 高清欧美性猛交| 亚洲视频免费播放| 午夜亚洲性色福利视频| 国产精品美女久久久久久免费| 亚洲专区在线播放| 国产高清亚洲一区| 精品日韩欧美| jyzzz在线观看视频| 国产精品青草综合久久久久99| 中文字幕不卡每日更新1区2区| av大片在线| 亚洲高清视频的网址| 欧美视频在线播放一区| 黄色18在线观看| 日本福利一区二区| aaaaaaaa毛片| 日韩有码中文字幕在线| 亚洲奶大毛多的老太婆| 香蕉视频黄色在线观看| 不卡一区综合视频| 欧美日韩成人在线播放| 成人免费区一区二区三区| 日韩高清在线一区| 91在线在线观看| 你懂的视频在线| 1024成人网| 日韩av片在线看| 亚洲成人精品综合在线| 亚洲精品成人久久久| 青青草华人在线视频| 狠狠爱综合网| 欧美性一区二区三区| 国产欧美第一页| 久久综合狠狠综合久久激情| 自拍另类欧美| gogo高清在线播放免费| 色综合久久九月婷婷色综合| 97超碰成人在线| 奇米777国产一区国产二区| 中文亚洲视频在线| 久一视频在线观看| 日韩精品电影在线| 成人欧美一区二区三区在线 | 久久亚洲精品成人| 伊人中文字幕在线观看| 国产不卡在线一区| 一区二区三区四区在线视频 | 亚洲国产二区| 91免费视频国产| 高清福利在线观看| 一区二区日韩电影| 国产一区二区视频免费在线观看| 91成人app| 国产亚洲一区二区在线| 精品少妇一二三区| 国产美女精品人人做人人爽| 欧洲av一区| 在线手机中文字幕| 亚洲国产一区自拍| 日本少妇激情舌吻| 国产伦理精品不卡| 伊人久久大香线蕉成人综合网| 美女18一级毛片一品久道久久综合| 精品国一区二区三区| 顶臀精品视频www| 肉肉av福利一精品导航| 国产精品日韩一区二区免费视频| 最爽无遮挡行房视频在线| 在线不卡中文字幕| 成年人视频软件| 久久亚洲美女| 欧美动漫一区二区| 亚洲色图官网| 亚洲精品永久免费精品| 久久精品美女视频| 国产精品综合一区二区| 在线视频精品一区| 只有精品亚洲| 另类色图亚洲色图| 999免费视频| 亚洲精品中文字幕乱码三区| 国产精品视频中文字幕| 欧美亚洲精品在线| 国产精品一区电影| 看黄网站在线观看| 欧美一区国产二区| 麻豆chinese极品少妇| 粉嫩嫩av羞羞动漫久久久| 国产精品无码乱伦| 色婷婷成人网| 色先锋资源久久综合5566| 久久人妻免费视频| 91小视频在线观看| www.99热这里只有精品| 欧美黄色网视频| 日本精品中文字幕| 欧美性孕妇孕交| 在线免费不卡视频| 亚洲性猛交xxxx乱大交| 另类调教123区| 久久国产精品免费观看| 国产欧美自拍一区| 久久国产精品久久久| 六月婷婷中文字幕| 色偷偷成人一区二区三区91| www久久久久久久| 久久超碰97人人做人人爱| 中文字幕一区综合| 久久久亚洲欧洲日产| 国产成人精品视频在线观看| 韩国中文字幕2020精品| 欧美三级蜜桃2在线观看| 国产精品18在线| 成人综合激情网| 成年人网站大全| 一精品久久久| 国产伦理久久久| 电影在线观看一区二区| 欧美成人在线免费视频| 五月激情婷婷网| 欧美日本精品一区二区三区| 国产无码精品一区二区| 久久婷婷国产综合国色天香| 国产精品人人爽人人爽| 亚洲午夜激情在线| 日韩在线国产| 国产厕拍一区| 国产久一一精品| 免费一二一二在线视频| 色婷婷成人综合| 国产高清视频免费| 欧美日韩中文字幕在线| 欧美日韩黄色网| 99精品热视频| 国产亚洲视频一区| 午夜欧美理论片| 日韩欧美第二区在线观看| 小说区图片区亚洲| 欧美一级免费视频| 色女人在线视频| 国产一区二区三区高清在线观看| 朝桐光av在线一区二区三区| 欧美视频专区一二在线观看| 欧美精品99久久久| 国产欧美日韩在线看| 少妇激情一区二区三区视频| 精品一区二区久久久| 成人黄色片免费| 欧美色就是色| 欧美日韩电影一区二区| 极品一区美女高清| 99一区二区| 先锋影音网一区二区| 国产福利视频一区| xxx欧美xxx| 欧美床上激情在线观看| 亚洲黄色a级片| 欧美久久久久久久久| 成人免费一级片| 色综合久久综合网| 你懂的国产在线| 精品国产乱码久久久久久虫虫漫画| 天天干天天操天天拍| 国产亚洲一区二区三区在线观看| 182在线视频| 成人国产电影网| 亚洲最大视频网| 国产精品综合一区二区三区| 一区二区免费av| 蜜桃久久精品一区二区| 黑森林福利视频导航| 国产亚洲精品久久久久婷婷瑜伽| 免费拍拍拍网站| 影音先锋中文字幕一区| 97精品国产97久久久久久粉红| 91久久高清国语自产拍| 性欧美精品一区二区三区在线播放 | 欧美日韩影院| 国产精品免费看久久久无码| 欧美在线国产| 国产资源第一页| 欧美日韩亚洲一区二区三区在线| 青青在线视频免费观看| 伊人久久综合影院| 欧美在线视频一区二区三区| 国产激情综合| 国产欧美日韩亚洲精品| 黑人巨大精品欧美一区二区桃花岛| 91av视频在线播放| 亚洲最新无码中文字幕久久| 国产成人亚洲综合| 国产成人福利夜色影视| 91视频-88av| 日本一区影院| 国产一区国产精品| 亚洲精品aaaaa| 日韩视频专区| 亚洲国产精品日韩专区av有中文| 一区二区三区的久久的视频| 欧美一区久久| 欧美国产视频一区| 亚洲国产一区二区精品专区| 欧美日韩在线视频一区二区三区| 欧美bbbbb| 伦伦影院午夜理论片| 成人精品gif动图一区| 成人精品999| 欧美国产禁国产网站cc| 黄色三级生活片| 伊人婷婷欧美激情| 久久国产视频一区| 欧美精品一二三| 日韩中文字幕免费在线观看| 亚洲欧洲高清在线| 成人福利网站| 欧美国产日韩xxxxx| 香蕉久久aⅴ一区二区三区| 2019中文字幕在线免费观看| 国产成人毛片| 国产一区国产精品| 欧美aaaa视频| 欧美亚洲国产成人| 久久99国内精品| 青青草原播放器| 成人免费视频国产在线观看| 韩国三级hd中文字幕| 一区二区视频免费在线观看| 日韩美一区二区| 欧美日韩一本到| 天天综合在线视频| 亚洲三级av在线| 91社区在线观看播放| 久久久久久久久久久亚洲| 色综合天天色| 久久精品欧美| 欧美激情第8页| 黑森林精品导航| 国产一区二区三区综合| 91网站免费视频| 亚洲国产乱码最新视频 | 成人做爰视频网站| 亚洲图片一区二区| 国产麻豆免费观看| 亚洲精品不卡在线| 欧美6一10sex性hd| 成人性生交xxxxx网站| 国产麻豆一区二区三区精品视频| 免费特级黄色片| 噜噜噜在线观看免费视频日韩 | 国产精品美女一区二区| 国内精品福利视频| 精品88久久久久88久久久| 日p在线观看| 国产精品久久久| 亚洲网址在线观看| 婷婷视频在线播放| 蜜臀av一级做a爰片久久| 亚洲精品无码一区二区| 中文字幕一区二区三区四区不卡| 日韩美一区二区| 亚洲欧美三级在线| 午夜影院在线播放| 国产欧美日韩综合一区在线观看| 久久精品久久久| 中文字幕av不卡在线| 久久精品网站免费观看| 中文字幕精品三级久久久| 欧美精品一区二区三区四区| 伊人在我在线看导航| 国产日韩在线视频| 久久影院一区| 久久国产激情视频| 国产精品不卡一区| 伊人网站在线观看| 国产亚洲精品美女久久久久| 成人小电影网站| 日本一区二区视频| 久久久一二三| www.黄色在线| 欧美在线视频全部完| 色天堂在线视频| 日韩美女视频免费在线观看| 都市激情久久| 精品国产免费av| 国产区在线观看成人精品 | 亚洲高清不卡一区| 羞羞答答国产精品www一本| 成年人网站免费看| 在线一区二区三区四区五区 | 国产一区二区三区精品久久久 | 日韩欧美久久一区| 亚洲性图自拍| 国产一区二区三区奇米久涩| 国产精品jizz在线观看美国| 好男人香蕉影院| 性感美女极品91精品| 四虎精品在线| 欧美成人精品激情在线观看| 亚洲专区**| 黄在线观看网站| 亚洲欧洲一区二区三区| 精品国产九九九| 91高潮在线观看| 色欧美自拍视频| 久久发布国产伦子伦精品| 一区二区在线观看不卡| 亚洲人在线观看视频| 国产精品入口夜色视频大尺度 | 香港三级日本三级a视频| 99在线视频精品| 国产情侣呻吟对白高潮| 欧美成人免费视频| 啪啪国产精品| www.这里只有精品| 亚洲欧美偷拍卡通变态| 手机看片福利永久| 国产精品免费久久久久久| 欧美日韩蜜桃| 中文字幕在线1| 日韩欧美色综合网站| 456亚洲精品成人影院| 9l视频自拍9l视频自拍| 粉嫩高潮美女一区二区三区| 日韩少妇裸体做爰视频| 少妇高潮久久77777| 精品一区二区三区中文字幕在线 | 成人性生交大片免费网站| 亚洲五月六月| 91理论电影在线观看| 一二三区在线播放| 97视频com| 四季av在线一区二区三区| 精品国产人妻一区二区三区|