精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

從0到1部署一套TiDB本地集群

運維 數據庫運維
TiDB 是 PingCAP 公司自主設計、研發的開源分布式關系型數據庫,是一款同時支持在線事務處理與在線分析處理 (Hybrid Transactional and Analytical Processing, HTAP)的融合型分布式數據庫產品,具備水平擴容或者縮容、金融級高可用、實時 HTAP、云原生的分布式數據庫、兼容 MySQL 5.7 協議和 MySQL 生態等重要特性。

 [[374542]]

本文轉載自微信公眾號「 jinjunzhu」,作者 jinjunzhu 。轉載本文請聯系 jinjunzhu公眾號。

TiDB是一款開源的NewSQL數據庫,我們看一下官方的描述:

TiDB 是 PingCAP 公司自主設計、研發的開源分布式關系型數據庫,是一款同時支持在線事務處理與在線分析處理 (Hybrid Transactional and Analytical Processing, HTAP)的融合型分布式數據庫產品,具備水平擴容或者縮容、金融級高可用、實時 HTAP、云原生的分布式數據庫、兼容 MySQL 5.7 協議和 MySQL 生態等重要特性。目標是為用戶提供一站式 OLTP (Online Transactional Processing)、OLAP (Online Analytical Processing)、HTAP 解決方案。TiDB 適合高可用、強一致要求較高、數據規模較大等各種應用場景。

這里面有幾個關鍵點:

  • 分布式關系型數據庫
  • 兼容MySQL5.7
  • 支持HTAP(在線事務處理和在線分析處理)
  • 對金融行業支持很好,支持高可用、強一致和大數據場景

基本概念

這里介紹一下TiDB中的幾個重要概念:

  • PD:Placement Driver,是TiDB的一個總控節點,負責集群的整體調度外,全局ID生成,以及全局時間戳TSO(中心化授時)的生成。也就是說全局時鐘在這個節點實現。
  • TiKV:TiDB 的存儲層,是一個分布式事務型的鍵值數據庫,滿足ACID事務,使用Raft協議保證多副本一致性,還存儲統計數據,
  • TiFlash:HTAP形態的關鍵組件,它是TiKV的列存擴展,在提供了良好的隔離性的同時,也兼顧了強一致性。
  • Monitor:TiDB監控組件

實驗環境

由于我本地資源的限制,我們使用快速部署的方式。

TiDB快速部署的方式有2種:

第一種:使用 TiUP Playground 快速部署本地測試環境

適用場景:利用本地 Mac 或者單機 Linux 環境快速部署 TiDB 集群。可以體驗 TiDB 集群的基本架構,以及 TiDB、TiKV、PD、監控等基礎組件的運行。

第二種:使用TiUP cluster在單機上模擬生產環境部署步驟

希望用單臺Linux服務器,體驗TiDB最小的完整拓撲的集群,并模擬生產的部署步驟。

這里我采用第二種方式。

據官方描述,TiDB在CentOS 7.3做過大量的測試,建議在CentOS 7.3以上部署。

本地環境:VMware虛擬機,操作系統CentOS7.6

開始部署

我們按照官方的步驟來安裝

1.關閉防火墻

  1. systemctl stop firewalld 
  2. service  iptables stop 

2.下載并安裝 TiUP,命令和結果如下

  1. [root@master ~]# curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh 
  2.   % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current 
  3.                                  Dload  Upload   Total   Spent    Left  Speed 
  4. 100 8697k  100 8697k    0     0  4316k      0  0:00:02  0:00:02 --:--:-- 4318k 
  5. WARN: adding root certificate via internet: https://tiup-mirrors.pingcap.com/root.json 
  6. You can revoke this by remove /root/.tiup/bin/7b8e153f2e2d0928.root.json 
  7. Set mirror to https://tiup-mirrors.pingcap.com success 
  8. Detected shell: bash 
  9. Shell profile:  /root/.bash_profile 
  10. /root/.bash_profile has been modified to add tiup to PATH 
  11. open a new terminal or source /root/.bash_profile to use it 
  12. Installed path: /root/.tiup/bin/tiup 
  13. =============================================== 
  14. Have a try:     tiup playground 
  15. =============================================== 

3.安裝 TiUP 的 cluster 組件

首先聲明全局的環境變量,不然找不到tiup命令:

  1. source .bash_profile 

執行安裝cluster命令:

  1. tiup cluster 

輸出如下:

 

  1. [root@master ~]# tiup cluster 
  2. The component `cluster` is not installed; downloading from repository. 
  3. download https://tiup-mirrors.pingcap.com/cluster-v1.3.1-linux-amd64.tar.gz 10.05 MiB / 10.05 MiB 100.00% 13.05 MiB p/s                                                
  4. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster 
  5. Deploy a TiDB cluster for production 
  6.  
  7. Usage: 
  8.   tiup cluster [command] 
  9.  
  10. Available Commands: 
  11.   check       Perform preflight checks for the cluster. 
  12.   deploy      Deploy a cluster for production 
  13.   start       Start a TiDB cluster 
  14.   stop        Stop a TiDB cluster 
  15.   restart     Restart a TiDB cluster 
  16.   scale-in    Scale in a TiDB cluster 
  17.   scale-out   Scale out a TiDB cluster 
  18.   destroy     Destroy a specified cluster 
  19.   clean       (EXPERIMENTAL) Cleanup a specified cluster 
  20.   upgrade     Upgrade a specified TiDB cluster 
  21.   exec        Run shell command on host in the tidb cluster 
  22.   display     Display information of a TiDB cluster 
  23.   prune       Destroy and remove instances that is in tombstone state 
  24.   list        List all clusters 
  25.   audit       Show audit log of cluster operation 
  26.   import      Import an exist TiDB cluster from TiDB-Ansible 
  27.   edit-config Edit TiDB cluster config. 
  28. Will use editor from environment variable `EDITOR`, default use vi 
  29.   reload      Reload a TiDB cluster's config and restart if needed 
  30.   patch       Replace the remote package with a specified package and restart the service 
  31.   rename      Rename the cluster 
  32.   enable      Enable a TiDB cluster automatically at boot 
  33.   disable     Disable starting a TiDB cluster automatically at boot 
  34.   help        Help about any command 
  35.  
  36. Flags: 
  37.   -h, --help                help for tiup 
  38.       --ssh string          (EXPERIMENTAL) The executor type: 'builtin', 'system', 'none'. 
  39.       --ssh-timeout uint    Timeout in seconds to connect host via SSH, ignored for operations that don't need an SSH connection. (default 5) 
  40.   -v, --version             version for tiup 
  41.       --wait-timeout uint   Timeout in seconds to wait for an operation to complete, ignored for operations that don't fit. (default 120) 
  42.   -y, --yes                 Skip all confirmations and assumes 'yes' 
  43.  
  44. Use "tiup cluster help [command]" for more information about a command. 

4.調大sshd服務的連接數限制

這里需要使用root權限,具體修改/etc/ssh/sshd_config文件下面的參數配置:

  1. MaxSessions 20 

改完后重啟sshd:

  1. [root@master ~]# service sshd restart 
  2. Redirecting to /bin/systemctl restart sshd.service 

5.編輯集群配置模板文件

這個文件我們命名為topo.yaml,內容如下:

  1. # # Global variables are applied to all deployments and used as the default value of 
  2. # # the deployments if a specific deployment value is missing. 
  3. global
  4.  user"tidb" 
  5.  ssh_port: 22 
  6.  deploy_dir: "/tidb-deploy" 
  7.  data_dir: "/tidb-data" 
  8.  
  9. # # Monitored variables are applied to all the machines. 
  10. monitored: 
  11.  node_exporter_port: 9100 
  12.  blackbox_exporter_port: 9115 
  13.  
  14. server_configs: 
  15.  tidb: 
  16.    log.slow-threshold: 300 
  17.  tikv: 
  18.    readpool.storage.use-unified-pool: false 
  19.    readpool.coprocessor.use-unified-pool: true 
  20.  pd: 
  21.    replication.enable-placement-rules: true 
  22.    replication.location-labels: ["host"
  23.  tiflash: 
  24.    logger.level"info" 
  25.  
  26. pd_servers: 
  27.  - host: 192.168.59.146 
  28.  
  29. tidb_servers: 
  30.  - host: 192.168.59.146 
  31.  
  32. tikv_servers: 
  33.  - host: 192.168.59.146 
  34.    port: 20160 
  35.    status_port: 20180 
  36.    config: 
  37.      server.labels: { host: "logic-host-1" } 
  38.  
  39. # - host: 192.168.59.146 
  40. #   port: 20161 
  41. #   status_port: 20181 
  42. #   config: 
  43. #     server.labels: { host: "logic-host-2" } 
  44.  
  45. # - host: 192.168.59.146 
  46. #   port: 20162 
  47. #   status_port: 20182 
  48. #   config: 
  49. #     server.labels: { host: "logic-host-3" } 
  50.  
  51. tiflash_servers: 
  52.  - host: 192.168.59.146 

這里有2點需要注意:

  • 文件中的host是部署TiDB的服務器ip
  • ssh_port默認是22

官方文件的tikv_servers是3個節點,我這里設置成了只有1個節點,原因是本地配置多個節點時只有1個節點能啟動成功

6.部署集群

部署集群的命令如下:

  1. tiup cluster deploy <cluster-name> <tidb-version> ./topo.yaml --user root -p 

上面的cluster-name是集群名稱,tidb-version是指TiDB版本號,可以通過tiup list tidb這個命令來查看,這里使用v3.1.2,集群名稱叫mytidb-cluster,命令如下:

  1. tiup cluster deploy mytidb-cluster v3.1.2 ./topo.yaml --user root -p 

下面是部署時輸出的日志:

  1. [root@master ~]# tiup cluster deploy mytidb-cluster v3.1.2 ./topo.yaml --user root -p 
  2. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster deploy mytidb-cluster v3.1.2 ./topo.yaml --user root -p 
  3. Please confirm your topology: 
  4. Cluster type:    tidb 
  5. Cluster name:    mytidb-cluster 
  6. Cluster version: v3.1.2 
  7. Type        Host            Ports                            OS/Arch       Directories 
  8. ----        ----            -----                            -------       ----------- 
  9. pd          192.168.59.146  2379/2380                        linux/x86_64  /tidb-deploy/pd-2379,/tidb-data/pd-2379 
  10. tikv        192.168.59.146  20160/20180                      linux/x86_64  /tidb-deploy/tikv-20160,/tidb-data/tikv-20160 
  11. tidb        192.168.59.146  4000/10080                       linux/x86_64  /tidb-deploy/tidb-4000 
  12. tiflash     192.168.59.146  9000/8123/3930/20170/20292/8234  linux/x86_64  /tidb-deploy/tiflash-9000,/tidb-data/tiflash-9000 
  13. prometheus  192.168.59.146  9090                             linux/x86_64  /tidb-deploy/prometheus-9090,/tidb-data/prometheus-9090 
  14. grafana     192.168.59.146  3000                             linux/x86_64  /tidb-deploy/grafana-3000 
  15. Attention: 
  16.     1. If the topology is not what you expected, check your yaml file. 
  17.     2. Please confirm there is no port/directory conflicts in same host. 
  18. Do you want to continue? [y/N]:  y 
  19. Input SSH password:  
  20. + Generate SSH keys ... Done 
  21. + Download TiDB components 
  22.   - Download pd:v3.1.2 (linux/amd64) ... Done 
  23.   - Download tikv:v3.1.2 (linux/amd64) ... Done 
  24.   - Download tidb:v3.1.2 (linux/amd64) ... Done 
  25.   - Download tiflash:v3.1.2 (linux/amd64) ... Done 
  26.   - Download prometheus:v3.1.2 (linux/amd64) ... Done 
  27.   - Download grafana:v3.1.2 (linux/amd64) ... Done 
  28.   - Download node_exporter:v0.17.0 (linux/amd64) ... Done 
  29.   - Download blackbox_exporter:v0.12.0 (linux/amd64) ... Done 
  30. + Initialize target host environments 
  31.   - Prepare 192.168.59.146:22 ... Done 
  32. + Copy files 
  33.   - Copy pd -> 192.168.59.146 ... Done 
  34.   - Copy tikv -> 192.168.59.146 ... Done 
  35.   - Copy tidb -> 192.168.59.146 ... Done 
  36.   - Copy tiflash -> 192.168.59.146 ... Done 
  37.   - Copy prometheus -> 192.168.59.146 ... Done 
  38.   - Copy grafana -> 192.168.59.146 ... Done 
  39.   - Copy node_exporter -> 192.168.59.146 ... Done 
  40.   - Copy blackbox_exporter -> 192.168.59.146 ... Done 
  41. Check status 
  42. Enabling component pd 
  43.         Enabling instance pd 192.168.59.146:2379 
  44.         Enable pd 192.168.59.146:2379 success 
  45. Enabling component node_exporter 
  46. Enabling component blackbox_exporter 
  47. Enabling component tikv 
  48.         Enabling instance tikv 192.168.59.146:20160 
  49.         Enable tikv 192.168.59.146:20160 success 
  50. Enabling component tidb 
  51.         Enabling instance tidb 192.168.59.146:4000 
  52.         Enable tidb 192.168.59.146:4000 success 
  53. Enabling component tiflash 
  54.         Enabling instance tiflash 192.168.59.146:9000 
  55.         Enable tiflash 192.168.59.146:9000 success 
  56. Enabling component prometheus 
  57.         Enabling instance prometheus 192.168.59.146:9090 
  58.         Enable prometheus 192.168.59.146:9090 success 
  59. Enabling component grafana 
  60.         Enabling instance grafana 192.168.59.146:3000 
  61.         Enable grafana 192.168.59.146:3000 success 
  62. Cluster `mytidb-cluster` deployed successfully, you can start it with command: `tiup cluster start mytidb-cluster` 

7.啟動集群

命令如下:

  1. tiup cluster start mytidb-cluster 

啟動成功日志如下:

  1. [root@master ~]# tiup cluster start mytidb-cluster 
  2. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster start mytidb-cluster 
  3. Starting cluster mytidb-cluster... 
  4. + [ Serial ] - SSHKeySet: privateKey=/root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa, publicKey=/root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa.pub 
  5. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  6. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  7. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  8. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  9. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  10. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  11. + [ Serial ] - StartCluster 
  12. Starting component pd 
  13.         Starting instance pd 192.168.59.146:2379 
  14.         Start pd 192.168.59.146:2379 success 
  15. Starting component node_exporter 
  16.         Starting instance 192.168.59.146 
  17.         Start 192.168.59.146 success 
  18. Starting component blackbox_exporter 
  19.         Starting instance 192.168.59.146 
  20.         Start 192.168.59.146 success 
  21. Starting component tikv 
  22.         Starting instance tikv 192.168.59.146:20160 
  23.         Start tikv 192.168.59.146:20160 success 
  24. Starting component tidb 
  25.         Starting instance tidb 192.168.59.146:4000 
  26.         Start tidb 192.168.59.146:4000 success 
  27. Starting component tiflash 
  28.         Starting instance tiflash 192.168.59.146:9000 
  29.         Start tiflash 192.168.59.146:9000 success 
  30. Starting component prometheus 
  31.         Starting instance prometheus 192.168.59.146:9090 
  32.         Start prometheus 192.168.59.146:9090 success 
  33. Starting component grafana 
  34.         Starting instance grafana 192.168.59.146:3000 
  35.         Start grafana 192.168.59.146:3000 success 
  36. + [ Serial ] - UpdateTopology: cluster=mytidb-cluster 
  37. Started cluster `mytidb-cluster` successfully 

8.訪問數據庫

因為TiDB支持mysql客戶端訪問,我們使用sqlyog登錄TiDB,用戶名root,密碼空,地址192.168.59.149,端口4000,如下圖:

登錄成功如下圖,左側我們可以看到TiDB自帶的一些表:

9.訪問TiDB的Grafana監控

訪問地址如下:

  1. http://192.168.59.146:3000/login 

初始用戶名/密碼:admin/admin,登錄進去后修改密碼,成功后頁面如下:

10.dashboard

TiDB v3.x版本沒有dashboard,v4.0開始加入,訪問地址如下:

  1. http://192.168.59.146:2379/dashboard 

11.查看集群列表

命令:tiup cluster list,結果如下:

  1. [root@master /]# tiup cluster list 
  2. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster list 
  3. Name            User  Version  Path                                                 PrivateKey 
  4. ----            ----  -------  ----                                                 ---------- 
  5. mytidb-cluster  tidb  v3.1.2   /root/.tiup/storage/cluster/clusters/mytidb-cluster  /root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa 

12.查看集群拓撲結構

命令如下:

  1. tiup cluster list 

輸入命令后,我本地集群的輸出如下:

  1. [root@master /]# tiup cluster list 
  2. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster list 
  3. Name            User  Version  Path                                                 PrivateKey 
  4. ----            ----  -------  ----                                                 ---------- 
  5. mytidb-cluster  tidb  v3.1.2   /root/.tiup/storage/cluster/clusters/mytidb-cluster  /root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa 
  6. You have new mail in /var/spool/mail/root 
  7. [root@master /]# tiup cluster display mytidb-cluster 
  8. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster display mytidb-cluster 
  9. Cluster type:       tidb 
  10. Cluster name:       mytidb-cluster 
  11. Cluster version:    v3.1.2 
  12. SSH type:           builtin 
  13. ID                    Role        Host            Ports                            OS/Arch       Status  Data Dir                    Deploy Dir 
  14. --                    ----        ----            -----                            -------       ------  --------                    ---------- 
  15. 192.168.59.146:3000   grafana     192.168.59.146  3000                             linux/x86_64  Up      -                           /tidb-deploy/grafana-3000 
  16. 192.168.59.146:2379   pd          192.168.59.146  2379/2380                        linux/x86_64  Up|L    /tidb-data/pd-2379          /tidb-deploy/pd-2379 
  17. 192.168.59.146:9090   prometheus  192.168.59.146  9090                             linux/x86_64  Up      /tidb-data/prometheus-9090  /tidb-deploy/prometheus-9090 
  18. 192.168.59.146:4000   tidb        192.168.59.146  4000/10080                       linux/x86_64  Up      -                           /tidb-deploy/tidb-4000 
  19. 192.168.59.146:9000   tiflash     192.168.59.146  9000/8123/3930/20170/20292/8234  linux/x86_64  Up      /tidb-data/tiflash-9000     /tidb-deploy/tiflash-9000 
  20. 192.168.59.146:20160  tikv        192.168.59.146  20160/20180                      linux/x86_64  Up      /tidb-data/tikv-20160       /tidb-deploy/tikv-20160 
  21. Total nodes: 6 

遇到的問題

安裝TiDB v4.0.9版本,可以部署成功,但是啟動報錯,如果topo.yaml中配置了3個節點,啟動報錯,tikv只能啟動成功一個,日志如下:

  1. [root@master ~]# tiup cluster start mytidb-cluster 
  2. Starting component `cluster`: /root/.tiup/components/cluster/v1.3.1/tiup-cluster start mytidb-cluster 
  3. Starting cluster mytidb-cluster... 
  4. + [ Serial ] - SSHKeySet: privateKey=/root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa, publicKey=/root/.tiup/storage/cluster/clusters/mytidb-cluster/ssh/id_rsa.pub 
  5. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  6. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  7. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  8. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  9. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  10. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  11. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  12. + [Parallel] - UserSSH: user=tidb, host=192.168.59.146 
  13. + [ Serial ] - StartCluster 
  14. Starting component pd 
  15.         Starting instance pd 192.168.59.146:2379 
  16.         Start pd 192.168.59.146:2379 success 
  17. Starting component node_exporter 
  18.         Starting instance 192.168.59.146 
  19.         Start 192.168.59.146 success 
  20. Starting component blackbox_exporter 
  21.         Starting instance 192.168.59.146 
  22.         Start 192.168.59.146 success 
  23. Starting component tikv 
  24.         Starting instance tikv 192.168.59.146:20162 
  25.         Starting instance tikv 192.168.59.146:20160 
  26.         Starting instance tikv 192.168.59.146:20161 
  27.         Start tikv 192.168.59.146:20162 success 
  28.  
  29. Error: failed to start tikv: failed to start: tikv 192.168.59.146:20161, please check the instance's log(/tidb-deploy/tikv-20161/log) for more detail.: timed out waiting for port 20161 to be started after 2m0s 
  30.  
  31. Verbose debug logs has been written to /root/.tiup/logs/tiup-cluster-debug-2021-01-05-19-58-46.log. 
  32. Error: run `/root/.tiup/components/cluster/v1.3.1/tiup-cluster` (wd:/root/.tiup/data/SLGrLJI) failed: exit status 1 

查看日志文件/tidb-deploy/tikv-20161/log/tikv.log,提示下面2個目錄下找不到文件:

  1. [2021/01/06 05:48:44.231 -05:00] [FATAL] [lib.rs:482] ["called `Result::unwrap()` on an `Err` value: Os { code: 2, kind: NotFound, message: \"No such file or directory\" }"] [backtrace="stack backtrace:\n   0: tikv_util::set_panic_hook::{{closure}}\n             at components/tikv_util/src/lib.rs:481\n   1: std::panicking::rust_panic_with_hook\n             at src/libstd/panicking.rs:475\n   2: rust_begin_unwind\n             at src/libstd/panicking.rs:375\n   3: core::panicking::panic_fmt\n             at src/libcore/panicking.rs:84\n   4: core::result::unwrap_failed\n             at src/libcore/result.rs:1188\n   5: core::result::Result<T,E>::unwrap\n             at /rustc/0de96d37fbcc54978458c18f5067cd9817669bc8/src/libcore/result.rs:956\n      cmd::server::TiKVServer::init_fs\n             at cmd/src/server.rs:310\n      cmd::server::run_tikv\n             at cmd/src/server.rs:95\n   6: tikv_server::main\n             at cmd/src/bin/tikv-server.rs:166\n   7: std::rt::lang_start::{{closure}}\n             at /rustc/0de96d37fbcc54978458c18f5067cd9817669bc8/src/libstd/rt.rs:67\n   8: main\n   9: __libc_start_main\n  10: <unknown>\n"] [location=src/libcore/result.rs:1188] [thread_name=main] 

如果配置一個節點,啟動還是失敗,啟動日志我們截取后半段:

  1. Starting component pd 
  2.         Starting instance pd 192.168.59.146:2379 
  3.         Start pd 192.168.59.146:2379 success 
  4. Starting component node_exporter 
  5.         Starting instance 192.168.59.146 
  6.         Start 192.168.59.146 success 
  7. Starting component blackbox_exporter 
  8.         Starting instance 192.168.59.146 
  9.         Start 192.168.59.146 success 
  10. Starting component tikv 
  11.         Starting instance tikv 192.168.59.146:20160 
  12.         Start tikv 192.168.59.146:20160 success 
  13. Starting component tidb 
  14.         Starting instance tidb 192.168.59.146:4000 
  15.         Start tidb 192.168.59.146:4000 success 
  16. Starting component tiflash 
  17.         Starting instance tiflash 192.168.59.146:9000 
  18.  
  19. Error: failed to start tiflash: failed to start: tiflash 192.168.59.146:9000, please check the instance's log(/tidb-deploy/tiflash-9000/log) for more detail.: timed out waiting for port 9000 to be started after 2m0s 
  20.  
  21. Verbose debug logs has been written to /root/.tiup/logs/tiup-cluster-debug-2021-01-06-20-02-13.log. 

在/tidb-deploy/tiflash-9000/log中文件如下:

  1. [2021/01/06 20:06:26.207 -05:00] [INFO] [mod.rs:335] ["starting working thread"] [worker=region-collector-worker] 
  2. [2021/01/06 20:06:27.130 -05:00] [FATAL] [lib.rs:482] ["called `Result::unwrap()` on an `Err` value: Os { code: 2, kind: NotFound, message: \"No such file or directory\" }"] [backtrace="stack backtrace:\n   0: tikv_util::set_panic_hook::{{closure}}\n   1: std::panicking::rust_panic_with_hook\n             at src/libstd/panicking.rs:475\n   2: rust_begin_unwind\n             at src/libstd/panicking.rs:375\n   3: core::panicking::panic_fmt\n             at src/libcore/panicking.rs:84\n   4: core::result::unwrap_failed\n             at src/libcore/result.rs:1188\n   5: cmd::server::run_tikv\n   6: run_proxy\n   7: operator()\n             at /home/jenkins/agent/workspace/optimization-build-tidb-linux-amd/tics/dbms/src/Server/Server.cpp:415\n   8: execute_native_thread_routine\n             at ../../../../../libstdc++-v3/src/c++11/thread.cc:83\n   9: start_thread\n  10: __clone\n"] [location=src/libcore/result.rs:1188] [thread_name=<unnamed>] 

試了v4.0.1版本,也是一樣的問題,都是報找不到文件的錯誤。

總結

TiDB部署相對容易,但是如果部署失敗,比如本文的V4.0.x版本,不太好解決,因為網上相關的經驗很少,官網也找不到,只能翻源代碼來解決了。

 

責任編輯:武曉燕 來源: jinjunzhu
相關推薦

2022-08-25 14:41:51

集群搭建

2024-12-02 11:24:30

Docker編排技術

2023-03-03 17:00:00

部署Linux內核

2016-11-28 16:23:23

戴爾

2025-07-24 03:00:00

2022-05-09 08:35:43

面試產品互聯網

2022-07-06 07:27:52

32Core樹莓派集群

2014-07-17 14:09:31

Spark

2009-09-11 08:12:36

Windows 7企業部署網絡部署

2021-03-10 09:52:38

開發技能架構

2021-11-07 20:43:14

React

2009-09-18 08:40:56

Windows 7企業部署VHD

2019-10-22 08:12:49

消息隊列分布式系統

2021-03-10 09:21:00

Spring開源框架Spring基礎知識

2023-03-06 11:35:55

經營分析體系

2021-07-01 07:03:32

開發Webpack代碼

2022-07-13 11:17:00

大數據規劃

2022-07-10 20:45:47

React加載動畫庫

2023-03-22 23:23:25

React加載動畫庫

2012-05-11 11:57:01

點贊
收藏

51CTO技術棧公眾號

末成年女av片一区二区下载| 亚洲影院在线播放| 日本在线一区二区| 亚洲精品国产a久久久久久| 亚洲伊人久久大香线蕉av| 精品午夜福利视频| re久久精品视频| 久久精品一级| 成+人+亚洲+综合天堂| 欧美自拍视频在线| 日本高清一二三区| 亚洲人成亚洲精品| 制服丝袜在线91| 久久久久久久久久久视频| 午夜老司机在线观看| 成人精品在线视频观看| 国产精品黄色av| 成人av手机在线观看| 久久视频在线视频| 91精品国产自产| 亚洲图片小说区| 日韩欧美国产高清91| 青青草影院在线观看| 四虎影院在线播放| 国产美女一区二区三区| 欧洲成人在线视频| 免费又黄又爽又色的视频| 国产一区二区三区四区五区传媒| 精品国产伦一区二区三区免费| 欧美日韩在线免费播放| 久久大胆人体| 亚洲欧美激情插| 亚洲国产一区二区在线| 香蕉视频免费在线看| 麻豆精品在线观看| 亚洲97在线观看| 欧美视频www| 青草国产精品| 日韩免费一区二区| 国产高清999| 88xx成人免费观看视频库| 亚洲人成在线观看一区二区| 亚洲黄色一区二区三区| 国产午夜在线观看| 久久久99久久| 麻豆视频成人| 欧美zozo| 久久久久亚洲综合| 蜜桃91精品入口| 日本精品久久久久| 国产成人精品三级麻豆| 成人精品久久久| 一本色道久久综合无码人妻| 日本欧美加勒比视频| 国产ts人妖一区二区三区 | 岳毛多又紧做起爽| 春色校园综合激情亚洲| 亚洲aaa精品| 精品少妇在线视频| 国产无遮挡裸体视频在线观看| 亚洲曰韩产成在线| 缅甸午夜性猛交xxxx| 97超碰在线免费| 精品美女永久免费视频| 欧美日韩在线一| 神马久久午夜| 欧美丝袜一区二区| 日本成人黄色网| 国产伊人久久| 欧美一级久久久久久久大片| 超级砰砰砰97免费观看最新一期| 日韩视频一二区| 精品国产污污免费网站入口 | 日韩精品一区二区三区不卡| 亚洲性色av| 欧美色图天堂网| 国产乱叫456| 国产精东传媒成人av电影| 日韩电影视频免费| 人人爽人人爽人人片| 一区二区电影| 777国产偷窥盗摄精品视频| 区一区二在线观看| 激情av综合网| 国产偷久久久精品专区| eeuss影院www在线播放| 亚洲天天做日日做天天谢日日欢| 日韩免费在线观看av| 涩涩视频在线| 欧美日韩黄色一区二区| 午夜影院福利社| 综合国产视频| 久久影视电视剧免费网站| 日本熟妇乱子伦xxxx| 日韩电影在线一区二区三区| 亚洲一区二区三区四区视频| 偷拍自拍在线| 亚洲欧洲另类国产综合| 国产免费黄色一级片| 成人深夜福利| 精品噜噜噜噜久久久久久久久试看| 国产精品jizz| 欧美aⅴ99久久黑人专区| 91成人国产在线观看| 国产孕妇孕交大片孕| 99精品国产99久久久久久白柏| 亚洲欧美日韩国产yyy| ririsao久久精品一区| 欧美午夜精品久久久久久超碰 | 911亚洲精品| 一本大道久久加勒比香蕉| 国产亚洲精品码| 麻豆精品在线看| 免费久久久一本精品久久区| www免费在线观看| 日本久久电影网| av免费观看不卡| 亚洲情侣在线| 国产精品亚洲美女av网站| 天天操天天射天天舔| 亚洲图片欧美激情| 无限资源日本好片| 婷婷成人在线| 久久久综合免费视频| 91丨九色丨海角社区| 99久久精品国产一区二区三区| 正义之心1992免费观看全集完整版| 亚洲十八**毛片| 精品久久人人做人人爽| 尤物在线免费视频| 日韩国产精品久久| 久久久com| 国产又色又爽又黄刺激在线视频| 欧美久久高跟鞋激| 亚洲电影免费观看高清| 污污污www精品国产网站| 91精品国产91久久久久久黑人| 国产不卡av在线免费观看| 少妇av一区二区| 一区二区三区四区五区视频在线观看 | 国产精品扒开腿做爽爽爽a片唱戏 亚洲av成人精品一区二区三区 | 精品51国产黑色丝袜高跟鞋| 在线观看日韩国产| 亚洲av无码一区二区二三区| 国产日韩欧美一区| 精品乱子伦一区二区三区| 超碰在线97国产| 亚洲а∨天堂久久精品9966| 国产一级淫片免费| 国产黄人亚洲片| 国产精品欧美一区二区| a视频网址在线观看| 欧美在线观看一区二区| 怡红院一区二区三区| 久久精品一区二区三区中文字幕 | 动漫美女无遮挡免费| 欧美区一区二| 国产区一区二区三区| 欧美xxxhd| 亚洲一二三在线| 一区两区小视频| ...av二区三区久久精品| 肉色超薄丝袜脚交| 国模大胆一区二区三区| 国产日韩久久| 欧美电影免费观看| 伊人久久综合97精品| 一级黄色大片网站| 亚洲摸摸操操av| 日韩精品视频一区二区| 午夜宅男久久久| 偷拍视频一区二区| 国产一区二区三区黄网站| 欧美激情精品久久久久久免费印度| 亚洲欧美另类综合| 日韩人体视频一二区| 三级黄色录像视频| 不卡大黄网站免费看| 国产精品无码av无码| 99久久99久久精品国产片桃花| 91中文在线视频| 国产高潮在线| 一区二区三欧美| 国产黄色高清视频| 懂色av一区二区三区| 精品一区二区6| 国产成人免费xxxxxxxx| 丰满人妻中伦妇伦精品app| 第一会所sis001亚洲| 99在线视频播放| av电影一区| 欧美xxxx做受欧美.88| 午夜视频免费在线| 欧美日韩精品综合在线| 精品小视频在线观看| 久久久亚洲国产美女国产盗摄| 亚洲成人天堂网| 在线精品观看| 在线观看福利一区| 亚洲精品一级二级三级| 亚洲一区二区三区777| 欧美香蕉视频| 欧美大学生性色视频| 成人全视频高清免费观看| 亚洲成avwww人| 91精品国产乱码久久久久| 亚州成人在线电影| 黄色录像一级片| 2020国产精品自拍| 成人免费播放视频| 日本欧美一区二区| 国产午夜伦鲁鲁| 国产综合网站| 中文字幕一区二区三区四区五区人| 免费福利视频一区| 97人人模人人爽人人少妇| 亚洲日本在线观看视频| 91sa在线看| 欧美wwww| 欧美精品一区三区| 日本三级在线播放完整版| 日韩久久精品电影| 日韩在线视频第一页| 69堂精品视频| 中文字幕一区二区三区四区视频 | 欧美自拍一区| 99久久精品久久久久久ai换脸| 成人在线免费电影网站| 人体精品一二三区| 一个人看的www视频在线免费观看| 欧美高清视频在线观看| 日本五十熟hd丰满| 精品国产91久久久久久浪潮蜜月| 国产久一道中文一区| 日本精品视频| 91亚洲永久免费精品| 欧美伊人亚洲伊人色综合动图| 国产精品电影网站| 免费观看成人性生生活片| 538国产精品视频一区二区| www.色在线| 韩国福利视频一区| 99久久精品免费看国产小宝寻花 | 日韩精品一区二区在线| 国产精品国产三级国产aⅴ| 欧美三级电影网| 中文字幕视频在线播放| 精品视频一区二区三区免费| 中文字幕av无码一区二区三区| 欧美中文字幕一区二区三区| 国模私拍一区二区| 欧美三级韩国三级日本三斤| 亚洲在线视频播放| 欧美一区二区三区在线观看 | 91p九色成人| 91精品国产综合久久久久久久久 | 亚洲成人久久网| 日本精品一区二区在线观看| 精品视频在线导航| 福利在线视频导航| 久久精品视频一| 免费在线观看av电影| 午夜精品久久久99热福利| 伊人久久视频| 国产精品青青在线观看爽香蕉| 亚洲精品一区av| 高清国语自产拍免费一区二区三区| 一区二区三区四区精品视频| 韩国一区二区三区美女美女秀| 加勒比久久高清| 日本一区二区三区免费看| 精品久久一区| 日韩video| 国产日韩亚洲| 亚洲综合av在线播放| 懂色av一区二区在线播放| 特级西西人体4444xxxx| 国产三级欧美三级| 人妻人人澡人人添人人爽| 欧美日韩精品在线观看| 最新在线中文字幕| 日韩亚洲欧美一区二区三区| 水中色av综合| 亚洲午夜国产成人av电影男同| av网站大全在线| 26uuu日韩精品一区二区| 国产精品原创视频| 国内外成人免费视频| 欧美在线电影| 亚洲色成人www永久在线观看| 米奇777在线欧美播放| 国产亚洲视频一区| 94色蜜桃网一区二区三区| 四季av中文字幕| 午夜免费久久看| 91超薄丝袜肉丝一区二区| 亚洲第一av在线| 免费黄网在线观看| 91超碰中文字幕久久精品| 国产高清日韩| 欧洲久久久久久| 国产精品啊啊啊| 天天插天天操天天射| 懂色av一区二区三区免费看| 日韩欧美黄色网址| 精品成人av一区| 国产免费av电影| 国产一区二区黑人欧美xxxx| av成人福利| 亚洲一区二区三区在线免费观看| 精品国产一区探花在线观看| www.av蜜桃| 国产一区视频网站| 亚洲第一视频区| 精品久久久在线观看| www.成人在线观看| 色777狠狠综合秋免鲁丝| 欧美激情喷水| 久久大片网站| 亚洲国产二区| 国产精品日日摸夜夜爽| 亚洲色图制服丝袜| 中国女人一级一次看片| 亚洲码在线观看| 97超碰在线免费| 国产精品swag| 国产尤物精品| 免费黄色在线播放| 亚洲精品视频在线| 国产又粗又大又爽视频| 最近2019中文字幕一页二页| 电影久久久久久| 欧美资源一区| 久久一区二区三区超碰国产精品| 中文字幕在线观看网址| 亚洲成人一区在线| 丰满人妻一区二区三区免费| 欧美精品一区在线播放| 精品国产麻豆| 日韩一二区视频| 国产黄色精品视频| 国产一级二级毛片| 欧美精品一区二区三区视频| 丁香花在线影院| 国产亚洲精品久久飘花| 亚洲精选国产| 久久精品一区二区免费播放| 精品国产户外野外| 青青操视频在线| 日韩暖暖在线视频| 欧美日韩高清| 思思久久精品视频| 亚洲色图视频网| 亚洲AV午夜精品| 欧美高清视频一区二区| 欧美大胆视频| 50路60路老熟妇啪啪| 日本一区二区在线不卡| 最近中文字幕在线观看视频| 久久精品最新地址| 日韩一区网站| 欧美 国产 综合| 国产无一区二区| 怡红院成永久免费人全部视频| 久久精彩免费视频| 国产 日韩 欧美 综合 一区| 自慰无码一区二区三区| 国产偷国产偷精品高清尤物| 一区二区三区播放| 欧美激情综合色| 欧美精品第一区| 在线看免费毛片| 亚洲成人第一页| 岛国在线视频免费看| 亚洲自拍偷拍网址| 国产精品普通话对白| 91久久久久久久久久久久久久| 欧美成人一区二区三区在线观看| 中文不卡1区2区3区| 亚洲乱码国产乱码精品天美传媒| 国产乱人伦偷精品视频不卡| 日韩 欧美 中文| 色99之美女主播在线视频| avtt综合网| 啊啊啊国产视频| 亚洲综合成人在线| 国产一级网站视频在线| 91美女福利视频高清| 999亚洲国产精| 国产3级在线观看| 亚洲国产天堂久久国产91| 国产成+人+综合+亚洲欧美| 人妻激情另类乱人伦人妻| 久久久精品免费观看| www视频在线| 国产精品久久久久久久av大片| 国内揄拍国内精品久久| 激情五月深爱五月| 亚洲国产精品成人va在线观看| 成人在线免费av|