12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970 |
- # 生成api业务代码 , 进入"服务/cmd/api/desc"目录下,执行下面命令
- # goctl api go --api *.api --dir ../ --style=goZero
- # 生成rpc业务代码
- # 【注】 需要安装下面3个插件
- # protoc >= 3.13.0 , 如果没安装请先安装 https://github.com/protocolbuffers/protobuf,下载解压到$GOPATH/bin下即可,前提是$GOPATH/bin已经加入$PATH中
- # protoc-gen-go ,如果没有安装请先安装 go install google.golang.org/protobuf/cmd/protoc-gen-go@latest
- # protoc-gen-go-grpc ,如果没有安装请先安装 go install google.golang.org/grpc/cmd/protoc-gen-go-grpc@latest
- #
- # 如果有要使用grpc-gateway,也请安装如下两个插件 , 没有使用就忽略下面2个插件
- # go install github.com/grpc-ecosystem/grpc-gateway/v2/protoc-gen-grpc-gateway@latest
- # go install github.com/grpc-ecosystem/grpc-gateway/v2/protoc-gen-openapiv2@latest
- #
- # 1)goctl >= 1.3 进入"服务/cmd/rpc/pb"目录下,执行下面命令
- # goctl rpc protoc *.proto --go_out=../ --go-grpc_out=../ --zrpc_out=../ --style=goZero
- # 去除proto中的json的omitempty
- # mac: sed -i "" 's/,omitempty//g' *.pb.go
- # linux: sed -i 's/,omitempty//g' *.pb.go
- # 2)goctl < 1.3 进入"服务/cmd"目录下,执行下面命令
- # goctl rpc proto -src rpc/pb/*.proto -dir ./rpc --style=goZero
- # 去除proto中的json的omitempty
- # mac: sed -i "" 's/,omitempty//g' ./rpc/pb/*.pb.go
- # linux: sed -i 's/,omitempty//g' ./rpc/pb/*.pb.go
- # 单个 rpc 服务生成示例指令
- goctl rpc protoc usercenter.proto --go_out=./pb --go-grpc_out=./pb --zrpc_out=. --client=true
- # 多个 rpc 服务生成示例指令
- goctl rpc protoc rtc.proto --go_out=./pb --go-grpc_out=./pb --zrpc_out=. --client=true -m
- # 创建kafka的topic
- # kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 -partitions 1 --topic {topic}
- # 查看消费者组情况
- # kafka-consumer-groups.sh --bootstrap-server kafka:9092 --describe --group {group}
- # 命令行消费
- # ./kafka-console-consumer.sh --bootstrap-server kafka:9092 --topic looklook-log --from-beginning
- # 命令生产
- # ./kafka-console-producer.sh --bootstrap-server kafka:9092 --topic second
- #步骤 1: 生成 CLUSTER_ID
- #手动生成 CLUSTER_ID: 使用 Kafka 工具生成一个随机 CLUSTER_ID:
- #
- #bash
- #复制代码
- #docker run --rm confluentinc/cp-kafka:latest kafka-storage random-uuid
- #你将获得类似以下的 UUID:
- #
- #复制代码
- #ngX7KvLKSQK6eRtqXkTQmg
- #将生成的 CLUSTER_ID 记下来,用于后续配置。
- #假设我们希望创建一个名为 my-topic 的 Topic,具有 3 个分区和 2 个副本。可以使用以下命令:
- bin/kafka-topics.sh --create \
- --bootstrap-server localhost:9092 \
- --topic poker-bet \
- --partitions 3 \
- --replication-factor 2
- goctl model mysql ddl --src user.sql --dir .
- # --ignore-columns 支持通过英文逗号分割的字符串来传多个值,也支持指定多个参数来传多个只
- goctl model mysql ddl --src="./sql/*.sql" -dir="./sql/model/ignore_columns/cache" -i 'column1,column2'
- # 以上 shell 等同于
- goctl model mysql ddl --src="./sql/*.sql" -dir="./sql/model/ignore_columns/cache" -i 'column1' -i "column2"
- docker-compose -f docker-compose-env.yml up -d
|