gen.sh 3.2 KB

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970
  1. # 生成api业务代码 , 进入"服务/cmd/api/desc"目录下,执行下面命令
  2. # goctl api go --api *.api --dir ../ --style=goZero
  3. # 生成rpc业务代码
  4. # 【注】 需要安装下面3个插件
  5. # protoc >= 3.13.0 , 如果没安装请先安装 https://github.com/protocolbuffers/protobuf,下载解压到$GOPATH/bin下即可,前提是$GOPATH/bin已经加入$PATH中
  6. # protoc-gen-go ,如果没有安装请先安装 go install google.golang.org/protobuf/cmd/protoc-gen-go@latest
  7. # protoc-gen-go-grpc ,如果没有安装请先安装 go install google.golang.org/grpc/cmd/protoc-gen-go-grpc@latest
  8. #
  9. # 如果有要使用grpc-gateway,也请安装如下两个插件 , 没有使用就忽略下面2个插件
  10. # go install github.com/grpc-ecosystem/grpc-gateway/v2/protoc-gen-grpc-gateway@latest
  11. # go install github.com/grpc-ecosystem/grpc-gateway/v2/protoc-gen-openapiv2@latest
  12. #
  13. # 1)goctl >= 1.3 进入"服务/cmd/rpc/pb"目录下,执行下面命令
  14. # goctl rpc protoc *.proto --go_out=../ --go-grpc_out=../ --zrpc_out=../ --style=goZero
  15. # 去除proto中的json的omitempty
  16. # mac: sed -i "" 's/,omitempty//g' *.pb.go
  17. # linux: sed -i 's/,omitempty//g' *.pb.go
  18. # 2)goctl < 1.3 进入"服务/cmd"目录下,执行下面命令
  19. # goctl rpc proto -src rpc/pb/*.proto -dir ./rpc --style=goZero
  20. # 去除proto中的json的omitempty
  21. # mac: sed -i "" 's/,omitempty//g' ./rpc/pb/*.pb.go
  22. # linux: sed -i 's/,omitempty//g' ./rpc/pb/*.pb.go
  23. # 单个 rpc 服务生成示例指令
  24. goctl rpc protoc usercenter.proto --go_out=./pb --go-grpc_out=./pb --zrpc_out=. --client=true
  25. # 多个 rpc 服务生成示例指令
  26. goctl rpc protoc rtc.proto --go_out=./pb --go-grpc_out=./pb --zrpc_out=. --client=true -m
  27. # 创建kafka的topic
  28. # kafka-topics.sh --create --zookeeper zookeeper:2181 --replication-factor 1 -partitions 1 --topic {topic}
  29. # 查看消费者组情况
  30. # kafka-consumer-groups.sh --bootstrap-server kafka:9092 --describe --group {group}
  31. # 命令行消费
  32. # ./kafka-console-consumer.sh --bootstrap-server kafka:9092 --topic looklook-log --from-beginning
  33. # 命令生产
  34. # ./kafka-console-producer.sh --bootstrap-server kafka:9092 --topic second
  35. #步骤 1: 生成 CLUSTER_ID
  36. #手动生成 CLUSTER_ID: 使用 Kafka 工具生成一个随机 CLUSTER_ID:
  37. #
  38. #bash
  39. #复制代码
  40. #docker run --rm confluentinc/cp-kafka:latest kafka-storage random-uuid
  41. #你将获得类似以下的 UUID:
  42. #
  43. #复制代码
  44. #ngX7KvLKSQK6eRtqXkTQmg
  45. #将生成的 CLUSTER_ID 记下来,用于后续配置。
  46. #假设我们希望创建一个名为 my-topic 的 Topic,具有 3 个分区和 2 个副本。可以使用以下命令:
  47. bin/kafka-topics.sh --create \
  48. --bootstrap-server localhost:9092 \
  49. --topic poker-bet \
  50. --partitions 3 \
  51. --replication-factor 2
  52. goctl model mysql ddl --src user.sql --dir .
  53. # --ignore-columns 支持通过英文逗号分割的字符串来传多个值,也支持指定多个参数来传多个只
  54. goctl model mysql ddl --src="./sql/*.sql" -dir="./sql/model/ignore_columns/cache" -i 'column1,column2'
  55. # 以上 shell 等同于
  56. goctl model mysql ddl --src="./sql/*.sql" -dir="./sql/model/ignore_columns/cache" -i 'column1' -i "column2"
  57. docker-compose -f docker-compose-env.yml up -d