토리맘의 한글라이즈 프로젝트 logo 토리맘의 한글라이즈 프로젝트

스프링 클라우드 데이터 플로우 공식 레퍼런스를 한글로 번역한 문서입니다.

전체 목차는 여기에 있습니다.

목차


Helm Installation

Helm 프로젝트는 2020년 11월을 기준으로 Helm 2에 대한 지원을 종료했다. Spring Cloud Data Flow 2.7.0부터는 Helm 2 차트 지원을 중단하고 Helm 3 기반 차트를 사용한다.

Helm 2는 Helm 3로 마이그레이션해야 한다. 마이그레이션을 준비 중이라면 Helm v2 to v3 마이그레이션 가이드를 읽어보는 게 좋다. 마이그레이션 이후 만날 수 있는 문제들이란 아티클도 함께 보면 데이터 마이그레이션과 업그레이드에 관련된 유용한 팁을 얻을 수 있다.

Spring Cloud Data Flow 2.6.1부터 헬름 차트는 Bitnami 팀이 관리하고 있다. 버그를 리포팅하거나 기능을 요청하고 싶다면 Bitnami 이슈 트래커를 사용하면 된다.

Spring Cloud Data Flow는 쿠버네티스 클러스터에 Spring Cloud Data Flow 서버와 필요한 서비스들을 배포할 수 있는 헬름 차트를 제공한다.

이어지는 섹션에선 헬름을 초기화하고 쿠버네티스 클러스터에 Spring Cloud Data Flow를 설치하는 방법을 다룬다.

Minikube를 사용한다면 Minikube 리소스 설정에서 CPU와 RAM 리소스 요구 사항에 관한 세부 내용을 확인해봐라.

Installing Spring Cloud Data Flow Server and Required Services

아래 문서를 검토한 후엔 자신의 환경에 맞게 파라미터를 커스텀하고, 혹은 레거시 공식 헬름 차트와 다를 수 있는 부분을 다듬어줘야 한다. Bitnami 차트를 마이그레이션하면서 값 이름이나 기본값 등이 변경됐을 수 있다. 더 자세한 정보는 파라미터 테이블과 업그레이드하기, 주요 변경 사항 섹션에서 확인할 수 있다.


Spring Cloud Data Flow

Spring Cloud Data Flow는 클라우드 파운드리와 쿠버네티스 환경에서 운영할 수 있는 마이크로서비스 기반 스트리밍/배치 데이터 처리 파이프라인이다.


TL;DR

helm repo add bitnami https://charts.bitnami.com/bitnami
helm install my-release bitnami/spring-cloud-dataflow

Introduction

이 차트는 헬름 패키지 매니저를 사용해 쿠버네티스 클러스터에 Spring Cloud Data Flow deployment를 부트스트랩한다.

Bitnami 차트는 Kubeapps와 함께 사용해 클러스터의 헬름 차트를 배포하고 관리해도 된다.


Prerequisites


Installing the Chart

이 차트를 릴리즈 이름 my-release로 설치하려면:

helm repo add bitnami https://charts.bitnami.com/bitnami
helm install my-release bitnami/spring-cloud-dataflow

이 명령어는 쿠버네티스 클러스터에 디폴트 설정으로 Spring Cloud Data Flow를 배포한다. 설치할 때 설정할 수 있는 파라미터는 파라미터 섹션에 정리해뒀다.

: helm list를 사용하면 모든 릴리즈를 보여준다


Uninstalling the Chart

my-release 차트를 언인스톨/삭제하려면:

helm uninstall my-release

Parameters

Global parameters

Name Description Value
global.imageRegistry 글로벌 도커 이미지 레지스트리 ""
global.imagePullSecrets 글로벌 도커 레지시트리 시크릿 이름 (배열) []
global.storageClass Persistent Volume(s)을 위한 글로벌 StorageClass
""

Common parameters

Name Description Value
nameOverride scdf.fullname 템플릿을 부분적으로 재정의하는 문자열 (릴리즈 이름은 그대로 유지한다). ""
fullnameOverride scdf.fullname 템플릿을 완전히 재정의하는 문자열 ""
kubeVersion 강제할 타겟 쿠버네티스 버전 (설정하지 않으면 Helm에서 세팅) ""
clusterDomain 디폴트 쿠버네티스 클러스터 도메인 cluster.local
extraDeploy 해당 릴리즈와 함께 배포할 추가 오브젝트 배열 []

Dataflow Server parameters

Name Description Value
server.image.registry Spring Cloud Dataflow 이미지 레지스트리 docker.io
server.image.repository Spring Cloud Dataflow 이미지 레포지토리 bitnami/spring-cloud-dataflow
server.image.tag Spring Cloud Dataflow 이미지 태그 (immutable tag 권장) 2.9.1-debian-10-r0
server.image.pullPolicy Spring Cloud Dataflow 이미지 pull 정책 IfNotPresent
server.image.pullSecrets 도커 레지스트리 시크릿 이름 (배열) []
server.image.debug 이미지 디버그 모드 활성화 false
server.hostAliases Deployment pod host aliases []
server
.composedTaskRunner
.image.registry
Spring Cloud Dataflow Composed Task Runner 이미지 레지스트리 docker.io
server
.composedTaskRunner
.image.repository
Spring Cloud Dataflow Composed Task Runner 이미지 레포지토리 bitnami/spring-cloud-dataflow-composed-task-runner
server
.composedTaskRunner
.image.tag
Spring Cloud Dataflow Composed Task Runner 이미지 태그 (immutable tag 권장) 2.9.0-debian-10-r17
server.configuration
.streamingEnabled
스트리밍 데이터 처리를 활성/비활성화 true
server.configuration
.batchEnabled
배치 데이터 처리를 활성/비활성화(태스크와 스케줄링) true
server.configuration
.accountName
쿠버네티스 플랫폼에 설정할 계정 이름 default
server.configuration
.trustK8sCerts
쿠버네티스 API에 질의할 때 사용할 Trust K8s 인증서 false
server.configuration
.containerRegistries
컨테이너 레지스트리 설정 {}
server.configuration
.grafanaInfo
그라파나 인스턴스 엔드포인트 (Deprecated: 이 파라미터 대신 metricsDashboard를 사용해라) ""
server.configuration
.metricsDashboard
metricsDashboard 인스턴스 엔드포인트 ""
server
.existingConfigmap
Spring Cloud Dataflow 서버 설정을 가지고 있는 ConfigMap ""
server.extraEnvVars Dataflow 서버 컨테이너에 추가로 설정할 환경 변수 []
server.extraEnvVarsCM 추가 환경 변수를 가지고 있는 ConfigMap ""
server
.extraEnvVarsSecret
추가 환경 변수를 가지고 있는 시크릿 ""
server.replicaCount 배포할 Dataflow 서버 레플리카 수 1
server.strategyType StrategyType, 기본적으론 RollingUpdate나 Recreate로 설정할 수 있다 RollingUpdate
server
.podAffinityPreset
Dataflow 서버 포드 affinity 프리셋. server.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
server
.podAntiAffinityPreset
Dataflow 서버 포드 anti-affinity 프리셋. server.affinity를 설정하면 무시한다. 허용 값: soft, hard soft
server.containerPort Dataflow 서버 포트 8080
server
.nodeAffinityPreset
.type
Dataflow 서버 노드 affinity 프리셋 타입. server.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
server
.nodeAffinityPreset
.key
매칭할 Dataflow 서버 노드 레이블 키. server.affinity를 설정하면 무시한다. ""
server
.nodeAffinityPreset
.values
매칭할 Dataflow 서버 노드 레이블 값. server.affinity를 설정하면 무시한다. []
server.affinity 포드 할당을 위한 Dataflow 서버 affinity {}
server.nodeSelector 포드 할당을 위한 Dataflow 서버 노드 레이블 {}
server.tolerations 포드 할당을 위한 Dataflow 서버 tolerations []
server.podAnnotations Dataflow 서버 포드들의 어노테이션 {}
server.priorityClassName Dataflow 서버 포드들의 우선순위 ""
server
.podSecurityContext
.fsGroup
포드의 볼륨 그룹 ID 1001
server
.containerSecurityContext
.runAsUser
Dataflow 서버 컨테이너의 Security Context runAsUser 설정 1001
server.resources
.limits
Dataflow 서버 컨테이너의 resources limits {}
server.resources
.requests
Dataflow 서버 컨테이너의 requested resources {}
server.livenessProbe
.enabled
livenessProbe 활성화 true
server.livenessProbe
.initialDelaySeconds
livenessProbe의 initial delay seconds 120
server.livenessProbe
.periodSeconds
livenessProbe의 period seconds 20
server.livenessProbe
.timeoutSeconds
livenessProbe의 timeout seconds 1
server.livenessProbe
.failureThreshold
livenessProbe의 failure threshold 6
server.livenessProbe
.successThreshold
livenessProbe의 success threshold 1
server.readinessProbe
.enabled
readinessProbe 활성화 true
server.readinessProbe
.initialDelaySeconds
readinessProbe의 initial delay seconds 120
server.readinessProbe
.periodSeconds
readinessProbe의 period seconds 20
server.readinessProbe
.timeoutSeconds
readinessProbe의 timeout seconds 1
server.readinessProbe
.failureThreshold
readinessProbe의 failure threshold 6
server.readinessProbe
.successThreshold
readinessProbe의 success threshold 1
server
.customLivenessProbe
디폴트 liveness probe 재정의 {}
server
.customReadinessProbe
디폴트 readiness probe 재정의 {}
server.service.type 쿠버네티스 서비스 타입 ClusterIP
server.service.port 서비스 HTTP 포트 8080
server.service
.nodePort
LoadBalancer를 위한 nodePort 값과 nodePort 서비스 타입 지정 ""
server.service
.clusterIP
Dataflow 서버 서비스 클러스터 IP ""
server.service
.externalTrafficPolicy
클라이언트 소스 IP 보존 활성화 Cluster
server.service
.loadBalancerIP
서비스 타입이 LoadBalancer인 경우 Load balancer IP ""
server.service
.loadBalancerSourceRanges
서비스가 LoadBalancer인 경우 허용할 주소 []
server.service
.annotations
추가로 필요할만한 어노테이션 제공. 템플릿으로 가져가 사용한다. {}
server.ingress
.enabled
인그레스 컨트롤러 리소스 활성화 false
server.ingress
.path
WordPress를 가리키는 Path. ALB 인그레스 컨트롤러와 함께 사용하려면 이 값을 ‘/*‘로 설정해야 할 수도 있다. /
server.ingress
.pathType
인그레스 path 타입 ImplementationSpecific
server.ingress
.hostname
인그레스 리소스를 위한 디폴트 호스트 dataflow.local
server.ingress
.annotations
인그레스 리소스를 위한 추가 애노테이션. 인증서 자동 생성을 활성화하려면 여기에 cert-manager 어노테이션을 배치해라. {}
server.ingress
.tls
ingress.hostname 파라미터에 정의된 호스트명에 TLS 설정을 활성화 false
server.ingress
.extraHosts
이 인그레스 레코드로 처리할 추가 호스트명 리스트 []
server.ingress
.extraTls
이 인그레스 레코드로 처리할 추가 호스트명에 대한 tls 설정 []
server.ingress
.secrets
자체 인증서를 제공할 거라면 인증서를 시크릿으로 추가할 땐 이 파라미터를 사용해라. []
server.initContainers Dataflow 서버 포드에 init container 추가 []
server.sidecars Dataflow 서버 포드에 사이드카 추가 []
server.pdb.create Pod Disruption Budget 생성을 활성/비활성화 false
server.pdb
.minAvailable
예약된 상태로 유지해야 하는 최소 포드 수/백분율 1
server.pdb
.maxUnavailable
최대 포드 수/백분율. 실제론 사용하지 못할 수도 있다. ""
server.autoscaling
.enabled
Dataflow 서버에 오토 스케일링 활성화 false
server.autoscaling
.minReplicas
Dataflow 서버의 최수 레플리카 수 ""
server.autoscaling
.maxReplicas
Dataflow 서버의 최대 레플리카 수 ""
server.autoscaling
.targetCPU
목표 CPU 사용률 ""
server.autoscaling
.targetMemory
목표 메모리 사용률 ""
server.extraVolumes Dataflow 서버 포드에 설정할 추가 볼륨 []
server.extraVolumeMounts Dataflow 컨테이너에 설정할 추가 VolumeMounts []
server.jdwp.enabled 자바 디버거를 활성화하려면 true로 설정 false
server.jdwp.port 리모트 디버깅을 위한 포트 지정 5005
server.proxy SCDF 서버를 위한 프록시 설정 추가 {}

Dataflow Skipper parameters

Name Description Value
skipper.enabled Spring Cloud Skipper 컴포넌트 활성화 true
skipper.hostAliases Deployment pod host aliases []
skipper.image.registry Spring Cloud Skipper 이미지 레지스트리 docker.io
skipper.image.repository Spring Cloud Skipper 이미지 레포지토리 bitnami/spring-cloud-skipper
skipper.image.tag Spring Cloud Skipper 이미지 태그 (immutable tag 권장) 2.8.0-debian-10-r15
skipper.image.pullPolicy Spring Cloud Skipper 이미지 pull 정책 IfNotPresent
skipper.image.pullSecrets 도커 레지스트리 시크릿 이름 (배열) []
skipper.image.debug 이미지 디버그 모드 활성화 false
skipper.configuration
.accountName
쿠버네티스 플랫폼에 설정할 계정 이름 default
skipper.configuration
.trustK8sCerts
쿠버네티스 API에 질의할 때 사용할 Trust K8s 인증서 false
skipper.existingConfigmap Skipper 서버 설정을 가지고 있는 기존 ConfigMap ""
skipper.extraEnvVars Skipper 서버 컨테이너에 추가로 설정할 환경 변수 []
skipper.extraEnvVarsCM 추가 환경 변수 가지고 있는 기존 ConfigMap 이름 ""
skipper
.extraEnvVarsSecret
추가 환경 변수를 가지고 있는 기존 시크릿 이름 ""
skipper.replicaCount 배포할 Skipper 서버 레플리카 수 1
skipper.strategyType Deployment Strategy Type RollingUpdate
skipper
.podAffinityPreset
Skipper 포드 affinity 프리셋. skipper.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
skipper
.podAntiAffinityPreset
Skipper 포드 anti-affinity 프리셋. skipper.affinity를 설정하면 무시한다. 허용 값: soft, hard soft
skipper
.nodeAffinityPreset
.type
Skipper node affinity 프리셋 타입. skipper.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
skipper
.nodeAffinityPreset
.key
매칭할 Skipper 노드 레이블 키. skipper.affinity를 설정하면 무시한다. ""
skipper
.nodeAffinityPreset
.values
매칭할 Skipper 노드 레이블 값. skipper.affinity를 설정하면 무시한다. []
skipper.affinity 포드 할당을 위한 Skipper affinity {}
skipper.nodeSelector 포드 할당을 위한 Skipper 노드 레이블 {}
skipper.tolerations 포드 할당을 위한 Skipper tolerations []
skipper.podAnnotations Skipper 서버 포드의 어노테이션 {}
skipper.priorityClassName Controller priorityClassName ""
skipper
.podSecurityContext
.fsGroup
포드 볼륨의 그룹 ID 1001
skipper
.containerSecurityContext
.runAsUser
Dataflow Skipper 컨테이너의 Security Context runAsUser 설정 1001
skipper.resources
.limits
Skipper 서버 컨테이너의 resources limits {}
skipper.resources
.requests
Skipper 서버 컨테이너의 requested resources {}
skipper.livenessProbe
.enabled
livenessProbe 활성화 true
skipper.livenessProbe
.initialDelaySeconds
livenessProbe의 initial delay seconds 120
skipper.livenessProbe
.periodSeconds
livenessProbe의 period seconds 20
skipper.livenessProbe
.timeoutSeconds
livenessProbe의 timeout seconds 1
skipper.livenessProbe
.failureThreshold
livenessProbe의 failure threshold 6
skipper.livenessProbe
.successThreshold
livenessProbe의 success threshold 1
skipper.readinessProbe
.enabled
Enable readinessProbe 활성화 true
skipper.readinessProbe
.initialDelaySeconds
readinessProbe의 initial delay seconds 120
skipper.readinessProbe
.periodSeconds
readinessProbe의 period seconds 20
skipper.readinessProbe
.timeoutSeconds
readinessProbe의 timeout seconds 1
skipper.readinessProbe
.failureThreshold
readinessProbe의 failure threshold 6
skipper.readinessProbe
.successThreshold
readinessProbe의 success threshold 1
skipper
.customLivenessProbe
디폴트 liveness probe 재정의 {}
skipper
.customReadinessProbe
디폴트 readiness probe 재정의 {}
skipper.service.type 쿠버네티스 서비스 타입 ClusterIP
skipper.service.port 서비스 HTTP 포트 80
skipper.service.nodePort 서비스 HTTP 노드 포트 ""
skipper.service.clusterIP Skipper 서버 서비스 클러스터 IP ""
skipper.service
.externalTrafficPolicy
클라이언트 소스 IP 보존 활성화 Cluster
skipper.service
.loadBalancerIP
서비스 타입이 LoadBalancer인 경우 Load balancer IP ""
skipper.service
.loadBalancerSourceRanges
서비스가 LoadBalancer인 경우 허용할 주소 []
skipper.service
.annotations
Skipper 서버 서비스의 애노테이션 {}
skipper.initContainers Dataflow Skipper 포드에 init container 추가 []
skipper.sidecars Skipper 포드에 사이드카 추가 []
skipper.pdb.create Pod Disruption Budget 생성 활성/비활성화 false
skipper.pdb
.minAvailable
예약된 상태로 유지해야 하는 최수 포드 수/백분율 1
skipper.pdb
.maxUnavailable
최대 포드 수/백분율. 실제론 사용하지 못할 수도 있다. ""
skipper.autoscaling
.enabled
Skipper 서버에 오토 스케일링 활성화 false
skipper.autoscaling
.minReplicas
Skipper 서버의 최소 레플리카 수 ""
skipper.autoscaling
.maxReplicas
Skipper 서버의 최대 레플리카 수 ""
skipper.autoscaling
.targetCPU
목표 CPU 사용률 ""
skipper.autoscaling
.targetMemory
목표 메모리 사용률 ""
skipper.extraVolumes Skipper 포드에 설정할 추가 볼륨 []
skipper.extraVolumeMounts Skipper 컨테이너에 설정할 추가 VolumeMounts []
skipper.jdwp.enabled JDWPJava Debug Wire Protocol 활성화 false
skipper.jdwp.port 리모트 디버깅을 위한 JDWP TCP 포트 5005
externalSkipper.host 외부 Skipper 서버의 호스트 localhost
externalSkipper.port 외부 Skipper 서버 포트 7577

Deployer parameters

Name Description Value
deployer
.resources.limits
스트리밍 애플리케이션 resource limits {}
deployer
.resources.requests
스트리밍 애플리케이션 resource requests {}
deployer.livenessProbe
.initialDelaySeconds
livenessProbe의 initial delay seconds 90
deployer.readinessProbe
.initialDelaySeconds
readinessProbe의 initial delay seconds 120
deployer.nodeSelector 스트리밍 애플리케이션 배포에 적용할 노드 셀렉터 (“키:값” 형식) ""
deployer.tolerations 스트리밍 애플리케이션 tolerations {}
deployer.volumeMounts 스트리밍 애플리케이션의 추가 볼륨 마운트 {}
deployer.volumes 스트리밍 애플리케이션의 추가 볼륨 {}
deployer
.environmentVariables
스트리밍 애플리케이션 환경 변수 ""
deployer
.podSecurityContext
.runAsUser
Dataflow Streams 컨테이너의 Security Context runAsUser 설정 1001

RBAC parameters

Name Description Value
serviceAccount.create Dataflow 서버와 Skipper 서버 포드에 ServiceAccount 생성 활성화 true
serviceAccount.name 생성할 serviceAccount 이름 ""
rbac.create RBAC 리소스 생성과 사용 여부 true

Metrics parameters

Name Description Value
metrics.enabled 프로메테우스 메트릭 활성화 false
metrics.image.registry 프로메테우스 Rsocket 프록시 이미지 레지스트리 docker.io
metrics.image.repository 프로메테우스 Rsocket 프록시 이미지 레포지토리 bitnami/prometheus-rsocket-proxy
metrics.image.tag 프로메테우스 Rsocket 프록시 이미지 태그 (immutable tag 권장) 1.3.0-debian-10-r306
metrics.image.pullPolicy 프로메테우스 Rsocket 프록시 이미지 pull 정책 IfNotPresent
metrics.image.pullSecrets 도커 레지스트리 시크릿 이름 (배열) []
metrics.resources.limits 프로메테우스 Rsocket 프록시 컨테이너의 resources limits {}
metrics.resources.requests 프로메테우스 Rsocket 프록시 컨테이너의 requested resources {}
metrics.replicaCount 배포할 프로메테우스 Rsocket 프록시 레플리카 수 1
metrics
.podAffinityPreset
프로메테우스 Rsocket 프록시 포드 affinity 프리셋. metrics.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
metrics
.podAntiAffinityPreset
프로메테우스 Rsocket 프록시 포드 anti-affinity 프리셋. metrics.affinity를 설정하면 무시한다. 허용 값: soft, hard soft
metrics
.nodeAffinityPreset
.type
프로메테우스 Rsocket 프록시 노드 affinity 프리셋 타입. metrics.affinity를 설정하면 무시한다. 허용 값: soft, hard ""
metrics
.nodeAffinityPreset
.key
매칭할 프로메테우스 Rsocket 프록시 노드 레이블 키. metrics.affinity를 설정하면 무시한다. ""
metrics
.nodeAffinityPreset
.values
매칭할 프로메테우스 Rsocket 프록시 노드 레이블 값. metrics.affinity를 설정하면 무시한다. []
metrics.affinity 포드 할당을 위한 프로메테우스 Rsocket 프록시 affinity {}
metrics.nodeSelector 포드 할당을 위한 프로메테우스 Rsocket 프록시 노드 레이블 {}
metrics.tolerations 포드 할당을 위한 프로메테우스 Rsocket 프록시 tolerations []
metrics.podAnnotations 프로메테우스 Rsocket 프록시 포드를 위한 애노테이션 {}
metrics.priorityClassName 프로메테우스 Rsocket 프록시 포드의 우선순위 ""
metrics.service.httpPort 프로메테우스 Rsocket 프록시 HTTP 포트 8080
metrics.service
.rsocketPort
프로메테우스 Rsocket 프록시 Rsocket 포트 7001
metrics.service
.annotations
프로메테우스 Rsocket 프록시 서비스를 위한 애노테이션 {}
metrics.serviceMonitor
.enabled
true면 Prometheus Operator ServiceMonitor를 생성한다 (metrics.enabledtrue로 설정돼 있어야 한다) false
metrics.serviceMonitor
.extraLabels
prometheus operator를 serviceMonitorSelector로 설정한 경우 ServiceMonitor에 추가할 레이블 {}
metrics.serviceMonitor
.namespace
ServiceMonitor를 생성하는 네임스페이스 (릴리즈와 다른 경우) ""
metrics.serviceMonitor
.interval
메트릭을 스크랩할 간격 ""
metrics.serviceMonitor
.scrapeTimeout
스크랩을 끝낸 후 타임아웃 ""
metrics.pdb
.create
Pod Disruption Budget 생성을 활성/비활성화 false
metrics.pdb
.minAvailable
예약된 상태로 유지해야 하는 최소 포드 수/백분율 1
metrics.pdb
.maxUnavailable
최대 포드 수/백분율. 실제론 사용하지 못할 수도 있다. ""
metrics.autoscaling
.enabled
프로메테우스 Rsocket 프록시에 오토 스케일링 활성화 false
metrics.autoscaling
.minReplicas
프로메테우스 Rsocket 프록시의 최소 레플리카 수 ""
metrics.autoscaling
.maxReplicas
프로메테우스 Rsocket 프록시의 최대 레플리카 수 ""
metrics.autoscaling
.targetCPU
목표 CPU 사용률 ""
metrics.autoscaling
.targetMemory
목표 메모리 사용률 ""

Init Container parameters

Name Description Value
waitForBackends.enabled 스트리밍을 활성화할 때 사용하는 데이터베이스와 다른 서비스들을(카프카, RabbitMQ같은) 기다린다 true
waitForBackends.image.registry Init container wait-for-backend 이미지 레지스트리 docker.io
waitForBackends
.image.repository
Init container wait-for-backend 이미지 이름 bitnami/kubectl
waitForBackends
.image.tag
Init container wait-for-backend 이미지 태그 1.19.16-debian-10-r0
waitForBackends
.image.pullPolicy
Init container wait-for-backend 이미지 pull 정책 IfNotPresent
waitForBackends
.image.pullSecrets
도커 레지스트리 시크릿 이름 (배열) []
waitForBackends
.resources.limits
Init container wait-for-backend resource limits {}
waitForBackends
.resources.requests
Init container wait-for-backend resource requests {}

Database parameters

Name Description Value
mariadb.enabled MariaDB 차트 인스톨 활성/비활성화 true
mariadb.architecture MariaDB 아키텍처. 허용 값: standalone, replication standalone
mariadb.auth.rootPassword MariaDB root user password ""
mariadb.auth.username 새로 생성할 user의 username dataflow
mariadb.auth.password 새 사용자의 password change-me
mariadb.auth.database 생성할 데이터베이스 이름 dataflow
mariadb.auth.forcePassword 데이터베이스에서 사용자가 필수 암호를 지정하도록 강제한다. false
mariadb.auth.usePasswordFiles credential에 환경 변수를 사용하는 대신 파일로 마운트 false
mariadb.initdbScripts 처음 부팅할 때 실행할 스크립트 딕셔너리 지정 {}
flyway.enabled 기동 시 Dataflow, Skipper 데이터베이스 생성 스크립트를 실행하는 flyway 활성/비활성화 true
externalDatabase.host 외부 데이터베이스 호스트 localhost
externalDatabase.port 외부 데이터베이스 포트 넘버 3306
externalDatabase.driver JDBC Driver 클래스의 풀 네임fully qualified name ""
externalDatabase.scheme 스킴은 URL의 “jdbc:” 다음에 오는 벤더 전용 혹은 공통 프로토콜 문자열이다. ""
externalDatabase.password 위 username의 password ""
externalDatabase
.existingPasswordSecret
데이터베이스 password를 가지고 있는 기존 시크릿 ""
externalDatabase
.existingPasswordKey
데이터베이스 password를 가지고 있는 기존 시크릿의 키. 기본값은 datasource-password. ""
externalDatabase
.dataflow.url
dataflow 서버의 JDBC URL. 외부 스킴, 호스트, 포트, 데이터베이스, jdbc 파라미터들을 재정의한다. ""
externalDatabase
.dataflow.database
Dataflow 서버에서 사용할 기존 데이터베이스 이름 dataflow
externalDatabase
.dataflow.username
Dataflow 서버에서 사용할 외부 db의 기존 username dataflow
externalDatabase
.skipper.url
skipper의 JDBC URL. 외부 스킴, 호스트, 포트, 데이터베이스, jdbc 파라미터들을 재정의한다. ""
externalDatabase
.skipper.database
Skipper 서버에서 사용할 기존 데이터베이스 이름 skipper
externalDatabase
.skipper.username
Skipper 서버에서 사용할 외부 db의 기존 username skipper
externalDatabase
.hibernateDialect
Dataflow/Skipper 서버에서 사용할 하이버네이트 방언Dialect ""

RabbitMQ chart parameters

Name Description Value
rabbitmq.enabled RabbitMQ 차트 인스톨 활성/비활성화 true
rabbitmq.auth.username RabbitMQ username user
externalRabbitmq.enabled 외부 RabbitMQ 활성/비활성화 false
externalRabbitmq.host 외부 RabbitMQ 호스트 localhost
externalRabbitmq.port 외부 RabbitMQ 포트 넘버 5672
externalRabbitmq.username 외부 RabbitMQ username guest
externalRabbitmq.password 외부 RabbitMQ password. 쿠버네티스 시크릿에 저장된다 guest
externalRabbitmq.vhost 외부 RabbitMQ virtual 호스트. 쿠버네티스 시크릿에 저장된다 ""
externalRabbitmq
.existingPasswordSecret
RabbitMQ password를 가지고 있는 기존 시크릿. 쿠버네티스 시크릿에 저장된다 ""

Kafka chart parameters

Name Description Value
kafka.enabled 카프카 차트 인스톨 활성/비활성화 false
kafka.replicaCount 카프카 브로커 수 1
kafka.offsetsTopicReplicationFactor 카프카 시크릿 키 1
kafka.zookeeper.replicaCount 주키퍼 레플리카 수 1
externalKafka.enabled 외부 카프카 활성/비활성화 false
externalKafka.brokers 외부 카프카 브로커 localhost:9092
externalKafka.zkNodes 외부 주키퍼 노드 localhost:2181

각 파라미터는 helm install--set key=value[,key=value] 인자를 사용해서 지정한다. 예를 들어,

helm install my-release --set server.replicaCount=2 bitnami/spring-cloud-dataflow

위 명령어는 Dataflow 서버 레플리카 2개를 갖는 Spring Cloud Data Flow 차트를 설치한다.

아니면 차트를 설치할 때 파라미터 값을 지정해둔 YAML 파일을 제공해도 된다. 예를 들어,

helm install my-release -f values.yaml bitnami/spring-cloud-dataflow

: 디폴트 values.yaml을 활용해도 된다


Configuration and installation details

Rolling VS Immutable tags

프로덕션 환경에선 웬만하면 immutable 태그를 사용하는 게 좋다. 이렇게 하면 동일한 태그가 다른 이미지로 업데이트돼도 자동으로 배포 내용이 변경되지 않는다.

Bitnami에선 메인 컨테이너의 새 버전이 나오거나, 중요한 변경 사항이 생기거나, 심각한 취약점이 있는 경우 해당 컨테이너를 업데이트하는 새 차트를 릴리즈할 거다.

Features

태스크와 스케줄만 배포하면 된다면 스트리밍과 Skipper는 비활성화할 수 있다:

server.configuration.batchEnabled=true
server.configuration.streamingEnabled=false
skipper.enabled=false
rabbitmq.enabled=false

스트림만 배포해야 할 때는 태스크와 스케줄을 비활성화할 수 있다:

server.configuration.batchEnabled=false
server.configuration.streamingEnabled=true
skipper.enabled=true
rabbitmq.enabled=true

참고: server.configuration.batchEnabledserver.configuration.streamingEnabled를 동시에 false로 설정하는 건 안 된다.

Messaging solutions

이 차트에선 두 가지 메세징 솔루션을 지원한다.

메세징 레이어를 카프카로 변경하려면 아래 파라미터를 사용해라:

rabbitmq.enabled=false
kafka.enabled=true

동시에 메세지 처리 레이어를 2개 사용하는 건 불가능하다.

Using an external database

간혹 Spring Cloud 컴포넌트에서 연결할 데이터베이스를 클러스터 내부에 설치하기보단 외부 데이터베이스를 사용하고 싶을 수도 있다. 예를 들어 이미 관리 중인 데이터베이스 서비스를 사용하거나, 데이터베이스 서버를 한 개만 실행해두고 모든 애플리케이션에서 사용하고 싶을 수 있다. 이럴땐 차트의 externalDatabase 파라미터 아래에 외부 데이터베이스에 대한 credential을 지정할 수 있다. mariadb.enabled 옵션으로 MariaDB 인스톨을 비활성화하는 것도 잊지 말자. 예를 들어 아래 파라미터들로 설정할 수 있다:

mariadb.enabled=false
externalDatabase.scheme=mariadb
externalDatabase.host=myexternalhost
externalDatabase.port=3306
externalDatabase.password=mypassword
externalDatabase.dataflow.user=mydataflowuser
externalDatabase.dataflow.database=mydataflowdatabase
externalDatabase.dataflow.user=myskipperuser
externalDatabase.dataflow.database=myskipperdatabase

참고: 이 차트는 개별 프로퍼티들을 사용하면 (스킴, 호스트, 포트, 데이터베이스, 생략 가능한 jdbcParameters), JDBC URL을 jdbc:{scheme}://{host}:{port}/{database}{jdbcParameters} 형식으로 맞춘다. 이 URL 포맷은 MariaDB 데이터베이스 드라이브의 포맷을 따르고 있지만, 다른 데이터베이스 벤더에서는 동작하지 않을 수도 있다.

MariaDB가 아닌 다른 데이터베이스 벤더를 사용하려면 externalDatabase.dataflow.urlexternalDatabase.skipper.url 프로퍼티를 사용해 dataflow 서버와 skipper에 각각 JDBC URL을 제공하면 된다. 이런 프로퍼티들을 정의하면 개별 프로퍼티보다 우선시된다. 다음은 외부 MS SQL Server 데이터베이스를 설정하는 예시다:

mariadb.enabled=false
externalDatabase.password=mypassword
externalDatabase.dataflow.url=jdbc:sqlserver://mssql-server:1433
externalDatabase.dataflow.user=mydataflowuser
externalDatabase.skipper.url=jdbc:sqlserver://mssql-server:1433
externalDatabase.skipper.user=myskipperuser
externalDatabase.hibernateDialect=org.hibernate.dialect.SQLServer2012Dialect

주의: 위와 같이 MariaDB를 비활성화하는 경우엔 반드시 externalDatabase 커넥션을 위한 값들을 제공해야 한다.

Adding extra flags

Spring Cloud 컴포넌트에 별도 환경 변수를 추가하려는 경우 XXX.extraEnvs 파라미터를 활용할 수 있다. 여기서 XXX는 플레이스홀더를 의미하며, 실제 컴포넌트로 대체해야 한다. 예를 들어 Spring Cloud Data Flow에 별도 플래그를 추가하려면 다음과 같이 설정해주면 된다:

server:
  extraEnvs:
    - name: FOO
      value: BAR

Using custom Dataflow configuration

이 헬름 차트는 Dataflow 서버에 대한 커스텀 설정을 지원한다.

Dataflow 서버 설정을 지정하려면, server.existingConfigmap 파라미터를 설정 파일을 가지고 있는 외부 ConfigMap으로 설정하면 된다.

Using custom Skipper configuration

이 헬름 차트는 Skipper 서버에 대한 커스텀 설정을 지원한다.

Skipper 서버 설정을 지정하려면, skipper.existingConfigmap 파라미터를 설정 파일을 가지고 있는 외부 ConfigMap으로 설정하면 된다.

Sidecars and Init Containers

Dataflow나 Skipper와 동일한 포드 내에서 다른 컨테이너를 함께 실행해야 하는 경우 (ex. 별도 메트릭이나 로깅 exporter) XXX.sidecars 파라미터를 사용하면 된다. 여기서 XXX는 플레이스홀더로 실제 컴포넌트로 교체해야 한다. 원하는 컨테이너를 쿠버네티스 컨테이너 스펙에 따라 정의하면 된다.

server:
  sidecars:
    - name: your-image-name
      image: your-image
      imagePullPolicy: Always
      ports:
        - name: portname
          containerPort: 1234

별도의 init 컨테이너도 마찬가지로 XXX.initContainers 파라미터를 사용해 추가할 수 있다.

server:
  initContainers:
    - name: your-image-name
      image: your-image
      imagePullPolicy: Always
      ports:
        - name: portname
          containerPort: 1234

Ingress

이 차트는 인그레스 리소스를 지원한다. 클러스터에 nginx-ingresstraefik같은 인그레스 컨트롤러를 이미 설치했다면 해당 인그레스 컨트롤러를 활용해 Spring Cloud Data Flow 서버를 서빙할 수 있다.

인그레스 통합을 활성화하려면 server.ingress.enabledtrue로 설정해라.

Hosts

대부분은 이 헬름 차트로 설치한 Spring Cloud Data Flow에 매핑되는 호스트명이 하나만 있기를 원할 거다. 이런 경우엔 server.ingress.hostname 프로퍼티가 이 값을 설정할 거다. 하지만 호스트를 둘 이상 가지는 경우도 있다. 이럴 땐 server.ingress.extraHosts 객체를 배열로 지정할 수 있다. server.ingress.extraTLS를 사용해 추가 호스트에 대한 TLS 설정을 추가할 수도 있다.

server.ingress.extraHosts에 명시한 각 호스트마다 name, path와, 인그레스 컨트롤러에 알려주고 싶은 annotations를 지정해라.

애노테이션은 이 문서를 참고해라. 모든 인그레스 컨트롤러가 전부 애노테이션을 지원하는 건 아니지만, 이 문서는 많이 사용하는 다양한 인그레스 컨트롤러에서 어떤 애노테이션을 지원하는지 잘 보여주고 있다.

TLS

이 차트는 인그레스 컨트롤러와 함께 사용할 TLS 시크릿을 쉽게 생성할 수 있도록 도와주지만, 시크릿을 꼭 만들어야 하는 건 아니다. 여기에는 일반적인 네 가지 유스 케이스가 있다:

Setting Pod’s affinity

이 차트에선 XXX.affinity 파라미터를 통해 커스텀 affinity를 설정할 수 있다. 포드의 affinity는 쿠버네티스 문서를 참고해라.

아니면 bitnami/common 차트에서 제공하는 포드 affinity, 포드 anti-affinity, 노드 affinity 프리셋 설정을 사용해도 된다. 이땐 XXX.podAffinityPreset, XXX.podAntiAffinityPreset, XXX.nodeAffinityPreset 파라미터를 설정하면 된다.


Troubleshooting

Bitnami 헬름 차트를 사용하다 흔히 만날 수 있는 에러들을 해결하는 방법은 여기 트러블슈팅 가이드를 살펴봐라.


Upgrading

RabbitMQ 차트를 활성화해 Skipper가 스트리밍 콘텐츠를 관리할 메세징 솔루션으로 RabbitMQ를 사용하도록 했다면, 업그레이드할 땐 rabbitmq.auth.passwordrabbitmq.auth.erlangCookie 파라미터를 설정해야 readiness/liveness 프로브가 제대로 동작한다. RabbitMQ 시크릿에서 password와 Erlang 쿠키를 가져온 다음 아래에 있는 명령어를 실행하면 차트를 업그레이드할 수 있다:

To 4.0.0

이 메이저 버전에선 서브 카프카 차트를 최신 메이저 버전 14.0.0으로 업데이트한다. 이 버전에서 새로 도입된 변경 사항들은 여기에서 자세히 확인할 수 있다.

To 3.0.0

이 메이저 버전에선 서브 카프카 차트를 최신 메이저 버전 13.0.0으로 업데이트한다. 이 서브 차트의 메이저 버전에 대한 자세한 내용은 카프카 업그레이드 노트를 참고해라.

To 2.0.0

2020년 11월 13일에 헬름 v2 지원이 공식적으로 종료됨에 따라, 이 메이저 버전은 헬름 v3에 추가된 다양한 기능들을 흡수하고 헬름 v2 EOL과 관련해서 헬름 프로젝트 자체와의 일관성을 유지하록 헬름 차트에 필요한 변경 사항을 적용한 버전이다.

이 메이저 버전에선 어떤 것들이 바뀌었을까?

이 버전으로 업그레이드할 때 주의할 점들

참고하기 좋은 링크들

v0.x.x

helm upgrade my-release bitnami/spring-cloud-dataflow --set mariadb.rootUser.password=[MARIADB_ROOT_PASSWORD] --set rabbitmq.auth.password=[RABBITMQ_PASSWORD] --set rabbitmq.auth.erlangCookie=[RABBITMQ_ERLANG_COOKIE]

v1.x.x

helm upgrade my-release bitnami/spring-cloud-dataflow --set mariadb.auth.rootPassword=[MARIADB_ROOT_PASSWORD] --set rabbitmq.auth.password=[RABBITMQ_PASSWORD] --set rabbitmq.auth.erlangCookie=[RABBITMQ_ERLANG_COOKIE]

Notable changes

v1.0.0

MariaDB 의존성 버전은 새 메이저 버전에서 도입된 몇 가지 기능들과 호환이 되지 않는 이슈가 있었다. 그렇기 때문에 외부 데이터베이스를 사용하는 게 아니라면 이전 버전과의 호환성을 보장하지 않는다. 자세한 내용은 MariaDB 업그레이드 노트를 확인해봐라.

1.0.0으로 업그레이드하려면 이전 릴리즈에서 MariaDB 데이터를 보관하는 데 사용한 PVC를 재사용해야 한다. 아래 가이드를 따라하면 된다 (아래 예시에선 릴리즈 이름이 dataflow라고 가정한다).

주의: 이 작업을 시작하기 전에 미리 데이터베이스 백업을 만들어둬라.

현 릴리즈에서 MariaDB 데이터를 보관하는 데 사용한 PVC의 credential과 이름을 가져와라:

export MARIADB_ROOT_PASSWORD=$(kubectl get secret --namespace default dataflow-mariadb -o jsonpath="{.data.mariadb-root-password}" | base64 --decode)
export MARIADB_PASSWORD=$(kubectl get secret --namespace default dataflow-mariadb -o jsonpath="{.data.mariadb-password}" | base64 --decode)
export MARIADB_PVC=$(kubectl get pvc -l app=mariadb,component=master,release=dataflow -o jsonpath="{.items[0].metadata.name}")
export RABBITMQ_PASSWORD=$(kubectl get secret --namespace default dataflow-rabbitmq -o jsonpath="{.data.rabbitmq-password}" | base64 --decode)
export RABBITMQ_ERLANG_COOKIE=$(kubectl get secret --namespace default dataflow-rabbitmq -o jsonpath="{.data.rabbitmq-erlang-cookie}" | base64 --decode)

현재 릴리즈에서 MariaDB를 비활성화하고 Data Flow 레플리카를 0으로 수정해라 (버전은 유지):

$ helm upgrade dataflow bitnami/spring-cloud-dataflow --version 0.7.4 \
  --set server.replicaCount=0 \
  --set skipper.replicaCount=0 \
  --set mariadb.enabled=false \
  --set rabbitmq.auth.password=$RABBITMQ_PASSWORD \
  --set rabbitmq.auth.erlangCookie=$RABBITMQ_ERLANG_COOKIE

마지막으로, 릴리즈를 1.0.0으로 업그레이드하면서 기존 PVC를 재사용하고 MariaDB를 다시 활성화한다:

$ helm upgrade dataflow bitnami/spring-cloud-dataflow \
  --set mariadb.primary.persistence.existingClaim=$MARIADB_PVC \
  --set mariadb.auth.rootPassword=$MARIADB_ROOT_PASSWORD \
  --set mariadb.auth.password=$MARIADB_PASSWORD \
  --set rabbitmq.auth.password=$RABBITMQ_PASSWORD \
  --set rabbitmq.auth.erlangCookie=$RABBITMQ_ERLANG_COOKIE

MariaDB 컨테이너 로그에서 아래와 같은 출력을 볼 수 있을 거다:

$ kubectl logs $(kubectl get pods -l app.kubernetes.io/instance=dataflow,app.kubernetes.io/name=mariadb,app.kubernetes.io/component=primary -o jsonpath="{.items[0].metadata.name}")
...
mariadb 12:13:24.98 INFO  ==> Using persisted data
mariadb 12:13:25.01 INFO  ==> Running mysql_upgrade
...

Expected output

helm install 명령어를 실행하고 나면 아래와 유사한 출력을 볼 수 있을 거다:

NAME: my-release
LAST DEPLOYED: Sun Nov 22 21:12:29 2020
NAMESPACE: default
STATUS: deployed
REVISION: 1
TEST SUITE: None
NOTES:
** Please be patient while the chart is being deployed **

Spring Cloud Data Flow 차트는 아래 컴포넌트들을 사용해서 배포했다:

클러스터 내에선 Spring Cloud Data Flow에 아래 DNS 네임을 통해 액세스할 수 있다:

my-release-spring-cloud-dataflow-server.default.svc.cluster.local (port 8080)

클러스터 외부에서 Spring Cloud Data Flow 대시보드에 액세스하려면 아래 명령어를 실행해라:

  1. 아래 명령어를 통해 Data Flow 대시보드 URL를 확인한다:

    export SERVICE_PORT=$(kubectl get --namespace default -o jsonpath="{.spec.ports[0].port}" services my-release-spring-cloud-dataflow-server)
    kubectl port-forward --namespace default svc/my-release-spring-cloud-dataflow-server ${SERVICE_PORT}:${SERVICE_PORT} & echo "http://127.0.0.1:${SERVICE_PORT}/dashboard"
    
  2. 브라우저를 열고 위에서 확인한 URL을 통해 Data Flow 대시보드에 접근한다.

원한다면 helm install에 아래 set 인자를 전달해서 Spring Cloud Data Flow 서비스 타입을 변경해도 된다:

--set server.service.type=ServiceType

여기서 ServiceType은 유효한 서비스 이름이다 (예를 들어 LoadBalancer, NodePort 등).

LoadBalancer IP를 사용할 수 있기까지 몇 분 정도 소요될 수 있다. kubectl get svc -w my-release-spring-cloud-dataflow-server를 실행하면 서버의 상태를 지켜볼 수 있다.

로드 밸런서를 지원하지 않는 Minikube를 사용한다면, 다음 명령어를 통해 서버의 URL을 확인할 수 있다:

minikube service --url my-release-spring-cloud-dataflow-server

이제 쿠버네티스 클러스터의 디폴트 네임스페이스에 새 릴리즈 생성을 완료했다. 해당 애플리케이션과 필요한 서비스들을 시작하려면 몇 분 정도 걸린다. kubectl get pod -w 명령어를 실행하면 상태를 확인할 수 있다. 모든 포드의 READY 컬럼에 1/1이 보일 때까지 기다려야 한다.

모든 포드가 준비되면 http://<SERVICE_ADDRESS>/dashboard로 Spring Cloud Data Flow 대시보드에 접근할 수 있다. 여기서 <SERVICE_ADDRESS>는 앞에서 보여준 kubectl이나 minikube 명령어에서 반환하는 주소다.

Version Compatibility

다음은 헬름 차트 릴리즈별 Spring Cloud Data Flow의 버전 호환성을 정리한 테이블이다:

공식 헬름 레포지토리에서 deprecated된 차트들:

SCDF Version Chart Version
SCDF-K8S-Server 1.7.x 1.0.x
SCDF-K8S-Server 2.0.x 2.2.x
SCDF-K8S-Server 2.1.x 2.3.x
SCDF-K8S-Server 2.2.x 2.4.x
SCDF-K8S-Server 2.3.x 2.5.x
SCDF-K8S-Server 2.4.x 2.6.x
SCDF-K8S-Server 2.5.x 2.7.x
SCDF-K8S-Server 2.6.x 2.8.x

Bitnami 차트들:

SCDF Version Chart Version
SCDF-K8S-Server 2.6.x 1.1.x
SCDF-K8S-Server 2.7.x 2.0.x

Registering Prebuilt Applications

미리 빌드해서 제공하는 스트리밍 애플리케이션들은 모두:

애플리케이션들은 app register 기능을 통해 개별적으로 등록하거나 app import 기능을 통해 그룹으로 등록할 수 있다. 특정 릴리즈에서 미리 빌드된 애플리케이션들의 그룹을 나타내는 dataflow.spring.io 링크도 준비되어 있어 처음 시작할 때 활용하기 좋다.

애플리케이션은 UI나 쉘로 등록할 수 있다. 뒤에 나올 가이드에선 사전 빌드된 애플리케이션을 두 개만 사용하긴 하지만, 미리 제공하는 애플리케이션의 풀 셋을 등록해보자.

쿠버네티스에서 Data Flow를 설치할 땐 RabbitMQ를 기본 메세징 미들웨어로 사용하는 헬름 차트를 사용하면 가장 쉽다. RabbitMQ 애플리케이션을 임포트하는 명령어는 다음과 같다:

dataflow:>app import --uri https://dataflow.spring.io/rabbitmq-docker-latest

메세징 미들웨어로 카프카를 선택한 뒤 헬름 차트에서 kafka.enabled=true를 설정했거나 뒤에 나오는 kubectl 기반 수동 설치 가이드대로 따라했다면, 위 URL에서 rabbitmqkafka로 변경해라.

쿠버네티스 전용 Data Flow 서버에선 --uri 프로퍼티로 도커 리소스를 가리켜 등록한 애플리케이션만 지원한다. 하지만 각 애플리케이션에서 지원하는 프로퍼티를 나열해주는 --metadata-uri 프로퍼티에선 메이븐 리소스를 지원한다. 예를 들어 아래와 같이 애플리케이션을 등록할 수 있다:

app register --type source --name time --uri docker://springcloudstream/time-source-rabbit:{docker-time-source-rabbit-version} --metadata-uri maven://org.springframework.cloud.stream.app:time-source-rabbit:jar:metadata:{docker-time-source-rabbit-version}

메이븐, HTTP, File 리소스/executable jar로 등록된 애플리케이션은 모두 지원하지 않는다 (--uri 프로퍼티에 maven://, http://, file://을 프리픽스로 사용하는 방식).


Application and Server Properties

이 섹션에선 애플리케이션을 커스텀해서 배포하는 방법을 설명한다. 다양한 프로퍼티를 사용해 배포하는 애플리케이션들의 설정을 변경할 수 있다. 프로퍼티는 애플리케이션별로도 적용할 수 있고, 적당한 서버 설정으로 배포하는 모든 애플리케이션에 적용할 수도 있다.

애플리케이션 단위로 설정한 프로퍼티는 항상 서버 설정으로 들어간 프로퍼티보다 우선시된다. 덕분에 서버의 수준 글로벌 프로퍼티를 애플리케이션별로 재정의할 수 있다.

배포된 모든 태스크에 적용할 프로퍼티는 src/kubernetes/server/server-config.yaml 파일에 정의하며, 스트림에선 src/kubernetes/skipper/skipper-config-(binder).yaml에 정의한다. (binder)는 사용 중인 메세징 미들웨어로 변경해라 (ex. rabbit, kafka).

Memory and CPU Settings

애플리케이션들은 디폴트 메모리, CPU 설정으로 배포된다. 필요하다면 이 값들은 변경할 수 있다. 다음은 Limits는 CPU 1000m, 메모리 1024Mi로, Requests는 CPU 800m, 메모리 640Mi로 설정하는 예시다:

deployer.<app>.kubernetes.limits.cpu=1000m
deployer.<app>.kubernetes.limits.memory=1024Mi
deployer.<app>.kubernetes.requests.cpu=800m
deployer.<app>.kubernetes.requests.memory=640Mi

이렇게 세팅하면 컨테이너에선 다음과 같은 설정을 사용하게 된다:

Limits:
  cpu: 1
  memory: 1Gi
Requests:
  cpu: 800m
  memory: 640Mi

cpumemory를 글로벌하게 설정해주는 디폴트 값도 제어할 수 있다.

다음은 스트림과 테스크에서 CPU, 메모리를 설정하는 예시다:

Streams Tasks
data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    limits:
                      memory: 640mi
                      cpu: 500m
data:
  application.yaml: |-
    spring:
      cloud:
        dataflow:
          task:
            platform:
              kubernetes:
                accounts:
                  default:
                    limits:
                      memory: 640mi
                      cpu: 500m

지금까지 사용해본 설정은 컨테이너 설정에만 영향을 준다. 컨테이너의 JVM 프로세스 메모리 설정에는 영향이 없다. JVM 메모리 설정을 변경하고 싶으면 환경 변수를 제공하면 된다. 자세한 내용은 다음 섹션을 참고해라.

Environment Variables

주어진 애플리케이션의 환경 설정을 변경하려면 depolyer 프로퍼티 spring.cloud.deployer.kubernetes.environmentVariables를 활용하면 된다. 예를 들어, 프로덕션 설정에서 흔한 요구 사항은 JVM 메모리 인자를 바꾸는 거다. 이럴땐 다음과 같이 JAVA_TOOL_OPTIONS 환경 변수를 사용하면 된다:

deployer.<app>.kubernetes.environmentVariables=JAVA_TOOL_OPTIONS=-Xmx1024m

environmentVariables 프로퍼티는 문자열을 콤마로 구분해서 받는다. 환경 변수에 사용할 값 자체에도 콤마로 구분하는 문자열이 있다면 반드시 작은 따옴표로 감싸줘야 한다. 예를 들어,

spring.cloud.deployer.kubernetes.environmentVariables=spring.cloud.stream.kafka.binder.brokers='somehost:9092, anotherhost:9093'

이렇게 하면 지정한 <app>에 대한 JVM 메모리 설정을 재정의한다 (<app>은 애플리케이션 이름으로 치환해라).

Liveness and Readiness Probes

livenessreadiness 프로브는 각각 /health, /info라는 경로를 사용한다. 둘 모두 delay10이고, period는 각각 6010이다. deployer 프로퍼티를 사용하면 이 기본값을 변경해서 스트림을 배포할 수 있다. liveness와 readiness 프로브는 스트림에만 적용된다.

다음은 deployer 프로퍼티를 통해 liveness 프로브를 변경하는 예시다 (<app>은 애플리케이션 이름으로 치환):

deployer.<app>.kubernetes.livenessProbePath=/health
deployer.<app>.kubernetes.livenessProbeDelay=120
deployer.<app>.kubernetes.livenessProbePeriod=20

같은 설정을 다음과 같이 스트림들에 대한 서버 글로벌 설정으로도 선언할 수 있다:

data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    livenessProbePath: /health
                    livenessProbeDelay: 120
                    livenessProbePeriod: 20

디폴트 readiness 설정도 마찬가지로 liveness대신 readiness를 사용해 재정의할 수 있다.

기본적으로 프로브 포트는 8080을 사용한다. liveness, readiness 프로브의 디폴트 포트는 다음과 같이 deployer 프로퍼티를 통해 변경할 수 있다:

deployer.<app>.kubernetes.readinessProbePort=7000
deployer.<app>.kubernetes.livenessProbePort=7000

같은 설정을 다음과 같이 스트림들에 대한 글로벌 설정으로도 선언할 수 있다:

data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    readinessProbePort: 7000
                    livenessProbePort: 7000

기본적으로 liveness, readiness 프로브 경로는 스프링 부트 2.x+ 액츄에이터 엔드포인트를 사용한다. 스프링 부트 1.x 액츄에이터 엔드포인트 경로를 사용하려면 반드시 다음과 같이 liveness, readiness 값을 변경해야 한다 (<app>은 애플리케이션 이름으로 치환):

deployer.<app>.kubernetes.livenessProbePath=/health
deployer.<app>.kubernetes.readinessProbePath=/info

아래 프로퍼티를 설정해주면 지정한 애플리케이션에서 자동으로 liveness, readiness 엔드포인트를 스프링 부트 1.x 디폴트 경로로 설정한다:

deployer.<app>.kubernetes.bootMajorVersion=1

프로브 엔드포인트를 보호 중이라면 쿠버네티스 시크릿에 저장한 credential을 사용해서 액세스할 수 있다. 시크릿 data 블록의 credentials 키에 credential이 들어 있기만 하면 기존 시크릿을 사용할 수 있다. 프로브 인증은 애플리케이션 단위로 설정할 수 있다. 인증을 활성화하면 liveness, readiness 프로브 엔드포인트에 동일한 credential과 인증 유형을 통해 적용된다. 현재는 Basic 인증만 지원한다.

시크릿을 새로 생성하려면:

  1. 보호 중인 프로브 엔드포인트에 접근할 때 사용할 credential로 base64 문자열을 생성한다.

    Basic 인증은 username과 password를 username:password 형식의 base64 문자열로 인코딩한다.

    다음은 base64 문자열을 생성하는 방법을 보여주는 예시다 (출력 결과도 포함되어 있으며, userpass는 가지고 있는 값으로 바꿔야 한다):

    echo -n "user:pass" | base64
    dXNlcjpwYXNz
    
  2. 이 인코딩된 credential을 사용해 다음 내용을 포함하는 파일을 생성해라 (ex. myprobesecret.yml):

    apiVersion: v1
    kind: Secret
    metadata:
    name:
    myprobesecret type:
    Opaque data:
    credentials: GENERATED_BASE64_STRING
    
  3. GENERATED_BASE64_STRING을 앞에서 만든 base64 인코딩 값으로 바꿔라.

  4. 다음과 같이 kubectl을 사용해 시크릿을 생성한다:

    kubectl create -f ./myprobesecret.yml
    secret "myprobesecret" created
    
  5. 프로브 엔드포인트에 액세스할 때 인증을 수행하도록 아래 deployer 프로퍼티를 설정해라:

    deployer.<app>.kubernetes.probeCredentialsSecret=myprobesecret
    

    <app>은 인증을 적용할 애플리케이션 이름으로 치환해라.

Using SPRING_APPLICATION_JSON

모든 Data Flow 서버 구현체에서 공통으로 사용할 Data Flow 서버 프로퍼티를 설정할 땐 SPRING_APPLICATION_JSON 환경 변수를 사용할 수 있다 (예를 들어 메이븐 레포지토리와 관련된 설정들). 이 설정들은 서버 수준에 있는 deployment YAML의 컨테이너 env 섹션에 설정한다. 설정 방법은 다음 예제를 참고해라:

env:
  - name: SPRING_APPLICATION_JSON
    value: |-
    {
      "maven": {
        "local-repository": null,
        "remote-repositories": {
          "repo1": {
            "url": "https://repo.spring.io/libs-snapshot"
          }
        }
      }
    }

Private Docker Registry

도커 이미지를 가져올 private 레지스트리는 애플리케이션 단위로 설정할 수 있다. 먼저 클러스터에 시크릿을 생성해야 한다. 시크릿 생성은 Private 레지스트리에서 이미지 가져오기 가이드를 보고 따라하면 된다.

시크릿을 만들었다면 다음과 같이 imagePullSecret 프로퍼티를 통해 사용할 시크릿을 설정할 수 있다:

deployer.<app>.kubernetes.imagePullSecret=mysecret

<app>은 애플리케이션 이름으로, mysecret은 앞서 생성한 시크릿 이름으로 치환해라.

이미지 pull 시크릿은 글로벌 서버 수준으로도 설정할 수 있다.

다음은 스트림과 태스크에서 설정하는 예시다:

Streams (Skipper configuration) Tasks (DataFlow configuration)
data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    imagePullSecret: mysecret
data:
  application.yaml: |-
    spring:
      cloud:
        dataflow:
          task:
            platform:
              kubernetes:
                accounts:
                  default:
                    imagePullSecret: mysecret

mysecret은 앞서 생성한 시크릿 이름으로 치환해라.

Volume Mounted Secretes

Data Flow는 컨테이너 이미지 레이블에 저장돼 있는 애플리케이션 메타데이터를 사용한다. private 레지스트리에 있는 메타데이터 레이블에 액세스하려면 Data Flow 배포 설정을 확장해 레지스트리 시크릿을 Secrets PropertySource로 마운트해야 한다:

    spec:
      containers:
      - name: scdf-server
        ...
        volumeMounts:
          - name: mysecret
            mountPath: /etc/secrets/mysecret
            readOnly: true
        ...
      volumes:
        - name: mysecret
          secret:
            secretName: mysecret

Annotations

애플리케이션 단위로 쿠버네티스 오브젝트에 애노테이션을 추가할 수 있다. 지원하는 오브젝트 타입은 포드 Deployment, Service, Job이다. 애노테이션은 key:value 형식으로 정의하며, 여러 가지 애노테이션을 콤마로 구분해서 지정할 수 있다. 애노테이션에 대한 자세한 정보와 유스 케이스는 Annotations를 참고해라.

다음은 애플리케이션에서 애노테이션을 사용하도록 설정하는 예시다:

deployer.<app>.kubernetes.podAnnotations=annotationName:annotationValue
deployer.<app>.kubernetes.serviceAnnotations=annotationName:annotationValue,annotationName2:annotationValue2
deployer.<app>.kubernetes.jobAnnotations=annotationName:annotationValue

<app>은 애플리케이션 이름으로 바꿔야 하며, 애노테이션 값을 변경해서 사용하면 된다.

Entry Point Style

엔트리 포인트 스타일에 따라 배포하는 컨테이너에 애플리케이션 프로퍼티를 전달하는 방식이 달라진다. 현재 지원하는 스타일은 세 가지가 있다:

컨테이너에서 도커 shell 엔트리 포인트 사용할 거라면 도커 문서에서도 말하고 있듯이 애플리케이션의 SIGTERM에 끼치는 영향을 알고 있어야 한다.

세 가지 케이스 모두, 서버 수준 설정과 애플리케이션 단위에 정의한 환경 변수는 컨테이너에 그대로 설정된다.

애플리케이션에는 다음과 같이 설정한다:

deployer.<app>.kubernetes.entryPointStyle=<Entry Point Style>

<app>은 애플리케이션 이름으로, <Entry Point Style>을 원하는 엔트리 포인트 스타일로 교체해라.

글로벌 서버 레벨에도 엔트리 포인트 스타일을 설정할 수 있다.

다음은 스트림을 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    entryPointStyle: entryPointStyle

다음은 태스크를 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        dataflow:
          task:
            platform:
              kubernetes:
                accounts:
                  default:
                    entryPointStyle: entryPointStyle

entryPointStyle을 원하는 엔트리 포인트 스타일로 교체해라.

컨테이너의 Dockerfile에서 ENTRYPOINT 구문을 정의한 방식에 따라 exec, shell 중 하나의 엔트리 포인트 스타일을 선택해야 한다. execshell에 관한 자세한 정보와 유스 케이스는 도커 문서에 있는 ENTRYPOINT 섹션을 참고해라.

boot 엔트리 포인트 스타일은 exec 스타일 ENTRYPOINT를 사용하는 것과 부합한다. 배포 요청에 있는 커맨드라인 인자는, 컨테이너로 전달될 때 애플리케이션 프로퍼티를 커맨드라인 인자가 아닌 환경 변수 SPRING_APPLICATION_JSON에 매핑해서 함께 전달된다.

스프링 배치/부트 애플리케이션을 기동할 땐 exec 엔트리 포인트 스타일을 사용하거나 애플리케이션 자체에서 job 파라미터를 설정하는 자체 방법을 마련하는 게 좋다. shell 엔트리 포인트 스타일은 커맨드라인 args를 환경 변수로 변환하기 때문에, 스프링 부트에서 커맨드라인 args로 job 파라미터를 생성할 수 없기 때문이다. 해당 로직은 여기에서 확인할 수 있다.

boot 엔트리 포인트 스타일을 사용할 땐 deployer.<app>.kubernetes.environmentVariables 프로퍼티에 직접 SPRING_APPLICATION_JSON을 추가하면 안 된다.

Deployment Service Account

애플리케이션 배포에 사용할 커스텀 서비스 어카운트는 프로퍼티를 통해 설정할 수 있다. 기존 서비스 어카운트를 사용해도 되고, 어카운트를 새로 하나 만들어도 된다. 서비스 어카운트를 만드는 방법은 여러 가지지만, 다음과 같이 kubectl을 사용해 만들 수도 있다:

kubectl create serviceaccount myserviceaccountname
serviceaccount "myserviceaccountname" created

그런 다음 애플리케이션들을 개별적으로 설정해줄 수 있다:

deployer.<app>.kubernetes.deploymentServiceAccountName=myserviceaccountname

<app>은 애플리케이션 이름으로, myserviceaccountname은 서비스 어카운트 이름으로 치환해라.

서비스 어카운트 이름은 글로벌 서버 수준에서도 설정할 수 있다.

다음은 스트림을 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    deploymentServiceAccountName: myserviceaccountname

다음은 태스크를 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        dataflow:
          task:
            platform:
              kubernetes:
                accounts:
                  default:
                    deploymentServiceAccountName: myserviceaccountname

myserviceaccountname은 모든 배포에 적용할 서비스 어카운트 이름으로 치환해라.

Image Pull Policy

이미지 pull 정책은 도커 이미지를 언제 로컬 레지스트리로 가져올지를 정의한다. 현재 지원하는 정책은 세 가지가 있다:

다음은 각 애플리케이션을 개별적으로 설정하는 예시다:

deployer.<app>.kubernetes.imagePullPolicy=Always

<app>은 애플리케이션 이름으로, Always는 원하는 이미지 pull 정책으로 교체해라.

이미지 pull 정책은 글로벌 서버 수준에서도 설정할 수 있다.

다음은 스트림을 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        skipper:
          server:
            platform:
              kubernetes:
                accounts:
                  default:
                    imagePullPolicy: Always

다음은 태스크를 위한 전역 설정 예시다:

data:
  application.yaml: |-
    spring:
      cloud:
        dataflow:
          task:
            platform:
              kubernetes:
                accounts:
                  default:
                    imagePullPolicy: Always

Always는 원하는 이미지 pull 정책으로 교체해라.

Deployment Labels

Deployment와 관련된 오브젝트에는 커스텀 레이블을 설정할 수 있다. 레이블에 대한 자세한 내용은 Labels를 참고해라. 레이블은 key:value 형식으로 지정한다.

다음은 각 애플리케이션을 개별적으로 설정하는 예시다:

deployer.<app>.kubernetes.deploymentLabels=myLabelName:myLabelValue

<app>은 애플리케이션 이름으로, myLabelName은 원하는 레이블 이름으로, myLabelValue는 원하는 레이블 값으로 교체해라.

추가로 다음과 같이 여러 가지 레이블도 적용할 수 있다:

deployer.<app>.kubernetes.deploymentLabels=myLabelName:myLabelValue,myLabelName2:myLabelValue2

NodePort

Service 타입을 따로 지정하지 않으면 애플리케이션은 쿠버네티스의 디폴트 Service 타입 ClusterIP로 배포된다. ClusterIP 서비스는 해당 클러스터 안에서만 접근할 수 있다.

배포한 애플리케이션을 외부에서 사용할 수 있도록 노출하는 한 가지 옵션은 NodePort를 사용하는 거다. 자세한 내용은 NodePort 문서를 참고해라.

다음은 각 애플리케이션을 쿠버네티스가 할당하는 포트를 사용해 설정하는 예시다:

deployer.<app>.kubernetes.createNodePort=true

<app>은 애플리케이션 이름으로 치환해라.

다음과 같이 NodePort Service에서 사용할 포트를 정의할 수도 있다:

deployer.<app>.kubernetes.createNodePort=31101

<app>은 애플리케이션 이름으로, 31101은 원하는 포트로 교체해라.

포트를 직접 정의할 때는 해당 포트는 반드시 사용 중이지 않아야 하며, 정의된 NodePort 범위 내에 있어야 한다. NodePort의 기본 포트 범위는 30000-32767이다.


Monitoring

쿠버네티스에서 실행하는 프로메테우스를 이용한 Data Flow 모니터링 경험에 대해 자세히 알아보려면 스트림 모니터링 가이드나 태스크 모니터링 가이드를 참고해라.


Next :
Deploying with kubectl
kubectl을 이용해 쿠버네티스 환경에 Spring Cloud Data Flow 설치하기

전체 목차는 여기에 있습니다.

<< >>

TOP