blue green 배포 방식

실제로 우리팀에서 사용했던 무중단 배포 방식이다.

Spring을 예로 들면 전체적인 흐름은 jenkins를 통해 빌드 후, 빌드 된 jar파일을 배포를 관리하는 폴더로 복사한다. sh 스크립트를 통해 관리하기 되는데 docker compose를 통해 새로운 버전의 컨테이너를 띄우고 이전 버전을 내린다.. 말로는 참 쉽다. ;-; 

블루 그린 배포 - 개념 

블루 그린 배포는 새로운 버전의 인스턴스를 띄운 뒤, 로드밸런서를 통해 새로운 버전의 인스턴스로 트래픽을 요청한다. 

 

블루 그린 배포를 이용하면 기존에 인스턴스를 유지하던 비용의 2배가 들어가는 시점이 존재한다, 또한 새로운 버전에 치명적인 오류가 있다면 전환된 서버는 모두 내려갈 것이다. 하지만 구버전의 인스턴스가 그대로 남아있기 때문에 롤백이 손쉽고, 차마 테스트하지 못한 부분에서 치명적인 오류가 발생했다면 구버전으로 다시 트래픽을 돌리기 간편하다. 

 

블루 그린 배포 - 실습 

1. jenkins pipe line 

		# 스토리 관련 스테이지
	stage('Building story image'){
            steps{
                script {
                  dockerImage = docker.build("jodong2/story-zero-downtime", "/var/jenkins_home/workspace/deploy_test/StoryModule")
                  withCredentials([usernamePassword(credentialsId: 'jodong2', usernameVariable: 'DOCKER_HUB_USERNAME', passwordVariable: 'DOCKER_HUB_PASSWORD')]) {
                     sh 'docker login -u $DOCKER_HUB_USERNAME -p $DOCKER_HUB_PASSWORD'
                     sh 'docker push jodong2/story-zero-downtime'
                  }
                }
            }
        }
       stage('Run docker story image') {
          steps {
              dir('/var/jenkins_home/workspace/deploy/StoryModule'){
                  sh 'chmod +x deploy.sh'
                  sh './deploy.sh'
               }
            }
        }

이미지를 빌드하고 deploy.sh를 실행한다. 

#!/bin/bash

#story deploy

export DOCKER_REGISTRY=jodong2 DOCKER_APP_NAME=story-zero-downtime IMAGE_TAG=latest

EXIST_BLUE=$(docker compose -p ${DOCKER_APP_NAME}-blue -f docker-compose.blue.yaml ps | grep Up)
# 블루가 떠있는지 확인 

if [ -z "$EXIST_BLUE" ]; then
    echo "blueis is not exist. so make blue container"
    echo "blue up"
    docker compose -p ${DOCKER_APP_NAME}-blue -f docker-compose.blue.yaml up -d
    BEFORE_COMPOSE_COLOR="green"
    AFTER_COMPOSE_COLOR="blue"
    echo "end"
else
    echo "blue is exist. so make green container"
    echo "green up"
    docker compose -p ${DOCKER_APP_NAME}-green -f docker-compose.green.yaml up -d
    BEFORE_COMPOSE_COLOR="blue"
    AFTER_COMPOSE_COLOR="green"
fi

sleep 10

EXIST_AFTER=$(docker compose -p ${DOCKER_APP_NAME}-${AFTER_COMPOSE_COLOR} -f docker-compose.${AFTER_COMPOSE_COLOR}.yaml ps | grep Up)
if [ -n "$EXIST_AFTER" ]; then

    docker compose -p ${DOCKER_APP_NAME}-${BEFORE_COMPOSE_COLOR} -f docker-compose.${BEFORE_COMPOSE_COLOR}.yaml down
    echo "$BEFORE_COMPOSE_COLOR down"
fi

deploy.sh파일은 떠있는 blue, green에 따라 각 docker-compose.yaml파일을 실행하게 된다. 

컨테이너가 띄워지는 시간으로 sleep 10초를 걸어놨는데, spring 메인 서버 같은 경우엔 애플리케이션을 시작하는데 약 20초를 필요로 한다. (사실 무중단임에도 팀원이 잠깐 내려가는거 같은데? 하길래 부랴부랴 수정했다..) 따라서 해당 메인 서버의 sh파일은 sleep이 25초로 설정했다. 

 

이후 다른 색의 컨테이너가 성공적으로 띄워졌다면 이전 컨테이너를 중지한다.

version: '3.7'

services:

  api:
    image: ${DOCKER_REGISTRY}/${DOCKER_APP_NAME}:${IMAGE_TAG}

    container_name: ${DOCKER_APP_NAME}-blue

    environment:
      - LANG=ko_KR.UTF-8

    ports:
      - '{port1}:8080'



    volumes:
      - story-logs:/var/log/app

volumes:
  story-logs:

port의 경우 blue와 green을 다르게 두고 해당 포트를 기준으로 로드밸런서가 구분할 수 있도록 하였다. 

예를들어 blue는 8081, green은 8082를 열어둔다. aws에서 보안설정도 잘 확인하자.... ;-; 

# 문제가 좀 있는.. upstream 구성.. 
upstream story {
    least_conn;
    server {ip}:{blue port1};
    server {ip}:{green port2};
    server {ip}:{blue port1};
    server {ip}:{green port2};
}

Nginx에서 upstream을 통해 blue green 각 서버로 연결한다. 

 이외에도 헬스체크 기능을 활용해서 죽은 서버에는 요청을 할 수 있지만 연결을 실패할 경우 nginx는 정해진 알고리즘에따라 다음 서버로 요청을 보낸다. 따라서 별도의 설정 없이도 올라가있는 컨테이너에 요청을 보낼 수 있다. 가장 처음 시도한 방식이고,,, 죽은 서버에 요청을 보내고 실패를 돌려받은 뒤 다음 서버에 요청을 보내는건 문제가 있는 방식이다.

 

Nginx - Health Check 

죽은 서버로 요청을 보내지 않기 위해 health check하는 방법이 있다. 서버가 정상 상태인지 실시간으로 계속 확인하는 방법으로 정상서버의 서버에게만 트래픽을 분배한다. 

upstream story {
    least_conn;
    server {ip}:{blue port1};
    server {ip}:{blue port1};
    check interval=3000 rise=2 fall=5 timeout=4000 type=http;
    check_http_send "HEAD / HTTP/1.0\r\n\r\n";
    check_http_expect_alive http_2xx http_3xx;
}

추가된 내용을 보면 3초단위로 2번 성공하면 정상, 5번 실패하면 비정상으로 판단한다. health check는 http프로토콜을 사용하고 HTTP1.0을 사용하여 보낸다. HTTP1.1~2를 주로 사용하지만 1.0을 사용한 이유는 연결에 성공해도 지속하지 않고 바로 끊는 특징을 갖고 있어서 1.0을 사용했다. 또한 응답코드가 2xx, 3xx라면 정상상태로 판단한다.

죽은서버에 요청을 보내며 네트워크에 지연이 발생할 수 있었던 설정을 위와 같이 죽은 서버에는 요청을 보내지않도록하는 Nginx의 health check기능을 사용하는 방법이 있었다.

 

 

2개의 nginx 설정파일과 deploy.sh 변경

docker compose로 컨테이너를 삭삭(팀원말투인데 머리속에 떠오르 짧고 간결한 표현이 이거밖에 안떠오른다ㅂㄷㅂㄷ; ) 바꾸는데 Nginx도 같이 갈아끼우고 reload하면 되지 않을까? reload하는 순간 짧은 down time이 있지만 health check한다고 자원을 계속 소모하는 방법보단 짧은 down time으로 자원을 아낄 수도 있다. 

 

변경된 deploy.sh이다.

#!/bin/bash

#story deploy

export DOCKER_REGISTRY=jodong2 DOCKER_APP_NAME=story-zero-downtime IMAGE_TAG=latest

EXIST_BLUE=$(docker compose -p ${DOCKER_APP_NAME}-blue -f docker-compose.blue.yaml ps | grep Up)
# 블루가 떠있는지 확인 

if [ -z "$EXIST_BLUE" ]; then
    echo "blueis is not exist. so make blue container"
    echo "blue up"
    docker compose -p ${DOCKER_APP_NAME}-blue -f docker-compose.blue.yaml up -d
    BEFORE_COMPOSE_COLOR="green"
    AFTER_COMPOSE_COLOR="blue"
    echo "end"
else
    echo "blue is exist. so make green container"
    echo "green up"
    docker compose -p ${DOCKER_APP_NAME}-green -f docker-compose.green.yaml up -d
    BEFORE_COMPOSE_COLOR="blue"
    AFTER_COMPOSE_COLOR="green"
fi

sleep 10

EXIST_AFTER=$(docker compose -p ${DOCKER_APP_NAME}-${AFTER_COMPOSE_COLOR} -f docker-compose.${AFTER_COMPOSE_COLOR}.yaml ps | grep Up)
if [ -n "$EXIST_AFTER" ]; then
	sudo ln -sf /etc/nginx/sites-available/nginx.${AFTER_COMPOSE_COLOR}.conf /etc/nginx/sites-enabled/nginx.conf
        sudo service nginx reload
    docker compose -p ${DOCKER_APP_NAME}-${BEFORE_COMPOSE_COLOR} -f docker-compose.${BEFORE_COMPOSE_COLOR}.yaml down
    echo "$BEFORE_COMPOSE_COLOR down"
fi

다음 색깔의 컨테이너가 제대로 떴다면 다음색깔에 맞는 nginx 설정파일로 변경한뒤 reload 한다. 

reload하는 과정에서 짧은 down time이 발생할 수 있어서 무중단배포라기엔 칭호가 조금 아쉽지만 처음 생각한 방식은 이렇다.. 

 

nginx의 설정파일은 

upstream story {
    least_conn;
    server {ip}:{port1};
}

이렇게 간결해졌고 그에맞는 ip:port만 다른 파일을 설정해뒀다. 

server가 한대라면 location에서 바로 쏴도 될 듯 싶다 ! 

 

 


 

저번주에 올렸어야됐는데.. 할 게 많았다. 

프로젝트하랴 CS공부하랴..싸피 마지막 플젝이 끝났다 ! 

끝나도 시키는게 뭔가 많다. 서버 관련 설정파일은 나중에 다시 보기위해 저장해놔야되는데.. 아이고. .언제다하지.. 

다음주 주말에는 별일이 없다면 자바나 파이썬에 관련된 글을 올릴듯 싶다. 

 왜냐면.. 저번주에 자바에 SOLID에 대해 공부했었다. 옛날옛적에 면접준비한다고 부랴부랴 공부했을때는 이해가 잘 안됐는데 이번엔 "아이고 내 코드는 객체지향을 개떡같이 사용하고 있구나!" 를 느낄 수 있었다. 그래서 다음에 진행하게 될 프로젝트나 기회가 된다면, 지금까지 해왔던 프로젝트 하나를 잡고 수정해볼 생각이다. 

 파이썬을 포스팅한다면... 파이썬의 GIL에 대해 시간을 길게 잡고 자세하게 포스팅해볼 생각이다..

 

 

 

현재 ec2 상황은 아래의 모든게 만족됐다고 가정하자.

더보기

 

목표는 다음과 같다. 

ㅋㅋ발그림ㅋㅋㅋ엌ㅋㅋㅋㅋ..

젠킨스는 나중에 따로 정리하겠다. (여기서 칠 명령어를 젠킨스에 입력해놓으면 해주니까..)

 

backend나 frontend나 큰 흐름은 아래와 같다.

(window나 맥 등 로컬에 도커데스크탑을 설치하자... 어렵지 않으니 생략. )

1. 로컬에서 도커 이미지 빌드

2. 로컬에서 도커 이미지를 도커 허브에 푸시

3. ec2에서 도커이미지를 풀

4. ec2에서 도커이미지 실행

 

frontend를 도커를 통해 ec2에 띄워보자

위의 그림을 보듯 frontend를 띄운 도커는 nginx가 필요하다. nginx를 base image로 받아오고, 받아온 nginx의 기존 설정을 내가 원하는대로 바꿔야한다. nginx 설정파일부터 만들어보자. 

어디다 만들든 크게 상관은 없지만 밑에 작성한 Dockerfile을 그대로 복사해서 사용할거라면 프로젝트의 프론트엔드 폴더 최상단에 만들자.

1. 로컬에서 프로젝트 프론트엔드 폴더의 최상단에 default.conf 작성 (nginx 설정파일)

#default.conf
server{
    listen 80;
    location / { 
        root /app/build;
	index index.html index.htm;
        try_files $uri $uri/ /index.html;
    }
}



2. 로컬에서 프로젝트 프론트엔드 폴더의 최상단에 Dockerfile을 작성한다. 

FROM nginx #base이미지로 nginx를 받아온다.
RUN mkdir /app #컨테이너 내부에 app이라는 폴더를 만든다.
WORKDIR /app #워크디렉토리를 설정한다.
RUN mkdir ./build  #컨테이너 내부에 build라는 폴더를 생성한다.
ADD ./build ./build #프로젝트 폴더에 있는 build라는 폴더를 컨테이너 내부에 생성한 build 폴더에 복사한다.
RUN rm /etc/nginx/conf.d/default.conf #받아온 nginx 내부에 기존 설정값을 제거한다. 
COPY ./default.conf /etc/nginx/conf.d #만들어둔 nginx 설정값을 받아온 nginx의 설정값으로 대체한다.
EXPOSE 80 #80포트 사용
CMD ["nginx","-g", "daemon off;"] #nginx 실행

3. npm run build를 통해 css, html등 정적인 파일을 생성한다. 

프론트엔드 폴더 상단에서 

npm run build

4. docker image 빌드하기 

docker build --tag frontend .

뒤에 . 은 현재 폴더의 dockerfile을 빌드하겠다는 뜻으로 빌드하려는 dockerfile의 경로를 입력하자.

tag는 생성되는 이미지의 이름과 태그를 설정할것이다. 

이름만 설정할 경우 자동으로 tag는 latest로 설정된다.

frontend 라는 이미지가 빌드 된걸 확인해보려면

$ docker images

명령어로 확인할 수 있다.

 

5. docker 이미지 푸시하기 

docker tag [ image name or Tag ] [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker tag frontend jodong2/frontend

를 통해 태그를 달고, 아래와 같은 명령어로 docker hub에 푸시하자.

docker push [이미지 이름:태그]

ex) docker push jodong2/frontend

 

6. ec2에서 docker image pull 받기

이전에 mysql을 설치했던 과정과 똑같다.

ec2의 ubuntu환경에서 다음 명령어를 실행하자.

$ docker pull [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker pull jodong2/frontend

 

7.ec2에서 docker image 실행하기 

위의 목표 예시 발 그림을 보면 frontend는 host 의 xxxx port를 사용할 것이다. 

frontend의 nginx 설정 파일을 보면 80 포트를 받고 있다.

그러므로 -p옵션을 통해 xxxx port와 컨테이너의 80포트를 연결해야한다. 

$ docker run -d --name {container name} -p xxxx:80 [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker run -d --name front -p xxxx:80 jodong2/front

 

8. ec2에서 도커 컨테이너 확인하기 

docker ps

 

 

 

Backend는 다음 포스팅에 :)

 


 

 

왜 Front는 nginx가 하나 더 필요할까?

spring의 경우 was로 tomcat이 있기 때문에 상관없지만 프론트의 경우 build된 정적파일을 처리할 수 서버가 따로 없다. ec2에 nginx가 있지만 도커를 활용해 띄운다면 내부에 별도의 서버가 필요하고 이때 proxy server로 nginx를 활용한 것이다.

 

 

왜 도커를 사용하여 띄울까?

docker 안쓰고 서버에다가 버전에 맞는 jdk설치하고 jar 파일 가져와서 실행하면 되는거 아니야?

된다. 불편할 뿐이다. 많고 많은 불편한 이유가 있겠지만 나에게 와닿은 예시는 수평확장에 대한 예시였다. 

꼭 수평확장 문제뿐만이 아니니 공부한다는 생각으로라도 도커를 사용해보자.

 

이전에 부스트캠프 ai tech에서 했던 프로젝트 중에 팀원들 모두 합쳐서 6대의 서버가 팀에 부여됐다. 

모두 동일한 작업을 처음부터 진행해가며 환경이 얼추 비슷했고 마지막엔 거의 비슷한 환경이 구성됐다. 근데 만약 도커를 사용하지 않았고, 하나의 서버에 openCV 설치가 제대로 되지 않았으며, 해당 library를 사용하는 함수를 호출한다면, 그 서버는 에러를 보여줄 것이다. 16.6%확률로 실패하는 기능이 있다면 가용성 측면에서 말도 안되는 서비스고 이걸 테스트하기 위해서 6대의 서버를 전부 테스트해야한다. 불편할게 확실하니 이거 확인하는 툴도 이미 만들어져있겠지만.... 7번째 서버가 추가되면 모든 환경을 처음부터 다시 구성해야한다. 

하지만 도커는 같은 환경을 보장한다. 7번째 8번째 서버가 추가된다해도, 손쉽게 똑같은 환경에서 서비스를 동작시킬 수 있다. 

 

금속활자로 책을 순식간에 동일한 컨디션의 동일한 모양으로 찍어낼 수 있는데 한 글자씩 붓으로 적고 있진 않은가 생각해보자 ㅠ

 

 

아래 블로그에 정리가 너무 잘돼있다. 저장해놓고 정독해야지.

https://www.44bits.io/ko/post/why-should-i-use-docker-container

 

왜 굳이 도커(컨테이너)를 써야 하나요? - 컨테이너를 사용해야 하는 이유

컨테이너는 서버 애플리케이션을 배포하고 서버를 운영하는 표준적인 기술이 되어가고 있습니다. 하지만 처음 사용해본다면 그 장점이 잘 와닿지 않을 수도 있습니다. 왜 굳이 도커 컨테이너를

www.44bits.io

 

Nginx 설치

$ sudo apt install Nginx 

certbot을 통한 인증서 발급

$ apt-get install python3-certbot-nginx 
$ certbot certonly --nginx -d {myDomainName} 

/etc/letsencrypt/live/{myDomainName}/

  • cert.pem
  • chain.pem
  • fullchain.pem
  • privkey.pem

4개의 파일이 존재하는지 확인

Nginx

$ touch /etc/nginx/conf.d/{원하는 이름}.conf
$ sudo vim /etc/nginx/conf.d/{원하는 이름}.conf
server {
    listen 80 default_server;
    listen [::]:80 default_server;
    root /var/www/html;
    server_name example.com www.example.com;
}
$ nginx -t
$ sudo service nginx restart

 

$ sudo vim /etc/nginx/sites-available/{원하는 이름}.conf

server {
  listen 80; #80 port(HTTP)로 받을때
  server_name <도메인 주소>; # 없을경우 localhost
  return 301 https://<도메인 주소>$request_uri;
}
server {
  listen 443 ssl http;
  server_name <도메인 주소>;

  # ssl 인증서 적용하기
  ssl_certificate /etc/letsencrypt/live/<도메인 주소>/fullchain.pem;
  ssl_certificate_key /etc/letsencrypt/live/<도메인 주소>/privkey.pem;

  location / {
    proxy_pass http://localhost:3000;
  }

  location /api { # location 이후 특정 url을 처리하는 방법을 정의
    proxy_pass http://localhost:8081; # Request에 대해 어디로 리다이렉트하는지
    proxy_redirect off;
    charset utf-8;

    proxy_http_version 1.1;
  }
}

location, proxy_pass에서 각 마지막 위치의 슬래쉬 여부에 따라 꼬일 수 있으니 파악하고 사용하기.
~^ 등의 표현식 제공

sites-enabled에 심볼릭 링크 생성

$ sudo ln -s /etc/nginx/sites-available/{원하는 이름}.conf /etc/nginx/sites-enabled

테스트 후 실행

$ sudo nginx -t

$ sudo service nginx start
# 설정을 변경했다면 꼭 sudo service nginx restart를 진행해주자...

+ Recent posts