발그림ㅎㅎ;

롤링 배포 - 개념

 롤링 배포는 현재 사용 중인 인스턴스 내에서 새 버전으로 하나씩 교체해나가는 것이다.

 롤링 배포를 이용하게 된다면 기존에 유지하고 있는 인스턴스로만 진행하기 때문에 추가적으로 비용이 발생하지않는다. 또한 점진적으로 업데이트하기때문에 롤백이 비교적 쉽다. 하지만 새로운 버전으로 교체하는 과정에서 일부 인스턴스가 연결되어 있지 않기 때문에 트래픽을 감당할 수 있는 선에서 진행해야하며 이전 버전과 새로운 버전의 호환성 문제도 생각해야 한다. 

 

롤링 배포 - 실습

 

1. spirng actuator 설정

build.gradle

다음과 같이 build.gradle에 spring actuator 의존성을 추가한다. 

spring actuator는 서버의 여러가지 상태를 확인할 수 있는 기능이다. 하지만 민감함 정보도 포함될 수 있으므로 우리가 필요한 health만 사용하도록 yml(properties)파일을 수정해주자. 

application.properties

설정 후 /actuator/health 를 확인하면 {"start":"UP"} 을 확인할 수 있다.

 

2. nginx 설정

nginx pro버전에서는 health-check 기능을 지원하지만, 내 지갑은 휑하므로 무료 health-check 모듈이 포함된 nginx를 사용할 것이다. 

먼저 nginx 설정 파일을 만들어보자 

vi nginx.conf

events {}

http {
  upstream market {
	# 배포 중인 서버들
	server ip:port;
	server ip:port;

	#health-check
	# interval - 3초씩에 한 번씩 확인
	# rise - 2번 이상 응답에 성공하면 서버가 살은 것으로 판단
	# fall - 5번 이상 응답에 실패할 경우 서버가 죽은 것으로 판단
	# timeout - 응답 시간 초과 1초
	check interval =3000 rise=2 fall=5 timeout=1000 type=http;
	# GET /actuator/health으로 healthcheck 요청
	check_http_send "GET /actuator/health HTTP/1.0\r\n\r\n";
	check_http_expect_alive http_2xx http_3xx;
  }

  server {
    listen 80;
    location / {
       proxy_pass http://market;
    }
    # 서버 상태 확인 url
     location /status {
     check_status;
   }
  }
}

다음 nginx image를 빌드하기 위해 Dockerfile을 작성한다. 

vi Dockerfile

# mrlioncub/nginx_upstream_check_module - health-check 모듈이 포함된 nginx image
FROM mrlioncub/nginx_upstream_check_module
COPY nginx.conf /etc/nginx/nginx.conf

Docker file을 작성했으니 이미지를 빌드하고 실행하자 

docker build --tag nginx:test-nginx .
docker run -d --name webserver -p 80:80 [tag | image id]

 

3. Shell script 작성

  • jenkins에서 배포 후에 실행할 shell script를 서버에 작성해두자
  • rollingdeploy.sh의 전체적인 흐름은 다음과 같다.
    • 현재 배포하려는 서버 외에 트래픽을 받을 수 있는 서버, health-check 없다면 배포하지 않음
    • 현재 tomcat server 종료 gracefully shut down -> force shut down
    • 배포 시작
    • 배포 후 자가 health-check

 

더보기
BASE_PATH=/home/app/
JAR_NAME=xxx.jar
echo "> build 파일명: $JAR_NAME"

#배포중인 server ip
IP1=# 
IP2=# 
#배포 port
DEPLOYED_PORT=8080


#private ip
MY_IP=$(hostname -i)

loop=1
limitLoop=30
flag='false'


if [ $MY_IP == $IP1 ]; then
  OTHER_IP=$IP2
elif [ $MY_IP == $IP2 ]; then
  OTHER_IP=$IP1
else
  echo "> 일치하는 IP가 없습니다. "
fi

#==========================살아있는 서버가 존재하는지 확인==============================
echo "> 서버 체크 시작"
for retry_count in {1..10};
do
  response=$(sudo curl -s http://$OTHER_IP:$DEPLOYED_PORT/actuator/health)
  up_count=$(echo $response | grep 'UP' | wc -l)
  echo "> $retry_count : $response  : $up_count"
  if [ $up_count -ge 1 ]; then
    echo "> 서버 health 체크 성공"
    break
  fi
  if [ $retry_count -eq 10 ]; then
    echo "> 서버 health 체크 실패"
    exit 1
  fi
  echo "> 실패 10초후 재시도"
  sleep 10
done

#===================================프로세스 종료======================================
# tomcat gracefully shutdown
echo "> 구동중인 애플리케이션 pid 확인"
IDLE_PID=(`ps -ef | grep  $JAR_NAME | grep -v 'grep' | awk '{ print $2 }'`)
 if [ ${#IDLE_PID[@]} = 0 ]
then
  echo "> 현재 구동중인 애플리케이션이 없으므로 종료하지 않습니다."
  flag='true'
else
  for pid in "${IDLE_PID[@]}"
  do
      echo "> [$pid] gracefully shutdown"
      kill -15 $pid
  done
  while [ $loop -le $limitLoop ]
  do
      PID_LIST=(`ps -ef | grep  $JAR_NAME | grep -v 'grep' | awk '{ print $2 }'`)
      if [ ${#PID_LIST[@]} = 0 ]
      then
          echo "> gracefully shutdown success "
          flag='true'
          break
      else
          for pid in "${PID_LIST[@]}"
          do
              echo "> [$loop/$limitLoop] $pid 프로세스 종료를 기다리는중입니다."
          done
          loop=$(( $loop + 1 ))
          sleep 1
          continue
      fi
  done
fi
if [ $flag == 'false' ];
then
    echo "> 프로세스 강제종료 시도"
    sudo ps -ef | grep $JAR_NAME | grep -v 'grep' |  awk '{ print $2 }' | \
    while read PID
    do
        echo "> [$PID] forced shutdown"
        kill -9 $PID
    done
fi

#===================================배포======================================

echo "> 배포"
echo "> 파일명" $BASE_PATH$JAR_NAME
sudo nohup java -jar -Dspring.profiles.active=prod $BASE_PATH$JAR_NAME & 
sudo sleep 10

echo "> 10초 후 Health check 시작"
echo "> curl -s http://$MY_IP:$DEPLOYED_PORT/actuator/health"

#==========================현재 서버 Health check============================
for retry_count in {1..10}; do
  response=$(sudo curl -s http://$MY_IP:$DEPLOYED_PORT/actuator/health)
  up_count=$(echo $response | grep 'UP' | wc -l)
  if [ $up_count -ge 1 ]; then
    echo "> Health check 성공"
    break
  else
    echo "> Health check의 응답을 알 수 없거나 혹은 status가 UP이 아닙니다."
    echo "> Health check: ${response}"
  fi

  if [ $retry_count -eq 10 ]; then
    echo "> Health check 실패. "
    echo "> Nginx에 연결하지 않고 배포를 종료합니다."
    exit 1
  fi

  echo "> Health check 연결 실패. 재시도..."
  sudo sleep 10
done

sleep 60 # 다음 배포 서버를 위한 지연

 

4. Jenkins에서 배포 시 deploy.sh 실행.

 

 

무중단 배포 - 등장

 나는 귀여운 주니어 개발자로 옛날과 비교하는게 좀 웃기지만, 옛날에 비해 요즘의 서비스는 릴리즈 주기가 몹시 짧다. 

 

 대부분의 SW 개발 방법론이 폭포수 방식에서 애자일 방식으로 바뀌며 릴리즈 주기가 긴 소프트웨어는 적어졌다. 그만큼 제품은 더 빨리 출시되고, 기능 추가 등의 업데이트 등을 위해 배포가 되는 주기가 짧아졌다. 

 

 또한 대부분의 큰 소프트웨어에서는 하나의 거대한 아키텍처로 서비스하는 모놀리식 아키텍처에서 서비스를 모듈화하여 개발하고, 모듈별로 배포할 수 있는 마이크로 서비스 아키텍처로 바뀌며 배포하는 크기와 빈도가 달라졌다. 

 

 폭포수에서 애자일, 모놀리식에서 마이크로서비스 등의 변화를 통해 얻은 이점은 보다 잦은 배포를 통해 시장과 사용자의 요구를 빠르게 충족시키고 서비스의 가치를 높이기 위함이다. 하지만 이런 변화는 운영 안정성 측면에서 부정적인 영향을 미칠 수 있다.

 

 예를 들어 개발 결과물을 제공하기위해 서버에 배포한다고 가정하자. 최신 어플리케이션은 클라우드 기반으로 구성되어 트래픽에 따라 탄력적인 확장과 고가용성을 보장하지만, 배포 시에는 서비스를 멈춰야 하는 중단 배포 방식의 경우 다운타임이 발생한다. 물론 다운타임이 계획적으로 허용될 수 있다. 은행과 같은 서비스에 유연함에 제한이 있는 서비스가 그렇다. 하지만 전 세계의 사용자를 대상으로 하거나, 24시간 운영이 필요한 서비스라면 항상 가동되어야하는게 좋다. 일반적으로 중단 배포 방식은 사용자에게 불편함과 손실을 야기할 수 있다. 새로운 배포로 인해 문제가 발생하는 경우엔.. 야근해야지 뭐...

 

 야근이 좋은게 아니라면, 혹은 팀원에게 형 지금 배포중인거 맞지? 소리 듣기 싫은 개발자들은 무중단 배포 방식을 공부하자. 안정적인 배포 체계를 갖추는 것은 다양한 요구사항에도 개발에 집중할 수 있으며 이는 곧 경쟁력이 되고 내 수면시간이 된다. ㅎㅎ;

 

무중단 배포 - 개념

 무중단 배포는 서비스 장애와 배포의 부담을 최소화 하기 위해 운영중인 서비스를 중단하지 않고, 신규 소프트웨어를 배포하는 기술이다. 

 핵심은 *로드밸런서(Load Balancer)를 통해 연결된 두 개 이상의 (서로 다른 IP 혹은 포트를 가진)인스턴스에 트래픽을 제어해 배포하는 것이다. 배포 작업이 서비스에 영향을 주지 않도록 하기 위해 사용자의 이용량에 따라 인스턴스는 물론, 로드밸런서도 다중화를 고려해야한다. 

 

 다양한 무중단 배포 방식이 있는데 대표적으로 3개의 방식을 앞으로 3번에 걸쳐 포스팅하려한다.

  •  제한된 자원에서 하나씩 배포하여 변경해 나가는 롤링 배포
  •  현재 사용중인 버전의 인스턴스 수만큼 새 버전의 인스턴스를 준비해 로드밸런서가 스위칭해주는 블루-그린 배포,
  • 새로운 버전 소프트웨어의 모니터링과 검증에 초점을 맞춘 카나리 배포

로드밸런서가 오래된 버전의 서버와 새로운 버전의 서버를 구분하여 요청을 처리하는 것이 가장 큰 동작개념이다.

 

 

롤링, 블루-그린, 카나리 맛보기.

더보기
출처 : 구글에 업데이트 중 검색결과

 윈도우 업데이트를 기다리는게 싫다.

(컴퓨터는 2대를 사용중이다.)

롤링 배포 : 1번 컴퓨터 업데이트하는 중엔 2번 컴퓨터를 쓰고, 1번 컴퓨터 업데이트가 끝나면 2번 컴퓨터를 업데이트하며 1번 컴퓨터를 사용

블루 그린 배포 : 누나 컴퓨터 2대에 업데이트 진행하면서 내꺼 쓰고 누나 컴퓨터에 업데이트 끝나면, 내꺼 2대랑 바꾸기.

카나리 배포 : 1번 컴퓨터 업데이트하고 잘되나 안되나 확인 후에 2번 컴퓨터도 업데이트.

 


 

 

이미지 출처 : https://tecoble.techcourse.co.kr/post/2021-11-07-load-balancing/

로드밸런싱

 로드밸런싱은 서버가 처리해야 할 요청(Load)을 여러대의 서버로 나누어(Balancing) 처리하는 것을 의미한다. 한 대의 서버로 부하가 집중되지 않도록 트래픽을 관리해 각각의 서버가 최적의 퍼포먼스를 보일 수 있도록 하는 것이 목적이다. 

 

  서비스 초기, 하나의 서버로 모든 클라이언트의 요청을 처리할 수 있다면 로드밸런싱은 필요없다. 하지만 사용자가 많아져 현재의 서버에서 모든 요청을 처리할 수 없다면 *scale-up과 scale-out을 고려해야하고, scale-out을 선택한다면 로드밸런서는 필수적이다. 

 

 

 

scale-up VS scale-out

내가 두 배 똑똑해지기 VS 내가 두 명

 scale-up의 경우 서버자체의 성능을 향상시키는 것을 뜻한다. 예를들어 CPU가 i3인 컴퓨터에서 i7으로, m1에서 m2로 업그레이드하는 것과 같다. 주로 하나의 서버에서 모든 데이터가 관리되는 데이터베이스 서버(==RDB)에 적합한 방식이다. 데이터 정합성이나, 이슈관리가 쉽지만 성능향상에 한계가 존재하고, 서버 교체나 업그레이시 다운타임이 발생하며 서버 한대가 부담하는 요청이 많으므로 문제가 생기면 더 큰 타격을 입게 된다. 

 

 scale-out의 경우 서버를 증설하는 것을 뜻한다. 기존 서버와 동일하거나 낮은 성능의 서버를 추가로 운영하는 것으로, i3인 컴퓨터 추가로 구매하는 것과 같다. 서버 증설은 서버 성능 향상보다 비교적 비용 부담이 적으며, 분산처리에 적합하다. 일반적으로 모든 서버가 동일한 데이터를 갖고 있어야 하므로, 데이터의 변화가 빈번하지 않은 웹 서버에 적합한 방식이다. 

 

 

 

 

현재 ec2 상황은 아래의 모든게 만족됐다고 가정하자.

더보기

 

목표는 다음과 같다. 

ㅋㅋ발그림ㅋㅋㅋ엌ㅋㅋㅋㅋ..

젠킨스는 나중에 따로 정리하겠다. (여기서 칠 명령어를 젠킨스에 입력해놓으면 해주니까..)

 

backend나 frontend나 큰 흐름은 아래와 같다.

(window나 맥 등 로컬에 도커데스크탑을 설치하자... 어렵지 않으니 생략. )

1. 로컬에서 도커 이미지 빌드

2. 로컬에서 도커 이미지를 도커 허브에 푸시

3. ec2에서 도커이미지를 풀

4. ec2에서 도커이미지 실행

 

frontend를 도커를 통해 ec2에 띄워보자

위의 그림을 보듯 frontend를 띄운 도커는 nginx가 필요하다. nginx를 base image로 받아오고, 받아온 nginx의 기존 설정을 내가 원하는대로 바꿔야한다. nginx 설정파일부터 만들어보자. 

어디다 만들든 크게 상관은 없지만 밑에 작성한 Dockerfile을 그대로 복사해서 사용할거라면 프로젝트의 프론트엔드 폴더 최상단에 만들자.

1. 로컬에서 프로젝트 프론트엔드 폴더의 최상단에 default.conf 작성 (nginx 설정파일)

#default.conf
server{
    listen 80;
    location / { 
        root /app/build;
	index index.html index.htm;
        try_files $uri $uri/ /index.html;
    }
}



2. 로컬에서 프로젝트 프론트엔드 폴더의 최상단에 Dockerfile을 작성한다. 

FROM nginx #base이미지로 nginx를 받아온다.
RUN mkdir /app #컨테이너 내부에 app이라는 폴더를 만든다.
WORKDIR /app #워크디렉토리를 설정한다.
RUN mkdir ./build  #컨테이너 내부에 build라는 폴더를 생성한다.
ADD ./build ./build #프로젝트 폴더에 있는 build라는 폴더를 컨테이너 내부에 생성한 build 폴더에 복사한다.
RUN rm /etc/nginx/conf.d/default.conf #받아온 nginx 내부에 기존 설정값을 제거한다. 
COPY ./default.conf /etc/nginx/conf.d #만들어둔 nginx 설정값을 받아온 nginx의 설정값으로 대체한다.
EXPOSE 80 #80포트 사용
CMD ["nginx","-g", "daemon off;"] #nginx 실행

3. npm run build를 통해 css, html등 정적인 파일을 생성한다. 

프론트엔드 폴더 상단에서 

npm run build

4. docker image 빌드하기 

docker build --tag frontend .

뒤에 . 은 현재 폴더의 dockerfile을 빌드하겠다는 뜻으로 빌드하려는 dockerfile의 경로를 입력하자.

tag는 생성되는 이미지의 이름과 태그를 설정할것이다. 

이름만 설정할 경우 자동으로 tag는 latest로 설정된다.

frontend 라는 이미지가 빌드 된걸 확인해보려면

$ docker images

명령어로 확인할 수 있다.

 

5. docker 이미지 푸시하기 

docker tag [ image name or Tag ] [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker tag frontend jodong2/frontend

를 통해 태그를 달고, 아래와 같은 명령어로 docker hub에 푸시하자.

docker push [이미지 이름:태그]

ex) docker push jodong2/frontend

 

6. ec2에서 docker image pull 받기

이전에 mysql을 설치했던 과정과 똑같다.

ec2의 ubuntu환경에서 다음 명령어를 실행하자.

$ docker pull [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker pull jodong2/frontend

 

7.ec2에서 docker image 실행하기 

위의 목표 예시 발 그림을 보면 frontend는 host 의 xxxx port를 사용할 것이다. 

frontend의 nginx 설정 파일을 보면 80 포트를 받고 있다.

그러므로 -p옵션을 통해 xxxx port와 컨테이너의 80포트를 연결해야한다. 

$ docker run -d --name {container name} -p xxxx:80 [ docker hub ID 혹은 private registry ip:port ]/[ push image이름 ]

ex) docker run -d --name front -p xxxx:80 jodong2/front

 

8. ec2에서 도커 컨테이너 확인하기 

docker ps

 

 

 

Backend는 다음 포스팅에 :)

 


 

 

왜 Front는 nginx가 하나 더 필요할까?

spring의 경우 was로 tomcat이 있기 때문에 상관없지만 프론트의 경우 build된 정적파일을 처리할 수 서버가 따로 없다. ec2에 nginx가 있지만 도커를 활용해 띄운다면 내부에 별도의 서버가 필요하고 이때 proxy server로 nginx를 활용한 것이다.

 

 

왜 도커를 사용하여 띄울까?

docker 안쓰고 서버에다가 버전에 맞는 jdk설치하고 jar 파일 가져와서 실행하면 되는거 아니야?

된다. 불편할 뿐이다. 많고 많은 불편한 이유가 있겠지만 나에게 와닿은 예시는 수평확장에 대한 예시였다. 

꼭 수평확장 문제뿐만이 아니니 공부한다는 생각으로라도 도커를 사용해보자.

 

이전에 부스트캠프 ai tech에서 했던 프로젝트 중에 팀원들 모두 합쳐서 6대의 서버가 팀에 부여됐다. 

모두 동일한 작업을 처음부터 진행해가며 환경이 얼추 비슷했고 마지막엔 거의 비슷한 환경이 구성됐다. 근데 만약 도커를 사용하지 않았고, 하나의 서버에 openCV 설치가 제대로 되지 않았으며, 해당 library를 사용하는 함수를 호출한다면, 그 서버는 에러를 보여줄 것이다. 16.6%확률로 실패하는 기능이 있다면 가용성 측면에서 말도 안되는 서비스고 이걸 테스트하기 위해서 6대의 서버를 전부 테스트해야한다. 불편할게 확실하니 이거 확인하는 툴도 이미 만들어져있겠지만.... 7번째 서버가 추가되면 모든 환경을 처음부터 다시 구성해야한다. 

하지만 도커는 같은 환경을 보장한다. 7번째 8번째 서버가 추가된다해도, 손쉽게 똑같은 환경에서 서비스를 동작시킬 수 있다. 

 

금속활자로 책을 순식간에 동일한 컨디션의 동일한 모양으로 찍어낼 수 있는데 한 글자씩 붓으로 적고 있진 않은가 생각해보자 ㅠ

 

 

아래 블로그에 정리가 너무 잘돼있다. 저장해놓고 정독해야지.

https://www.44bits.io/ko/post/why-should-i-use-docker-container

 

왜 굳이 도커(컨테이너)를 써야 하나요? - 컨테이너를 사용해야 하는 이유

컨테이너는 서버 애플리케이션을 배포하고 서버를 운영하는 표준적인 기술이 되어가고 있습니다. 하지만 처음 사용해본다면 그 장점이 잘 와닿지 않을 수도 있습니다. 왜 굳이 도커 컨테이너를

www.44bits.io

 

+ Recent posts