단일 서버
모든 컴포넌트가 한 대의 서버에서 실행되는 간단한 시스템부터 설계해 보자.
웹, 앱, 데이터베이스, 캐시 등이 전부 서버 한 대에서 실행된다.
- 사용자는 api.mysite.com을 입력하여 웹 사이트에 접속한다.
- 이러한 도메인 이름을 IP 주소로 변환해 주는 DNS를 거친다.
- 2에서 반환된 IP 주소로 HTTP 요청이 전달된다.
- 요청을 받은 웹 서버는 HTML 페이지나 JSON 형태의 응답을 반환한다.
- 웹 애플리케이션
- 비즈니스 로직, 데이터 저장 등을 처리하기 위해서는 자바, 파이썬 등을 사용하고 프레젠테이션 용으로는 HTML, 자바스크립트 등을 사용한다.
- 모바일 앱
- 모바일 앱과 웹 서버 간 통신을 위해서는 HTTP 프로토콜을 사용한다.
- HTTP 프로토콜을 통해서 반환될 응답 데이터의 포맷으로는 보통 JSON이 간결함 덕에 많이 사용된다.
- 웹 애플리케이션
데이터베이스
- 사용자가 늘면 서버 하나로는 충분하지 않아서 여러 서버를 두어야 한다.
- 하나는 웹, 모바일 트래픽 처리 용도고, 다른 하나는 데이터베이스용이다.
- 이렇게 웹 계층과 데이터 계층을 분리하면 그 각각을 독립적으로 확장해 나갈 수 있게 된다.
어떤 데이터베이스를 사용할 것인가?
- 관계형 데이터베이스 RDBMS
- MySQL, 오라클 데이터베이스, PostgreSQL
- 관계형 데이터베이스는 자료를 테이블과 열, 칼럼으로 표현한다.
- SQL을 사용하면 여러 테이블에 있는 데이터를 그 관계에 따라 조인하여 합칠 수 있다.
- 비-관계형 데이터베이스 NoSQL
- 4 가지로 분류할 수 있다.
- 키-값 저장소
- 그래프 저장소
- 칼럼 저장소
- 문서 저장소
- 비 관계형 데이터베이스는 일반적으로 조인 연산은 지원하지 않는다.
- 아래와 같은 경우에는 비-관계형 데이터베이스가 바람직한 선택일 수 있다.
- 아주 낮은 응답 지연시간(latency)이 요구됨
- 다루는 데이터가 비정형(unstructured)이라 관계형 데이터가 아님
- 데이터(JSON, YAML, XML 등)를 직렬화하거나 역직렬화할 수 있기만 하면 됨
- 아주 많은 양의 데이터를 저장할 필요가 있음
- 4 가지로 분류할 수 있다.
로드밸런서
로드밸런서는 부하 분산 집합(load balancing set)에 속한 웹 서버들에게 트래픽 부하를 고르게 분산하는 역할을 한다.
- 사용자는 로드밸런서의 공개(public) IP 주소로 접속한다. 따라서, 웹 서버는 클라이언트의 접속을 직접 처리하지는 않는다.
- 더 나은 보안을 위해 서버 간 통신에서는 사설(private) IP 주소가 사용된다.
- 사설 IP 주소는 같은 네트워크에 속한 서버 사이의 통신에만 쓰일 수 있는 IP 주소로, 인터넷을 통해서는 접속할 수 없다. 로드밸런서는 웹 서버와 통신하기 위해 바로 이 사설 주소를 이용한다.
- 이제, 서버 1이 다운되면 모든 트래픽은 서버 2로 전송된다. 따라서, 웹 사이트 전체가 다운되는 일이 방지된다. 부하를 나누기 위해 새로운 서버를 추가할 수도 있다.
- 웹 사이트로 유입되는 트래픽이 가파르게 증가하면, 로드밸런서가 있으므로 웹 서버 계층에 더 많은 서버를 추가하면 된다. 그러면 로드밸런서가 자동으로 트래픽을 분산하기 시작할 것이다.
데이터베이스 다중화
- 보통은 서버 사이에 master-slave 관계를 설정하고 데이터 원본은 master 서버에, 사본은 slave 서버에 저장하는 방식이다.
- 쓰기 연산은 master에서만 지원된다. slave 데이터베이스는 master 데이터베이스로부터 그 사본만을 전달받으며, 읽기 연산만을 지원한다. 가령, insert, update, delete 등은 주 데이터베이스로만 전달되어야 한다.
- 대부분의 애플리케이션은 읽기 연산의 비중이 쓰기 연산보다 훨씬 높다. 따라서 slave 데이터베이스가 master 데이터베이스의 수보다 많다.
- 더 나은 성능
- master-slave 다중화 모델에서, 읽기 연산이 slave 서버들로 분산 처리된다.
- 병렬로 처리될 수 있는 query 수가 늘어나므로, 성능이 좋아진다.
- 안정성(reliability)
- 자연재해 등의 이유로 데이터베이스 서버 가운데 일부가 파괴되어도 데이터는 보존된다.
- 데이터를 지역적으로 떨어진 여러 장소에 다중화시켜 놓을 수 있기 때문이다.
- 가용성(availability)
- 데이터를 여러 지역에 복제해 둠으로써, 하나의 데이터베이스 서버에 장애가 발생하더라도 다른 서버에 있는 데이터를 가져와 계속 서비스할 수 있게 된다.
데이터베이스 서버 가운데 하나가 다운되면 무슨 일이 벌어지는가...?
- slave 서버가 한 대뿐인데, 다운된 경우라면 읽기 연산은 한시적으로 모두 master 데이터베이스로 전달될 것이다. 또한 즉시 새로운 slave 데이터베이스 서버가 장애 서버를 대체할 것이다. slave 서버가 여러 대인 경우에 읽기 연산은 나머지 slave 데이터베이스 서버들로 분산될 것이며, 새로운 slave 데이터베이스 서버가 장애 서버를 대체할 것이다.
- master 서버가 다운되면, 한 대의 slave 데이터베이스 서버만 있는 경우 해당 slave 데이터베이스 서버가 새로운 master 서버가 될 것이며, 모든 데이터베이스 연산은 일시적으로 새로운 master 서버 상에서 수행될 것이다. 그리고 새로운 slave 서버가 추가될 것이다.
- 프로덕션 환경이라면, slave 서버에 보관된 데이터가 최신 상태가 아닐 수 있기 때문에 없는 데이터는 복구 스크립트를 돌려서 추가해야 한다.
- 사용자는 DNS로부터 로드밸런서의 공개 IP 주소를 전달받는다.
- 사용자는 해당 IP 주소를 사용해 로드밸런서에 접속한다.
- HTTP 요청은 서버 1이나 서버 2로 전달된다.
- 웹 서버는 사용자의 데이터를 slave 데이터베이스에서 읽는다.
- 웹 서버는 데이터 변경은 master 데이터베이스로 전달한다.
- 데이터 추가, 삭제, 갱신 연산 등이 이해 해당한다.
이제 웹 계층과 데이터 계층에 대해 충분히 이해가 되었으나, 응답시간(latency)을 개선해 볼 순서다! 응답 시간은 캐시(cache)를 붙이고, 정적 콘텐츠 전송 네트워크(Content Delivery Network, CND)로 옮기면 개선할 수 있다.
캐시
- 캐시는 값비싼 연산 결과 또는 자주 참조되는 데이터를 메모리 안에 두고, 뒤이은 요청이 보다 빨리 처리될 수 있도록 하는 저장소다.
- 애플리케이션의 성능은 데이터베이스를 얼마나 자주 호출하느냐에 크게 좌우되는데, 캐시는 그런 문제를 완화할 수 있다.
캐시 계층(cache tier)
- 캐시 계층은 데이터가 잠시 보관되는 곳으로 데이터베이스보다 훨씬 빠르다.
- 별도의 캐시 계층을 두면 성능이 개선될 뿐 아니라 데이터베이스의 부하를 줄일 수 있고, 캐시 계층의 규모를 독립적으로 확장시키는 것도 가능해진다.
캐시 사용 시 유의할 점
- 캐시는 어떤 상황에서 바람직한가?
- 데이터 갱신은 자주 일어나지 않지만, 참조는 빈번하게 일어난다면 고려해 볼 만하다.
- 어떤 데이터를 캐시에 두어야 하는가?
- 캐시는 데이터를 휘발성 메모리에 두므로, 영속적으로 보관할 데이터를 캐시에 두는 것은 바람직하지 않다. 예를 들어, 캐시 서버가 재시작되면 캐시 내의 모든 데이터를 사라진다. 중요 데이터는 여전히 지속적 저장소(persistence data store)에 두어야 한다.
- 캐시에 보관된 데이터는 어떻게 만료(expire)되는가?
- 만료 정책이 없으면 데이터는 캐시에 계속 남게 된다. 만료 기한은 너무 짧으면 데이터베이스를 너무 자주 읽게 되고 너무 길어도 원본과 차이가 날 가능성이 높아지기 때문에 적절한 만료 정책을 마련해야 한다.
- 일관성(consistency)은 어떻게 유지되는가?
- 일관성은 데이터 저장소의 원본과 캐시 내의 사본이 같은지 여부다. 저장소의 원본을 갱신하는 연산과 캐시를 갱신하는 연산이 단일 트랜잭션으로 처리되지 않는 경우 이 일관성은 깨질 수 있다.
- 여러 지역에 걸쳐 시스템을 확장해 나가는 경우 캐시와 저장소 사이의 일관성을 유지하는 것은 어려운 문제가 된다.
- 장애에는 어떻게 대처할 것인가?
- 캐시 서버를 한 대만 두는 경우 해당 서버는 단일 장애 지점(Single Point Of Failure, SPOF)이 되어버릴 가능성이 있다. 결과적으로 SPOF를 피하려면 여러 지역에 걸쳐 캐시 서버를 분산시켜야 한다.
- 캐시 메모리는 얼마나 크게 잡을 것인가?
- 캐시 메모리가 너무 작으면 액세스 패턴에 따라서는 데이터가 너무 자주 캐시에서 밀려나버려(eviction) 캐시의 성능이 떨어지게 된다.
- 이를 막을 한 가지 방법은 캐시 메모리를 과할당(overprovision)하는 것이다. 이렇게 하면 캐시에 보관될 데이터가 갑자기 늘어났을 때 생길 문제도 방지할 수 있게 된다.
- 데이터 방출(eviction) 정책은 무엇인가?
- 캐시가 꽉 차버리면 추가로 캐시에 데이터를 넣어야 할 경우 기존 데이터를 내보내야 한다. 이것을 캐시 데이터 방출 정책이라 하는데, 가장 널리 쓰이는 것인 LRU(Least Recently Used - 마지막으로 사용된 시점이 가장 오래된 데이터를 내보내는 정책)이다.
- 다른 정책으로는 사용된 빈도가 가장 낮은 데이터를 내보내는 LFU(Least Frequently Used) 정책과 가장 먼저 캐시에 들어온 데이터를 가장 먼저 내보내는 FIFO(First In First Out) 정책도 있다.
콘텐츠 전송 네트워크(CDN)
- CDN은 정적 콘텐츠를 전송하는 데 쓰이는, 지리적으로 분산된 서버의 네트워크이다.
- 이미지, 비디오, CSS, Javascript 파일 등을 캐시 할 수 있다.
정리
- 웹 계층은 무상태 계층으로
- 모든 계층에 다중화 도입
- 가능한 한 많은 데이터를 캐시할 것
- 여러 데이터 센터를 지원할 것
- 정적 콘텐츠는 CDN을 통해 서비스할 것
- 데이터 계층은 샤딩을 통해 그 규모를 확장할 것
- 각 계층은 독립적 서비스로 분할할 것
- 시스템을 지속적으로 모니터링하고, 자동화 도구들을 활용할 것
반응형