단일서버
웹 앱, 데이터베이스, 캐시 등이 전부 서버 한 대에서 실행된다.
사용자의 요청 처리 흐름
- 사용자는 도메인 이름(api.mysite.com)을 이용하여 웹 사이트에 접속한다. 이 접속을 위해서는 도메인 이름을 도메인 이름서비스(DNS)에 질의하여 IP 주소로 변환하는 과정이 필요하다.
- DNS 조회 결과로 IP 주소가 반환된다.
- 해당 IP 주소로 웹서버에 HTTP 요청이 전달된다.
- 요청 받은 웹 서버는 HTML 페이지나 JSON 형태의 응답을 반환한다.
실제 요청들은 2가지 단말로부터 전달된다
- 웹 어플리케이션 : 비즈니스 로직, 데이터 저장 등을 처리하기 위해서 서버 구현용 언어(java, python)를 사용하고, 프레젠테이션용으로sms 클라이언트 구현용 언어(HTML, JS)를 사용한다.
- 모바일 앱 : 모바일 앱과 웹 서버 간 통신을 위해서 HTTP 프로토콜을 이용한다. HTTP 프로토콜을 통해서 반환될 응답 데이터의 포맷으로는 보통 JSON(JavaScript Object Notation)이 그 간결함 덕에 널리 쓰인다.
데이터베이스
서버의 하나로는 충분하지 않아서 여러 서버를 두어야 한다.
하나는 웹/모바일 트래픽 처리 용도고, 다른 하나는 데이터베이스용이다.
웹 계층과 데이터베이스 서버를 분리하면 그 각각을 독립적으로 확장해 나갈 수 있게 된다.
어떤 데이터베이스를 사용할 것인가?
- 관계형 데이터베이스(Relational Database Management System, RDBMS)
- 종류 : MySQL, Oracle, PostgreSQL
- 자료를 테이블과 열과 칼럼으로 표현한다.
- SQL 사용하면 여러 테이블에 있는 데이터를 그 관계에 따라 조인(join)하여 합칠 수 있다.
- 비-관계형 데이터베이스(NoSQL)
- 종류 : CouchDB, Neo4j, Cassandra, HBase, Amazon DynamoDB 등
- 비-관계형 데이터베이스 일반적으로 조인 연산은 지원하지 않는다.
아래와 같은 경우에 비-관계형 데이터베이스가 바람직한 선택일 수 있다.
- 아주 낮은 응답 지연시간(latency)이 요구됨
- 다루는 데이터가 비정형(unstructured)이라 관계형 데이터가 아님
- 데이터(JSON, YAML, XML 등)를 직렬화하거나(serialize) 역직렬화(deserialize) 할 수 있기만 하면 됨
- 아주 많은 양의 데이터를 저장할 필요가 있음
수직적 규모 확장 vs 수평적 규모 확장
- 스케일 업(scale up) : 수직적 규모 확장(vertical scaling) 프로세스는 서버에 고사양 자원을 추가하는 행위
- 스케일 아웃(scale out) : 수평적 규모 확장 프로세스는 더 많은 서버를 추가하여 성능을 개선하는 행위
서버로 유입되는 트래픽이 적을때는 단순한 수직적 확장이 좋은 선택일 수 있다.
하지만 언제까지나 수직적 확장에는 한계가 존재하며 자동 복구(failover) 방안이나 다중화(redundancy) 방안을 제시하지 않는다.
서버 장애 시 웹사이트/앱은 완전히 중단된다.
이러한 단점 때문에, 대규모 어플리케이션을 지원하는 데는 수평적 규모 확장법이 보다 적절하다.
앞서 본 설계에서 사용자는 웹 서버에 바로 연결된다. 웹 서버가 다운되면 사용자는 웹 사이트에 접속할 수 없다
너무 많은 사용자가 접속하여 웹 서버가 한계 상황에 도달하게 되면 응답 속도가 느려지거나 서버 접속이 불가능해질 수도 있다.
이런 문제 해결하는 데는 부하 분산기 또는 로드밸런서(Load Balancer)를 도입하는 것이 최선이다.
로드밸런서
로드밸런서는 부하 분산 집합(load balancing set)에 속한 웹 서버들에게 트래픽 부하를 고르게 분산하는 역할을 한다.
부하 분산 집합에 또 하나의 웹 서버를 추가하고 나면 장애를 자동 복구하지 못하는 문제는 해소되며, 가용성(availability)은 향상된다.
서버 1이 다운되면(offline) 모든 트래픽은 서버 2로 전송되고 따라서 서버 전체가 다운되는 일이 방지된다. 부하를 분배를 위해 서버를 추가할 수도 있다.
웹사이트로 유입되는 트래픽이 가파르게 증가하면 두 대의 서버로 트래픽을 감당할 수 없는 시점이 오는데, 로드밸런서가 있으므로 우아하게 대처할 수 있다. 웹 서버에 더 많은 서버를 추가하기만 하면 되며 로드밸런스가 자동으로 트래픽을 분산하기 시작한다.
데이터베이스 다중화
주(master, primary)-부(slave, secondary) 관계를 설정하고 데이터 원본은 주 서버에서, 사본은 부 서버에 저장하는 방식이다.
주(마스터) 데이터베이스는 쓰기 연산(write operation)을 지원한다. 데이터베이스를 변경하는 명령어들(insert, delete, update 등)은 주 데이터베이스로만 전달되어야 한다.
부 데이터베이스는 주 데이터베이스의 사본을 전달 받으며, 읽기 연산(read operation)만을 지원한다.
대부분의 어플리케이션은 읽기 연산의 비중이 쓰기 연산보다 훨씬 높기 때문에 통상 부 데이터베이스의 수가 주 데이터 베이스 수 보다 많다.
데이터베이스를 다중화하면 다음과 같은 이득이 있다.
- 더 나은 성능 : 읽기 연산은 부 데이터베이스 서버들로 분산된다. 병렬로 처리할 수 있는 질의(query)의 수가 늘어나므로 성능이 좋아진다.
- 안정성(reliability) : 자연 재해 등의 이유로 데이터베이스 서버 가운데 일부가 파괴되어도 데이터는 보존될 것이다. 데이터를 지역적으로 떨어진 여러 장소에 다중화시켜놓을 수 있기 때문이다.
- 가용성(availability) : 데이터를 여러 지여겡 복제해 둠으로써, 하나의 데이터 베이스 서버에 장애가 발생하더라도 다른 서버에 있는 데이터를 가져와 계속 서비스를 할 수 있게 된다.
데이터베이스 서버 가운데 하나가 다운된다면?
부 서버가 한대뿐인데 다운된다면, 읽기 연산은 한시적으로 모두 주 데이터베이스로 전달될 것이다.
또한 즉시 새로운 부 데이터베이스 서버가 장애 서버를 대체할 것이다.
부 서버가 여러 대인 경우에 읽기 연산은 나머지 부 데이터 베이스 서버들로 분산될 것이며, 새로운 부 데이터베이스 서버가 장애 서버를 대체할 것이다.
주 데이터베이스 서버가 다운되면, 한 대의 부 데이터베이스만 있는 경우 해당 부 데이터베이스 서버가 새로운 주 서버가 될 것이며, 모든 데이터베이스 연산은 일시적으로 새로운 주 서버상에서 수행될 것이다. 그리고 새로운 부 서버가 추가될 것이다.
실제 프로덕션(production) 환경에서 벌어지는 일은 이것보다 더 복잡한데, 부 서버에 보관된 데이터가 최신 상태가 아닐 수 있기 때문이다. 없는 데이터는 복구 스크립트(recovery script)를 돌려서 추가해야 한다. 다중 마스터(multi masters)나 원형 다중화(circular replication) 방식을 도입하면 이런 상황을 대처하는데 도움이 될 수 있지만 해당 구성은 훨씬 복잡하다.
이제 웹 계층과 데이터 계층에 대해 충분히 이해하게 되었으니, 응답시간을 개선해 볼 순서다. 응답 시간은 캐시를 붙이고 정적 콘텐츠를 콘텐츠 전송 네트워크(CDN)로 옮기면 개선할 수 있다.
캐시
캐시는 값비싼(latency가 큰) 연산 결과 또는 자주 참조되는 데이터를 메모리 안에 두고 뒤이은 요청을 보다 빠르게 처리될 수 있도록 하는 저장소이다.
캐시 계층
캐시 계층(Cache tier)은 데이터가 잠시 보관되는 곳으로 데이터베이스보다 훨씬 빠르다. 캐시 계층을 두면응답 성능 개선, 데이터베이스 부하 감소, 캐시 계층의 규모를 독립적으로 확장 가능의 장점이 있다.
읽기 주도형 캐시 전략(read-through caching strategy)
- 요청 받은 웹서버는 캐시 조회를 통해 응답이 저장되어 있는 지 확인한다.
- 저장되어 있다면 해당 데이터를 반환한다.
- 없다면 데이터베이스에 조회 후 캐시에 저장한 뒤 클라이언트에 반환한다.
이 외에도 다양한 캐시 전략이 존재. 데이터의 종류, 크기, 엑세스 패턴에 맞게 캐시 전략을 선택하면 된다.
캐시 사용 시 유의할 점
캐시를 사용할 때 아래와 같은 상황을 고려해야한다.
- 상황 : 갱신은 자주 일어나지 않고 참조는 빈번하게 일어나는 상황
- 데이터 : 휘발성 메모리기 때문에 영속적으로 보관할 데이터는 캐시에 두는 것은 바람직하지 않다.
- 데이터 만료 : 만료된 데이터는 캐시에서 삭제 되어야 한다. 너무 짧으면 데이터를 너무 자주 읽고 너무 길다면 데이터베이스와 차이가 날 가능성이 높아진다.
- 일관성 유지 : 저장소의 원본 갱신과 캐시 갱신이 단일 트랜잭션에서 처리가 되지 않는 경우 일관성이 깨질 수 있다.
- 장애 대응 : 캐시 서버를 한 대만 두는 경우 해당 서버는 단일 장애 지점(Single Point of Failure, SPOF)이 되어버릴 수 있다. 여러 지역에 걸쳐 캐시 서버를 분산해야 한다.
- 캐시 메모리 크기 : 너무 작으면 엑세스 패턴에 따라서는 데이터 너무 자주 캐시에서 밀려나버려(eviction) 성능이 떨어진다. 이것을 막기 위해서 메모리를 과할당(overprovision)하는 것이다. 갑자기 늘어나는 문제도 방지할 수 있다.
- 데이터 방출(eviction) 정책 : 캐시가 꽉찬 상태에서 새로운 데이터를 넣어야할 경우 어떤 데이터를 내보낼 것인가를 결정해야 한다. 가장 널리 쓰이는 방식은 LRU(Least Recently Used)이고 다른 정책으로는 LFU(Least Frequently used), FIFO 것들도 있다.
콘텐츠 전송 네트워크(CDN)
CDN은 정적 콘텐츠를 전송하는 데 쓰이는, 지리적으로 분산된 서버 네트워크이다.
이미지, 비디오, CSS, Javascript 파일 등을 캐시할 수 있다.
요청 경로, 질의 문자열, 쿠키, 요청 헤더 등의 정보에 기반하여 HTML 페이지를 캐시하는 것이다.
CDN의 개략적인 동작 방식
사용자가 웹사이트를 방문하면, 그 사용자에게 가장 가까운 CDN서버가 정적 콘텐츠를 전달하게 된다. 직관적으로 당연하겠지만, 사용자가 CDN 서버로부터 멀면 멀수록 웹사이트는 천천히 로드될 것 이다.
- 사용자 A가 이미지 URL을 이용해 image.png에 접근 (URL 도메인은 CDN 서비스 사업자가 제공한 것)
- CDN 서버의 캐시에 해당 이미지를 조회, 이미지가 없는 경우 원본(origin)서버에 요청하여 파일은 가져온다.
- 원본 서버가 파일을 CDN 서버에 반환한다. 응답의 HTTP 헤더에는 해당 파일을 얼마나 오래 캐시될 수 있는 지 설명하는 TTL(Time-To-Live) 값이 들어있다.
- CDN 서버는 파일을 캐시하고 사용자 A에게 반환한다. 이미지는 TTL에 명시된 시간이 끝날 때까지 캐시된다.
- 사용자 B가 같은 이미지에 대한 요청을 CDN 서버에 전송한다.
- 만료되지 않은 이미지에 대한 요청은 캐시를 통해 처리된다.
CDN 사용시 고려해야 할 사항
- 비용 : CDN은 보통 third-party providers에 의해 운영되며, 데이터 전송양에 따라 요금을 낸다. 자주 사용되지 않는 콘텐츠는 이득이 크지 않으므로 CDN에서빼는 것을 고려하도록 하자.
- 적절한 만료 시한 설정 : 시의성이 중요한(Time-sensitive) 콘텐츠인 경우 만료 시점을 잘 설정해야 한다. 너무 길면 콘텐츠의 신선도는 떨어질 것이고, 너무 짧으면 원본 서버에 빈번히 접속하게 되어서 좋지 않다.
- CDN 장애 대응 : CDN 자체가 죽었을 경우 웹사이트/어플리케이션이 어떻게 동작할 지 고려해야 한다.
- 콘텐츠 무효화(invalidation)방법 : 아직 만료되지 않았더라도 아래의 방법들을 통해 CDN에서 제거 가능
- CDN 서비스 사업자가 제공하는 API를 이용하여 콘텐츠 무효화
- 콘텐츠의 다른 버전을 서비스하도록 오브젝트 버저닝 이용
무상태(stateless) 웹 계층
웹 계층을 수평적으로 확장하기 위해서는 상태 정보(사용자 세션 데이터와 같은)를 웹 계층에서 제거하여야 한다.
바람직한 전략은 상태 정보를 관계형 데이터베이스나 NoSQL 같은 지속성 저장소에 보관하고, 필요할 때 가져오도록 하는 것이다.
이렇게 구성된 웹 계층을 무상태 웹 계층이라 부른다.
상태 정보 의존적인 아키텍쳐는 같은 클라이언트부터의 요청은 항상 같은 서버로 전송되어야 된다.
대부분의 로드밸런서가 이를 지원하기 위해 고정 세션이라는 기능을 제공하는데, 쿠키나 IP 주소와 같은 클라이언트 정보를 사용한다. 이 과정에서 로드밸런서는 각 클라이언트에 대한 세션 정보를 유지 및 관리해야 된다. 이는 로드밸런서에 부담을 준다.
상태 정보 의존적인 아키텍처
상태 정보를 보관하는 서버는 클라이언트의 상태를 유지하여 요청들 사이에 공유되도록 한다.
예를 들어 사용자 A의 세션 정보가 서버1에 저장, 사용자 B의 세션 정보가 서버2에 저장된다고 가정하면 사용자 A를 인증하기 위해서 HTTP요청은 반드시 서버 1로 전송 되어야한다.
문제는 같은 클라이언트로부터의 요청은 항상 같은 서버로 전송되어야한다는 것이다.
대부분의 로드벨런서가 이를 방지하기 위해 고정 세션(sticky ses-sion)이라는 기능을 제공하고 있는데, 이는 로드밸런스에 부담을 주며 로드 밸런서 뒤에 서버를 추가하거나 제거하기도 까다롭고 이들 서버의 장애를 처리하기도 복잡해진다.
무상태 아키텍처
무상태 아키텍처는 클라이언트에 상태정보를 저장하지 않기 때문에 HTTP 요청은 어떤 웹서버로 전달될 수 있다.
웹 서버는 상태 정보가 필요할경우 캐시시스템이나 NoSQL과 같은 공유 저장소로부터 데이터를 가져온다.
따라서 상태 정보는 웹서버로부터 물리적으로 분리 되었으며 구조는 단순하고 안정적이며, 규모확장이 쉽다는 장점이 있다.
데이터 센터
지리적 라우팅 : 사용자는 가장 가까운 데이터 센터로 안내된다.
지리적 라우팅에서의 geoDNS는 사용자의 위치에 따라 도메인 이름을 어떤 IP 주소로 변환할 지 결정해주는 DNS서비스이다.
데이터 센터 중 하나에 심각한 장애가 발생하면 모든 트래픽은 장애가 없는 데이터 센터로 이동된다.
- 트래픽 우회 : 올바른 데이터 센터로 트래픽을 보내는 효과적인 방법을 찾아야한다.
- 데이터 동기화 : 데이터 센터마다 별도의 데이터 베이스를 사용하고 있는 상황이라면 장애가 복구되어 다른 데이터베이스로 우회되도 찾는 데이터가 없을 수도 있다. 이런 상황을 막는 보편적인 전략은 데이터를 여러 데이터센터에 걸쳐 다중화 해놓는 것이다.
- 테스트와 배포 : 여러 데이터 센터를 사용하도록 시스템이 구성된 상황이라면 웹 사이트 또는 애플리케이션을 여러 위치에서 테스트해보는 것이 중요하다. 자동화된 배포 도구 모든 데이터 센터에 동일한 서비스가 설치되도록 하는데 중요한 역할을함.
메시지 큐
메시지 큐는 메시지의 무손실을 보장하는 비동기 통신을 지원하는 컴포넌트로 메시지 큐를 이용하면 서비스 또는 서버 간 결합이 느슨해져서 규모 확장성이 보장되어야하는 안정적 애플리케이션을 구성하기 좋다.
- 무손실 : 일단 보관된 메시지는 소비자가 꺼낼 때 까지 안전히 보관됨
메시지 큐의 기본적인 아키텍처
생산자 또는 발행자라고 불리는 입력 서비스가 메시지를 만들어 메시지 큐에 발행한다.
큐에는 보통 소비자 혹은 구독자라 불리는 서비스 혹은 서버가 연결되어 있는데, 메시지를 받아 그애 맞는 동작을 수행한다.
생산자는 소비자 프로세스가 다운되어 있어도 메시지를 발행될 수 있고
소비자는 생산자 서비스가 가용한 상태가 아니더라도 메시지를 수신할 수 있다.
따라서 생산자와 소비자가 서로 어떤 상태인지 알 필요가 없다. 시간이 오래 걸리는 프로세스는 비동기로 처리하면 편리하다.
로그, 메트릭 그리고 자동화
- 로그 : 에러 로그를 모니터링 하는 것은 중요하다. 에러 로그는 서버 단위로 모니터링하거나, 로그를 단일 서비스로 모아두는 도구를 활용하면 편리하게 검색, 조회할 수 있다.
- 메트릭 : 사업 현황에 관한 유용한 정보, 시스템의 현재 상태를 손쉽게 파악 가능
- 호스트 단위 메트릭 : CPU, 메모리, 디스크 I/O에 관한 메트릭
- 종합(aggregated) 메트릭 : 데이터베이스, 캐시 성능
- 핵심 비즈니스 메트릭 : 일별 능동 사용자(Daily Active User), 수익(Revenue), 재방문(Retention)등
- 자동화 : 시스템이 크고 복잡해지면 생산성을 높히기 위해 자동화 도구 활용해야함. 지속적 통합(CI) 도구 활용시 개발자가 코드의 문제를 쉽게 감지 가능하다. 또한 빌드, 테스트, 배포 절차를 자동화할 수 있다. → 개발 생산성 향상
데이터베이스의 규모 확장
저장할 데이터가 많아지면 데이터베이스에 대한 부하도 증가하여 데이터베이스를 증설할 방법을 찾아야한다.
수직적 확장
기존에 서버에 더 많은, 또는 고성능의 자원(CPU, RAM, 디스크 등)을 증설하는 방법이다.
데이터베이스 수직적 확장에는 다음과 같은 단점이 있다.
- 데이터베이스 서버 하드웨어에 고성능 자원을 추가하는 것에는 한계가 있음.
- 단일장애지점(SPOF)로 인한 위험성이 크다.
- 비용이 많이든다.
수평적 확장
데이터베이스의 수평적 확장은 샤딩(sharding) 이라고하며 더 많은 서버를 추가함으로써 성능을 향상시킨다.
샤딩은 대규모 데이터베이스를 샤드(shard) 단위로 분할하는 기술이다.
샤딩 전략을 구현 시 샤딩 키(sharding key)를 어떻게 정하냐가 가장 중요하며 샤딩 키를 정할 때 데이터를 고르게 분할 할 수 있도록 하는게 가장 중요하다.
샤딩은 데이터베이스 규모 확장을 실현하는 훌륭한 기술이지만 시스템이 복잡해지고, 해결해야하는 새로운 문제 발생한다.
- 데이터의 재샤딩 : 데이터가 너무 많아져서 하나의 샤드로는 더 이상 감당하기 어려울 때, 샤드간 데이터 분포가 균등하지 않아, 특정 샤드의 공간이 먼저 소진(샤드 소진) 될 수 있다. 샤드 소진이 발생하면 샤드 키를 계산하는 함수를 변경하고 데이터를 재배치 해야한다.
- 유명인사 문제 : 핫스팟키라고도 불리며 특정 샤드에만 질의가 집중되어 서버에 과부하가 걸리는 문제이다. 특정 샤드에 자주 찾는 유명인이 집중되면 잦은 read연산으로 과부하가 발생. 데이터를 쪼개어 각각 특정 유명인사에 샤드를 할당 혹은 더 쪼개야 할 수 있다.
- 조인 및 비정규화 : 데이터베이스를 여러 샤드 서버로 쪼개면 여러 샤드에 걸친 데이터를 조인하기 힘들 수 있다. 이럴 땐 비정규화하여 하나의 테이블에서 질의가 수행되도록 할 수 있다.
백만 사용자, 그리고 그 이상
시스템의 규모를 확장하는 것은 지속적이고 반복적인 과정이다. 시스템이 커질수록 시스템을 가다듬어야할 것이다. 시스템을 최적화하고 더 작은 단위의 서비스로 분할해야 할 수도 있다.
- 웹 계층은 무상태 계층으로
- 모든 계층에 다중화 도입
- 가능한 한 많은 데이터를 캐시할 것
- 여러 데이터 센터를 지원할 것
- 정적 콘텐츠는 CDN을 통해 서비스할 것
- 데이터 계층은 샤딩을 통해 그 규모를 확장할 것
- 각 계층은 독립적 서비스로 분할할 것
- 시스템은 지속적으로 모니터링하고 자동화 도구를 활용할 것
'독서 > 가상 면접 사례로 배우는 대규모 시스템 설계 기초' 카테고리의 다른 글
8장. URL 단축기 설계 (1) | 2023.12.11 |
---|---|
7장. 분산 시스템을 위한 유일 ID 생성기 설계 (0) | 2023.12.08 |
6장. 키-값 저장소 설계 (1) | 2023.12.06 |
5장. 안정 해시 설계 (1) | 2023.12.06 |
4장. 처리율 제한 장치의 설계 (0) | 2023.11.30 |
댓글