0x0102

AWS와 클라우드 개념 본문

Study/Cloud Computing

AWS와 클라우드 개념

jxx_yxjx 2024. 3. 8. 16:37

1. AWS의 장점

AWS는 아마존에서 온프레미스 인프라 구축 서비스를 클라우드 서비스로 만든것입니다.

온프레미스 서비스를 왜 클라우드로 옮겼고, 어떤 이점이 있는지 살펴보겠습니다.

클라우드 환경과 온프레미스 환경은 각각 고유한 특징과 장단점을 가지고 있습니다. 다음은 두 환경을 비교한 내용입니다:

  1. 비용:
    • 클라우드: 초기 투자 비용이 낮고 사용한 만큼 비용 지불. 유연한 비용 모델을 제공
    • 온프레미스: 초기 투자 비용이 높으며, 하드웨어, 소프트웨어 라이선스 및 유지 보수 비용이 발생
  2. 확장성:
    • 클라우드: 신속하게 확장 가능하며, 필요에 따라 리소스를 증가 또는 축소 가능. 탄력적인 환경 제공
    • 온프레미스: 하드웨어 및 인프라를 확장하려면 추가 하드웨어 구매 및 설치가 필요하며 확장성이 제한될 수 있음
  3. 보안:
    • 클라우드: 주로 제공 업체에 의해 보안 관리. 클라우드 제공 업체는 광범위한 보안 규정을 준수하기 위해 노력함
    • 온프레미스: 조직이 직접 보안을 관리하며, 보안 정책을 적용하고 모니터링해야 함.
  4. 유연성:
    • 클라우드: 지리적으로 분산된 데이터 센터 및 리전을 통해 사용자에게 더 나은 서비스 제공. 다양한 클라우드 서비스 및 관리 도구 활용 가능
    • 온프레미스: 보안 정책 및 네트워크 설정을 더 세밀하게 제어할 수 있으며, 일부 응용 프로그램은 온프레미스에서만 실행 가능.
  5. 관리 및 유지 보수:
    • 클라우드: 하드웨어 및 인프라 관리를 제공 업체가 담당하므로 조직은 애플리케이션 및 서비스에 집중 가능.
    • 온프레미스: 하드웨어 및 인프라의 관리 및 유지보수가 조직의 책임이며, 전문 인력이 필요할 수 있음.

이러한 요소들은 조직의 요구 사항, 비즈니스 모델, 보안 요구 사항 등을 고려하여 클라우드 또는 온프레미스 환경 중 하나를 선택하는 데 영향을 미칩니다. 종종 조직은 하이브리드 환경을 채택하여 클라우드와 온프레미스의 장점을 조합하기도 합니다.

 

2. 온프레미스 용어와 클라우드 용어 대응관계

방화벽 : 보안그룹

ACL : NACL

관리자 권한 : IAM

L4, 로드 밸런서 : ELB, 탄력적 로드 밸런서 , ALB , NLB , GWLB , CLB(요즘 안씁니다)

네트워크 : VPC

서버 : EC2 ,탄력적 서버

NAS : EFS (탄력적 파일 시스템)

디스크 : EBS ( 탄력적 블록 스토어 저장장치)

DB : RDS (관계형 데이터 베이스)

 

3. AWS의 서비스 제공 시나리오

기존 배포환경에서 사용자가 특정 엔드포인트에 접속할때 다음과 같은 절차를 거칩니다.

  1. 특정 서비스의 도메인에 접속합니다.
  2. DNS 서버에 전달된 요청 도메인이 분석되어 사용자에게 ip주소로 변환해 응답합니다.
  3. 반환받은 ip주소를 이용해 서버에 연결한다.
  4. 서버에서 요청에 따른 기능을 실행합니다. 이 과정에서 먼저 서버 디스크를 활용합니다.
  5. 이 과정에서 디비데이터가 필요하다면 디비에 접근해 메모리로 데이터를 꺼내옵니다.
  6. 기타 디비가 아닌 곳에 저장한 요소는 스토리지 등에 접근해서 활용합니다.

 

AWS에서도 큰 개념은 같고 수행하는 용어가 조금 다를 뿐입니다.

  1. Route53에서 요청에 대해 응답합니다.  DNS의 기본 포트가 53이라 route53이 이름입니다.
  2. 요청이 분석되어서 Route53이 해당 요청의 목적 ip를 반환합니다.
  3. 반환받은 ip주소를 이용해 EC2에 연결합니다.
  4. 접속에 따른 기능을 수행하며 EC2의 디스크인 EBS를 먼저 활용합니다.
  5. 디비데이터가 필요하다면 Amazon DB 등의 서비스에 접근해 메모리로 데이터를 꺼내옵니다.
  6. S3 오브젝트 스토리지에 파일, 동영상 등 디비에 직접 저장하지 않는 요소를 적재하거나 꺼내옵니다.

 

4. 여러가지 형태의 인프라 구성

온프레미스 - 일반 데이터 센터. 물리 서버로 운영하는 데이터 센터, IDC ,기존 레거시 시스템 등

하이브리드 - 클라우드와 온프레미스와 같이 활용해 구성하는것 (가장 많은 유형)

클라우드- AWS, AZURE, GCP, Naver, NHN, KT 등의 인프라 서비스를 활용하는것

멀티클라우드 - AWS, AZURE, GCP, Naver, NHN, KT 등 여러가지 퍼블릭 클라우드를 섞는 경우

 

5. 인프라를 표현하는 XaaS 용어

  • IaaS - Server only
  • Paas - Server + OS + MiddleWare
  • SaaS - Server + OS + MiddleWare + Application

 

6. 클라우드 인프라 기본 구조

  • 클라우드 인프라의 실제 장비들은 데이터 센터에 있고, 데이터 센터는 지역마다 있습니다. → 리전 Region
  • 리전 Region 은 여러 개의 가용영역AZ 으로 구성됩니다.
    • 데이터 센터 ≠ 운영 단위
    • 실제 운영 단위 ⇒ 가용영역AZ → 각 AZ는 1개 이상의 데이터 센터로 구성

 

7. 리전의 존재 이유

여러가지 요인이 있지만 네트워크 레이턴시를 가장 큰 요인으로 꼽을 수 있습니다.

네트워크 통신 시 레이턴시의  주요 이유는 다음과 같습니다:

  1. 물리적 거리: 두 시스템 또는 장치 간의 물리적 거리는 데이터가 이동하는 시간을 결정합니다. 데이터가 더 긴 거리를 이동할 때는 더 많은 시간이 소요되며, 이는 레이턴시의 주요 원인 중 하나입니다.
  2. 네트워크 혼잡: 네트워크가 혼잡하면 데이터 패킷이 큐에 쌓이게 되어 전달 지연이 발생할 수 있습니다. 특히 많은 양의 데이터가 동시에 전송되거나 네트워크 용량을 초과하는 경우에 이러한 현상이 발생할 수 있습니다.
  3. 라우팅 지연: 데이터가 출발지에서 목적지로 전송되는 동안 라우터 및 스위치와 같은 네트워크 장비를 통과해야 합니다. 이러한 장비를 통과할 때 발생하는 라우팅 및 전달 지연이 레이턴시에 영향을 줄 수 있습니다.
  4. 패킷 처리 지연: 네트워크 장비에서 패킷을 처리하는 데 걸리는 시간도 레이턴시의 원인이 될 수 있습니다. 이러한 지연은 패킷의 크기, 우선순위, 라우팅 알고리즘 등에 따라 다를 수 있습니다.
  5. 프로토콜 오버헤드: 네트워크 통신에 사용되는 프로토콜은 데이터 전송에 필요한 추가적인 오버헤드를 발생시킬 수 있습니다. 예를 들어 TCP 프로토콜은 데이터의 신뢰성을 보장하기 위해 패킷 복구 및 재전송을 수행하며, 이로 인해 추가적인 지연이 발생할 수 있습니다.

이러한 요인들은 네트워크 통신 시 발생하는 레이턴시를 영향을 줄 수 있으며, 성능을 향상시키기 위해 네트워크 아키텍처와 프로토콜을 최적화하는 것이 중요합니다.

그러나 리전을 나누어도 데이터센터에 문제가 생기면 서비스가 다운되는 문제가 발생하기 때문에 클라우드 서비스들은 같은 리전 내에 여러개의 가용영역(Available Zone)을 둡니다.

그래서 큰 단위로 리전이 나뉘고 리전 내에는 다시 가용영역이라는 구역으로 나뉘어져 있습니다.

 

참고로 서울리전의 경우는 IDC가 4개가 있고(즉 AZ도 4개)

A, C가 먼저 B, D는 나중에 생겼으며 구 모델 서버인 T2 시리즈는 A, C에서만 생성가능합니다.

 

8. 이중화에 유리한 클라우드

클라우드가 이중화에 유리한 이유에 대해 살펴보겠습니다.

  1. 고가용성 및 내결함성: 이중화는 시스템의 고가용성을 보장합니다. 만약 한 리전이나 데이터 센터가 장애로 인해 다운되더라도 다른 리전 또는 데이터 센터에서 서비스를 계속할 수 있습니다. 
  2. 지역적 재해 대비: 자연 재해, 인프라 문제 또는 다른 지역적 문제로 인해 한 리전이 영향을 받을 경우, 다른 리전에서 서비스를 계속할 수 있습니다. 이는 비즈니스 연속성을 보장하고 재해 대응 계획을 지원합니다.
  3. 지역적 인프라 및 법규 준수: 다양한 규정 및 법률에 따라 데이터가 특정 지역에 남아야 할 수 있습니다. 이중화는 지역적으로 데이터를 보관하고 규정 및 법률을 준수하는 데 도움이 됩니다.
  4. 지리적으로 가까운 사용자에 대한 레이턴시 최적화: 사용자가 지리적으로 더 가까운 데이터 센터에서 서비스를 이용하면 더 낮은 레이턴시와 더 빠른 응답 시간을 제공할 수 있습니다.
  5. 스케일링 및 부하 분산: 이중화를 통해 부하를 분산하고 필요에 따라 리전 또는 데이터 센터 간에 리소스를 확장할 수 있습니다. 이는 성능을 최적화하고 대규모 트래픽을 처리할 수 있는 유연성을 제공합니다.

이중화는 클라우드 기반의 시스템 아키텍처에서 중요한 구성 요소이며, 비즈니스의 안정성과 성능을 향상시키는 데 큰 역할을 합니다.

'Study > Cloud Computing' 카테고리의 다른 글

IAM 등 계정 설정  (1) 2024.03.08