[AWS-SAA] Storage
Storage
- 단일 Amazon S3 버킷에 데이터를 최대한 빨리 집계 하는 법
[고속 인터넷 연결, 글로벌 사이트 데이터 500GB, 운영 복잡성 최소화]
- 대상 S3 Bucket에서
S3 Transfer Acceleration
을 키고멀티 파트 업로드
를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드.
- 대상 S3 Bucket에서
- S3 버킷에 JSON 형식으로 저장된 독점 애플리케이션 로그 파일을 쿼리를 통해 분석
[최소한의 변경 및 운영 오버헤드]
S3에 쿼리하는 건 AWS Athena
- S3와 함께 Amazon Athena를 직접 사용하여 필요에 따라 쿼리를 실행
- [Q5]
사용자가 업로드한 문서를 EBS 볼륨에 저장하는 EC2 인스턴스 운용 중.
확장성 및 고 가용성을 위해 다른 AZ에 두번째 EC2 , EBS Volume 생성 및 ALB 뒤에 배치.
사용자가 웹 사이트 새로고침 시 모든 문서를 보지 못하고 일부 문서만 접근됨.
사용자가 모든 문서를 한번에 볼 수 있도록 제안 사항은?
- 두 EBS 볼륨의 기존 데이터를 Amazon EFS 로 복사. 이후 새 문서를 Amazon EFS 에 저장하도록 애플리케이션을 수정.
- EBS 와 EFS 의 큰 차이점
EBS 는 단일 AZ 내부
에서만 접근 가능.EFS 는 다중 AZ
에서 접근 가능.- 각 AZ 별로 별도의 EBS 볼륨을 사용함에 AZ 간 공유가 되지 않아 문제 발생한 것.
- Application 서버가 다중 AZ에서 접근 가능한 EFS에 데이터를 저장하도록 수정.
- [Q6]
NFS 를 통해 On-Premise 환경에 저장하던 1MB ~ 500GB 의 대용량 비디오 파일을 S3 로 Migration.
[최소한의 네트워크 대역 사용, 최대한 빠르게 Migration]
- 가능한 한 최소한의 네트워크 대역폭을 사용하라 했으니 아예 오프라인에서 Snowball Edge 로 올리는 게 맞음.
- AWS Snowball 및 AWS Snowball Edge 는 기존 저장소에서 네트워크 대역폭이 충분하지 않을 때, 대용량 데이터 세트를 클라우드로 이전하는데 도움.
Snowball 장치는 80TB
,Snowball Edge 는 100TB
까지 한번에 이동 가능.
- [Q9]
IDC 에서 SMB 파일 서버 실행 중.
파일서버는 파일 생성 후 자주 Access 하는 대용량 파일을 저장.
7일이 지나면 파일에 거의 Access 하지 않는다.
최근 Access 파일에 대한 저지연 Access 유지하는 동시에 저장공간 확장 및 파일 수명 주기 관리 제공하는 법?
- Amazon S3 파일 게이트웨이를 생성하여 회사의 스토리지 공간을 확장.
- S3 수명 주기 정책을 생성하여 7 일 후에 데이터를
S3 Glacier Deep Archive
로 전환사용 가능한 스토리지 공간의 확장 = Storage Gateway
Storage Gateway
는 On-premise Strage 와 AWS Storage 를 합쳐사실상 무제한의 Storage
를 향유하는 것을 목적으로 하는 서비스.
- [Q20]
동일한 AWS 리전의 테스트 환경에 대량의 프로덕션 데이터를 복제하는 기능을 개선.
데이터는 Amazon Elastic Block Store(Amazon EBS) 볼륨의 Amazon EC2 인스턴스에 저장.
복제된 데이터를 수정해도 프로덕션 환경에 영향을 주지 않아야 함.
프로덕션 데이터를 테스트 환경에 복제하는 데 필요한 시간을 최소화.
- 프로덕션 EBS 볼륨의 EBS 스냅샷 생성.
- EBS 스냅샷에서
EBS 빠른 스냅샷 복원
기능 On. - 스냅샷을 새 EBS 볼륨으로 복원.
- 테스트 환경의 EC2 에 새 EBS 볼륨을 연결.
- [참고]
인스턴스 스토어 볼륨은 휘발성
이라 꺼지면 데이터 삭제.EBS 다중 연결
을 사용하게 되면복제된 데이터를 수정할 때 프로덕션 환경에 영향
스냅샷은 새로운 볼륨을 만드는 것.
만들어진 볼륨에 스냅샷을 복원하는 것이 아님.
- [참고]
- [Q22]
Amazon S3 를 사용하여 새로운 디지털 미디어 애플리케이션의 스토리지 아키텍처를 설계.
미디어 파일은 가용 영역 손실에 대한 복원력이 있어야 함.
일부 파일은 자주 액세스되는 반면 다른 파일은 예측할 수 없는 패턴으로 거의 액세스 되지 않음.
미디어 파일을 저장하고 검색하는 비용을 최소화.
스토리지 옵션은?
A. S3 Standard (S3 표준)
B. S3 Intelligent-Tiering (S3 지능형 계층화)
C. S3 Standard-Infrequent Access(S3 Standard-IA)
D. S3 One Zone-Infrequent Access(S3 One Zone-IA)
- B. S3 Intelligent-Tiering (S3 지능형 계층화)
S3 Intelligent-Tiering
액세스 빈도 또는 불규칙한 사용 패턴을 모를 때
완벽한 사용 사례.예측할 수 없는 패턴 = S3 Intelligent Tiering
- B. S3 Intelligent-Tiering (S3 지능형 계층화)
- [Q23]
Amazon S3 Standard 스토리지를 사용하여 백업 파일을 저장.
1 개월 동안 파일에 자주 액세스. 단, 1 개월 이후에는 파일에 접근하지 않는다.
파일은 무기한 보관.
가장 비용 효율적으로 충족하는 스토리지 솔루션은?
- S3 수명 주기 구성을 생성.
1 개월 후에 S3 Standard 에서
S3 Glacier Deep Archive
로 객체를 전환 Amazon S3 Glacier Deep Archive
거의 액세스하지 않고 몇 시간의 검색 시간이 허용되는 데이터의 장기 보존
을 위한 안전하고 내구성이 있으며매우 저렴
한 Amazon S3 스토리지 클래스
1 개월 이후 파일에 접근하지 않음 = S3 Glacier Deep Archive.
- S3 수명 주기 구성을 생성.
1 개월 후에 S3 Standard 에서
AWS-SAA 개인 공부 관련 포스트입니다.
문제 될 시 삭제 하겠습니다.
Comments