Cloud/AWS

SAA-C03 Examtopics 문제 정리 (1~100)

westwith 2024. 2. 19. 15:24
728x90

★*반복해서 틀렸던 것 위주

#01

한 회사는 여러 대륙에 걸쳐 도시의 온도, 습도, 기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 제공됩니다.

회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 솔루션은 운영상의 복잡성을 최소화해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 지역의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
  • D. 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
더보기
해설
  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 지역의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
  • D. 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.

고속 인터넷 연결, 글로벌 사이트, S3에 가능한 빨리 집계 => Acceleration

자매품으로 CDN과 Snowball

Snowball => 전송속도 제한, 업로드 기간 정해짐


#06

회사에서는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
  • B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
  • C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
  • D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
더보기
해설
  • A. S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
  • B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
  • C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
  • D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.

최소한의 네트워크 대역폭, 대용량 비디오 파일 => Snowball


#12

한 글로벌 기업이 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터와 동적 데이터에 대한 성능을 향상하고 대기 시간을 줄이고 싶어합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • B. ALB를 원본으로 하는 Amazon CloudFront 배포판을 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • C. S3 버킷을 원본으로 하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
  • D. ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
더보기
해설
  • A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • B. ALB를 원본으로 하는 Amazon CloudFront 배포판을 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • C. S3 버킷을 원본으로 하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
  • D. ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.

정적 + 동적, 성능향상 대기시간 줄이고 => CloudFront


#14 ★

한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 지표를 기준으로 확장됩니다. 전자상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 거래 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 작업 부하의 수요를 충족하기 위해 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
  • B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
  • C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
  • D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용하십시오.
더보기
해설
  • A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
  • B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
  • C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
  • D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용하십시오.

고가용성 => 다중 AZ배포


#15★

한 회사는 최근 AWS로 마이그레이션했으며 프로덕션 VPC에 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 갖고 있었습니다. 점검서버는 트래픽 흐름 점검, 트래픽 필터링 등의 특정 작업을 수행했다. 회사는 AWS 클라우드에서도 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
  • B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
  • C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
  • D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
더보기
해설
  • A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
  • B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
  • C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
  • D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.

네트워크 방화벽


#16★


한 회사가 AWS에서 데이터 레이크를 호스팅하고 있습니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 회사에는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리팀만이 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 회사의 나머지 부분은 제한된 액세스 권한만 가져야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

 

더보기
해설
  • A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

https://docs.aws.amazon.com/quicksight/latest/user/share-a-dashboard-grant-access-users.html

https://docs.aws.amazon.com/quicksight/latest/user/sharing-a-dashboard.html

QuickSight는 IAM을 지원하지 않음


#17


회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 아키텍트는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
  • C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
  • D. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
더보기
해설
  • A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
  • C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
  • D. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.

E


#18


애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수를 사용하여 이미지를 처리 ​​및 압축한 다음, 다른 S3 버킷에 압축된 형식으로 이미지를 저장해야 합니다.
솔루션 아키텍트는 내구성이 뛰어난 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C. S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E. S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.
더보기
해설
  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C. S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E. S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.

E


#19★


회사에는 AWS에 배포된 3티어 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 웹 애플리케이션을 어플라이언스와 통합하여 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
  • D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.
더보기
해설
  • A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
  • D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.

E


#21


한 전자 상거래 회사가 AWS에서 하루에 한 번 거래하는 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품이 판매됩니다. 회사는 피크 시간 동안 밀리초의 대기 시간으로 매시간 수백만 건의 요청을 처리할 수 있기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅하십시오. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
  • B. 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • D. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.
더보기
해설
  • A. Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅하십시오. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
  • B. 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • D. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.

E


#25


회사에서 애플리케이션을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 해당 정보를 Amazon Aurora PostgreSQL 데이터베이스에 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대량의 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 향상하고 구성 노력을 최소화하기 위해 새로운 디자인을 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩터링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
  • B. 플랫폼을 Aurora에서 Amazon DynamoDProvision DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
  • C. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
  • D. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다
더보기
해설
  • A. Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩터링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
  • B. 플랫폼을 Aurora에서 Amazon DynamoDProvision DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
  • C. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
  • D. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.

E


#27★


한 회사가 새로운 애플리케이션을 출시하고 있으며 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 정기적으로 액세스해야 합니다. 제품 관리자에게는 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료하세요. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공합니다.
  • B. 제품 관리자를 위해 특별히 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하세요.
  • C. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청하세요.
  • D. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유하세요. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명을 사용하여 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
더보기
해설
  • A. CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료하세요. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공합니다.
  • B. 제품 관리자를 위해 특별히 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하세요.
  • C. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청하세요.
  • D. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유하세요. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명을 사용하여 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.

E


#29★


한 회사에서 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 이 회사는 여러 AWS 지역에 배포되어 있습니다.
회사는 사용자를 지연 시간이 가장 짧은 지역으로 라우팅해야 합니다. 회사에는 지역 간 자동화된 장애 조치도 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • B. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • C. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
  • D. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 기반 레코드를 생성합니다. 가중치 기반 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
더보기
해설
  • A. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • B. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • C. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
  • D. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 기반 레코드를 생성합니다. 가중치 기반 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.

https://aws.amazon.com/global-accelerator/faqs/

CloudFront는 엣지 로케이션을 사용하여 콘텐츠를 캐시하는 반면

Global Accelerator는 엣지 로케이션을 사용하여 가장 가까운 지역 엔드포인트에 대한 최적의 경로를 찾음

CloudFront는 HTTP 프로토콜을 처리

Global Accelerator는 TCP 및 UDP와 같은 HTTP 및 비 HTTP 프로토콜 모두에 가장 적합


#31


AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하려고 합니다. Amazon RDS DB 인스턴스. Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하려고 합니다.
이를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지하십시오.
  • B. 비용 탐색기를 사용하여 태그가 제대로 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정하십시오.
  • C. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 코드를 주기적으로 실행합니다.
  • D. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.
더보기
해설
  • A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지하십시오.
  • B. 비용 탐색기를 사용하여 태그가 제대로 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정하십시오.
  • C. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 코드를 주기적으로 실행합니다.
  • D. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.

E


#33


한 회사가 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 피크 시간 동안 수십만 명의 사용자에게 서비스를 제공합니다. 회사에는 수백만 건의 금융 거래 세부 정보를 여러 다른 내부 애플리케이션과 공유하기 위해 확장 가능하고 실시간에 가까운 솔루션이 필요합니다. 또한 짧은 지연 시간의 검색을 위해 문서 데이터베이스에 저장되기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. 거래 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 중요한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
  • B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
  • C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 중요한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 트랜잭션 데이터를 사용할 수 있습니다.
  • D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그런 다음 Lambda 함수는 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
더보기
해설
  • A. 거래 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 중요한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
  • B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
  • C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 중요한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 트랜잭션 데이터를 사용할 수 있습니다.
  • D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그런 다음 Lambda 함수는 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.

E


#35


한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내의 Amazon EC2 인스턴스로 구성됩니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 탐지하고 방어할 수 있는 솔루션을 권장해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 계정에서 Amazon GuardDuty를 활성화합니다.
  • B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
  • C. AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
  • D. AWS Shield Advanced를 활성화하고 여기에 ELB를 할당합니다.
더보기
해설
  • A. 계정에서 Amazon GuardDuty를 활성화합니다.
  • B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
  • C. AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
  • D. AWS Shield Advanced를 활성화하고 여기에 ELB를 할당합니다.

Inspector는 OS 취약성

GuardDuty 계정 모니터링


#36


한 회사가 AWS 클라우드에 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 지역의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키를 사용하여 암호화 및 해독되어야 합니다. 데이터와 키는 두 리전에 각각 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 각 리전에 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • B. 고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
  • C. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • D. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
더보기
해설
  • A. 각 리전에 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • B. 고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
  • C. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • D. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.

E


#37★


한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 시작했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하기 위한 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스하려면 EC2 직렬 콘솔을 사용하세요.
  • B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS 시스템 관리자 세션 관리자를 사용하여 원격 SSH 세션을 설정합니다.
  • C. 관리 SSH 키 쌍을 생성합니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스 관리를 위한 터널을 제공합니다.
  • D. AWS Site-to-Site VPN 연결을 설정합니다. VPN 터널을 통해 SSH 키를 사용하여 로컬 온프레미스 머신을 사용하여 인스턴스에 직접 연결하도록 관리자에게 지시합니다.
더보기
해설
  • A. 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스하려면 EC2 직렬 콘솔을 사용하세요.
  • B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS 시스템 관리자 세션 관리자를 사용하여 원격 SSH 세션을 설정합니다.
  • C. 관리 SSH 키 쌍을 생성합니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스 관리를 위한 터널을 제공합니다.
  • D. AWS Site-to-Site VPN 연결을 설정합니다. VPN 터널을 통해 SSH 키를 사용하여 로컬 온프레미스 머신을 사용하여 인스턴스에 직접 연결하도록 관리자에게 지시합니다.

E


#38★


한 회사가 Amazon S3에서 정적 웹 사이트를 호스팅하고 있으며 DNS에 Amazon Route 53을 사용하고 있습니다. 이 웹사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹사이트에 접속하는 사용자의 지연 시간을 줄여야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
  • B. AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
  • C. S3 버킷 앞에 Amazon CloudFront 배포판을 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
  • D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.
더보기
해설
  • A. 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
  • B. AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
  • C. S3 버킷 앞에 Amazon CloudFront 배포판을 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
  • D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.

Transfer Acc는 업로드 부스팅


#39


회사는 웹사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개가 넘는 행이 포함된 MySQL용 Amazon RDS 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 회사 웹사이트를 통해 매일 이 데이터에 대한 수백만 개의 업데이트가 있습니다.
회사에서는 일부 삽입 작업이 10초 이상 걸리는 것을 확인했습니다. 회사에서는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.
이 성능 문제를 해결하는 솔루션은 무엇입니까?

  • A. 스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
  • B. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
  • C. DB 인스턴스를 성능 확장이 가능한 인스턴스 클래스로 변경합니다.
  • D. MySQL 기본 비동기식 복제를 통해 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.
더보기
해설
  • A. 스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
  • B. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
  • C. DB 인스턴스를 성능 확장이 가능한 인스턴스 클래스로 변경합니다.
  • D. MySQL 기본 비동기식 복제를 통해 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.

E


#41


회사의 애플리케이션은 데이터 수집을 위해 여러 SaaS(Software-as-a-Service) 소스와 통합됩니다. 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 Amazon S3 버킷에 데이터를 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스는 업로드가 완료되면 사용자에게 알림도 보냅니다. 회사에서는 애플리케이션 성능이 느려지는 것을 확인하고 성능을 최대한 개선하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. EC2 인스턴스가 확장될 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • B. 각 SaaS 소스와 S3 버킷 간에 데이터를 전송하는 Amazon AppFlow 흐름을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • C. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 대한 업로드가 완료되면 이벤트를 보내는 두 번째 EventBridge(Cloud Watch 이벤트) 규칙을 생성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
  • D. EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.
더보기
해설
  • A. EC2 인스턴스가 확장될 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • B. 각 SaaS 소스와 S3 버킷 간에 데이터를 전송하는 Amazon AppFlow 흐름을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • C. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 대한 업로드가 완료되면 이벤트를 보내는 두 번째 EventBridge(Cloud Watch 이벤트) 규칙을 생성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
  • D. EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.

E


#44


회사에는 중요한 데이터가 포함된 Amazon S3 버킷이 있습니다. 회사는 실수로 데이터가 삭제되지 않도록 보호해야 합니다.
이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. S3 버킷에서 버전 관리를 활성화합니다.
  • B. S3 버킷에서 MFA 삭제를 활성화합니다.
  • C. S3 버킷에 버킷 정책을 생성합니다.
  • D. S3 버킷에서 기본 암호화를 활성화합니다.
  • E. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.
더보기
해설
  • A. S3 버킷에서 버전 관리를 활성화합니다.
  • B. S3 버킷에서 MFA 삭제를 활성화합니다.
  • C. S3 버킷에 버킷 정책을 생성합니다.
  • D. S3 버킷에서 기본 암호화를 활성화합니다.
  • E. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.

E


#46★


회사에는 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 이 서비스는 매장 고객의 이전 구매를 기반으로 합니다. 매장에서는 SFTP를 통해 거래 데이터를 회사에 업로드하고, 데이터를 처리하고 분석하여 새로운 마케팅 제안을 생성합니다. 일부 파일의 크기는 200GB를 초과할 수 있습니다.
최근 회사에서는 일부 매장에서 포함되어서는 안 되는 개인 식별 정보(PII)가 포함된 파일을 업로드한 사실을 발견했습니다. 회사에서는 PII가 다시 공유되면 관리자에게 알림을 보내기를 원합니다. 또한 회사에서는 문제 해결을 자동화하려고 합니다.
최소한의 개발 노력으로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon S3 버킷을 안전한 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
  • B. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • C. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • D. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 보내고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거하십시오.
더보기
해설
  • A. Amazon S3 버킷을 안전한 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
  • B. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • C. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • D. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 보내고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거하십시오.

Macie는 기계 학습(ML) 및 패턴 일치를 사용하여 민감한 데이터를 검색하고 보호하는 데이터 보안 및 데이터 개인 정보 보호 서비스

Macie는 PII 감지

https://aws.amazon.com/macie/#:~:text=Discover%20sensitive%20data%20across%20your,remediation%20of%20data%20security%20risks.

https://docs.aws.amazon.com/macie/latest/user/what-is-macie.html


#47★


회사는 1주일 동안 지속될 예정인 이벤트를 위해 특정 AWS 지역의 3개 특정 가용 영역에서 Amazon EC2 용량을 보장해야 합니다.
EC2 용량을 보장하려면 회사는 어떻게 해야 합니까?

  • A. 필요한 지역을 지정하는 예약 인스턴스를 구입하십시오.
  • B. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
  • C. 필요한 지역과 3개의 가용 영역을 지정하는 예약 인스턴스를 구입합니다.
  • D. 필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다.
더보기
해설
  • A. 필요한 지역을 지정하는 예약 인스턴스를 구입하십시오.
  • B. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
  • C. 필요한 지역과 3개의 가용 영역을 지정하는 예약 인스턴스를 구입합니다.
  • D. 필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다.

예약인스턴스 => 장기간 (1년~3년) https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-differences

3개 AZ의 용량 보장 - 주문형 예약, 지역 및 가용 영역 지정


#49


회사에서는 매월 통화 내용 파일을 저장합니다. 호출 후 1년 이내에 사용자는 파일에 무작위로 액세스하지만 1년 후에는 파일에 드물게 액세스합니다. 회사는 사용자에게 1년 미만의 파일을 최대한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하려고 합니다. 오래된 파일 검색이 지연되는 것은 허용됩니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3 Glacier 즉시 검색에 태그와 함께 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
  • B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier 유연한 검색으로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
  • C. Amazon S3 Standard 스토리지에 태그와 함께 개별 파일을 저장합니다. Amazon S3 Standard 스토리지에 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
  • D. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.
더보기
해설
  • A. Amazon S3 Glacier 즉시 검색에 태그와 함께 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
  • B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier 유연한 검색으로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
  • C. Amazon S3 Standard 스토리지에 태그와 함께 개별 파일을 저장합니다. Amazon S3 Standard 스토리지에 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
  • D. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.

E


#50★

회사에는 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어를 통해 구동됩니다. 회사는 중요한 보안 취약성을 해결하기 위해 가능한 한 빨리 모든 EC2 인스턴스에 타사 소프트웨어를 패치해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 모든 EC2 인스턴스에 패치를 적용하는 AWS Lambda 함수를 생성합니다.
  • B. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 패치 관리자를 구성합니다.
  • C. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 유지 관리 기간을 예약합니다.
  • D. AWS 시스템 관리자 Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.
더보기
해설
  • A. 모든 EC2 인스턴스에 패치를 적용하는 AWS Lambda 함수를 생성합니다.
  • B. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 패치 관리자를 구성합니다.
  • C. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 유지 관리 기간을 예약합니다.
  • D. AWS 시스템 관리자 Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.

Run Command를 사용하면 일반적인 관리 작업을 자동화하고 일회성 작업을 수행, 대규모로 구성이 변경

https://docs.aws.amazon.com/systems-manager/latest/userguide/execute-remote-commands.html

패치 관리자는 타사 애플리케이션이 아닌 OS 수준 패치용


#51★

한 회사에서 REST API를 통해 검색할 수 있도록 주문 배송 통계를 제공하는 애플리케이션을 개발 중입니다. 회사는 배송 통계를 추출하고, 읽기 쉬운 HTML 형식으로 데이터를 구성하고, 매일 아침 동시에 여러 이메일 주소로 보고서를 보내려고 합니다.
이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Kinesis Data Firehose로 데이터를 보내도록 애플리케이션을 구성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
  • C. AWS Glue 작업을 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • D. AWS Lambda 함수를 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • E. Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보내려면 Amazon Simple 알림 서비스(Amazon SNS) 주제를 S3 이벤트 대상으로 생성합니다.
더보기
해설
  • A. Amazon Kinesis Data Firehose로 데이터를 보내도록 애플리케이션을 구성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
  • C. AWS Glue 작업을 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • D. AWS Lambda 함수를 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • E. Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보내려면 Amazon Simple 알림 서비스(Amazon SNS) 주제를 S3 이벤트 대상으로 생성합니다.

SNS 주제가 있는 Amazon S3:  데이터를 HTML 형식으로 지정하고 이메일 보고서로 보내야 하는 필요성을 직접적으로 해결하지는 않음

https://aws.amazon.com/ses/

https://docs.aws.amazon.com/ses/latest/dg/send-email-concepts-email-format.html


#53

.회사는 회계 기록을 Amazon S3에 저장해야 합니다. 기록은 1년 동안 즉시 접근 가능해야 하며 이후 추가 9년 동안 보관되어야 합니다. 관리 사용자 및 루트 사용자를 포함하여 회사의 어느 누구도 전체 10년 동안 기록을 삭제할 수 없습니다. 기록은 최대 복원력으로 저장되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근 제어 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
  • B. S3 Intelligent-Tiering을 사용하여 기록을 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후에는 삭제를 허용하도록 IAM 정책을 변경합니다.
  • C. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • D. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 레코드를 전환합니다. 10년 동안 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
더보기
해설
  • A. 전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근 제어 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
  • B. S3 Intelligent-Tiering을 사용하여 기록을 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후에는 삭제를 허용하도록 IAM 정책을 변경합니다.
  • C. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • D. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 레코드를 전환합니다. 10년 동안 거버넌스 모드에서 S3 객체 잠금을 사용합니다.

 


#56

.
한 회사가 Amazon Route 53에 도메인 이름을 등록했습니다. 이 회사는 ca-central-1 지역의 Amazon API Gateway를 백엔드 마이크로서비스 API에 대한 공용 인터페이스로 사용합니다. 타사 서비스는 API를 안전하게 사용합니다. 회사는 타사 서비스가 HTTPS를 사용할 수 있도록 회사의 도메인 이름과 해당 인증서로 API 게이트웨이 URL을 설계하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. API Gateway에서 Name="Endpoint-URL" 및 Value="회사 도메인 이름"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
  • B. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 Regional API Gateway 단계 엔드포인트를 가리키도록 합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
  • C. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API 게이트웨이 엔드포인트에 인증서를 연결합니다. 트래픽을 API 게이트웨이 엔드포인트로 라우팅하도록 Route 53을 구성합니다.
  • D. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.
더보기
해설
  • A. API Gateway에서 Name="Endpoint-URL" 및 Value="회사 도메인 이름"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
  • B. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 Regional API Gateway 단계 엔드포인트를 가리키도록 합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
  • C. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API 게이트웨이 엔드포인트에 인증서를 연결합니다. 트래픽을 API 게이트웨이 엔드포인트로 라우팅하도록 Route 53을 구성합니다.
  • D. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.

 


#58

.
한 회사는 확장성 및 가용성에 대한 요구 사항을 충족하기 위해 컨테이너에서 중요한 애플리케이션을 실행하려고 합니다. 회사는 중요한 애플리케이션의 유지 관리에 집중하는 것을 선호합니다. 회사는 컨테이너화된 워크로드를 실행하는 기본 인프라를 프로비저닝하고 관리하는 일을 책임지기를 원하지 않습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치하십시오.
  • B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon Machine Image(AMI)에서 Amazon EC2 인스턴스를 사용합니다.
더보기
해설
  • A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치하십시오.
  • B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon Machine Image(AMI)에서 Amazon EC2 인스턴스를 사용합니다.

 


#61

.
한 회사가 AWS에서 2계층 웹 애플리케이션을 개발하고 있습니다. 회사의 개발자는 백엔드 Amazon RDS 데이터베이스에 직접 연결되는 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 회사는 애플리케이션에 데이터베이스 자격 증명을 하드코딩해서는 안 됩니다. 또한 회사는 정기적으로 데이터베이스 자격 증명을 자동으로 교체하는 솔루션을 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
  • B. 암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하면 이전 값으로 돌아갈 수 있습니다.
  • C. 데이터베이스 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. 보안 비밀에 대한 자동 순환을 켭니다. 암호에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
  • D. 데이터베이스 자격 증명을 AWS Systems Manager Parameter Store에 암호화된 매개변수로 저장합니다. 암호화된 매개변수에 대해 자동 교체를 켭니다. 암호화된 매개변수에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
더보기
해설
  • A. 인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
  • B. 암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하면 이전 값으로 돌아갈 수 있습니다.
  • C. 데이터베이스 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. 보안 비밀에 대한 자동 순환을 켭니다. 암호에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
  • D. 데이터베이스 자격 증명을 AWS Systems Manager Parameter Store에 암호화된 매개변수로 저장합니다. 암호화된 매개변수에 대해 자동 교체를 켭니다. 암호화된 매개변수에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.

 


#62


한 회사가 AWS에 새로운 공개 웹 애플리케이션을 배포하고 있습니다. 애플리케이션은 ALB(Application Load Balancer) 뒤에서 실행됩니다. 애플리케이션은 외부 CA(인증 기관)에서 발급한 SSL/TLS 인증서를 사용하여 에지에서 암호화해야 합니다. 인증서는 매년 만료되기 전에 교체되어야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. ACM(AWS Certificate Manager)을 사용하여 SSL/TLS 인증서를 발급하세요. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • B. AWS Certificate Manager(ACM)을 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. AL에 인증서 적용 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
  • C. ACM(AWS Certificate Manager) 사설 인증 기관을 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • D. AWS 인증서 관리자(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. ALB에 인증서를 적용합니다. 인증서 만료가 가까워지면 Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 알림을 보냅니다. 인증서를 수동으로 순환합니다.
더보기
해설
  • A. ACM(AWS Certificate Manager)을 사용하여 SSL/TLS 인증서를 발급하세요. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • B. AWS Certificate Manager(ACM)을 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. AL에 인증서 적용 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
  • C. ACM(AWS Certificate Manager) 사설 인증 기관을 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • D. AWS 인증서 관리자(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. ALB에 인증서를 적용합니다. 인증서 만료가 가까워지면 Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 알림을 보냅니다. 인증서를 수동으로 순환합니다.

 


#64★


회사는 온프레미스에서 실행되는 Windows 파일 서버에 5TB가 넘는 파일 데이터를 보유하고 있습니다. 사용자와 애플리케이션은 매일 데이터와 상호 작용합니다.
회사는 Windows 워크로드를 AWS로 이전하고 있습니다. 회사가 이 프로세스를 계속 진행함에 따라 회사는 최소한의 지연 시간으로 AWS 및 온프레미스 파일 스토리지에 액세스해야 합니다. 회사에는 운영 오버헤드를 최소화하고 기존 파일 액세스 패턴을 크게 변경할 필요가 없는 솔루션이 필요합니다. 회사는 AWS에 연결하기 위해 AWS Site-to-Site VPN 연결을 사용합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx for Windows File Server로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 워크로드를 재구성합니다.
  • B. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. S3 파일 게이트웨이를 사용하도록 온프레미스 워크로드와 클라우드 워크로드를 재구성합니다.
  • C. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다. 각 워크로드의 위치에 따라 다릅니다.
  • D. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. Amazon FSx 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx 파일 게이트웨이로 이동합니다. AWS에서 Windows 파일 서버용 FSx를 사용하도록 클라우드 워크로드를 구성합니다. FSx 파일 게이트웨이를 사용하도록 온프레미스 워크로드를 구성합니다.
더보기
해설
  • A. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx for Windows File Server로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 워크로드를 재구성합니다.
  • B. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. S3 파일 게이트웨이를 사용하도록 온프레미스 워크로드와 클라우드 워크로드를 재구성합니다.
  • C. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다. 각 워크로드의 위치에 따라 다릅니다.
  • D. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. Amazon FSx 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx 파일 게이트웨이로 이동합니다. AWS에서 Windows 파일 서버용 FSx를 사용하도록 클라우드 워크로드를 구성합니다. FSx 파일 게이트웨이를 사용하도록 온프레미스 워크로드를 구성합니다.

 


#66★


한 회사에 각각 크기가 약 5MB인 많은 수의 파일을 생성하는 애플리케이션이 있습니다. 파일은 Amazon S3에 저장됩니다. 회사 정책에 따라 파일을 삭제하려면 4년 동안 보관해야 합니다. 파일에는 재생산이 쉽지 않은 중요한 비즈니스 데이터가 포함되어 있으므로 즉각적인 접근성이 항상 필요합니다. 파일은 객체 생성 후 처음 30일 동안 자주 액세스되지만 처음 30일 이후에는 거의 액세스되지 않습니다.
가장 비용 효율적인 스토리지 솔루션은 무엇입니까?

  • A. 객체 생성 후 30일이 지나면 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • B. 객체 생성 후 30일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • D. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 S3 Glacier로 이동합니다.
더보기
해설
  • A. 객체 생성 후 30일이 지나면 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • B. 객체 생성 후 30일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • D. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 S3 Glacier로 이동합니다.

https://www.examtopics.com/discussions/amazon/view/83281-exam-aws-certified-solutions-architect-associate-saa-c02/

 


#68


솔루션 아키텍트는 회사의 온프레미스 인프라를 AWS로 확장하기 위해 새로운 하이브리드 아키텍처를 설계하고 있습니다. 회사에서는 AWS 리전에 대한 지연 시간이 일관되게 낮고 가용성이 높은 연결이 필요합니다. 회사는 비용을 최소화해야 하며 기본 연결이 실패할 경우 느린 트래픽을 기꺼이 수용해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 VPN 연결을 백업으로 프로비저닝합니다.
  • B. 비공개 연결을 위해 지역에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 그리고 기본 VPN 연결이 실패할 경우 백업으로 두 번째 VPN 터널을 프로비저닝합니다.
  • C. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업과 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
  • D. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 AWS CLI의 Direct Connect 장애 조치 속성을 사용하여 백업 연결을 자동으로 생성합니다.
더보기
해설
  • A. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 VPN 연결을 백업으로 프로비저닝합니다.
  • B. 비공개 연결을 위해 지역에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 그리고 기본 VPN 연결이 실패할 경우 백업으로 두 번째 VPN 터널을 프로비저닝합니다.
  • C. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업과 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
  • D. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 AWS CLI의 Direct Connect 장애 조치 속성을 사용하여 백업 연결을 자동으로 생성합니다.

 


#71


한 회사에서 Amazon DynamoDB를 사용하여 고객 정보를 저장하는 쇼핑 애플리케이션을 실행하고 있습니다. 데이터가 손상되는 경우 솔루션 설계자는 15분의 복구 지점 목표(RPO)와 1시간의 복구 시간 목표(RTO)를 충족하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. DynamoDB 전역 테이블을 구성합니다. RPO 복구의 경우 애플리케이션이 다른 AWS 리전을 가리키도록 하십시오.
  • B. DynamoDB 특정 시점 복구를 구성합니다. RPO 복구를 위해서는 원하는 시점으로 복원하세요.
  • C. 매일 DynamoDB 데이터를 Amazon S3 Glacier로 내보냅니다. RPO 복구를 위해 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
  • D. 15분마다 DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 예약합니다. RPO 복구를 위해 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.
더보기
해설
  • A. DynamoDB 전역 테이블을 구성합니다. RPO 복구의 경우 애플리케이션이 다른 AWS 리전을 가리키도록 하십시오.
  • B. DynamoDB 특정 시점 복구를 구성합니다. RPO 복구를 위해서는 원하는 시점으로 복원하세요.
  • C. 매일 DynamoDB 데이터를 Amazon S3 Glacier로 내보냅니다. RPO 복구를 위해 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
  • D. 15분마다 DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 예약합니다. RPO 복구를 위해 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.

 


#74★


솔루션 설계자가 2계층 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 퍼블릭 서브넷의 Amazon EC2에서 호스팅되는 퍼블릭 웹 계층으로 구성됩니다. 데이터베이스 계층은 프라이빗 서브넷의 Amazon EC2에서 실행되는 Microsoft SQL Server로 구성됩니다. 보안은 회사의 최우선 과제입니다.
이 상황에서는 보안 그룹을 어떻게 구성해야 합니까? (2개를 선택하세요.)

  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • B. 0.0.0.0/0에서 포트 443의 아웃바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • C. 웹 계층의 보안 그룹에서 포트 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • D. 포트 443 및 1433의 아웃바운드 트래픽을 웹 계층의 보안 그룹으로 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • E. 웹 계층의 보안 그룹에서 포트 443 및 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
더보기
해설
  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • B. 0.0.0.0/0에서 포트 443의 아웃바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • C. 웹 계층의 보안 그룹에서 포트 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • D. 포트 443 및 1433의 아웃바운드 트래픽을 웹 계층의 보안 그룹으로 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • E. 웹 계층의 보안 그룹에서 포트 443 및 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.

 


#75★


한 회사는 애플리케이션의 성능을 향상시키기 위해 다중 계층 애플리케이션을 온프레미스에서 AWS 클라우드로 이동하려고 합니다. 애플리케이션은 RESTful 서비스를 통해 서로 통신하는 애플리케이션 계층으로 구성됩니다. 한 계층이 과부하되면 트랜잭션이 삭제됩니다. 솔루션 설계자는 이러한 문제를 해결하고 애플리케이션을 현대화하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하고 운영상 가장 효율적인 솔루션은 무엇입니까?

  • A. Amazon API Gateway를 사용하고 AWS Lambda 함수를 애플리케이션 계층으로 직접 트랜잭션을 수행하십시오. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
  • B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 내역을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
  • C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.
더보기
해설
  • A. Amazon API Gateway를 사용하고 AWS Lambda 함수를 애플리케이션 계층으로 직접 트랜잭션을 수행하십시오. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
  • B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 내역을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
  • C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.

Lambda에 동의 = 서버리스 + 자동 확장(현대화), SQS= 분리


#78


회사는 Amazon DynamoDB 테이블에 사용자 트랜잭션 데이터를 보관해야 합니다. 회사는 해당 데이터를 7년간 보관해야 합니다.
이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?

  • A. DynamoDB 특정 시점 복구를 사용하여 테이블을 지속적으로 백업하세요.
  • B. AWS Backup을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다.
  • C. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. Amazon S3 버킷에 백업을 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
  • D. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
더보기
해설
  • A. DynamoDB 특정 시점 복구를 사용하여 테이블을 지속적으로 백업하세요.
  • B. AWS Backup을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다.
  • C. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. Amazon S3 버킷에 백업을 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
  • D. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.

 


#79★

.한 회사에서 데이터 저장을 위해 Amazon DynamoDB 테이블을 사용할 계획입니다. 회사는 비용 최적화에 관심이 있습니다. 대부분의 아침에는 테이블을 사용하지 않습니다. 저녁에는 읽기 및 쓰기 트래픽을 예측할 수 없는 경우가 많습니다. 트래픽 급증이 발생하면 매우 빠르게 발생합니다.
솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다.
  • B. 글로벌 보조 인덱스를 사용하여 DynamoDB 테이블을 생성합니다.
  • C. 프로비저닝된 용량과 Auto Scaling 기능을 갖춘 DynamoDB 테이블을 생성합니다.
  • D. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 이를 글로벌 테이블로 구성합니다.
더보기
해설
  • A. 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다.
  • B. 글로벌 보조 인덱스를 사용하여 DynamoDB 테이블을 생성합니다.
  • C. 프로비저닝된 용량과 Auto Scaling 기능을 갖춘 DynamoDB 테이블을 생성합니다.
  • D. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 이를 글로벌 테이블로 구성합니다.

온디맨드 모드는 다음 중 하나에 해당하는 경우 좋은 옵션

- 알 수 없는 작업 부하가 있는 새 테이블을 생성

- 예측할 수 없는 애플리케이션 트래픽

- 사용한 만큼만 비용을 지불하는 간편한 방식

https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html#HowItWorks.OnDemand


#81


솔루션 아키텍트는 AWS에 배포되는 새로운 애플리케이션을 위한 클라우드 아키텍처를 설계하고 있습니다. 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가 및 제거하는 동안 프로세스가 병렬로 실행되어야 합니다. 프로세서 애플리케이션은 상태 비저장입니다. 솔루션 설계자는 애플리케이션이 느슨하게 결합되어 있고 작업 항목이 지속적으로 저장되어 있는지 확인해야 합니다.
솔루션 설계자는 어떤 디자인을 사용해야 합니까?

  • A. 처리해야 하는 작업을 보내기 위해 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. 네트워크 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • D. Amazon SNS 주제를 생성하여 처리해야 하는 작업을 보냅니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
더보기
해설
  • A. 처리해야 하는 작업을 보내기 위해 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. 네트워크 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • D. Amazon SNS 주제를 생성하여 처리해야 하는 작업을 보냅니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.

 


#82


회사는 AWS 클라우드에서 웹 애플리케이션을 호스팅합니다. 회사는 AWS Certificate Manager(ACM)로 가져온 인증서를 사용하도록 Elastic Load Balancer를 구성합니다. 각 인증서가 만료되기 30일 전에 회사 보안팀에 통보해야 합니다.
이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. ACM에 규칙을 추가하여 인증서가 만료되기 30일 전부터 Amazon Simple 알림 서비스(Amazon SNS) 주제에 매일 사용자 지정 메시지를 게시합니다.
  • B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config가 규정을 준수하지 않는 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
  • C. AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인하십시오. 확인 상태 변경에 대한 Trusted Advisor 지표를 기반으로 Amazon CloudWatch 경보를 생성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 경보를 구성합니다.
  • D. 30일 이내에 만료되는 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.
더보기
해설
  • A. ACM에 규칙을 추가하여 인증서가 만료되기 30일 전부터 Amazon Simple 알림 서비스(Amazon SNS) 주제에 매일 사용자 지정 메시지를 게시합니다.
  • B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config가 규정을 준수하지 않는 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
  • C. AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인하십시오. 확인 상태 변경에 대한 Trusted Advisor 지표를 기반으로 Amazon CloudWatch 경보를 생성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 경보를 구성합니다.
  • D. 30일 이내에 만료되는 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.

https://aws.amazon.com/premiumsupport/knowledge-center/acm-certificate-expiration/

https://docs.aws.amazon.com/config/latest/developerguide/acm-certificate-expiration-check.html


#84


한 회사는 기존 3계층 웹 아키텍처의 비용을 절감하려고 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위해 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스는 피크 시간 동안 평균 30% CPU 사용률을 보이고, 피크 시간이 아닌 동안에는 10% CPU 사용률을 나타냅니다.
프로덕션 EC2 인스턴스는 하루 24시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8시간 동안 실행됩니다. 회사는 EC2 인스턴스를 사용하지 않을 때 개발을 중단하고 테스트하는 자동화를 구현할 계획입니다.
어떤 EC2 인스턴스 구매 솔루션이 회사의 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A. 프로덕션 EC2 인스턴스에는 스팟 인스턴스를 사용하십시오. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 온디맨드 인스턴스를 사용합니다.
  • C. 프로덕션 EC2 인스턴스에는 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 스팟 블록을 사용하세요.
더보기
해설
  • A. 프로덕션 EC2 인스턴스에는 스팟 인스턴스를 사용하십시오. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 온디맨드 인스턴스를 사용합니다.
  • C. 프로덕션 EC2 인스턴스에는 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 스팟 블록을 사용하세요.

 


#85★


회사에는 사용자가 웹 인터페이스나 모바일 앱을 통해 문서를 업로드하는 프로덕션 웹 애플리케이션이 있습니다. 새로운 규제 요구 사항에 따라. 새 문서를 저장한 후에는 수정하거나 삭제할 수 없습니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
  • A. S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다.
  • B. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다.
  • C. S3 버전 관리가 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL을 구성합니다.
  • D. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드로 볼륨을 마운트하여 데이터에 액세스합니다.
더보기
해설
  • A. S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다.
  • B. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다.
  • C. S3 버전 관리가 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL을 구성합니다.
  • D. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드로 볼륨을 마운트하여 데이터에 액세스합니다.

https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lock-overview.html


#88


한 설문 조사 회사는 미국 내 여러 지역에서 수년 동안 데이터를 수집했습니다. 이 회사는 크기가 3TB이고 점점 늘어나고 있는 Amazon S3 버킷에 데이터를 호스팅합니다. 회사는 S3 버킷을 보유한 유럽 마케팅 회사와 데이터를 공유하기 시작했습니다. 회사는 데이터 전송 비용을 가능한 한 낮게 유지하기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
  • A. 회사의 S3 버킷에 요청자 지불 기능을 구성합니다.
  • B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다.
  • C. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다.
  • D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.
더보기
해설
  • A. 회사의 S3 버킷에 요청자 지불 기능을 구성합니다.
  • B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다.
  • C. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다.
  • D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.

https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysBuckets.html

https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysBuckets.html#ChargeDetails

B인지 A인지 헷갈림

 


#90


회사에서는 공개적으로 액세스할 수 있는 영화 데이터를 저장하기 위해 SQL 데이터베이스를 사용하고 있습니다. 데이터베이스는 Amazon RDS 단일 AZ DB 인스턴스에서 실행됩니다. 스크립트는 매일 무작위 간격으로 쿼리를 실행하여 데이터베이스에 추가된 새 영화 수를 기록합니다. 스크립트는 업무 시간 동안 최종 합계를 보고해야 합니다.
회사의 개발팀은 스크립트가 실행 중일 때 데이터베이스 성능이 개발 작업에 적합하지 않다는 것을 발견했습니다. 솔루션 설계자는 이 문제를 해결하기 위한 솔루션을 권장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 다중 AZ 배포가 되도록 DB 인스턴스를 수정합니다.
  • B. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다.
  • C. 매일 업무가 끝날 때마다 데이터베이스의 항목을 수동으로 내보내도록 개발팀에 지시합니다.
  • D. Amazon ElastiCache를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반 쿼리를 캐시합니다.
더보기
해설
  • A. 다중 AZ 배포가 되도록 DB 인스턴스를 수정합니다.
  • B. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다.
  • C. 매일 업무가 끝날 때마다 데이터베이스의 항목을 수동으로 내보내도록 개발팀에 지시합니다.
  • D. Amazon ElastiCache를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반 쿼리를 캐시합니다.

성능 => 읽기 복제본


#91★


회사에는 VPC의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 애플리케이션 중 하나는 Amazon S3 API를 호출하여 객체를 저장하고 읽어야 합니다. 회사의 보안 규정에 따라 애플리케이션의 트래픽은 인터넷을 통해 이동할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 게이트웨이 엔드포인트를 구성합니다.
  • B. 프라이빗 서브넷에 S3 버킷을 생성합니다.
  • C. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다.
  • D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다.
더보기
해설
  • A. S3 게이트웨이 엔드포인트를 구성합니다.
  • B. 프라이빗 서브넷에 S3 버킷을 생성합니다.
  • C. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다.
  • D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다.

https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html


#93★


회사는 MySQL 데이터베이스를 기반으로 하는 온프레미스 애플리케이션을 실행합니다. 회사는 애플리케이션의 탄력성과 가용성을 높이기 위해 애플리케이션을 AWS로 마이그레이션하고 있습니다.
현재 아키텍처에서는 정상 작동 중에 데이터베이스에 대한 읽기 활동이 많이 발생합니다. 4시간마다 회사의 개발 팀은 프로덕션 데이터베이스의 전체 내보내기를 가져와서 준비 환경의 데이터베이스를 채웁니다. 이 기간 동안 사용자는 허용할 수 없는 애플리케이션 지연 시간을 경험합니다. 개발팀은 절차가 완료될 때까지 스테이징 환경을 사용할 수 없습니다.
솔루션 설계자는 애플리케이션 대기 시간 문제를 완화하는 대체 아키텍처를 권장해야 합니다. 또한 대체 아키텍처는 개발 팀이 지체 없이 스테이징 환경을 계속 사용할 수 있는 능력을 제공해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
  • B. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. 데이터베이스 복제를 사용하여 필요에 따라 준비 데이터베이스를 만듭니다.
  • C. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. 스테이징 데이터베이스에는 대기 인스턴스를 사용합니다.
  • D. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
더보기
해설
  • A. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
  • B. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. 데이터베이스 복제를 사용하여 필요에 따라 준비 데이터베이스를 만듭니다.
  • C. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. 스테이징 데이터베이스에는 대기 인스턴스를 사용합니다.
  • D. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.Managing.Clone.html

https://aws.amazon.com/blogs/aws/amazon-aurora-fast-database-cloning/


#94


한 회사는 사용자가 Amazon S3에 작은 파일을 업로드하는 애플리케이션을 설계하고 있습니다. 사용자가 파일을 업로드한 후 파일은 데이터를 변환하고 나중에 분석할 수 있도록 데이터를 JSON 형식으로 저장하기 위해 일회성 간단한 처리가 필요합니다.
각 파일은 업로드된 후 최대한 빨리 처리되어야 합니다. 수요는 다양할 것입니다. 어떤 날에는 사용자가 많은 수의 파일을 업로드합니다. 다른 날에는 사용자가 파일 몇 개를 업로드하거나 파일을 전혀 업로드하지 않습니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • D. 새 파일이 업로드되면 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림의 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
더보기
해설
  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • D. 새 파일이 업로드되면 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림의 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.

SQS + LAMDA + JSON >>>>>> Dynamo DB


#95


애플리케이션을 사용하면 회사 본사의 사용자가 제품 데이터에 액세스할 수 있습니다. 제품 데이터는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 운영 팀은 애플리케이션 성능 저하를 파악하고 읽기 트래픽과 쓰기 트래픽을 분리하려고 합니다. 솔루션 아키텍트는 애플리케이션의 성능을 신속하게 최적화해야 합니다.
솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 처리합니다.
  • B. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 처리합니다.
  • C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
  • D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스를 사용하여 읽기 전용 복제본을 구성합니다.
더보기
해설
  • A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 처리합니다.
  • B. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 처리합니다.
  • C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
  • D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스를 사용하여 읽기 전용 복제본을 구성합니다.

성능 최적화 => 읽기전용복제본


#96

Amazon EC2 관리자는 여러 사용자가 포함된 IAM 그룹과 연결된 다음 정책을 생성했습니다.

이 정책의 효과는 무엇입니까?

  • A. 사용자는 us-east-1을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • B. 사용자는 us-east-1 리전에서 IP 주소 10.100.100.1을 사용하여 EC2 인스턴스를 종료할 수 있습니다.
  • C. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • D. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전의 EC2 인스턴스를 종료할 수 없습니다.
더보기
해설
  • A. 사용자는 us-east-1을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • B. 사용자는 us-east-1 리전에서 IP 주소 10.100.100.1을 사용하여 EC2 인스턴스를 종료할 수 있습니다.
  • C. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • D. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전의 EC2 인스턴스를 종료할 수 없습니다.

 


#98


이미지 처리 회사에는 사용자가 이미지를 업로드하는 데 사용하는 웹 애플리케이션이 있습니다. 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 회사는 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 객체 생성 이벤트를 게시하도록 S3 이벤트 알림을 설정했습니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다.
사용자들은 업로드된 모든 이미지에 대해 여러 개의 이메일 메시지를 받고 있다고 보고합니다. 솔루션 아키텍트는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지가 생성되었음을 확인합니다.
최소한의 운영 오버헤드로 이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. ReceiverMessage 대기 시간을 30초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다.
  • B. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 중복 메시지를 삭제하려면 메시지 중복 제거 ID를 사용하세요.
  • C. SQS 대기열의 표시 제한 시간을 함수 제한 시간과 일괄 창 제한 시간의 합계보다 큰 값으로 늘립니다.
  • D. 처리하기 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다.
더보기
해설
  • A. ReceiverMessage 대기 시간을 30초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다.
  • B. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 중복 메시지를 삭제하려면 메시지 중복 제거 ID를 사용하세요.
  • C. SQS 대기열의 표시 제한 시간을 함수 제한 시간과 일괄 창 제한 시간의 합계보다 큰 값으로 늘립니다.
  • D. 처리하기 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다.

긴폴링 VS FIFO VS 표시제한시간 늘리기

https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html#:~:text=SQS%20sets%20a-,visibility%20timeout,-%2C%20a%20period%20of

https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html


 

728x90