SAA-C03 Examtopics 문제정리 (101~200)
*틀린 문제 위주로 정리
#101
솔루션 아키텍트는 퍼블릭 및 프라이빗 서브넷이 있는 VPC를 설계하고 있습니다. VPC와 서브넷은 IPv4 CIDR 블록을 사용합니다. 고가용성을 위해 3개의 가용 영역(AZ) 각각에 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 있습니다. 인터넷 게이트웨이는 퍼블릭 서브넷에 대한 인터넷 액세스를 제공하는 데 사용됩니다. Amazon EC2 인스턴스가 소프트웨어 업데이트를 다운로드하려면 프라이빗 서브넷에 인터넷 액세스가 필요합니다.
프라이빗 서브넷에 대한 인터넷 액세스를 활성화하려면 솔루션 아키텍트가 무엇을 해야 합니까?
- A. 각 AZ의 각 퍼블릭 서브넷마다 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
- B. 각 AZ의 각 프라이빗 서브넷마다 하나씩 3개의 NAT 인스턴스를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
- C. 프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 프라이빗 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
- D. 퍼블릭 서브넷 중 하나에 외부 전용 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 외부 전용 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
- A. 각 AZ의 각 퍼블릭 서브넷마다 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
- B. 각 AZ의 각 프라이빗 서브넷마다 하나씩 3개의 NAT 인스턴스를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
- C. 프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 프라이빗 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
- D. 퍼블릭 서브넷 중 하나에 외부 전용 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 외부 전용 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
#102★
회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 데이터 센터는 NFS 기반 파일 시스템에 데이터를 저장하는 SFTP 서버를 호스팅합니다. 서버에는 전송해야 하는 200GB의 데이터가 저장되어 있습니다. 서버는 Amazon Elastic File System(Amazon EFS) 파일 시스템을 사용하는 Amazon EC2 인스턴스에서 호스팅되어야 합니다.
솔루션 설계자가 이 작업을 자동화하려면 어떤 단계 조합을 수행해야 합니까? (2개를 선택하세요.)
- A. EFS 파일 시스템과 동일한 가용 영역에서 EC2 인스턴스를 시작합니다.
- B. 온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
- C. EC2 인스턴스에 데이터용 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
- D. 운영 체제 복사 명령을 수동으로 사용하여 데이터를 EC2 인스턴스에 푸시합니다.
- E. AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.
- A. EFS 파일 시스템과 동일한 가용 영역에서 EC2 인스턴스를 시작합니다.
- B. 온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
- C. EC2 인스턴스에 데이터용 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
- D. 운영 체제 복사 명령을 수동으로 사용하여 데이터를 EC2 인스턴스에 푸시합니다.
- E. AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.
EFS 파일 시스템을 사용하여
온프레미스 SFTP 서버에서 EC2 인스턴스로 데이터를 전송하는 프로세스를 자동화하는 것과 직접적인 관련이 없음
Datasync
#103
.
회사에는 매일 동시에 실행되는 AWS Glue ETL(추출, 변환 및 로드) 작업이 있습니다. 작업은 Amazon S3 버킷에 있는 XML 데이터를 처리합니다. 매일 S3 버킷에 새로운 데이터가 추가됩니다. 솔루션 아키텍트는 AWS Glue가 각 실행 중에 모든 데이터를 처리하고 있음을 확인합니다.
AWS Glue가 오래된 데이터를 재처리하는 것을 방지하려면 솔루션 아키텍트가 무엇을 해야 합니까?
- A. 작업 북마크를 사용하도록 작업을 편집합니다.
- B. 데이터 처리 후 데이터를 삭제하도록 작업을 편집합니다.
- C. NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
- D. FindMatches 기계 학습(ML) 변환을 사용합니다.
- A. 작업 북마크를 사용하도록 작업을 편집합니다.
- B. 데이터 처리 후 데이터를 삭제하도록 작업을 편집합니다.
- C. NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
- D. FindMatches 기계 학습(ML) 변환을 사용합니다.
#104
.
솔루션 설계자는 웹사이트를 위한 고가용성 인프라를 설계해야 합니다. 이 웹 사이트는 Amazon EC2 인스턴스에서 실행되는 Windows 웹 서버로 구동됩니다. 솔루션 설계자는 수천 개의 IP 주소에서 발생하는 대규모 DDoS 공격을 완화할 수 있는 솔루션을 구현해야 합니다. 웹사이트의 다운타임은 허용되지 않습니다.
그러한 공격으로부터 웹사이트를 보호하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까? (2개를 선택하세요.)
- A. DDoS 공격을 중지하려면 AWS Shield Advanced를 사용하십시오.
- B. 공격자를 자동으로 차단하도록 Amazon GuardDuty를 구성합니다.
- C. 정적 콘텐츠와 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹 사이트를 구성합니다.
- D. AWS Lambda 함수를 사용하여 공격자 IP 주소를 VPC 네트워크 ACL에 자동으로 추가합니다.
- E. 80% CPU 사용률로 설정된 대상 추적 조정 정책과 함께 Auto Scaling 그룹의 EC2 스팟 인스턴스를 사용합니다.
- A. DDoS 공격을 중지하려면 AWS Shield Advanced를 사용하십시오.
- B. 공격자를 자동으로 차단하도록 Amazon GuardDuty를 구성합니다.
- C. 정적 콘텐츠와 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹 사이트를 구성합니다.
- D. AWS Lambda 함수를 사용하여 공격자 IP 주소를 VPC 네트워크 ACL에 자동으로 추가합니다.
- E. 80% CPU 사용률로 설정된 대상 추적 조정 정책과 함께 Auto Scaling 그룹의 EC2 스팟 인스턴스를 사용합니다.
#106★
.
한 회사가 Amazon S3에 기밀 데이터를 저장할 준비를 하고 있습니다. 규정 준수를 위해 저장 데이터는 암호화되어야 합니다. 암호화 키 사용은 감사 목적으로 기록되어야 합니다. 열쇠는 매년 교체해야 합니다.
이러한 요구 사항을 충족하고 운영상 가장 효율적인 솔루션은 무엇입니까?
- A. 고객 제공 키를 사용한 서버 측 암호화(SSE-C)
- B. Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
- C. 수동 교체를 통한 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
- D. 자동 교체 기능이 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
- A. 고객 제공 키를 사용한 서버 측 암호화(SSE-C)
- B. Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
- C. 수동 교체를 통한 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
- D. 자동 교체 기능이 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
https://aws.amazon.com/kms/faqs/#:~:text=You%20can%20choose%20to%20have%
https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html
B => 키 교체 또는 키 사용 로깅을 허용하지 않음
#107★
.
자전거 공유 회사는 피크 운영 시간 동안 자전거 위치를 추적하기 위해 다계층 아키텍처를 개발하고 있습니다. 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 설계자는 이 아키텍처를 지원하기 위해 가장 실행 가능한 다중 계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.
위치 데이터를 저장하고 검색하기 위한 이러한 요구 사항을 충족하는 작업은 무엇입니까?
- A. Amazon S3와 함께 Amazon Athena를 사용하세요.
- B. AWS Lambda와 함께 Amazon API Gateway를 사용하십시오.
- C. Amazon Redshift와 함께 Amazon QuickSight를 사용하십시오.
- D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용하십시오.
- A. Amazon S3와 함께 Amazon Athena를 사용하세요.
- B. AWS Lambda와 함께 Amazon API Gateway를 사용하십시오.
- C. Amazon Redshift와 함께 Amazon QuickSight를 사용하십시오.
- D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용하십시오.
B와D
AWS Lambda는 이벤트에 대한 응답으로 코드를 실행할 수 있는 서버리스 컴퓨팅 서비스이지만 데이터를 저장하거나 검색하는 방법을 제공하지 않음 => 스토리지
Kinesis Data Analytics는 데이터를 암시적으로 저장하지만 "저장"용은 아님
AAthena는 REST API 액세스지원 https://docs.aws.amazon.com/athena/latest/APIReference/Welcome.html
#108★
.
한 회사에 Amazon RDS의 데이터베이스에 목록을 저장하는 자동차 판매 웹사이트가 있습니다. 자동차가 판매되면 목록이 웹사이트에서 제거되어야 하며 데이터는 여러 대상 시스템으로 전송되어야 합니다.
솔루션 아키텍트는 어떤 디자인을 추천해야 할까요?
- A. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) 대기열에 정보를 보냅니다.
- B. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 정보를 보냅니다.
- C. RDS 이벤트 알림을 구독하고 Amazon Simple Queue Service(Amazon SQS) 대기열을 여러 Amazon Simple Notification Service(Amazon SNS) 주제로 팬아웃하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
- D. RDS 이벤트 알림을 구독하고 여러 Amazon Simple Queue Service(Amazon SQS) 대기열에 팬아웃된 Amazon Simple 알림 서비스(Amazon SNS) 주제를 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
- A. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) 대기열에 정보를 보냅니다.
- B. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 정보를 보냅니다.
- C. RDS 이벤트 알림을 구독하고 Amazon Simple Queue Service(Amazon SQS) 대기열을 여러 Amazon Simple Notification Service(Amazon SNS) 주제로 팬아웃하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
- D. RDS 이벤트 알림을 구독하고 여러 Amazon Simple Queue Service(Amazon SQS) 대기열에 팬아웃된 Amazon Simple 알림 서비스(Amazon SNS) 주제를 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Events.overview.html
#109★
.
회사는 Amazon S3에 데이터를 저장해야 하며 데이터가 변경되는 것을 방지해야 합니다. 회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 불특정 시간 동안 변경 불가능한 상태로 유지되기를 원합니다. 회사 AWS 계정의 특정 사용자만 객체를 삭제할 수 있는 권한을 가질 수 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. S3 Glacier 볼트를 생성합니다. WORM(Write-Once, Read-Many) 저장소 잠금 정책을 객체에 적용합니다.
- B. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 보존 기간을 100년으로 설정합니다. 새 객체에 대한 S3 버킷의 기본 보존 모드로 거버넌스 모드를 사용합니다.
- C. S3 버킷을 생성합니다. AWS CloudTrail을 사용하여 객체를 수정하는 S3 API 이벤트를 추적합니다. 알림을 받으면 회사가 보유하고 있는 백업 버전에서 수정된 개체를 복원합니다.
- D. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 객체에 법적 보존을 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.
- A. S3 Glacier 볼트를 생성합니다. WORM(Write-Once, Read-Many) 저장소 잠금 정책을 객체에 적용합니다.
- B. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 보존 기간을 100년으로 설정합니다. 새 객체에 대한 S3 버킷의 기본 보존 모드로 거버넌스 모드를 사용합니다.
- C. S3 버킷을 생성합니다. AWS CloudTrail을 사용하여 객체를 수정하는 S3 API 이벤트를 추적합니다. 알림을 받으면 회사가 보유하고 있는 백업 버전에서 수정된 개체를 복원합니다.
- D. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 객체에 법적 보존을 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.
"회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 불특정 기간 동안 변경 불가능한 상태로 유지되기를 원합니다." = 법적 보존은 객체 버전을 덮어쓰거나 삭제하는 것을 방지
법적 보존에는 관련 보존 기간이 없으며 제거될 때까지 유효
객체에서 법적 보존을 추가하거나 제거하려면 IAM 역할에 s3:PutObjectLegalHold 권한이 필요
https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-legal-hold.html
#110⭐
.
한 소셜 미디어 회사에서는 사용자가 자사 웹사이트에 이미지를 업로드할 수 있도록 허용합니다. 웹사이트는 Amazon EC2 인스턴스에서 실행됩니다. 업로드 요청 중에 웹 사이트는 이미지 크기를 표준 크기로 조정하고 크기 조정된 이미지를 Amazon S3에 저장합니다. 사용자의 웹사이트 업로드 요청 속도가 느려지고 있습니다.
회사는 애플리케이션 내 결합을 줄이고 웹사이트 성능을 개선해야 합니다. 솔루션 설계자는 이미지 업로드를 위해 운영상 가장 효율적인 프로세스를 설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)
- A. S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
- B. 원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성합니다.
- C. 미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 직접 이미지를 업로드하도록 애플리케이션을 구성합니다.
- D. 이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 이 기능을 사용하여 이미지 크기를 조정하세요.
- E. 업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
- A. S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
- B. 원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성합니다.
- C. 미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 직접 이미지를 업로드하도록 애플리케이션을 구성합니다.
- D. 이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 이 기능을 사용하여 이미지 크기를 조정하세요.
- E. 업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
B랑C중에 답이 계속갈림
https://docs.aws.amazon.com/AmazonS3/latest/userguide/PresignedUrlUploadObject.html
#112
.
회사는 들어오는 요청을 처리하는 온프레미스 서버 집합에서 컨테이너화된 웹 애플리케이션을 호스팅합니다. 요청 건수가 빠르게 증가하고 있습니다. 온프레미스 서버는 증가된 요청 수를 처리할 수 없습니다. 회사는 최소한의 코드 변경과 최소한의 개발 노력으로 애플리케이션을 AWS로 이전하기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Amazon Elastic Container Service(Amazon ECS)에서 AWS Fargate를 사용하여 Service Auto Scaling으로 컨테이너화된 웹 애플리케이션을 실행하세요. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
- B. 두 개의 Amazon EC2 인스턴스를 사용하여 컨테이너화된 웹 애플리케이션을 호스팅합니다. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
- C. 지원되는 언어 중 하나를 사용하는 새 코드와 함께 AWS Lambda를 사용하십시오. 로드를 지원하는 여러 Lambda 함수를 생성합니다. Amazon API Gateway를 Lambda 함수의 진입점으로 사용합니다.
- D. AWS ParallelCluster와 같은 고성능 컴퓨팅(HPC) 솔루션을 사용하여 적절한 규모로 들어오는 요청을 처리할 수 있는 HPC 클러스터를 구축합니다
- A. Amazon Elastic Container Service(Amazon ECS)에서 AWS Fargate를 사용하여 Service Auto Scaling으로 컨테이너화된 웹 애플리케이션을 실행하세요. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
- B. 두 개의 Amazon EC2 인스턴스를 사용하여 컨테이너화된 웹 애플리케이션을 호스팅합니다. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
- C. 지원되는 언어 중 하나를 사용하는 새 코드와 함께 AWS Lambda를 사용하십시오. 로드를 지원하는 여러 Lambda 함수를 생성합니다. Amazon API Gateway를 Lambda 함수의 진입점으로 사용합니다.
- D. AWS ParallelCluster와 같은 고성능 컴퓨팅(HPC) 솔루션을 사용하여 적절한 규모로 들어오는 요청을 처리할 수 있는 HPC 클러스터를 구축합니다
#114⭐
.
한 회사는 사용자가 사진을 업로드하고 이미지에 액자를 추가할 수 있는 이미지 분석 애플리케이션을 만들었습니다. 사용자는 이미지와 메타데이터를 업로드하여 이미지에 추가할 사진 프레임을 나타냅니다. 애플리케이션은 단일 Amazon EC2 인스턴스와 Amazon DynamoDB를 사용하여 메타데이터를 저장합니다.
애플리케이션이 점점 인기를 얻고 있으며 사용자 수가 증가하고 있습니다. 회사에서는 시간대와 요일에 따라 동시접속자 수가 크게 달라질 것으로 예상하고 있다. 회사는 늘어나는 사용자 기반의 요구 사항을 충족하도록 애플리케이션을 확장할 수 있는지 확인해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. AWS Lambda를 사용하여 사진을 처리하십시오. DynamoDB에 사진과 메타데이터를 저장합니다.
- B. Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
- C. AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. 메타데이터를 저장하기 위해 DynamoDB를 보관합니다.
- D. EC2 인스턴스 수를 3개로 늘립니다. 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다
- A. AWS Lambda를 사용하여 사진을 처리하십시오. DynamoDB에 사진과 메타데이터를 저장합니다.
- B. Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
- C. AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. 메타데이터를 저장하기 위해 DynamoDB를 보관합니다.
- D. EC2 인스턴스 수를 3개로 늘립니다. 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다
이미지(객체)는 S3에 들어가고 메타데이터는 데이터베이스(DynamoDB)에 들어가야
#116⭐
.
한 회사는 회사 웹사이트에 널리 사용되는 콘텐츠 관리 시스템(CMS)을 사용합니다. 그러나 필요한 패치와 유지 관리가 부담스럽습니다. 회사는 웹사이트를 재설계하고 있으며 새로운 솔루션을 원합니다. 웹사이트는 1년에 4번 업데이트되며 동적 콘텐츠를 사용할 필요가 없습니다. 솔루션은 높은 확장성과 향상된 보안을 제공해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 변경 사항 조합은 무엇입니까? (2개를 선택하세요.)
- A. HTTPS 기능을 사용하도록 웹 사이트 앞에 Amazon CloudFront를 구성합니다.
- B. 웹 사이트 앞에 AWS WAF 웹 ACL을 배포하여 HTTPS 기능을 제공합니다.
- C. 웹사이트 콘텐츠를 관리하고 제공하기 위한 AWS Lambda 함수를 생성하고 배포합니다.
- D. 새 웹사이트와 Amazon S3 버킷을 생성합니다. 정적 웹 사이트 호스팅이 활성화된 S3 버킷에 웹 사이트를 배포합니다.
- E. 새 웹사이트를 만듭니다. Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스의 Auto Scaling 그룹을 사용하여 웹 사이트를 배포합니다
- A. HTTPS 기능을 사용하도록 웹 사이트 앞에 Amazon CloudFront를 구성합니다.
- B. 웹 사이트 앞에 AWS WAF 웹 ACL을 배포하여 HTTPS 기능을 제공합니다.
- C. 웹사이트 콘텐츠를 관리하고 제공하기 위한 AWS Lambda 함수를 생성하고 배포합니다.
- D. 새 웹사이트와 Amazon S3 버킷을 생성합니다. 정적 웹 사이트 호스팅이 활성화된 S3 버킷에 웹 사이트를 배포합니다.
- E. 새 웹사이트를 만듭니다. Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스의 Auto Scaling 그룹을 사용하여 웹 사이트를 배포합니다
확장성, 보안 강화 및 운영 오버헤드 감소 = HTTPS
확장성을 갖춘 CloudFront 확장성 및 운영 오버헤드 감소 = 정적 웹 사이트 호스팅을 갖춘 S3 버킷
A. Amazon CloudFront는 보안 및 확장성 요구 사항을 충족하면서 HTTPS 기능을 통해 확장 가능한 콘텐츠 전송을 제공
#117⭐
.
회사는 애플리케이션 로그를 Amazon CloudWatch Logs 로그 그룹에 저장합니다. 새로운 정책에 따라 회사는 모든 애플리케이션 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 거의 실시간으로 저장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)로 스트리밍하도록 CloudWatch Logs 구독을 구성합니다.
- B. AWS Lambda 함수를 생성합니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 쓰는 함수를 호출합니다.
- C. Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. 로그 그룹을 전송 스트림 소스로 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
- D. 각 애플리케이션 서버에 Amazon Kinesis 에이전트를 설치하고 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달하도록 Kinesis Data Streams를 구성합니다
- A. 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)로 스트리밍하도록 CloudWatch Logs 구독을 구성합니다.
- B. AWS Lambda 함수를 생성합니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 쓰는 함수를 호출합니다.
- C. Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. 로그 그룹을 전송 스트림 소스로 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
- D. 각 애플리케이션 서버에 Amazon Kinesis 에이전트를 설치하고 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달하도록 Kinesis Data Streams를 구성합니다
https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/CWL_OpenSearch_Stream.html >
다음을 통해 수신한 데이터를 Amazon OpenSearch Service 클러스터에 거의 실시간으로 스트리밍하도록 CloudWatch Logs 로그 그룹을 구성할 수 있습니다. Kinesis와 비교하여 CloudWatch Logs 구독의 오버헤드가 가장 적습
#120⭐
.
한 회사는 us-west-2 리전의 NLB(Network Load Balancer) 뒤에 있는 3개의 Amazon EC2 인스턴스에 자체 관리형 DNS 솔루션을 구현했습니다. 회사 사용자의 대부분은 미국과 유럽에 있습니다. 회사는 솔루션의 성능과 가용성을 개선하려고 합니다. 회사는 eu-west-1 지역에서 3개의 EC2 인스턴스를 시작 및 구성하고 EC2 인스턴스를 새 NLB의 대상으로 추가합니다.
회사는 트래픽을 모든 EC2 인스턴스로 라우팅하기 위해 어떤 솔루션을 사용할 수 있습니까?
- A. 두 개의 NLB 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성하십시오. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
- B. AWS Global Accelerator에서 표준 액셀러레이터를 생성합니다. us-west-2 및 eu-west-1에 엔드포인트 그룹을 생성합니다. 두 개의 NLB를 엔드포인트 그룹의 엔드포인트로 추가합니다.
- C. 6개의 EC2 인스턴스에 탄력적 IP 주소를 연결합니다. 6개의 EC2 인스턴스 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
- D. 두 개의 NLB를 두 개의 ALB(Application Load Balancer)로 교체합니다. 두 개의 ALB 중 하나로 요청을 라우팅하는 Amazon Route 53 지연 시간 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
- A. 두 개의 NLB 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성하십시오. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
- B. AWS Global Accelerator에서 표준 액셀러레이터를 생성합니다. us-west-2 및 eu-west-1에 엔드포인트 그룹을 생성합니다. 두 개의 NLB를 엔드포인트 그룹의 엔드포인트로 추가합니다.
- C. 6개의 EC2 인스턴스에 탄력적 IP 주소를 연결합니다. 6개의 EC2 인스턴스 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
- D. 두 개의 NLB를 두 개의 ALB(Application Load Balancer)로 교체합니다. 두 개의 ALB 중 하나로 요청을 라우팅하는 Amazon Route 53 지연 시간 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
A 아님: CloudFront는 DNS용이 아님
C 아님: 필요하지 않은 CloudFront를 포함 그렇지 않으면 작동하지만 NLB를 무시
D 아님: ALB가 DNS 잎 B를 처리할 수 없
#121
.
한 회사가 AWS에서 온라인 트랜잭션 처리(OLTP) 워크로드를 실행하고 있습니다. 이 워크로드는 다중 AZ 배포에서 암호화되지 않은 Amazon RDS DB 인스턴스를 사용합니다. 이 인스턴스에서 일일 데이터베이스 스냅샷이 생성됩니다.
앞으로 데이터베이스와 스냅샷이 항상 암호화되도록 솔루션 설계자는 무엇을 해야 합니까?
- A. 최신 DB 스냅샷의 복사본을 암호화합니다. 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다.
- B. 새로운 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 여기에 스냅샷을 복사합니다. DB 인스턴스에서 암호화를 활성화합니다.
- C. 스냅샷을 복사하고 AWS Key Management Service(AWS KMS)를 사용하여 암호화를 활성화합니다. 암호화된 스냅샷을 기존 DB 인스턴스로 복원합니다.
- D. AWS Key Management Service(AWS KMS) 관리형 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하여 암호화된 Amazon S3 버킷에 스냅샷을 복사합니다
- A. 최신 DB 스냅샷의 복사본을 암호화합니다. 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다.
- B. 새로운 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 여기에 스냅샷을 복사합니다. DB 인스턴스에서 암호화를 활성화합니다.
- C. 스냅샷을 복사하고 AWS Key Management Service(AWS KMS)를 사용하여 암호화를 활성화합니다. 암호화된 스냅샷을 기존 DB 인스턴스로 복원합니다.
- D. AWS Key Management Service(AWS KMS) 관리형 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하여 암호화된 Amazon S3 버킷에 스냅샷을 복사합니다
#122
.
한 회사는 애플리케이션에서 데이터를 암호화해야 하는 개발자를 지원하기 위해 확장 가능한 키 관리 인프라를 구축하려고 합니다.
운영 부담을 줄이기 위해 솔루션 아키텍트는 무엇을 해야 합니까?
- A. MFA(다단계 인증)를 사용하여 암호화 키를 보호하세요.
- B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
- C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
- D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자의 범위를 제한합니다
- A. MFA(다단계 인증)를 사용하여 암호화 키를 보호하세요.
- B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
- C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
- D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자의 범위를 제한합니다
#125⭐
.
한 회사가 AWS에서 2계층 전자상거래 웹사이트를 운영하고 있습니다. 웹 계층은 트래픽을 Amazon EC2 인스턴스로 보내는 로드 밸런서로 구성됩니다. 데이터베이스 계층은 Amazon RDS DB 인스턴스를 사용합니다. EC2 인스턴스와 RDS DB 인스턴스는 공용 인터넷에 노출되어서는 안 됩니다. EC2 인스턴스에서는 타사 웹 서비스를 통해 주문 결제 처리를 완료하려면 인터넷 액세스가 필요합니다. 애플리케이션의 가용성이 높아야 합니다.
이러한 요구 사항을 충족하는 구성 옵션 조합은 무엇입니까? (2개를 선택하세요.)
- A. Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
- B. 2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이로 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
- C. Auto Scaling 그룹을 사용하여 두 가용 영역의 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
- D. 2개의 가용 영역에 걸쳐 퍼블릭 서브넷 1개, 프라이빗 서브넷 1개, NAT 게이트웨이 2개로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
D. 2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷, 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다
- A. Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
- B. 2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이로 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
- C. Auto Scaling 그룹을 사용하여 두 가용 영역의 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
- D. 2개의 가용 영역에 걸쳐 퍼블릭 서브넷 1개, 프라이빗 서브넷 1개, NAT 게이트웨이 2개로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
D. 2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷, 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다
A에 대한 답변: EC2 인스턴스와 RDS DB 인스턴스는 공용 인터넷에 노출되어서는 안 됩니다. D에 대한 답변: EC2 인스턴스는 타사 웹 서비스를 통해 주문 결제 처리를 완료하기 위해 인터넷 액세스가 필요합니다. A에 대한 답변: 애플리케이션은 가용성이 높아야 합
각 NAT 게이트웨이를 각 퍼블릭 서브넷에 배치해야 합
#127⭐
.
한 미디어 회사는 자사 시스템을 AWS 클라우드로 이전할 가능성을 평가하고 있습니다. 회사에는 비디오 처리를 위한 최대 I/O 성능을 갖춘 최소 10TB의 스토리지, 미디어 콘텐츠 저장을 위한 매우 내구성이 뛰어난 300TB의 스토리지, 더 이상 사용하지 않는 보관 미디어에 대한 요구 사항을 충족하려면 900TB의 스토리지가 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 서비스 세트를 권장해야 합니까?
- A. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
- B. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3 Glacier
- C. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3
- D. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
- A. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
- B. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3 Glacier
- C. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3
- D. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
비디오 처리에만 사용되기 때문에 인스턴스 스토어가 여기에서 가장 빠릅니다(처리 후 데이터를 S3으로 이동하기 때문에 일시적인 것은 문제가 되지 않
A는 좋은 것 같지만 저장소가 인스턴스에 물리적으로 연결되어 있으므로 D가 더 좋음
#128
.
한 회사가 AWS 클라우드의 컨테이너에서 애플리케이션을 실행하려고 합니다. 이러한 애플리케이션은 상태 비저장이며 기본 인프라 내의 중단을 허용할 수 있습니다. 회사에는 비용과 운영 오버헤드를 최소화하는 솔루션이 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. Amazon EC2 Auto Scaling 그룹의 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행하십시오.
- B. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
- C. Amazon EC2 Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
- D. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다
- A. Amazon EC2 Auto Scaling 그룹의 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행하십시오.
- B. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
- C. Amazon EC2 Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
- D. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다
#129
.
회사는 온프레미스에서 다중 계층 웹 애플리케이션을 실행하고 있습니다. 웹 애플리케이션은 컨테이너화되어 사용자 레코드가 포함된 PostgreSQL 데이터베이스에 연결된 여러 Linux 호스트에서 실행됩니다. 인프라 유지 관리 및 용량 계획에 따른 운영 오버헤드가 회사의 성장을 제한하고 있습니다. 솔루션 설계자는 애플리케이션의 인프라를 개선해야 합니다.
이를 달성하기 위해 솔루션 아키텍트는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)
- A. PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션하십시오.
- B. Amazon EC2 인스턴스에서 호스팅되도록 웹 애플리케이션을 마이그레이션합니다.
- C. 웹 애플리케이션 콘텐츠에 대한 Amazon CloudFront 배포를 설정합니다.
- D. 웹 애플리케이션과 PostgreSQL 데이터베이스 간에 Amazon ElastiCache를 설정합니다.
- E. Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에서 호스팅할 웹 애플리케이션을 마이그레이션합니다
- A. PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션하십시오.
- B. Amazon EC2 인스턴스에서 호스팅되도록 웹 애플리케이션을 마이그레이션합니다.
- C. 웹 애플리케이션 콘텐츠에 대한 Amazon CloudFront 배포를 설정합니다.
- D. 웹 애플리케이션과 PostgreSQL 데이터베이스 간에 Amazon ElastiCache를 설정합니다.
- E. Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에서 호스팅할 웹 애플리케이션을 마이그레이션합니다
#130
.
애플리케이션은 여러 가용 영역에 걸쳐 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 Application Load Balancer 뒤의 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. 애플리케이션은 EC2 인스턴스의 CPU 사용률이 40% 또는 40%에 가까울 때 가장 잘 수행됩니다.
그룹의 모든 인스턴스에서 원하는 성능을 유지하려면 솔루션 설계자가 무엇을 해야 합니까?
- A. 간단한 조정 정책을 사용하여 Auto Scaling 그룹을 동적으로 조정합니다.
- B. 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
- C. AWS Lambda 함수를 사용하여 원하는 Auto Scaling 그룹 용량을 업데이트합니다.
- D. 예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.
- A. 간단한 조정 정책을 사용하여 Auto Scaling 그룹을 동적으로 조정합니다.
- B. 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
- C. AWS Lambda 함수를 사용하여 원하는 Auto Scaling 그룹 용량을 업데이트합니다.
- D. 예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.
#132⭐
.
회사의 웹사이트에서는 사용자에게 다운로드 가능한 과거 실적 보고서를 제공합니다. 웹사이트에는 전 세계적으로 회사의 웹사이트 요구 사항을 충족할 수 있도록 확장할 수 있는 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하며, 인프라 리소스 프로비저닝을 제한하고, 가능한 가장 빠른 응답 시간을 제공해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조합을 권장해야 합니까?
- A. Amazon CloudFront 및 Amazon S3
- B. AWS Lambda 및 Amazon DynamoDB
- C. Amazon EC2 Auto Scaling을 갖춘 Application Load Balancer
- D. 내부 Application Load Balancer를 갖춘 Amazon Route 53
- A. Amazon CloudFront 및 Amazon S3
- B. AWS Lambda 및 Amazon DynamoDB
- C. Amazon EC2 Auto Scaling을 갖춘 Application Load Balancer
- D. 내부 Application Load Balancer를 갖춘 Amazon Route 53
내역 보고서 = 정적 콘텐츠 = S3
#133⭐
.
회사는 온프레미스에서 Oracle 데이터베이스를 실행합니다. 회사는 AWS로 마이그레이션하는 과정의 일환으로 데이터베이스를 사용 가능한 최신 버전으로 업그레이드하려고 합니다. 또한 회사는 데이터베이스에 대한 재해 복구(DR)를 설정하려고 합니다. 회사는 일반 운영 및 DR 설정을 위한 운영 오버헤드를 최소화해야 합니다. 또한 회사는 데이터베이스의 기본 운영 체제에 대한 액세스를 유지해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
- B. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 스냅샷을 다른 AWS 리전에 복제하려면 교차 리전 자동 백업을 활성화하십시오.
- C. Oracle 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다.
- D. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 다른 가용 영역에 대기 데이터베이스를 생성합니다
- A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
- B. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 스냅샷을 다른 AWS 리전에 복제하려면 교차 리전 자동 백업을 활성화하십시오.
- C. Oracle 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다.
- D. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 다른 가용 영역에 대기 데이터베이스를 생성합니다
옵션 C는 RDS Custom이 기본 OS에 액세스할 수 있고 운영 오버헤드를 덜 제공하기 때문입니다. 또한 다른 리전의 읽기 전용 복제본을 DR 활동에 사용할 수 있습니다. https://aws.amazon.com/blogs/database/implementing-a-disaster-recovery-strategy-with-amazon-rds/
#134⭐
회사는 애플리케이션을 서버리스 솔루션으로 이동하려고 합니다. 서버리스 솔루션은 SL을 사용해 기존 데이터와 신규 데이터를 분석해야 합니다. 회사는 Amazon S3 버킷에 데이터를 저장합니다. 데이터는 암호화가 필요하며 다른 AWS 리전에 복제되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 시스템(SSE-KMS)과 함께 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- B. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
- C. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- D. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다
- A. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 시스템(SSE-KMS)과 함께 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- B. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
- C. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
- D. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다
S3의 데이터는 RDS가 아닌 Athena로 쿼리되므로 B와 D는 제외됩니다. A에는 새 버킷이 필요하고 거기에 데이터를 로드해야 합니다. 데이터가 이미 S3에 있는데 왜 그렇습니까? 데이터를 로드한 후에만 CRR을 활성화하라고 되어 있으므로 기존 데이터는 어쨌든 복제되지 않습니다. C는 기존 데이터(새 버킷에 데이터를 로드하는 것에 비해 운영 오버헤드가 적음)와 SSE-E3(SSE-KMS보다 운영 오버헤드가 적음)을 사용
C와 A가 51대49
#135
회사는 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사 보안팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 회사의 VPC와 공급자의 VPC 간에 VPC 피어링 연결을 생성합니다. 대상 서비스에 연결하려면 라우팅 테이블을 업데이트하세요.
- B. 공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
- C. 회사 VP의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하고 라우팅 테이블을 업데이트하여 대상 서비스에 연결합니다.
- D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다
해설
- A. 회사의 VPC와 공급자의 VPC 간에 VPC 피어링 연결을 생성합니다. 대상 서비스에 연결하려면 라우팅 테이블을 업데이트하세요.
- B. 공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
- C. 회사 VP의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하고 라우팅 테이블을 업데이트하여 대상 서비스에 연결합니다.
- D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다
#136⭐
한 회사가 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온프레미스 데이터베이스는 마이그레이션 중에 온라인 상태로 유지되고 액세스 가능해야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화된 상태를 유지해야 합니다.
솔루션 설계자가 이러한 요구 사항을 충족하려면 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)
- A. 지속적인 복제 작업을 생성합니다.
- B. 온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
- C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
- D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
- E. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 데이터베이스 동기화를 모니터링합니다
- A. 지속적인 복제 작업을 생성합니다.
- B. 온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
- C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
- D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
- E. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 데이터베이스 동기화를 모니터링합니다
AWS Database Migration Service(AWS DMS)는 데이터베이스를 AWS로 빠르고 안전하게 마이그레이션하는 데 도움이 됩니다. 소스 데이터베이스는 마이그레이션 중에도 완벽하게 작동하므로 데이터베이스에 의존하는 애플리케이션의 가동 중지 시간이 최소화됩니다. ... AWS Database Migration Service를 사용하면 지원되는 모든 소스에서 지원되는 대상으로 짧은 지연 시간으로 데이터를 지속적으로 복제할 수도
#138
한 회사가 AWS에서 전자상거래 애플리케이션을 실행합니다. 모든 새로운 주문은 단일 가용 영역의 Amazon EC2 인스턴스에서 실행되는 RabbitMQ 대기열에 메시지로 게시됩니다. 이러한 메시지는 별도의 EC2 인스턴스에서 실행되는 다른 애플리케이션에 의해 처리됩니다. 이 애플리케이션은 다른 EC2 인스턴스의 PostgreSQL 데이터베이스에 세부 정보를 저장합니다. 모든 EC2 인스턴스는 동일한 가용 영역에 있습니다.
회사는 최소한의 운영 오버헤드로 최고의 가용성을 제공하기 위해 아키텍처를 재설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
- B. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹 생성
- A. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
- B. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
- D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹 생성
#141⭐
한 회사는 사용자에게 글로벌 속보, 지역 알림, 날씨 업데이트를 제공하는 웹 기반 포털을 운영하고 있습니다. 포털은 정적 콘텐츠와 동적 콘텐츠를 혼합하여 각 사용자에게 개인화된 보기를 제공합니다. 콘텐츠는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행되는 API 서버를 통해 HTTPS를 통해 제공됩니다. 회사는 포털이 이 콘텐츠를 전 세계 사용자에게 가능한 한 빨리 제공하기를 원합니다.
솔루션 설계자는 모든 사용자의 대기 시간을 최소화하기 위해 애플리케이션을 어떻게 설계해야 합니까?
- A. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하면 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공할 수 있습니다.
- B. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지연 시간 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
- C. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 정적 콘텐츠를 제공합니다. ALB에서 직접 동적 콘텐츠를 제공합니다.
- D. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
- A. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하면 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공할 수 있습니다.
- B. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지연 시간 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
- C. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 정적 콘텐츠를 제공합니다. ALB에서 직접 동적 콘텐츠를 제공합니다.
- D. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
Amazon CloudFront는 정적 및 동적 웹 콘텐츠의 배포 속도를 높이는 웹 서비스
"전 세계 모든 사용자에 대한 최소 지연 시간" = CloudFront이므로 B와 D는 제외됩니다. 또한 "두 지역"에 스택을 배포하면 해당 두 지역에 도움이 되지만 "전 세계" 사용자에게는 도움이 되지 않습니다. CloudFront는 동적 콘텐츠도 캐시할 수 있으므로 A
#144⭐
최근 한 회사에서 Amazon Aurora를 글로벌 전자 상거래 애플리케이션용 데이터 스토어로 사용하기 시작했습니다. 대규모 보고서가 실행되면 개발자는 전자 상거래 애플리케이션의 성능이 좋지 않다고 보고합니다. 솔루션 설계자는 Amazon CloudWatch에서 지표를 검토한 후 월별 보고서가 실행될 때 ReadIOPS 및 CPUUtilizalion 지표가 급증한다는 사실을 발견했습니다.
가장 비용 효율적인 솔루션은 무엇입니까?
- A. 월별 보고를 Amazon Redshift로 마이그레이션하십시오.
- B. 월별 보고를 Aurora 복제본으로 마이그레이션합니다.
- C. Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하십시오.
- D. Aurora 인스턴스에서 프로비저닝된 IOPS를 늘립니다
- A. 월별 보고를 Amazon Redshift로 마이그레이션하십시오.
- B. 월별 보고를 Aurora 복제본으로 마이그레이션합니다.
- C. Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하십시오.
- D. Aurora 인스턴스에서 프로비저닝된 IOPS를 늘립니다
옵션 A: 월별 보고를 Amazon Redshift로 마이그레이션하는 것은 새로운 데이터 스토어 생성과 잠재적으로 상당한 데이터 마이그레이션 및 ETL 비용을 포함하므로 비용 효율적이지 않을 수 있습니다. 옵션 C: Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하는 것은 데이터베이스의 기본 하드웨어 변경을 포함하고 더 큰 인스턴스에 대한 추가 비용이 발생할 수 있으므로 비용 효율적이지 않을 수 있습니다. 옵션 D: Aurora 인스턴스에서 프로비저닝된 IOPS를 늘리면 데이터베이스의 다른 워크로드에 필요하지 않을 수 있는 추가 I/O 용량에 대한 비용을 지불해야 하므로 비용 효율적이지 않을 수 있
#148
회사에는 다음 구성 요소를 포함하는 데이터 수집 워크플로가 있습니다.
새로운 데이터 전송에 대한 알림을 수신하는 Amazon Simple Notification Service(Amazon SNS) 주제 데이터를
처리하고 저장하는 AWS Lambda 함수
네트워크 연결 문제로 인해 수집 워크플로가 때때로 실패하는 경우가 있습니다. . 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 해당 데이터가 수집되지 않습니다.
모든 알림이 최종적으로 처리되도록 하려면 솔루션 설계자는 무엇을 해야 합니까?
- A. 여러 가용 영역에 걸쳐 배포할 수 있도록 Lambda 함수를 구성합니다.
- B. Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
- C. 재시도 횟수와 재시도 간 대기 시간을 모두 늘리도록 SNS 주제의 재시도 전략을 구성합니다.
- D. Amazon Simple Queue Service(Amazon SQS) 대기열을 오류 발생 대상으로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.
- A. 여러 가용 영역에 걸쳐 배포할 수 있도록 Lambda 함수를 구성합니다.
- B. Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
- C. 재시도 횟수와 재시도 간 대기 시간을 모두 늘리도록 SNS 주제의 재시도 전략을 구성합니다.
- D. Amazon Simple Queue Service(Amazon SQS) 대기열을 오류 발생 대상으로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.
#150⭐
회사는 온프레미스 서버에서 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션하고 있습니다. 마이그레이션 설계 요구 사항의 일부로 솔루션 설계자는 인프라 지표 경보를 구현해야 합니다. CPU 사용률이 짧은 시간 동안 50% 이상으로 증가하는 경우 회사에서는 조치를 취할 필요가 없습니다. 그러나 CPU 사용률이 50% 이상으로 증가하고 동시에 디스크의 읽기 IOPS가 높을 경우 회사는 가능한 한 빨리 조치를 취해야 합니다. 솔루션 설계자는 또한 허위 경보를 줄여야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성하십시오.
- B. 지표를 시각화하고 문제에 신속하게 대응하기 위해 Amazon CloudWatch 대시보드를 생성합니다.
- C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
- D. 가능한 경우 여러 지표 임계값을 사용하여 단일 Amazon CloudWatch 지표 경보를 생성합니다
- A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성하십시오.
- B. 지표를 시각화하고 문제에 신속하게 대응하기 위해 Amazon CloudWatch 대시보드를 생성합니다.
- C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
- D. 가능한 경우 여러 지표 임계값을 사용하여 단일 Amazon CloudWatch 지표 경보를 생성합니다
Amazon CloudWatch 복합 경보를 생성하는 옵션 A는 솔루션 설계자가 CPU 사용률이 50%를 초과하고 동시에 디스크의 읽기 IOPS가 높은 경우에만 트리거되는 경보를 생성할 수 있도록 허용하므로 정확합니다. 이는 두 조건이 모두 충족되는 경우 가능한 한 빨리 조치를 취해야 한다는 요구 사항을 충족하는 동시에 두 조건이 모두 충족되는 경우에만 경보가 트리거되도록 하여 잘못된 경보의 수를 줄입
#151⭐
회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 회사의 규정 준수 요구 사항에 따라 회사는 ap-northeast-3 리전만 사용할 수 있습니다. 회사 관리자는 VPC를 인터넷에 연결할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)
- A. AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- B. AWS WAF의 규칙을 사용하여 인터넷 액세스를 방지합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 방지하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- D. 각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전 사용을 방지하려면 각 사용자에 대한 IAM 정책을 생성합니다.
- E. AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 탐지 및 경고하고 ap-northeast-3 외부에 배포된 새로운 리소스를 탐지 및 경고합니다
- A. AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- B. AWS WAF의 규칙을 사용하여 인터넷 액세스를 방지합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 방지하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
- D. 각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전 사용을 방지하려면 각 사용자에 대한 IAM 정책을 생성합니다.
- E. AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 탐지 및 경고하고 ap-northeast-3 외부에 배포된 새로운 리소스를 탐지 및 경고합니다
A. Control Tower를 사용하면 회사는 데이터 상주 가드레일을 시행하고 VPC에 대한 인터넷 액세스를 제한하고 필수 ap-northeast-3 지역을 제외한 모든 지역에 대한 액세스를 거부할 수 있습니다. C. 조직을 통해 회사는 VPC가 인터넷에 액세스하지 못하도록 SCP를 구성할 수 있습니다. ap-northeast-3을 제외한 모든 지역에 대한 액세스를 거부함으로써 회사는 VPC가 지정된 지역에만 배포될 수 있도록 보장합니다. 옵션 B는 올바르지 않습니다. AWS WAF에서만 규칙을 사용하면 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스 거부 요구 사항이 해결되지 않기 때문입니다. 사용자에 대한 네트워크 ACL 및 IAM 정책의 아웃바운드 규칙을 구성하면 트래픽과 액세스를 제한하는 데 도움이 될 수 있지만 ap-northeast-3을 제외한 모든 리전에 대한 액세스를 거부해야 하는 회사의 요구 사항을 적용하지 않기 때문에 옵션 D는 올바르지 않습니다. AWS Config 및 관리형 규칙을 사용하면 특정 리소스 및 구성을 감지하고 경고하는 데 도움이 될 수 있지만 인터넷 액세스 제한을 직접 시행하거나 특정 리전에 대한 액세스를 거부하지 않기 때문에 옵션 E는 올바르지 않
#154⭐
회사는 의료 실험 결과를 Amazon S3 리포지토리에 저장해야 합니다. 저장소는 소수의 과학자가 새 파일을 추가할 수 있도록 허용해야 하며 다른 모든 사용자는 읽기 전용 액세스로 제한해야 합니다. 어떤 사용자도 저장소의 파일을 수정하거나 삭제할 수 없습니다. 회사는 모든 파일을 생성일로부터 최소 1년 동안 저장소에 보관해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 법적 보유 기간이 1년인 거버넌스 모드에서 S3 객체 잠금을 사용하십시오.
- B. 보존 기간이 365일인 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
- C. IAM 역할을 사용하여 모든 사용자가 S3 버킷의 객체를 삭제하거나 변경하지 못하도록 제한합니다. IAM 역할만 허용하려면 S3 버킷 정책을 사용하세요.
- D. 객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 수정된 객체가 그에 따라 표시될 수 있도록 저장된 객체의 해시를 추적하는 기능을 구성합니다.
- A. 법적 보유 기간이 1년인 거버넌스 모드에서 S3 객체 잠금을 사용하십시오.
- B. 보존 기간이 365일인 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
- C. IAM 역할을 사용하여 모든 사용자가 S3 버킷의 객체를 삭제하거나 변경하지 못하도록 제한합니다. IAM 역할만 허용하려면 S3 버킷 정책을 사용하세요.
- D. 객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 수정된 객체가 그에 따라 표시될 수 있도록 저장된 객체의 해시를 추적하는 기능을 구성합니다.
규정 준수 모드. 규정 준수 모드와 거버넌스 모드의 주요 차이점은 설정된 보존 기간을 재정의하거나 객체를 삭제할 수 있는 사용자가 없으며 여기에는 가장 높은 권한을 가진 AWS 루트 계정도 포함된다는 것
#155
한 대형 미디어 회사가 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 회사는 전 세계 사용자가 파일에 안정적으로 액세스할 수 있도록 기밀 미디어 파일 캐싱을 시작하려고 합니다. 콘텐츠는 Amazon S3 버킷에 저장됩니다. 회사는 요청이 지리적으로 어디서 발생하는지에 관계없이 콘텐츠를 신속하게 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결하십시오.
- B. AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다.
- C. Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다.
- D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다
- A. AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결하십시오.
- B. AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다.
- C. Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다.
- D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다
#156⭐
회사는 다양한 데이터베이스에서 가져온 배치 데이터를 생성합니다. 또한 이 회사는 네트워크 센서 및 애플리케이션 API로부터 라이브 스트림 데이터를 생성합니다. 회사는 비즈니스 분석을 위해 모든 데이터를 한 곳에 통합해야 합니다. 회사는 수신 데이터를 처리한 다음 다른 Amazon S3 버킷에 데이터를 준비해야 합니다. 팀은 나중에 일회성 쿼리를 실행하고 데이터를 비즈니스 인텔리전스 도구로 가져와 핵심 성과 지표(KPI)를 표시합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
- A. 일회성 쿼리에는 Amazon Athena를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
- B. 일회성 쿼리에는 Amazon Kinesis Data Analytics를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
- C. 개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하는 사용자 지정 AWS Lambda 함수를 생성합니다.
- D. AWS Glue ETL(추출, 변환 및 로드) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 데이터를 로드합니다.
- E. AWS Lake Formation의 블루프린트를 사용하여 데이터 레이크에 수집될 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고, 데이터를 추출하고, 데이터를 Apache Parquet 형식으로 Amazon S3에 로드합니다
- A. 일회성 쿼리에는 Amazon Athena를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
- B. 일회성 쿼리에는 Amazon Kinesis Data Analytics를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
- C. 개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하는 사용자 지정 AWS Lambda 함수를 생성합니다.
- D. AWS Glue ETL(추출, 변환 및 로드) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 데이터를 로드합니다.
- E. AWS Lake Formation의 블루프린트를 사용하여 데이터 레이크에 수집될 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고, 데이터를 추출하고, 데이터를 Apache Parquet 형식으로 Amazon S3에 로드합니다
A는 Athena 및 QuickSight 옵션으로 인해 제공됩니다. C와 E 사이에서 AWS Lake Formation은 더욱 관리되는 솔루션이므로 사용자 지정 AWS Lambda를 작성하는 것보다 운영 오버헤드가 적어야 합
#157⭐
회사는 Amazon Aurora PostgreSQL DB 클러스터에 데이터를 저장합니다. 회사는 모든 데이터를 5년 동안 보관해야 하며, 5년 후에는 모든 데이터를 삭제해야 합니다. 또한 회사는 데이터베이스 내에서 수행되는 작업에 대한 감사 로그를 무기한 보관해야 합니다. 현재 회사에서는 Aurora에 대해 자동 백업을 구성했습니다.
이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
- A. DB 클러스터의 수동 스냅샷을 생성합니다.
- B. 자동 백업에 대한 수명주기 정책을 만듭니다.
- C. 5년 동안 자동 백업 보존을 구성합니다.
- D. DB 클러스터에 대한 Amazon CloudWatch Logs 내보내기를 구성합니다.
- E. AWS Backup을 사용하여 백업을 수행하고 백업을 5년 동안 보관합니다
- A. DB 클러스터의 수동 스냅샷을 생성합니다.
- B. 자동 백업에 대한 수명주기 정책을 만듭니다.
- C. 5년 동안 자동 백업 보존을 구성합니다.
- D. DB 클러스터에 대한 Amazon CloudWatch Logs 내보내기를 구성합니다.
- E. AWS Backup을 사용하여 백업을 수행하고 백업을 5년 동안 보관합니다
A - 자동화할 수 있는 수동 작업인데 왜 인생을 어렵게 만드는가?
B - 최대 보존 기간은 35일이므로 도움이 되지 않습니다.
C - 최대 보존 기간은 35일이므로 도움이 되지 않습니다
#158
솔루션 설계자가 다가오는 음악 이벤트를 위해 웹사이트를 최적화하고 있습니다. 공연 영상은 실시간으로 스트리밍되며, 요청 시 시청 가능합니다. 이번 행사는 전 세계 온라인 관객의 관심을 끌 것으로 예상된다.
실시간 스트리밍과 주문형 스트리밍 모두의 성능을 향상시키는 서비스는 무엇입니까?
- A. 아마존 클라우드프론트
- B. AWS 글로벌 액셀러레이터
- C. 아마존 루트 53
- D. Amazon S3 전송 가속화
- A. 아마존 클라우드프론트
- B. AWS 글로벌 액셀러레이터
- C. 아마존 루트 53
- D. Amazon S3 전송 가속화
#161⭐
회사에는 JSON 문서를 처리하고 결과를 온프레미스 SQL 데이터베이스로 출력하는 작은 Python 애플리케이션이 있습니다. 이 애플리케이션은 매일 수천 번 실행됩니다. 회사는 애플리케이션을 AWS 클라우드로 이동하려고 합니다. 회사에는 확장성을 극대화하고 운영 오버헤드를 최소화하는 고가용성 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. JSON 문서를 Amazon S3 버킷에 배치합니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
- B. JSON 문서를 Amazon S3 버킷에 넣습니다. 문서가 S3 버킷에 도착하면 문서를 처리하기 위해 Python 코드를 실행하는 AWS Lambda 함수를 생성합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
- C. JSON 문서를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 배치합니다. EBS 다중 연결 기능을 사용하여 여러 Amazon EC2 인스턴스에 볼륨을 연결합니다. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다.
- D. JSON 문서를 Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지로 배치합니다. Amazon EC2 시작 유형으로 구성된 Amazon Elastic Container Service(Amazon ECS) 클러스터에 Python 코드를 컨테이너로 배포합니다. 컨테이너를 사용하여 SQS 메시지를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다
- A. JSON 문서를 Amazon S3 버킷에 배치합니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
- B. JSON 문서를 Amazon S3 버킷에 넣습니다. 문서가 S3 버킷에 도착하면 문서를 처리하기 위해 Python 코드를 실행하는 AWS Lambda 함수를 생성합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
- C. JSON 문서를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 배치합니다. EBS 다중 연결 기능을 사용하여 여러 Amazon EC2 인스턴스에 볼륨을 연결합니다. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다.
- D. JSON 문서를 Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지로 배치합니다. Amazon EC2 시작 유형으로 구성된 Amazon Elastic Container Service(Amazon ECS) 클러스터에 Python 코드를 컨테이너로 배포합니다. 컨테이너를 사용하여 SQS 메시지를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다
"D"에는 각 부분이 그 자체로 관리형 서비스임에도 불구하고 움직이는 부분이 많고 운영 오버헤드가 더 많습니다. 또한 Lambda를 사용하여 작업을 수행할 수 있는 경우 EC2 인스턴스를 어떤 형태로든 사용하지 마십시오. EC2 인스턴스는 항상 운영 오버헤드를 증가시킵
#162
한 회사는 금융 위험 모델링을 위해 AWS의 고성능 컴퓨팅(HPC) 인프라를 사용하려고 합니다. 회사의 HPC 워크로드는 Linux에서 실행됩니다. 각 HPC 워크플로는 수백 개의 Amazon EC2 스팟 인스턴스에서 실행되고, 수명이 짧으며, 궁극적으로 분석 및 향후 장기적 사용을 위해 영구 스토리지에 저장되는 수천 개의 출력 파일을 생성합니다.
회사는 모든 EC2 인스턴스에서 데이터를 처리할 수 있도록 온프레미스 데이터를 장기 영구 스토리지로 복사할 수 있는 클라우드 스토리지 솔루션을 찾고 있습니다. 또한 솔루션은 데이터세트와 출력 파일을 읽고 쓰기 위해 영구 스토리지와 통합된 고성능 파일 시스템이어야 합니다.
이러한 요구 사항을 충족하는 AWS 서비스 조합은 무엇입니까?
- A. Amazon S3와 통합된 Lustre용 Amazon FSx
- B. Amazon S3와 통합된 Windows 파일 서버용 Amazon FSx
- C. Amazon Elastic Block Store(Amazon EBS)와 통합된 Amazon S3 Glacier
- D. Amazon Elastic Block Store(Amazon EBS) 범용 SSD(gp2) 볼륨과 통합된 VPC 엔드포인트가 있는 Amazon S3 버킷
- A. Amazon S3와 통합된 Lustre용 Amazon FSx
- B. Amazon S3와 통합된 Windows 파일 서버용 Amazon FSx
- C. Amazon Elastic Block Store(Amazon EBS)와 통합된 Amazon S3 Glacier
- D. Amazon Elastic Block Store(Amazon EBS) 범용 SSD(gp2) 볼륨과 통합된 VPC 엔드포인트가 있는 Amazon S3 버킷
#167⭐
한 회사가 Amazon EC2 인스턴스 집합에서 프로덕션 애플리케이션을 실행합니다. 애플리케이션은 Amazon SQS 대기열에서 데이터를 읽고 메시지를 병렬로 처리합니다. 메시지 볼륨은 예측할 수 없으며 트래픽이 간헐적으로 발생하는 경우가 많습니다. 이 애플리케이션은 가동 중지 시간 없이 지속적으로 메시지를 처리해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
- A. 필요한 최대 용량을 처리하려면 스팟 인스턴스만 사용하십시오.
- B. 필요한 최대 용량을 처리하기 위해 예약 인스턴스를 독점적으로 사용하십시오.
- C. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 스팟 인스턴스를 사용합니다.
- D. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 온디맨드 인스턴스를 사용합니다.
- A. 필요한 최대 용량을 처리하려면 스팟 인스턴스만 사용하십시오.
- B. 필요한 최대 용량을 처리하기 위해 예약 인스턴스를 독점적으로 사용하십시오.
- C. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 스팟 인스턴스를 사용합니다.
- D. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 온디맨드 인스턴스를 사용합니다.
기준선용 예약 + 추가 C에 대한 주문형은 작동하지만 스팟은 "다운타임 없이 지속적으로 메시지 처리"를 보장하지 않
가동 중지 시간 없이 예측할 수 없는 볼륨과 간헐적인 트래픽을 위한 기준 + 온디맨드용 예약 인스턴스입니다. 키워드: 1. 프로덕션 애플리케이션 2. 예측할 수 없는 볼륨 및 간헐적인 트래픽 3. 가동 중지 시간 없음 스팟 인스턴스는 더 저렴한 옵션이지만 가동 중지 시간을 보장할 수 없으며 가용성에도 영향을 받으므로 On을 선택하는 것이 최선의 선택입니다. - 수요 인스턴스.
#171⭐
한 회사는 품목 가격을 기준으로 세금 계산에 대한 조회를 자동화하는 API를 사용자에게 제공합니다. 회사에서는 연휴 기간에만 더 많은 문의가 발생하여 응답 시간이 느려집니다. 솔루션 아키텍트는 확장 가능하고 탄력적인 솔루션을 설계해야 합니다.
이를 달성하기 위해 솔루션 설계자는 무엇을 해야 합니까?
- A. Amazon EC2 인스턴스에서 호스팅되는 API를 제공하십시오. EC2 인스턴스는 API 요청이 이루어질 때 필요한 계산을 수행합니다.
- B. 항목 이름을 허용하는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 AWS Lambda에 전달합니다.
- C. 뒤에 두 개의 Amazon EC2 인스턴스가 있는 Application Load Balancer를 생성합니다. EC2 인스턴스는 받은 항목 이름에 대한 세금을 계산합니다.
- D. Amazon EC2 인스턴스에 호스팅된 API와 연결되는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 수락하고 EC2 인스턴스에 전달합니다.
- A. Amazon EC2 인스턴스에서 호스팅되는 API를 제공하십시오. EC2 인스턴스는 API 요청이 이루어질 때 필요한 계산을 수행합니다.
- B. 항목 이름을 허용하는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 AWS Lambda에 전달합니다.
- C. 뒤에 두 개의 Amazon EC2 인스턴스가 있는 Application Load Balancer를 생성합니다. EC2 인스턴스는 받은 항목 이름에 대한 세금을 계산합니다.
- D. Amazon EC2 인스턴스에 호스팅된 API와 연결되는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 수락하고 EC2 인스턴스에 전달합니다.
EC2는 확장이 가능하지만(Lambda보다 유연성이 떨어지더라도) A, C, D 모두 확장을 포함하지 않습니다. 이러한 답변은 모두 단일 EC2 인스턴스 또는 EC2 인스턴스 쌍에 관한 것입니다. 확장성과 탄력성을 포함하는 유일한 대답은 B
#172⭐
솔루션 아키텍트가 애플리케이션을 위한 새로운 Amazon CloudFront 배포판을 생성하고 있습니다. 사용자가 제출한 정보 중 일부는 민감한 정보입니다. 애플리케이션은 HTTPS를 사용하지만 또 다른 보안 계층이 필요합니다. 민감한 정보는 전체 애플리케이션 스택에서 보호되어야 하며 정보에 대한 액세스는 특정 애플리케이션으로 제한되어야 합니다.
솔루션 아키텍트는 어떤 조치를 취해야 합니까?
- A. CloudFront 서명된 URL을 구성합니다.
- B. CloudFront 서명 쿠키를 구성합니다.
- C. CloudFront 필드 수준 암호화 프로필을 구성합니다.
- D. CloudFront를 구성하고 뷰어 프로토콜 정책에 대해 오리진 프로토콜 정책 설정을 HTTPS 전용으로 설정합니다.
- A. CloudFront 서명된 URL을 구성합니다.
- B. CloudFront 서명 쿠키를 구성합니다.
- C. CloudFront 필드 수준 암호화 프로필을 구성합니다.
- D. CloudFront를 구성하고 뷰어 프로토콜 정책에 대해 오리진 프로토콜 정책 설정을 HTTPS 전용으로 설정합니다.
옵션 A 및 옵션 B는 서명된 URL 또는 쿠키를 기반으로 특정 리소스 또는 콘텐츠에 대한 액세스를 제어하는 데 사용
옵션 D는 최종 사용자와 CloudFront 간의 통신이 HTTPS로 암호화되도록 보장
#175⭐
한 전자상거래 회사에는 Amazon API Gateway와 AWS Lambda 함수를 사용하는 주문 처리 애플리케이션이 있습니다. 애플리케이션은 Amazon Aurora PostgreSQL 데이터베이스에 데이터를 저장합니다. 최근 판매 이벤트 중에 고객 주문이 갑자기 급증했습니다. 일부 고객에게 시간 초과가 발생하여 애플리케이션이 해당 고객의 주문을 처리하지 못했습니다.
솔루션 설계자는 열려 있는 연결 수가 많아 데이터베이스에서 CPU 사용률과 메모리 사용률이 높다는 사실을 확인했습니다. 솔루션 설계자는 애플리케이션을 최소한으로 변경하면서 시간 초과 오류를 방지해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Lambda 함수에 대해 프로비저닝된 동시성을 구성합니다. 여러 AWS 리전의 글로벌 데이터베이스가 되도록 데이터베이스를 수정합니다.
- B. Amazon RDS Proxy를 사용하여 데이터베이스용 프록시를 생성합니다. 데이터베이스 엔드포인트 대신 RDS Proxy 엔드포인트를 사용하도록 Lambda 함수를 수정합니다.
- C. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. API 게이트웨이의 쿼리 문자열 매개변수를 사용하여 트래픽을 읽기 전용 복제본으로 라우팅합니다.
- D. AWS Database Migration Service(AWS DMS)를 사용하여 Aurora PostgreSQL에서 Amazon DynamoDB로 데이터를 마이그레이션합니다. DynamoDB 테이블을 사용하도록 Lambda 함수를 수정합니다.
- A. Lambda 함수에 대해 프로비저닝된 동시성을 구성합니다. 여러 AWS 리전의 글로벌 데이터베이스가 되도록 데이터베이스를 수정합니다.
- B. Amazon RDS Proxy를 사용하여 데이터베이스용 프록시를 생성합니다. 데이터베이스 엔드포인트 대신 RDS Proxy 엔드포인트를 사용하도록 Lambda 함수를 수정합니다.
- C. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. API 게이트웨이의 쿼리 문자열 매개변수를 사용하여 트래픽을 읽기 전용 복제본으로 라우팅합니다.
- D. AWS Database Migration Service(AWS DMS)를 사용하여 Aurora PostgreSQL에서 Amazon DynamoDB로 데이터를 마이그레이션합니다. DynamoDB 테이블을 사용하도록 Lambda 함수를 수정합니다.
높은 CPU 및 메모리 사용량을 유발하는 연결 문제=> RDS 프록시
옵션 C(다른 AWS 리전에서 읽기 전용 복제본 생성)는 시간 초과 오류를 해결하는 데 필요하지 않을 수도 있는 추가 데이터 복제 및 관리 복잡성을 도입
#177⭐
한 엔터테인먼트 회사는 Amazon DynamoDB를 사용하여 미디어 메타데이터를 저장하고 있습니다. 애플리케이션이 읽기 집중적이어서 지연이 발생하고 있습니다. 회사에는 추가 운영 오버헤드를 처리할 직원이 없으며 애플리케이션을 재구성하지 않고 DynamoDB의 성능 효율성을 개선해야 합니다.
이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
- A. Redis용 Amazon ElastiCache를 사용하세요.
- B. Amazon DynamoDB Accelerator(DAX)를 사용합니다.
- C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.
- D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다
- A. Redis용 Amazon ElastiCache를 사용하세요.
- B. Amazon DynamoDB Accelerator(DAX)를 사용합니다.
- C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.
- D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다.
DAX는 DynamoDB Accelerator의 약자이며 DynamoDB 테이블의 터보 부스트와 같습니다. DynamoDB 테이블의 읽기 및 쓰기 성능을 가속화하는 완전 관리형 인메모리 캐시이므로 이전보다 더 빠르게 데이터를 얻을 수 있
A. Redis용 Amazon ElastiCache를 사용하려면 애플리케이션 코드를 수정해야 하며 DynamoDB 성능을 향상시키도록 특별히 설계된 것은 아닙
D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용하려면 애플리케이션 코드 수정이 필요하며 DynamoDB 성능 향상을 위해 특별히 설계되지 않았
#181⭐
회사에는 Amazon EC2 인스턴스에서 실행되는 레거시 데이터 처리 애플리케이션이 있습니다. 데이터는 순차적으로 처리되지만 결과의 순서는 중요하지 않습니다. 애플리케이션은 모놀리식 아키텍처를 사용합니다. 회사가 증가하는 수요를 충족하기 위해 애플리케이션을 확장할 수 있는 유일한 방법은 인스턴스 크기를 늘리는 것입니다.
이 회사의 개발자는 Amazon Elastic Container Service(Amazon ECS)에서 마이크로서비스 아키텍처를 사용하도록 애플리케이션을 다시 작성하기로 결정했습니다.
솔루션 설계자는 마이크로서비스 간 통신을 위해 무엇을 권장해야 합니까?
- A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 데이터 생산자에 코드를 추가하고 데이터를 큐로 보냅니다. 큐의 데이터를 처리하기 위해 데이터 소비자에 코드를 추가합니다.
- B. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 데이터 생산자에 코드를 추가하고 주제에 알림을 게시합니다. 주제를 구독하려면 데이터 소비자에 코드를 추가하세요.
- C. 메시지를 전달하는 AWS Lambda 함수를 생성합니다. 데이터 객체로 Lambda 함수를 호출하려면 데이터 생산자에 코드를 추가하세요. Lambda 함수에서 전달된 데이터 객체를 수신하려면 데이터 소비자에 코드를 추가하세요.
- D. Amazon DynamoDB 테이블을 생성합니다. DynamoDB 스트림을 활성화합니다. 데이터 생산자에 코드를 추가하여 테이블에 데이터를 삽입합니다. DynamoDB Streams API를 사용하여 새 테이블 항목을 감지하고 데이터를 검색하도록 데이터 소비자에 코드를 추가합니다.
- A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 데이터 생산자에 코드를 추가하고 데이터를 큐로 보냅니다. 큐의 데이터를 처리하기 위해 데이터 소비자에 코드를 추가합니다.
- B. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 데이터 생산자에 코드를 추가하고 주제에 알림을 게시합니다. 주제를 구독하려면 데이터 소비자에 코드를 추가하세요.
- C. 메시지를 전달하는 AWS Lambda 함수를 생성합니다. 데이터 객체로 Lambda 함수를 호출하려면 데이터 생산자에 코드를 추가하세요. Lambda 함수에서 전달된 데이터 객체를 수신하려면 데이터 소비자에 코드를 추가하세요.
- D. Amazon DynamoDB 테이블을 생성합니다. DynamoDB 스트림을 활성화합니다. 데이터 생산자에 코드를 추가하여 테이블에 데이터를 삽입합니다. DynamoDB Streams API를 사용하여 새 테이블 항목을 감지하고 데이터를 검색하도록 데이터 소비자에 코드를 추가합니다.
Amazon Simple Notification Service(SNS)를 사용하는 옵션 B는 이 사용 사례에 적합하지 않습니다. SNS는 지점 간 통신이 아닌 일대다 통신을 위해 설계된 게시/구독 메시징 서비스이기 때문
데이터는 순차적으로 처리되지만 결과의 순서는 중요하지 않습니다 => SQS; 순서가 중요한 경우 => SQL FIFO
#182
한 회사에서 MySQL 데이터베이스를 온프레미스에서 AWS로 마이그레이션하려고 합니다. 이 회사는 최근 비즈니스에 큰 영향을 미치는 데이터베이스 중단을 경험했습니다. 이런 일이 다시 발생하지 않도록 회사는 데이터 손실을 최소화하고 모든 트랜잭션을 최소 두 개의 노드에 저장하는 안정적인 AWS 기반 데이터베이스 솔루션을 원합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. 3개의 가용 영역에 있는 3개의 노드에 대한 동기식 복제를 통해 Amazon RDS DB 인스턴스를 생성합니다.
- B. 데이터를 동기식으로 복제할 수 있는 다중 AZ 기능을 사용하여 Amazon RDS MySQL DB 인스턴스를 생성합니다.
- C. Amazon RDS MySQL DB 인스턴스를 생성한 다음 데이터를 동기식으로 복제하는 별도의 AWS 리전에 읽기 전용 복제본을 생성합니다.
- D. AWS Lambda 함수를 트리거하여 데이터를 Amazon RDS MySQL DB 인스턴스에 동기식으로 복제하는 MySQL 엔진이 설치된 Amazon EC2 인스턴스를 생성합니다.
- A. 3개의 가용 영역에 있는 3개의 노드에 대한 동기식 복제를 통해 Amazon RDS DB 인스턴스를 생성합니다.
- B. 데이터를 동기식으로 복제할 수 있는 다중 AZ 기능을 사용하여 Amazon RDS MySQL DB 인스턴스를 생성합니다.
- C. Amazon RDS MySQL DB 인스턴스를 생성한 다음 데이터를 동기식으로 복제하는 별도의 AWS 리전에 읽기 전용 복제본을 생성합니다.
- D. AWS Lambda 함수를 트리거하여 데이터를 Amazon RDS MySQL DB 인스턴스에 동기식으로 복제하는 MySQL 엔진이 설치된 Amazon EC2 인스턴스를 생성합니다.
#183
한 회사에서 새로운 동적 주문 웹사이트를 구축하고 있습니다. 회사는 서버 유지 관리 및 패치를 최소화하려고 합니다. 웹 사이트는 가용성이 높아야 하며 사용자 수요 변화에 맞춰 읽기 및 쓰기 용량을 최대한 빨리 확장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 대한 온디맨드 용량이 있는 Amazon DynamoDB를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
- B. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
- C. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에 대해 프로비저닝된 쓰기 용량이 있는 Amazon DynamoDB를 사용합니다.
- D. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오.
- A. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 대한 온디맨드 용량이 있는 Amazon DynamoDB를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
- B. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
- C. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에 대해 프로비저닝된 쓰기 용량이 있는 Amazon DynamoDB를 사용합니다.
- D. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오.
#184⭐
회사에는 소프트웨어 엔지니어링에 사용되는 AWS 계정이 있습니다. AWS 계정은 한 쌍의 AWS Direct Connect 연결을 통해 회사의 온프레미스 데이터 센터에 액세스할 수 있습니다. VPC가 아닌 모든 트래픽은 가상 프라이빗 게이트웨이로 라우팅됩니다.
개발 팀은 최근 콘솔을 통해 AWS Lambda 함수를 생성했습니다. 개발팀은 해당 기능이 회사 데이터 센터의 프라이빗 서브넷에서 실행되는 데이터베이스에 액세스할 수 있도록 허용해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 적절한 보안 그룹을 사용하여 VPC에서 실행되도록 Lambda 함수를 구성합니다.
- B. AWS에서 데이터 센터로 VPN 연결을 설정합니다. VPN을 통해 Lambda 함수의 트래픽을 라우팅합니다.
- C. Lambda 함수가 Direct Connect를 통해 온프레미스 데이터 센터에 액세스할 수 있도록 VPC의 라우팅 테이블을 업데이트합니다.
- D. 탄력적 IP 주소를 생성합니다. 탄력적 네트워크 인터페이스 없이 탄력적 IP 주소를 통해 트래픽을 전송하도록 Lambda 함수를 구성합니다.
- A. 적절한 보안 그룹을 사용하여 VPC에서 실행되도록 Lambda 함수를 구성합니다.
- B. AWS에서 데이터 센터로 VPN 연결을 설정합니다. VPN을 통해 Lambda 함수의 트래픽을 라우팅합니다.
- C. Lambda 함수가 Direct Connect를 통해 온프레미스 데이터 센터에 액세스할 수 있도록 VPC의 라우팅 테이블을 업데이트합니다.
- D. 탄력적 IP 주소를 생성합니다. 탄력적 네트워크 인터페이스 없이 탄력적 IP 주소를 통해 트래픽을 전송하도록 Lambda 함수를 구성합니다.
질문에서 VPC가 이미 온프레미스와 연결되어 있다고 언급한 C는 전혀 올바르지 않
Lambda 함수를 VPN에 연결하고 보안 그룹에서 트래픽을 허용
C가 아니라 이미 경로가 설정되어 있습
#187
한 회사는 로드 밸런싱된 프런트 엔드, 컨테이너 기반 애플리케이션 및 관계형 데이터베이스로 구성되는 전자 상거래 애플리케이션을 개발하고 있습니다. 솔루션 설계자는 수동 개입을 최대한 최소화하면서 작동하는 가용성이 뛰어난 솔루션을 만들어야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (2개를 선택하세요.)
- A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.
- B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 복제본을 생성합니다.
- C. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.
- D. 동적 애플리케이션 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
- E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
- A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.
- B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 복제본을 생성합니다.
- C. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.
- D. 동적 애플리케이션 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
- E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
#188
회사는 Amazon S3를 데이터 레이크로 사용합니다. 회사에는 데이터 파일을 업로드하기 위해 SFTP를 사용해야 하는 새로운 파트너가 있습니다. 솔루션 설계자는 운영 오버헤드를 최소화하는 고가용성 SFTP 솔루션을 구현해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. AWS Transfer Family를 사용하여 공개적으로 액세스 가능한 엔드포인트로 SFTP 지원 서버를 구성하십시오. S3 데이터 레이크를 대상으로 선택합니다.
- B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용하십시오. S3 파일 게이트웨이 엔드포인트 URL을 새 파트너에 노출합니다. S3 파일 게이트웨이 엔드포인트를 새 파트너와 공유합니다.
- C. VP의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. 새 파트너에게 VPN을 사용하여 EC2 인스턴스에 파일을 업로드하도록 지시합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
- D. VPC의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 Network Load Balancer(NLB)를 배치합니다. NLB용 SFTP 수신기 포트를 만듭니다. NLB 호스트 이름을 새 파트너와 공유합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
- A. AWS Transfer Family를 사용하여 공개적으로 액세스 가능한 엔드포인트로 SFTP 지원 서버를 구성하십시오. S3 데이터 레이크를 대상으로 선택합니다.
- B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용하십시오. S3 파일 게이트웨이 엔드포인트 URL을 새 파트너에 노출합니다. S3 파일 게이트웨이 엔드포인트를 새 파트너와 공유합니다.
- C. VP의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. 새 파트너에게 VPN을 사용하여 EC2 인스턴스에 파일을 업로드하도록 지시합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
- D. VPC의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 Network Load Balancer(NLB)를 배치합니다. NLB용 SFTP 수신기 포트를 만듭니다. NLB 호스트 이름을 새 파트너와 공유합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
#189
회사는 계약 문서를 저장해야 합니다. 계약은 5년 동안 지속됩니다. 회사는 5년 동안 문서를 덮어쓰거나 삭제할 수 없도록 보장해야 합니다. 회사는 저장되어 있는 문서를 암호화하고 매년 자동으로 암호화 키를 순환시켜야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
- A. Amazon S3에 문서를 저장합니다. 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
- B. Amazon S3에 문서를 저장합니다. 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
- C. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
- D. AWS Key Management Service(AWS KMS) 고객 관리형 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
- E. AWS KMS(AWS Key Management Service) 고객 제공(가져온) 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
- A. Amazon S3에 문서를 저장합니다. 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
- B. Amazon S3에 문서를 저장합니다. 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
- C. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
- D. AWS Key Management Service(AWS KMS) 고객 관리형 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
- E. AWS KMS(AWS Key Management Service) 고객 제공(가져온) 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
A - 거버넌스 모드에서는 예외를 허용합니다. B - 예 C - SSE-S3는 고객이 원할 때가 아니라("매년") AWS가 옳다고 생각할 때 키를 순환합니다. D - 예 E - "고객 제공(가져온) 키"는 ' 자동으로 교체'되는 경우 고객은 새 키를 제공/가져와야 합
#190⭐
한 회사에 Java 및 PHP를 기반으로 하는 웹 애플리케이션이 있습니다. 회사는 애플리케이션을 온프레미스에서 AWS로 이동할 계획입니다. 회사는 새로운 사이트 기능을 자주 테스트할 수 있는 능력이 필요합니다. 또한 회사에는 최소한의 운영 오버헤드가 필요한 고가용성 관리형 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Amazon S3 버킷을 생성합니다. S3 버킷에서 정적 웹 호스팅을 활성화합니다. S3 버킷에 정적 콘텐츠를 업로드합니다. AWS Lambda를 사용하여 모든 동적 콘텐츠를 처리합니다.
- B. 웹 애플리케이션을 AWS Elastic Beanstalk 환경에 배포합니다. 기능 테스트를 위해 URL 교환을 사용하여 여러 Elastic Beanstalk 환경 간에 전환합니다.
- C. Java 및 PHP로 구성된 Amazon EC2 인스턴스에 웹 애플리케이션을 배포합니다. Auto Scaling 그룹과 Application Load Balancer를 사용하여 웹 사이트의 가용성을 관리합니다.
- D. 웹 애플리케이션을 컨테이너화합니다. 웹 애플리케이션을 Amazon EC2 인스턴스에 배포합니다. AWS 로드 밸런서 컨트롤러를 사용하면 테스트용 새 사이트 기능이 포함된 컨테이너 간에 트래픽을 동적으로 라우팅할 수 있습니다.
- A. Amazon S3 버킷을 생성합니다. S3 버킷에서 정적 웹 호스팅을 활성화합니다. S3 버킷에 정적 콘텐츠를 업로드합니다. AWS Lambda를 사용하여 모든 동적 콘텐츠를 처리합니다.
- B. 웹 애플리케이션을 AWS Elastic Beanstalk 환경에 배포합니다. 기능 테스트를 위해 URL 교환을 사용하여 여러 Elastic Beanstalk 환경 간에 전환합니다.
- C. Java 및 PHP로 구성된 Amazon EC2 인스턴스에 웹 애플리케이션을 배포합니다. Auto Scaling 그룹과 Application Load Balancer를 사용하여 웹 사이트의 가용성을 관리합니다.
- D. 웹 애플리케이션을 컨테이너화합니다. 웹 애플리케이션을 Amazon EC2 인스턴스에 배포합니다. AWS 로드 밸런서 컨트롤러를 사용하면 테스트용 새 사이트 기능이 포함된 컨테이너 간에 트래픽을 동적으로 라우팅할 수 있습니다.
A와 C는 기능 테스트를 허용하지 않
A. 정적 콘텐츠 호스팅에는 S3를 사용하고 동적 콘텐츠에는 Lambda를 사용하는 것이 좋
정적 컨텐츠에 대한 단순성을 제공하지만 Java 및 PHP 기반 웹 애플리케이션에 필요한 유연성과 동적 기능을 제공하지 않습
B. 최소한의 운영 오버헤드로 가용성이 높고 관리되는 솔루션을 제공합니다. 웹 애플리케이션을 EBS에 배포함으로써 인프라 및 플랫폼 관리가 추상화되어 배포와 확장이 용이해집니다. URL 교환을 사용하면 새로운 사이트 기능을 테스트하기 위한 다양한 환경을 생성할 수 있으며 가동 중지 시간 없이 이러한 환경 간에 트래픽을 라우팅할 수 있
#193⭐
한 회사가 Amazon EC2 인스턴스에서 배치 애플리케이션을 실행하고 있습니다. 애플리케이션은 여러 Amazon RDS 데이터베이스가 포함된 백엔드로 구성됩니다. 애플리케이션으로 인해 데이터베이스에서 많은 읽기가 발생하고 있습니다. 솔루션 설계자는 고가용성을 보장하면서 데이터베이스 읽기 수를 줄여야 합니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
- A. Amazon RDS 읽기 전용 복제본을 추가하세요.
- B. Redis용 Amazon ElastiCache를 사용합니다.
- C. Amazon Route 53 DNS 캐싱 사용
- D. Memcached용 Amazon ElastiCache를 사용하십시오
- A. Amazon RDS 읽기 전용 복제본을 추가하세요.
- B. Redis용 Amazon ElastiCache를 사용합니다.
- C. Amazon Route 53 DNS 캐싱 사용
- D. Memcached용 Amazon ElastiCache를 사용하십시오
A는 기본 데이터베이스에서 "데이터베이스 읽기 수를 줄이지만" 일반적으로 "데이터베이스 읽기 수"를 줄이지는 않습니다. 복제본에서만 이전과 정확히 동일한 수의 "데이터베이스 읽기"를 수행합니다.
B - 애플리케이션 변경이 필요하지만 "고가용성을 보장하면서 데이터베이스 읽기 횟수를 줄입
ElastiCache 특성은 Redis가 HA를 제공하지만
Memcached는 HA를 제공하지 않는다는 점
#194⭐
회사는 AWS에서 중요한 애플리케이션을 실행해야 합니다. 회사는 애플리케이션 데이터베이스로 Amazon EC2를 사용해야 합니다. 데이터베이스는 가용성이 높아야 하며 중단 이벤트가 발생할 경우 자동으로 장애 조치되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 동일한 AWS 리전의 서로 다른 가용 영역에서 각각 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. EC2 인스턴스를 클러스터로 구성합니다. 데이터베이스 복제를 설정합니다.
- B. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생할 경우 AWS CloudFormation을 사용하여 EC2 인스턴스 프로비저닝을 자동화합니다.
- C. 각각 다른 AWS 리전에서 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. 데이터베이스 복제를 설정합니다. 데이터베이스를 두 번째 리전으로 장애 조치합니다.
- D. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하는 경우 EC2 자동 복구를 사용하여 인스턴스를 복구합니다.
- A. 동일한 AWS 리전의 서로 다른 가용 영역에서 각각 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. EC2 인스턴스를 클러스터로 구성합니다. 데이터베이스 복제를 설정합니다.
- B. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생할 경우 AWS CloudFormation을 사용하여 EC2 인스턴스 프로비저닝을 자동화합니다.
- C. 각각 다른 AWS 리전에서 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. 데이터베이스 복제를 설정합니다. 데이터베이스를 두 번째 리전으로 장애 조치합니다.
- D. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하는 경우 EC2 자동 복구를 사용하여 인스턴스를 복구합니다.
A는 HA입니다. D는 DR
B와 D는 단일 인스턴스를 사용하고 오류가 발생할 경우 이전 AMI를 복원하는 것과 관련이 있습니다.
즉, HA A가 정확하고 서로 다른 AZ가 AWS의 HA 정의를 충족하며 "클러스터"가 자동 장애 조치를 처리해야 합니다. C에는 요구 사항을 충족하지 않는 수동 장애 조치가 포함
#195⭐
회사의 주문 시스템은 클라이언트의 요청을 Amazon EC2 인스턴스로 보냅니다. EC2 인스턴스는 주문을 처리한 다음 Amazon RDS의 데이터베이스에 주문을 저장합니다. 사용자들은 시스템에 오류가 발생하면 주문을 다시 처리해야 한다고 보고합니다. 회사는 시스템 중단이 발생할 경우 자동으로 주문을 처리할 수 있는 탄력적인 솔루션을 원합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Elastic Container Service(Amazon ECS) 작업을 대상으로 하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
- B. EC2 인스턴스를 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹으로 이동합니다. ALB 엔드포인트에 메시지를 보내도록 주문 시스템을 업데이트합니다.
- C. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지를 보내도록 주문 시스템을 구성합니다. 대기열의 메시지를 사용하도록 EC2 인스턴스를 구성합니다.
- D. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. AWS Lambda 함수를 생성하고 함수를 SNS 주제에 구독합니다. SNS 주제에 메시지를 보내도록 주문 시스템을 구성합니다. AWS Systems Manager Run Command를 사용하여 메시지를 처리하도록 EC2 인스턴스에 명령을 보냅니다.
- A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Elastic Container Service(Amazon ECS) 작업을 대상으로 하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
- B. EC2 인스턴스를 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹으로 이동합니다. ALB 엔드포인트에 메시지를 보내도록 주문 시스템을 업데이트합니다.
- C. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지를 보내도록 주문 시스템을 구성합니다. 대기열의 메시지를 사용하도록 EC2 인스턴스를 구성합니다.
- D. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. AWS Lambda 함수를 생성하고 함수를 SNS 주제에 구독합니다. SNS 주제에 메시지를 보내도록 주문 시스템을 구성합니다. AWS Systems Manager Run Command를 사용하여 메시지를 처리하도록 EC2 인스턴스에 명령을 보냅니다.
D. SNS 및 Lambda를 사용하면 알림 및 오케스트레이션 기능을 제공할 수 있지만 중단 시 자동 주문 처리에 필요한 메시지 대기열 및 소비는 제공되지 않
#196⭐
한 회사가 대규모 Amazon EC2 인스턴스에서 애플리케이션을 실행하고 있습니다. 애플리케이션은 Amazon DynamoDB 테이블의 항목을 읽고 씁니다. DynamoDB 테이블의 크기는 지속적으로 증가하지만 애플리케이션에는 지난 30일 동안의 데이터만 필요합니다. 회사에는 비용과 개발 노력을 최소화하는 솔루션이 필요합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포하십시오. 30일마다 CloudFormation 스택을 재배포하고 원본 스택을 삭제합니다.
- B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용하십시오. 테이블에 새 항목이 생성될 때 Amazon DynamoDB 스트림을 사용하여 타임스탬프를 저장하도록 모니터링 애플리케이션을 구성합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 30일보다 오래된 타임스탬프가 있는 항목을 삭제합니다.
- C. 테이블에 새 항목이 생성될 때 AWS Lambda 함수를 호출하도록 Amazon DynamoDB 스트림을 구성합니다. 테이블에서 30일이 지난 항목을 삭제하도록 Lambda 함수를 구성합니다.
- D. 테이블에 생성된 각 새 항목에 현재 타임스탬프에 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. 해당 속성을 TTL 속성으로 사용하도록 DynamoDB를 구성합니다.
- A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포하십시오. 30일마다 CloudFormation 스택을 재배포하고 원본 스택을 삭제합니다.
- B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용하십시오. 테이블에 새 항목이 생성될 때 Amazon DynamoDB 스트림을 사용하여 타임스탬프를 저장하도록 모니터링 애플리케이션을 구성합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 30일보다 오래된 타임스탬프가 있는 항목을 삭제합니다.
- C. 테이블에 새 항목이 생성될 때 AWS Lambda 함수를 호출하도록 Amazon DynamoDB 스트림을 구성합니다. 테이블에서 30일이 지난 항목을 삭제하도록 Lambda 함수를 구성합니다.
- D. 테이블에 생성된 각 새 항목에 현재 타임스탬프에 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. 해당 속성을 TTL 속성으로 사용하도록 DynamoDB를 구성합니다.
A와 B는 아무것도 해결하지 못합니다.
C와 D 사이에서 C는 Lambda 실행으로 인해 더 많은 비용이 필요
옵션 A에는 AWS CloudFormation을 사용하여 30일마다 솔루션을 재배포하는 것이 포함되지만, 이를 위해서는 상당한 개발 노력이 필요하고 애플리케이션 가동 중지 시간이 발생할 수 있습
옵션 B에는 EC2 인스턴스와 모니터링 애플리케이션을 사용하여 30일이 지난 항목을 삭제하는 것이 포함되지만 이를 위해서는 추가 인프라 및 유지 관리 노력이 필요합니다. 옵션 C에는 DynamoDB Streams 및 Lambda 함수를 사용하여 30일이 지난 항목을 삭제하는 작업이 포함되지만 이를 위해서는 추가 인프라 및 유지 관리 노력이 필요
#199⭐
한 텔레마케팅 회사가 AWS에서 고객 콜 센터 기능을 설계하고 있습니다. 회사에는 다중 화자 인식 기능을 제공하고 스크립트 파일을 생성하는 솔루션이 필요합니다. 회사는 비즈니스 패턴을 분석하기 위해 기록 파일을 쿼리하려고 합니다. 녹취록 파일은 감사 목적으로 7년 동안 보관해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 대본 파일 분석을 위해 기계 학습 모델을 사용합니다.
- B. 여러 화자를 인식하려면 Amazon Transcribe를 사용하십시오. 기록 파일 분석에는 Amazon Athena를 사용하십시오.
- C. 여러 화자를 인식하려면 Amazon Translate를 사용하십시오. Amazon Redshift에 기록 파일을 저장합니다. 성적 파일 분석을 위해 SQL 쿼리를 사용합니다.
- D. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 기록 파일 분석에는 Amazon Textract를 사용하십시오.
- A. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 대본 파일 분석을 위해 기계 학습 모델을 사용합니다.
- B. 여러 화자를 인식하려면 Amazon Transcribe를 사용하십시오. 기록 파일 분석에는 Amazon Athena를 사용하십시오.
- C. 여러 화자를 인식하려면 Amazon Translate를 사용하십시오. Amazon Redshift에 기록 파일을 저장합니다. 성적 파일 분석을 위해 SQL 쿼리를 사용합니다.
- D. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 기록 파일 분석에는 Amazon Textract를 사용하십시오.
Rekognition 및 Translate는 음성을 텍스트로 변환할 수 없으므로 해당 옵션 A, C 및 D가 사라졌습
Amazon Rekognition은 음성 언어를 텍스트로 변환하는 것이 아니라 이미지와 비디오를 분석하는 서비스
Amazon Translate는 음성 언어를 전사하는 것이 아니라 텍스트를 한 언어에서 다른 언어로 번역
Amazon Textract는 음성 언어를 전사하는 것이 아니라 문서와 이미지에서 텍스트와 데이터를 추출하는 서비스
#200
회사는 AWS에서 애플리케이션을 호스팅합니다. 회사는 Amazon Cognito를 사용하여 사용자를 관리합니다. 사용자가 애플리케이션에 로그인하면 애플리케이션은 Amazon API Gateway에서 호스팅되는 REST API를 사용하여 Amazon DynamoDB에서 필요한 데이터를 가져옵니다. 회사는 개발 노력을 줄이기 위해 REST API에 대한 액세스를 제어하는 AWS 관리형 솔루션을 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. 어떤 사용자가 요청했는지 확인하기 위해 API Gateway에서 권한 부여자가 되도록 AWS Lambda 함수를 구성합니다.
- B. 각 사용자에 대해 각 요청과 함께 전송되어야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
- C. 요청할 때마다 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자에게 적절한 액세스 권한이 있는지 확인하십시오.
- D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.
- A. 어떤 사용자가 요청했는지 확인하기 위해 API Gateway에서 권한 부여자가 되도록 AWS Lambda 함수를 구성합니다.
- B. 각 사용자에 대해 각 요청과 함께 전송되어야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
- C. 요청할 때마다 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자에게 적절한 액세스 권한이 있는지 확인하십시오.
- D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.