Cloud/AWS

SAA-C03 Examtopics 문제정리 (201~300)

westwith 2024. 3. 8. 21:52
728x90

#201⭐

한 회사에서 모바일 앱 사용자를 대상으로 하는 마케팅 커뮤니케이션 서비스를 개발하고 있습니다. 회사는 SMS(Short Message Service)를 통해 사용자에게 확인 메시지를 보내야 합니다. 사용자는 SMS 메시지에 응답할 수 있어야 합니다. 회사는 분석을 위해 응답을 1년 동안 저장해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon Connect 고객 응대 흐름을 생성하여 SMS 메시지를 보냅니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • B. Amazon Pinpoint 여정을 구축합니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림으로 이벤트를 보내도록 Amazon Pinpoint를 구성합니다.
  • C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) FIFO 주제를 생성합니다. 분석 및 보관을 위해 SNS 주제에 Amazon Kinesis 데이터 스트림을 구독합니다.
더보기
해설
  • A. Amazon Connect 고객 응대 흐름을 생성하여 SMS 메시지를 보냅니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • B. Amazon Pinpoint 여정을 구축합니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림으로 이벤트를 보내도록 Amazon Pinpoint를 구성합니다.
  • C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) FIFO 주제를 생성합니다. 분석 및 보관을 위해 SNS 주제에 Amazon Kinesis 데이터 스트림을 구독합니다.

마케팅 커뮤니케이션 = Amazon Pinpoint


#203⭐



한 금융회사의 고객이 문자 메시지를 보내 금융 자문가와의 약속을 요청합니다. Amazon EC2 인스턴스에서 실행되는 웹 애플리케이션은 약속 요청을 수락합니다. 문자 메시지는 웹 애플리케이션을 통해 Amazon Simple Queue Service(Amazon SQS) 대기열에 게시됩니다. 그러면 EC2 인스턴스에서 실행되는 또 다른 애플리케이션이 고객에게 회의 초대 및 회의 확인 이메일 메시지를 보냅니다. 예약이 성공적으로 완료되면 이 애플리케이션은 회의 정보를 Amazon DynamoDB 데이터베이스에 저장합니다.

회사가 확장됨에 따라 고객들은 회의 초대장이 도착하는 데 시간이 더 오래 걸린다고 보고합니다.

이 문제를 해결하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가합니다.
  • B. 약속 요청을 수락하는 웹 애플리케이션 앞에 Amazon API Gateway API를 추가합니다.
  • C. Amazon CloudFront 배포를 추가합니다. 약속 요청을 수락하는 웹 애플리케이션으로 원본을 설정합니다.
  • D. 회의 초대를 보내는 애플리케이션에 대한 Auto Scaling 그룹을 추가합니다. SQS 대기열의 깊이에 따라 조정되도록 Auto Scaling 그룹을 구성합니다.
더보기
해설
  • A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가합니다.
  • B. 약속 요청을 수락하는 웹 애플리케이션 앞에 Amazon API Gateway API를 추가합니다.
  • C. Amazon CloudFront 배포를 추가합니다. 약속 요청을 수락하는 웹 애플리케이션으로 원본을 설정합니다.
  • D. 회의 초대를 보내는 애플리케이션에 대한 Auto Scaling 그룹을 추가합니다. SQS 대기열의 깊이에 따라 조정되도록 Auto Scaling 그룹을 구성합니다.

A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가하면 DynamoDB의 읽기 성능이 향상되지만 회의 초대 지연 문제가 직접적으로 해결되지는 않


#204⭐




한 온라인 소매 회사는 5천만 명 이상의 활성 고객을 보유하고 있으며 매일 25,000건 이상의 주문을 받습니다. 회사는 고객의 구매 데이터를 수집하고 이 데이터를 Amazon S3에 저장합니다. 추가 고객 데이터는 Amazon RDS에 저장됩니다.

회사는 다양한 팀이 분석을 수행할 수 있도록 모든 데이터를 다양한 팀에서 사용할 수 있도록 하려고 합니다. 솔루션은 데이터에 대한 세분화된 권한을 관리하는 기능을 제공해야 하며 운영 오버헤드를 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 쓰십시오. RDS 액세스 제어를 사용하여 액세스를 제한합니다.
  • B. Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. AWS Glue 크롤러를 생성합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한합니다.
  • C. AWS Lake Formation을 사용하여 데이터 레이크를 생성합니다. Amazon RDS에 대한 AWS Glue JDBC 연결을 생성합니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한하세요.
  • D. Amazon Redshift 클러스터를 생성합니다. Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한합니다.
더보기

해설

  • A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 쓰십시오. RDS 액세스 제어를 사용하여 액세스를 제한합니다.
  • B. Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. AWS Glue 크롤러를 생성합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한합니다.
  • C. AWS Lake Formation을 사용하여 데이터 레이크를 생성합니다. Amazon RDS에 대한 AWS Glue JDBC 연결을 생성합니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한하세요.
  • D. Amazon Redshift 클러스터를 생성합니다. Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한합니다.

B. Lambda를 사용하고 쿼리를 위해 AWS Glue 및 Athena를 사용하여 RDS에서 S3로 데이터를 주기적으로 복사하면 세분화된 권한 관리가 제공되지 않으며 데이터 동기화 복잡성이 발생


#205⭐




회사는 온프레미스 데이터 센터에서 마케팅 웹사이트를 호스팅합니다. 웹사이트는 정적 문서로 구성되어 있으며 단일 서버에서 실행됩니다. 관리자는 웹사이트 콘텐츠를 자주 업데이트하지 않으며 SFTP 클라이언트를 사용하여 새 문서를 업로드합니다.

회사는 AWS에서 웹 사이트를 호스팅하고 Amazon CloudFront를 사용하기로 결정했습니다. 회사의 솔루션 아키텍트는 CloudFront 배포판을 생성합니다. 솔루션 설계자는 CloudFront 오리진 역할을 하는 웹 사이트 호스팅을 위해 가장 비용 효율적이고 복원력이 뛰어난 아키텍처를 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Lightsail을 사용하여 가상 서버를 생성하십시오. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하세요. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • C. 프라이빗 Amazon S3 버킷을 생성합니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)의 액세스를 허용합니다. AWS CLI를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
  • D. 퍼블릭 Amazon S3 버킷을 생성합니다. SFTP용 AWS 전송을 구성합니다. 웹사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
더보기
해설
  • A. Amazon Lightsail을 사용하여 가상 서버를 생성하십시오. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하세요. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • C. 프라이빗 Amazon S3 버킷을 생성합니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)의 액세스를 허용합니다. AWS CLI를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
  • D. 퍼블릭 Amazon S3 버킷을 생성합니다. SFTP용 AWS 전송을 구성합니다. 웹사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.

D. SFTP용 AWS 전송을 사용하면 SFTP 업로드가 가능하지만 AWS CLI를 사용하여 S3에 콘텐츠를 직접 업로드하는 것에 비해 추가 비용과 복잡성이 발생

 

질문에 따르면 회사는 Amazon Cloudfront를 사용하기로 결정했으며 이 답변에서는 CF를 사용하고 S3를 원본으로 설정하는 내용은 언급하지 않습


#206




한 회사에서 Amazon 머신 이미지(AMI)를 관리하려고 합니다. 회사는 현재 AMI가 생성된 동일한 AWS 리전에 AMI를 복사하고 있습니다. 회사는 회사 계정 내에서 Amazon EC2 CreateImage API 작업이 호출될 때마다 AWS API 호출을 캡처하고 알림을 보내는 애플리케이션을 설계해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
  • B. 업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple 알림 서비스(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. API 호출이 감지되면 Amazon Athena를 사용하여 새 테이블을 생성하고 CreateImage에 대해 쿼리합니다.
  • C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon SNS(Amazon SNS) 주제로 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 AWS CloudTrail 로그의 대상으로 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple 알림 서비스(Amazon SNS) 주제에 알림을 보내는 AWS Lambda 함수를 생성합니다
더보기
해설
  • A. AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
  • B. 업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple 알림 서비스(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. API 호출이 감지되면 Amazon Athena를 사용하여 새 테이블을 생성하고 CreateImage에 대해 쿼리합니다.
  • C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon SNS(Amazon SNS) 주제로 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 AWS CloudTrail 로그의 대상으로 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple 알림 서비스(Amazon SNS) 주제에 알림을 보내는 AWS Lambda 함수를 생성합니다

#207⭐



회사는 사용자 요청을 수집하고 요청 유형에 따라 처리를 위해 적절한 마이크로서비스로 요청을 전달하는 데 사용되는 비동기 API를 소유하고 있습니다. 이 회사는 Amazon API Gateway를 사용하여 API 프런트 엔드를 배포하고 Amazon DynamoDB를 호출하여 사용자 요청을 처리 마이크로서비스에 전달하기 전에 저장하는 AWS Lambda 함수를 사용하고 있습니다.

회사는 예산이 허용하는 한 많은 DynamoDB 처리량을 프로비저닝했지만 여전히 가용성 문제를 겪고 있으며 사용자 요청이 손실되고 있습니다.

기존 사용자에게 영향을 주지 않고 이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 서버 측 조절 한도를 사용하여 API 게이트웨이에 조절을 추가합니다.
  • B. DynamoDB Accelerator(DAX)와 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
  • C. 사용자 요청이 있는 테이블에 대해 DynamoDB에 보조 인덱스를 생성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다
더보기
해설
  • A. 서버 측 조절 한도를 사용하여 API 게이트웨이에 조절을 추가합니다.
  • B. DynamoDB Accelerator(DAX)와 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
  • C. 사용자 요청이 있는 테이블에 대해 DynamoDB에 보조 인덱스를 생성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다

A는 "기존 사용자에게 영향을 주지 않고" 요구 사항을 충족하지 않습니다.

B는 쓰기에 도움이 되지 않습니다(DAX 캐시 읽기)

C는 쓰기에 도움이 되지 않습니다(인덱스는 읽기 성능만 향상시킬 수 있음).

D는 프런트 엔드에서 쓰기를 분리

 

여기서 핵심은 "사용자 요청 손실"입니다. sqs 메시지는 처리될 때까지 대기열에 유지


#208⭐



회사는 Amazon EC2 인스턴스에서 Amazon S3 버킷으로 데이터를 이동해야 합니다. 회사는 공개 인터넷 경로를 통해 API 호출과 데이터가 라우팅되지 않도록 해야 합니다. EC2 인스턴스만 S3 버킷에 데이터를 업로드하는 데 액세스할 수 있습니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. EC2 인스턴스가 있는 서브넷에 Amazon S3용 인터페이스 VPC 엔드포인트를 생성합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • B. EC2 인스턴스가 있는 가용 영역에 Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • D. AWS에서 제공하고 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
더보기
해설
  • A. EC2 인스턴스가 있는 서브넷에 Amazon S3용 인터페이스 VPC 엔드포인트를 생성합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • B. EC2 인스턴스가 있는 가용 영역에 Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • D. AWS에서 제공하고 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.

질문은 "공용 인터넷을 통해 전송되는" 데이터가 없음을 묻지 않고 "공용 인터넷 경로(!)를 통해 라우팅"되는 데이터가 없음을 묻기 때문에 B는 틀렸습니다.

게이트웨이 VPC 엔드포인트는 퍼블릭 IP를 사용하므로 AWS가 트래픽을 내부적으로 라우팅하더라도 VPC 관점에서 트래픽은 "퍼블릭 인터넷 경로"에 도달하게 됩니다.

게다가 '가용성 영역'에 게이트웨이 VPC 엔드포인트를 생성하지 않


#211⭐


회사는 여러 프로덕션 애플리케이션을 호스팅합니다. 애플리케이션 중 하나는 여러 AWS 리전에 걸쳐 있는 Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service(Amazon SNS) 및 Amazon Simple Queue Service(Amazon SQS)의 리소스로 구성됩니다. 모든 회사 리소스에는 "application"이라는 태그 이름과 각 애플리케이션에 해당하는 값이 태그로 지정됩니다. 솔루션 설계자는 태그가 지정된 모든 구성 요소를 식별하기 위한 가장 빠른 솔루션을 제공해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성하십시오.
  • B. AWS CLI를 사용하여 모든 지역의 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
  • C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소에 대해 보고합니다.
  • D. AWS 리소스 그룹 태그 편집기로 쿼리를 실행하여 애플리케이션 태그를 사용하여 전 세계적으로 리소스에 대해 보고합니다
더보기
해설
  • A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성하십시오.
  • B. AWS CLI를 사용하여 모든 지역의 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
  • C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소에 대해 보고합니다.
  • D. AWS 리소스 그룹 태그 편집기로 쿼리를 실행하여 애플리케이션 태그를 사용하여 전 세계적으로 리소스에 대해 보고합니다

CloudTrail은 주로 API 활동 캡처 및 로깅에 중점을 두기 때문에 A는 가장 빠른 솔루션이 아닙니다

D는 태그를 기반으로 리소스를 관리하고 구성하기 위해 특별히 설계된 Resource Groups Tag Editor를 활용하므로 가장 빠른 솔루션


#212



회사는 다른 팀이 액세스할 수 있도록 하루에 한 번씩 데이터베이스를 Amazon S3로 내보내야 합니다. 내보낸 객체 크기는 2GB에서 5GB 사이입니다. 데이터에 대한 S3 액세스 패턴은 가변적이며 빠르게 변화합니다. 데이터는 즉시 사용할 수 있어야 하며 최대 3개월 동안 액세스할 수 있어야 합니다. 회사에는 검색 시간을 늘리지 않는 가장 비용 효율적인 솔루션이 필요합니다.

이러한 요구 사항을 충족하려면 회사에서 어떤 S3 스토리지 클래스를 사용해야 합니까?

  • A. S3 지능형 계층화
  • B. S3 Glacier 즉시 검색
  • C. S3 표준
  • D. S3 Standard-Infrequent Access(S3 스탠다드-IA)
더보기
해설
  • A. S3 지능형 계층화
  • B. S3 Glacier 즉시 검색
  • C. S3 표준
  • D. S3 Standard-Infrequent Access(S3 스탠다드-IA)

#213⭐



한 회사에서 새로운 모바일 앱을 개발 중입니다. 회사는 크로스 사이트 스크립팅이나 SQL 주입과 같은 일반적인 애플리케이션 수준 공격으로부터 ALB(Application Load Balancer)를 보호하기 위해 적절한 트래픽 필터링을 구현해야 합니다. 회사는 최소한의 인프라와 운영 직원을 보유하고 있습니다. 회사는 AWS 환경에 대한 서버 관리, 업데이트 및 보안에 대한 책임을 줄여야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. AWS WAF 규칙을 구성하고 이를 ALB와 연결합니다.
  • B. 공개 호스팅이 활성화된 Amazon S3를 사용하여 애플리케이션을 배포합니다.
  • C. AWS Shield Advanced를 배포하고 ALB를 보호된 리소스로 추가합니다.
  • D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 전달하는 새 ALB를 생성한 다음 트래픽을 현재 ALB로 전달합니다.
더보기
해설
  • A. AWS WAF 규칙을 구성하고 이를 ALB와 연결합니다.
  • B. 공개 호스팅이 활성화된 Amazon S3를 사용하여 애플리케이션을 배포합니다.
  • C. AWS Shield Advanced를 배포하고 ALB를 보호된 리소스로 추가합니다.
  • D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 전달하는 새 ALB를 생성한 다음 트래픽을 현재 ALB로 전달합니다.

옵션 C는 XSS나 SQL 주입과 같은 애플리케이션 수준 공격보다는 DDoS 보호에 중점을 둡

AWS WAF는 사전 구성된 규칙 세트를 제공하고 사용자 지정 규칙 생성을 허용하여 XSS 및 SQL 주입과 같은 일반적인 취약성으로부터 보호


#214⭐



한 회사의 보고 시스템은 매일 수백 개의 .csv 파일을 Amazon S3 버킷으로 전송합니다. 회사는 이러한 파일을 Apache Parquet 형식으로 변환하고 변환된 데이터 버킷에 파일을 저장해야 합니다.

최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
  • A. Apache Spark가 설치된 Amazon EMR 클러스터를 생성하십시오. 데이터를 변환하는 Spark 애플리케이션을 작성합니다. EMRFS(EMR 파일 시스템)를 사용하여 변환된 데이터 버킷에 파일을 씁니다.
  • B. AWS Glue 크롤러를 생성하여 데이터를 검색합니다. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다.
  • C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 생성하여 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 작업 유형으로 어레이 작업을 지정합니다.
  • D. 데이터를 변환하고 변환된 데이터 버킷으로 데이터를 출력하는 AWS Lambda 함수를 생성합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. 이벤트 알림의 대상으로 Lambda 함수를 지정합니다.
더보기
해설
  • A. Apache Spark가 설치된 Amazon EMR 클러스터를 생성하십시오. 데이터를 변환하는 Spark 애플리케이션을 작성합니다. EMRFS(EMR 파일 시스템)를 사용하여 변환된 데이터 버킷에 파일을 씁니다.
  • B. AWS Glue 크롤러를 생성하여 데이터를 검색합니다. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다.
  • C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 생성하여 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 작업 유형으로 어레이 작업을 지정합니다.
  • D. 데이터를 변환하고 변환된 데이터 버킷으로 데이터를 출력하는 AWS Lambda 함수를 생성합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. 이벤트 알림의 대상으로 Lambda 함수를 지정합니다.

AWS Glue는 완전 관리형 CSV에서 Parquet로의 변환 작업을 허용

옵션 A에는 데이터를 변환하기 위한 Spark 애플리케이션 작성이 포함되므로 더 많은 개발 노력이 필요


#215



한 회사의 데이터 센터에 있는 NAS(Network Attached Storage)에 700TB의 백업 데이터가 저장되어 있습니다. 이 백업 데이터는 규제 요청이 자주 발생하지 않는 경우에도 액세스할 수 있어야 하며 7년 동안 보관해야 합니다. 회사는 이 백업 데이터를 데이터 센터에서 AWS로 마이그레이션하기로 결정했습니다. 마이그레이션은 1개월 이내에 완료되어야 합니다. 회사는 데이터 전송에 사용할 수 있는 공용 인터넷 연결에 500Mbps의 전용 대역폭을 보유하고 있습니다.

솔루션 설계자는 가장 저렴한 비용으로 데이터를 마이그레이션하고 저장하기 위해 무엇을 해야 합니까?

  • A. 데이터 전송을 위해 AWS Snowball 디바이스를 주문하십시오. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • B. 데이터 센터와 Amazon VPC 사이에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
  • C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다
더보기
해설
  • A. 데이터 전송을 위해 AWS Snowball 디바이스를 주문하십시오. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • B. 데이터 센터와 Amazon VPC 사이에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
  • C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다

#217⭐



한 회사는 Application Load Balancer 뒤에서 Amazon EC2 인스턴스에서 글로벌 웹 애플리케이션을 실행합니다. 애플리케이션은 Amazon Aurora에 데이터를 저장합니다. 회사는 재해 복구 솔루션을 만들어야 하며 최대 30분의 가동 중지 시간과 잠재적인 데이터 손실을 허용할 수 있습니다. 솔루션은 기본 인프라가 정상일 때 로드를 처리할 필요가 없습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 필요한 인프라 요소를 갖춘 애플리케이션을 배포합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 AWS 리전에 Aurora 복제본을 생성합니다.
  • B. 두 번째 AWS 지역에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 두 번째 리전에 Aurora 복제본을 생성합니다.
  • C. 두 번째 AWS 지역에 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 생성합니다.
  • D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 생성합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 리전에 Aurora 두 번째 기본 인스턴스를 생성합니다
더보기
해설
  • A. 필요한 인프라 요소를 갖춘 애플리케이션을 배포합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 AWS 리전에 Aurora 복제본을 생성합니다.
  • B. 두 번째 AWS 지역에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 두 번째 리전에 Aurora 복제본을 생성합니다.
  • C. 두 번째 AWS 지역에 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 생성합니다.
  • D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 생성합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 리전에 Aurora 두 번째 기본 인스턴스를 생성합니다

A 아님 - 인프라 요소에 대한 두 번째 지역을 언급하지 않습니다. 또한 실제로 "두 번째 AWS 지역에서 Aurora 복제본을 생성"할 수 없습니다. Aurora 글로벌 데이터베이스(언급되지 않음)를 사용하지 않는 한 복제본은 동일한 지역에 있어야 합니다. Not B - 트래픽의 절반을 DR 지역 Not C로 보냅니다. 이는 기본 인스턴스가 정상인 경우에도 DR 인스턴스로 트래픽을 보낼 수 있습니다. D - "Aurora 두 번째 기본 인스턴스"라는 표현은 약간 이상하지만 여전히 "기본 인스턴스"는 다른 지역에서 필요합니다. 여전히 데이터베이스 간 복제(예: binlog)를 설정하거나 장애 조치 전에 스냅샷을 복원해야 하지만 일반적으로 이 옵션은 30분 RTO/RPO 요구 사항을 충족할 수 있습

 

A가 맞습니다. - "기본 인프라가 정상일 때 솔루션은 로드를 처리할 필요가 없습니다." => Route 53 Active-Passive를 사용해야 합니다. ==> Exclude B, C - D는 "두 번째 지역에 Aurora 두 번째 기본 인스턴스를 생성합니다." 때문에 잘못된 것이므로 Aurora 복제본을 충분히 생성해야 합니

https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/dns-failover-types.html


#218⭐



회사에는 탄력적 IP 주소가 있는 퍼블릭 서브넷의 Amazon EC2 인스턴스에서 실행되는 웹 서버가 있습니다. 기본 보안 그룹은 EC2 인스턴스에 할당됩니다. 모든 트래픽을 차단하도록 기본 네트워크 ACL이 수정되었습니다. 솔루션 설계자는 포트 443을 통해 어디에서나 웹 서버에 액세스할 수 있도록 해야 합니다.

이 작업을 수행하려면 어떤 단계를 조합해야 합니까? (2개를 선택하세요.)

  • A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • E. 소스 0.0.0.0/0에서 인바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0으로 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다.
더보기
해설
  • A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • E. 소스 0.0.0.0/0에서 인바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0으로 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다.

E는 아웃바운드 트래픽과 포트를 명시적으로 포함하는 유일한 옵션

 

ACL은 상태 비저장입니다. 인바운드 및 아웃바운드 규칙을 모두 정의해야 합


#219



회사의 애플리케이션에 성능 문제가 있습니다. 애플리케이션은 상태 저장형이며 Amazon EC2 인스턴스에서 인 메모리 작업을 완료해야 합니다. 이 회사는 AWS CloudFormation을 사용하여 인프라를 배포하고 M5 EC2 인스턴스 제품군을 사용했습니다. 트래픽이 증가함에 따라 애플리케이션 성능이 저하되었습니다. 사용자가 애플리케이션에 액세스하려고 하면 지연이 발생한다고 보고됩니다.

어떤 솔루션이 이러한 문제를 운영상 가장 효율적인 방식으로 해결할 수 있습니까?

  • A. EC2 인스턴스를 Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 교체합니다. AWS Management Console을 사용하여 변경합니다.
  • B. Auto Scaling 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정합니다. 증가가 필요할 경우 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
  • C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. Amazon CloudWatch에 내장된 EC2 메모리 지표를 사용하여 향후 용량 계획을 위한 애플리케이션 성능을 추적하세요.
  • D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 시간 지표를 생성합니다
더보기
해설
  • A. EC2 인스턴스를 Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 교체합니다. AWS Management Console을 사용하여 변경합니다.
  • B. Auto Scaling 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정합니다. 증가가 필요할 경우 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
  • C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. Amazon CloudWatch에 내장된 EC2 메모리 지표를 사용하여 향후 용량 계획을 위한 애플리케이션 성능을 추적하세요.
  • D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 시간 지표를 생성합니다

#222⭐



회사에서 회사의 AWS 계정에서 작업을 수행하기 위해 외부 공급업체를 고용했습니다. 공급업체는 공급업체가 소유한 AWS 계정에 호스팅된 자동화 도구를 사용합니다. 공급업체에는 회사의 AWS 계정에 대한 IAM 액세스 권한이 없습니다.

솔루션 설계자는 공급업체에 이러한 액세스 권한을 어떻게 부여해야 합니까?

  • A. 공급업체의 IAM 역할에 대한 액세스 권한을 위임하려면 회사 계정에 IAM 역할을 생성하세요. 공급업체에 필요한 권한에 대한 역할에 적절한 IAM 정책을 연결합니다.
  • B. 회사 계정에 암호 복잡성 요구 사항을 충족하는 암호를 사용하여 IAM 사용자를 생성합니다. 공급업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 연결합니다.
  • C. 회사 계정에 IAM 그룹을 생성합니다. 공급업체 계정의 도구 IAM 사용자를 그룹에 추가합니다. 공급업체에 필요한 권한에 대해 적절한 IAM 정책을 그룹에 연결합니다.
  • D. IAM 콘솔에서 공급자 유형으로 "AWS 계정"을 선택하여 새 ID 공급자를 생성합니다. 공급업체의 AWS 계정 ID와 사용자 이름을 제공합니다. 공급업체에 필요한 권한을 위해 적절한 IAM 정책을 새 공급자에 연결합니다
더보기
해설
  • A. 공급업체의 IAM 역할에 대한 액세스 권한을 위임하려면 회사 계정에 IAM 역할을 생성하세요. 공급업체에 필요한 권한에 대한 역할에 적절한 IAM 정책을 연결합니다.
  • B. 회사 계정에 암호 복잡성 요구 사항을 충족하는 암호를 사용하여 IAM 사용자를 생성합니다. 공급업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 연결합니다.
  • C. 회사 계정에 IAM 그룹을 생성합니다. 공급업체 계정의 도구 IAM 사용자를 그룹에 추가합니다. 공급업체에 필요한 권한에 대해 적절한 IAM 정책을 그룹에 연결합니다.
  • D. IAM 콘솔에서 공급자 유형으로 "AWS 계정"을 선택하여 새 ID 공급자를 생성합니다. 공급업체의 AWS 계정 ID와 사용자 이름을 제공합니다. 공급업체에 필요한 권한을 위해 적절한 IAM 정책을 새 공급자에 연결합니다.

B는 정답이 아닙니다. 암호를 사용하여 IAM 사용자를 생성하려면 공급업체와 자격 증명을 공유해야 하지만 이는 보안상의 이유로 권장되지 않

 

IAM 역할을 생성하고 공급업체의 IAM 역할에 대한 액세스 권한을 위임함으로써 계정 간의 신뢰 관계를 구축할 수 있습니다. 

적절한 IAM 정책을 역할에 연결하면 공급업체가 작업을 수행하는 도구에 대해 요구하는 정확한 권한을 정의할 수 있습니다. 이를 통해 공급업체는 회사 계정에 대한 직접적인 IAM 액세스 권한을 부여하지 않고도 필요한 액세스 권한을 갖게 됩


#224⭐


한 회사는 최근 단일 AWS 리전의 Amazon EC2 인스턴스에 애플리케이션을 다시 호스팅하여 웹 애플리케이션을 AWS로 마이그레이션했습니다. 회사는 가용성이 높고 내결함성을 갖도록 애플리케이션 아키텍처를 재설계하려고 합니다. 트래픽은 실행 중인 모든 EC2 인스턴스에 무작위로 도달해야 합니다.

이러한 요구 사항을 충족하기 위해 회사는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Route 53 장애 조치 라우팅 정책을 생성하십시오.
  • B. Amazon Route 53 가중치 기반 라우팅 정책을 생성합니다.
  • C. Amazon Route 53 다중 응답 라우팅 정책을 생성합니다.
  • D. 3개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 두 개의 인스턴스가 있고 다른 가용 영역에 하나의 인스턴스가 있습니다.
  • E. 4개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 2개의 인스턴스가 있고 다른 가용 영역에 2개의 인스턴스가 있습니다
더보기
해설
  • A. Amazon Route 53 장애 조치 라우팅 정책을 생성하십시오.
  • B. Amazon Route 53 가중치 기반 라우팅 정책을 생성합니다.
  • C. Amazon Route 53 다중 응답 라우팅 정책을 생성합니다.
  • D. 3개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 두 개의 인스턴스가 있고 다른 가용 영역에 하나의 인스턴스가 있습니다.
  • E. 4개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 2개의 인스턴스가 있고 다른 가용 영역에 2개의 인스턴스가 있습니다.

C. Route 53의 다중 응답 라우팅 정책을 사용하면 DNS 레코드에 대해 여러 값을 구성할 수 있으며 Route 53은 여러 임의 값으로 DNS 쿼리에 응답합니다. 이를 통해 사용 가능한 EC2 인스턴스 간에 트래픽을 무작위로 배포

 

. 장애 조치 라우팅은 기본 리소스나 위치를 사용할 수 없는 경우에만 백업 리소스나 보조 위치로 트래픽을 전달하도록 설계되었


#226


한 회사는 Amazon EC2 인스턴스에서 실행되는 RESTful 웹 서비스 애플리케이션을 사용하여 수천 개의 원격 장치에서 데이터를 수집합니다. EC2 인스턴스는 원시 데이터를 수신하고, 원시 데이터를 변환하고, 모든 데이터를 Amazon S3 버킷에 저장합니다. 원격 장치의 수는 곧 수백만 개로 늘어날 것입니다. 회사에는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.

이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. AWS Glue를 사용하여 Amazon S3의 원시 데이터를 처리합니다.
  • B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
  • C. 증가하는 수신 데이터 양을 수용하기 위해 더 많은 EC2 인스턴스를 추가합니다.
  • D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
  • E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터 스트림을 소스로 사용하여 Amazon S3에 데이터를 전송하도록 Amazon Kinesis Data Firehose를 구성합니다.
더보기
해설
  • A. AWS Glue를 사용하여 Amazon S3의 원시 데이터를 처리합니다.
  • B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
  • C. 증가하는 수신 데이터 양을 수용하기 위해 더 많은 EC2 인스턴스를 추가합니다.
  • D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
  • E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터 스트림을 소스로 사용하여 Amazon S3에 데이터를 전송하도록 Amazon Kinesis Data Firehose를 구성합니다.

A. 데이터의 스키마를 자동으로 검색하고 이를 변환하기 위한 ETL 코드를 생성합니다. E. API 게이트웨이는 RESTful 웹 서비스를 통해 원격 장치로부터 원시 데이터를 수신하는 데 사용할 수 있습니다. 들어오는 요청을 처리하기 위해 확장 가능하고 관리되는 인프라를 제공합니다. 그런 다음 확장성과 내구성이 뛰어난 실시간 데이터 스트리밍 서비스인 Amazon Kinesis 데이터 스트림으로 데이터를 전송할 수 있습니다. 여기에서 데이터 스트림을 소스로 사용하고 변환된 데이터를 Amazon S3에 전달하도록 Amazon Kinesis Data Firehose를 구성할 수 있습니다. 이러한 서비스 조합을 통해 운영 오버헤드를 최소화하면서 데이터를 원활하게 수집하고 처리할 수 있습니다. B. 확장 가능한 데이터 처리 및 저장에 대한 요구를 직접적으로 다루지는 않습니다. DNS를 관리하고 트래픽을 다른 엔드포인트로 라우팅하는 데 중점을 둡니다. C. EC2를 더 추가하면 인스턴스 관리 및 확장 측면에서 운영 오버헤드가 증가할 수 있습니다. D. 데이터 처리에 SQS와 EC2를 사용하면 더 복잡해지고 운영 오버헤드가 발생


#227


회사는 AWS CloudTrail 로그를 3년 동안 보관해야 합니다. 회사는 상위 계정의 AWS Organizations를 사용하여 일련의 AWS 계정에 걸쳐 CloudTrail을 시행하고 있습니다. CloudTrail 대상 S3 버킷은 S3 버전 관리가 활성화된 상태로 구성됩니다. 3년 후에 현재 객체를 삭제하는 S3 수명 주기 정책이 마련되어 있습니다.

S3 버킷을 사용한 지 4년이 지난 후 S3 버킷 지표를 보면 객체 수가 계속해서 증가한 것으로 나타났습니다. 그러나 S3 버킷으로 전달되는 새로운 CloudTrail 로그 수는 일관되게 유지되었습니다.

가장 비용 효과적인 방식으로 3년이 넘은 객체를 삭제하는 솔루션은 무엇입니까?

  • A. 3년 후에 객체가 만료되도록 조직의 중앙 집중식 CloudTrail 추적을 구성합니다.
  • B. 현재 버전뿐만 아니라 이전 버전도 삭제하도록 S3 수명 주기 정책을 구성합니다.
  • C. Amazon S3에서 3년이 넘은 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
  • D. S3 버킷에 전달되는 모든 객체의 소유자로 상위 계정을 구성합니다.
더보기
해설
  • A. 3년 후에 객체가 만료되도록 조직의 중앙 집중식 CloudTrail 추적을 구성합니다.
  • B. 현재 버전뿐만 아니라 이전 버전도 삭제하도록 S3 수명 주기 정책을 구성합니다.
  • C. Amazon S3에서 3년이 넘은 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
  • D. S3 버킷에 전달되는 모든 객체의 소유자로 상위 계정을 구성합니다.

#231



애플리케이션은 VPC A에 탄력적 IP 주소가 있는 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 VPC B의 데이터베이스에 액세스해야 합니다. 두 VPC 모두 동일한 AWS 계정에 있습니다.

필요한 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?

  • A. VPC A에 있는 애플리케이션 서버의 퍼블릭 IP 주소에서 들어오는 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 생성합니다.
  • B. VPC A와 VPC B 사이에 VPC 피어링 연결을 구성합니다.
  • C. DB 인스턴스에 공개적으로 액세스할 수 있도록 합니다. DB 인스턴스에 퍼블릭 IP 주소를 할당합니다.
  • D. 탄력적 IP 주소가 있는 EC2 인스턴스를 VPC B로 시작합니다. 새 EC2 인스턴스를 통해 모든 요청을 프록시합니다.
더보기
해설
  • A. VPC A에 있는 애플리케이션 서버의 퍼블릭 IP 주소에서 들어오는 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 생성합니다.
  • B. VPC A와 VPC B 사이에 VPC 피어링 연결을 구성합니다.
  • C. DB 인스턴스에 공개적으로 액세스할 수 있도록 합니다. DB 인스턴스에 퍼블릭 IP 주소를 할당합니다.
  • D. 탄력적 IP 주소가 있는 EC2 인스턴스를 VPC B로 시작합니다. 새 EC2 인스턴스를 통해 모든 요청을 프록시합니다.

옵션 A는 공용 IP 주소로부터의 인바운드 트래픽을 허용하여 데이터베이스를 공용 인터넷에 노출


#232


한 회사가 Amazon EC2 인스턴스에서 고객을 위해 데모 환경을 운영하고 있습니다. 
각 환경은 자체 VPC에 격리되어 있습니다. 
환경에 대한 RDP 또는 SSH 액세스가 설정되면 회사 운영 팀에 알려야 합니다.

  • A. RDP 또는 SSH 액세스가 감지되면 AWS 시스템 관리자 OpsItems를 생성하도록 Amazon CloudWatch Application Insights를 구성합니다.
  • B. AmazonSSMManagedInstanceCore 정책이 연결된 IAM 역할이 있는 IAM 인스턴스 프로필로 EC2 인스턴스를 구성합니다.
  • C. Amazon CloudWatch Logs에 VPC 흐름 로그를 게시합니다. 필수 지표 필터를 생성합니다. 경보가 ALARM 상태일 때 알림 작업이 포함된 Amazon CloudWatch 지표 경보를 생성합니다.
  • D. EC2 인스턴스 상태 변경 알림 유형의 이벤트를 수신하도록 Amazon EventBridge 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 대상으로 구성합니다. 운영팀의 주제를 구독하세요.
더보기
해설
  • A. RDP 또는 SSH 액세스가 감지되면 AWS 시스템 관리자 OpsItems를 생성하도록 Amazon CloudWatch Application Insights를 구성합니다.
  • B. AmazonSSMManagedInstanceCore 정책이 연결된 IAM 역할이 있는 IAM 인스턴스 프로필로 EC2 인스턴스를 구성합니다.
  • C. Amazon CloudWatch Logs에 VPC 흐름 로그를 게시합니다. 필수 지표 필터를 생성합니다. 경보가 ALARM 상태일 때 알림 작업이 포함된 Amazon CloudWatch 지표 경보를 생성합니다.
  • D. EC2 인스턴스 상태 변경 알림 유형의 이벤트를 수신하도록 Amazon EventBridge 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 대상으로 구성합니다. 운영팀의 주제를 구독하세요.

CloudWatch Application Insights는 RDP 또는 SSH 액세스를 감지하도록 설계되지 않았기 때문에 옵션 A는 올바르지 않

 

CloudWatch Logs에 VPC 흐름 로그를 게시하고 지표 필터를 생성하여 RDP 또는 SSH 액세스를 감지함으로써 운영 팀은 경보가 트리거될 때 알리도록 CloudWatch 지표 경보를 구성할 수 있습


#235



한 회사가 온프레미스 Oracle 데이터베이스를 Amazon Aurora PostgreSQL로 이전하고 있습니다. 데이터베이스에는 동일한 테이블에 쓰는 여러 애플리케이션이 있습니다. 애플리케이션은 한 달 간격으로 하나씩 마이그레이션해야 합니다. 경영진은 데이터베이스의 읽기 및 쓰기 횟수가 많다는 우려를 표명했습니다. 마이그레이션하는 동안 두 데이터베이스 모두에서 데이터가 동기화 상태로 유지되어야 합니다.

솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • B. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • C. 메모리 최적화 복제 인스턴스를 사용하는 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 변경 데이터 캡처(CDC) 복제 작업 및 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • D. 컴퓨팅 최적화 복제 인스턴스를 사용하여 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 CDC(변경 데이터 캡처) 복제 작업 및 테이블 매핑을 생성하여 가장 큰 테이블을 선택합니다.
더보기
해설
  • A. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • B. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • C. 메모리 최적화 복제 인스턴스를 사용하는 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 변경 데이터 캡처(CDC) 복제 작업 및 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • D. 컴퓨팅 최적화 복제 인스턴스를 사용하여 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 CDC(변경 데이터 캡처) 복제 작업 및 테이블 매핑을 생성하여 가장 큰 테이블을 선택합니다.

Oracle -> PostgreSQL, SCT가 필요하므로 A와 B는 종료됩니다. D는 "가장 큰 테이블"만 매핑하지만 모든 테이블이 필요합


#239



솔루션 설계자는 회사의 애플리케이션을 위한 새로운 마이크로서비스를 설계해야 합니다. 클라이언트는 마이크로서비스에 도달하기 위해 HTTPS 엔드포인트를 호출할 수 있어야 합니다. 또한 마이크로서비스는 AWS Identity and Access Management(IAM)를 사용하여 호출을 인증해야 합니다. 솔루션 아키텍트는 Go 1.x로 작성된 단일 AWS Lambda 함수를 사용하여 이 마이크로서비스에 대한 로직을 작성합니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 기능을 배포합니까?


  • A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.
  • B. 함수에 대한 Lambda 함수 URL을 생성합니다. 인증 유형으로 AWS_IAM을 지정합니다.
  • C. Amazon CloudFront 배포판을 생성합니다. Lambda@Edge에 함수를 배포합니다. IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.
  • D. Amazon CloudFront 배포판을 생성합니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.
더보기
해설
  • A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.
  • B. 함수에 대한 Lambda 함수 URL을 생성합니다. 인증 유형으로 AWS_IAM을 지정합니다.
  • C. Amazon CloudFront 배포판을 생성합니다. Lambda@Edge에 함수를 배포합니다. IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.
  • D. Amazon CloudFront 배포판을 생성합니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.

A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다. 이 옵션은 API 게이트웨이를 사용하여 HTTPS 엔드포인트를 처리할 수 있고 IAM을 사용하여 마이크로서비스에 대한 호출을 인증할 수 있으므로 운영상 가장 효율적입니다. API 게이트웨이는 또한 마이크로서비스에 유용할 수 있는 캐싱, 제한, 모니터링과 같은 다양한 추가 기능을 제공합니다.

 

나는 원래 B에 투표했지만 이 기사를 읽은 후에는 A가 틀린 것인지 아니면 단지 잘못된 표현인지 잘 모르겠습니다. A가 실제로 "Lambda 함수를 사용하도록 [인증] 메서드를 구성하세요"라고 말한 경우 이는 B보다 훨씬 더 논리적이지만 의도적인 것일 수 있


#243


의학 연구소에서는 새로운 연구와 관련된 데이터를 생성합니다. 연구소에서는 온프레미스 파일 기반 애플리케이션을 위해 전국의 진료소에서 대기 시간을 최소화하면서 데이터를 사용할 수 있도록 하려고 합니다. 데이터 파일은 각 클리닉에 대해 읽기 전용 권한이 있는 Amazon S3 버킷에 저장됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. 각 병원의 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 가상 머신(VM)으로 배포합니다.
  • B. 처리를 위해 AWS DataSync를 사용하여 파일을 각 병원의 온프레미스 애플리케이션으로 마이그레이션합니다.
  • C. AWS Storage Gateway 볼륨 게이트웨이를 각 병원의 온프레미스에 가상 머신(VM)으로 배포합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 각 진료소의 온프레미스 서버에 연결합니다.
더보기
해설
  • A. 각 병원의 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 가상 머신(VM)으로 배포합니다.
  • B. 처리를 위해 AWS DataSync를 사용하여 파일을 각 병원의 온프레미스 애플리케이션으로 마이그레이션합니다.
  • C. AWS Storage Gateway 볼륨 게이트웨이를 각 병원의 온프레미스에 가상 머신(VM)으로 배포합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 각 진료소의 온프레미스 서버에 연결합니다.

A: 여기서 필요한 작업을 정확히 수행합니다. B: S3에서 파일을 이동하는 "마이그레이션"은 의미가 없


#244



회사는 단일 Amazon EC2 인스턴스에서 실행되는 콘텐츠 관리 시스템을 사용하고 있습니다. EC2 인스턴스에는 웹 서버와 데이터베이스 소프트웨어가 모두 포함되어 있습니다. 회사는 웹 사이트 플랫폼의 가용성을 높여야 하며 사용자 요구에 맞게 웹 사이트를 확장할 수 있어야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
  • A. 데이터베이스를 Amazon RDS로 이동하고 자동 백업을 활성화합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. 가용 영역에서 Application Load Balancer를 구성하고 두 인스턴스를 대상으로 설정합니다.
  • B. 기존 EC2 인스턴스와 동일한 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora 인스턴스로 데이터베이스를 마이그레이션합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. Application Load Balancer를 구성하고 두 개의 EC2 인스턴스를 대상으로 설정합니다.
  • C. 다른 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora로 데이터베이스를 이동합니다. EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
  • D. 데이터베이스를 별도의 EC2 인스턴스로 이동하고 Amazon S3에 대한 백업을 예약합니다. 원본 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
더보기
해설
  • A. 데이터베이스를 Amazon RDS로 이동하고 자동 백업을 활성화합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. 가용 영역에서 Application Load Balancer를 구성하고 두 인스턴스를 대상으로 설정합니다.
  • B. 기존 EC2 인스턴스와 동일한 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora 인스턴스로 데이터베이스를 마이그레이션합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. Application Load Balancer를 구성하고 두 개의 EC2 인스턴스를 대상으로 설정합니다.
  • C. 다른 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora로 데이터베이스를 이동합니다. EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
  • D. 데이터베이스를 별도의 EC2 인스턴스로 이동하고 Amazon S3에 대한 백업을 예약합니다. 원본 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.

#247


한 회사가 MySQL용 Amazon RDS에 데이터베이스를 배포했습니다. 트랜잭션 증가로 인해 데이터베이스 지원팀에서는 DB 인스턴스에 대한 읽기 속도가 느리다고 보고하고 읽기 전용 복제본을 추가할 것을 권장합니다.

이 변경 사항을 구현하기 전에 솔루션 설계자가 취해야 할 조치 조합은 무엇입니까? (2개를 선택하세요.)
  • A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
  • B. 원본 DB 인스턴스의 장애 조치 우선 순위를 선택합니다.
  • C. 원본 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다.
  • D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 지역을 지정합니다.
  • E. 백업 보존 기간을 0이 아닌 값으로 설정하여 원본 인스턴스에서 자동 백업을 활성화합니다
더보기
해설
  • A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
  • B. 원본 DB 인스턴스의 장애 조치 우선 순위를 선택합니다.
  • C. 원본 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다.
  • D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 지역을 지정합니다.
  • E. 백업 보존 기간을 0이 아닌 값으로 설정하여 원본 인스턴스에서 자동 백업을 활성화합니다

B와 D는 질문과 관련이 없습니다. E는 주요 아키텍처 변경을 수행하기 전에 반드시 필요한 것입니다. A는 RDS에 의해 관리되므로 읽기 전용 복제본을 생성할 때 명시적으로 수행해야 하는 작업이 아닙


#249


한 회사가 AWS 클라우드에서 호스팅되는 미디어 애플리케이션을 위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 SMB 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.

이러한 요구 사항을 충족하는 AWS 솔루션은 무엇입니까?
  • A. AWS Storage Gateway 볼륨 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. AWS Storage Gateway 테이프 게이트웨이를 생성합니다. Amazon S3를 사용하도록 테이프를 구성합니다. 애플리케이션 서버를 테이프 게이트웨이에 연결합니다.
  • C. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • D. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다
더보기
해설
  • A. AWS Storage Gateway 볼륨 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. AWS Storage Gateway 테이프 게이트웨이를 생성합니다. Amazon S3를 사용하도록 테이프를 구성합니다. 애플리케이션 서버를 테이프 게이트웨이에 연결합니다.
  • C. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • D. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다

SMB + 완전 관리형 = Windows용 fsx imo

 

A: 볼륨 게이트웨이는 SMB가 아닌 가상 디스크 iSCSI를 제공합니다. B: 테이프 게이트웨이는 SMB가 아닌 iSCSI를 통해 가상 테이프를 제공합니다. C: "완전 관리형"이 아닙


#250


한 회사의 보안 팀은 네트워크 트래픽이 VPC 흐름 로그에 캡처되도록 요청합니다. 로그는 90일 동안 자주 액세스된 후 간헐적으로 액세스됩니다.

로그를 구성할 때 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon CloudWatch를 대상으로 사용하십시오. 90일 만료로 CloudWatch 로그 그룹 설정
  • B. Amazon Kinesis를 대상으로 사용하십시오. 항상 90일 동안 로그를 보관하도록 Kinesis 스트림을 구성합니다.
  • C. AWS CloudTrail을 대상으로 사용하십시오. Amazon S3 버킷에 저장하도록 CloudTrail을 구성하고 S3 Intelligent-Tiering을 활성화합니다.
  • D. Amazon S3를 대상으로 사용하십시오. S3 수명 주기 정책을 활성화하여 90일 후에 로그를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
더보기
해설
  • A. Amazon CloudWatch를 대상으로 사용하십시오. 90일 만료로 CloudWatch 로그 그룹 설정
  • B. Amazon Kinesis를 대상으로 사용하십시오. 항상 90일 동안 로그를 보관하도록 Kinesis 스트림을 구성합니다.
  • C. AWS CloudTrail을 대상으로 사용하십시오. Amazon S3 버킷에 저장하도록 CloudTrail을 구성하고 S3 Intelligent-Tiering을 활성화합니다.
  • D. Amazon S3를 대상으로 사용하십시오. S3 수명 주기 정책을 활성화하여 90일 후에 로그를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.

#251



Amazon EC2 인스턴스는 새 VPC의 프라이빗 서브넷에 있습니다. 이 서브넷에는 아웃바운드 인터넷 액세스가 없지만 EC2 인스턴스에는 외부 공급업체로부터 월간 보안 업데이트를 다운로드할 수 있는 기능이 필요합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
  • A. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • B. NAT 게이트웨이를 생성하고 이를 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • C. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • D. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. NAT 인스턴스를 생성하고 이를 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
더보기
해설
  • A. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • B. NAT 게이트웨이를 생성하고 이를 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • C. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • D. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. NAT 인스턴스를 생성하고 이를 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.

 


#254


한 회사가 최근 3티어 애플리케이션을 VPC로 마이그레이션하는 것을 검토하고 있습니다. 보안 팀은 애플리케이션 계층 간의 Amazon EC2 보안 그룹 수신 및 송신 규칙에 최소 권한 원칙이 적용되지 않는다는 사실을 발견했습니다.

이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성하십시오.
  • B. 보안 그룹 ID를 원본 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니
더보기
해설
  • A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성하십시오.
  • B. 보안 그룹 ID를 원본 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다

D. 서브넷 CIDR 블록을 기반으로 트래픽을 제한하지만 이는 애플리케이션 계층 간의 적절한 보안을 보장하는 데 충분하지 않을 수 있습니다. 요약하자면, 보안 그룹 ID(옵션 B)를 사용하면 최소 권한 원칙에 맞춰 애플리케이션 계층 간의 트래픽을 정확하게 제어할 수 있으므로 권장되는 접근 방식


#255



회사에는 데이터베이스에 주문을 기록하고 결제를 처리하기 위해 서비스를 호출하는 전자상거래 결제 워크플로가 있습니다. 결제 프로세스 중에 사용자에게 시간 초과가 발생합니다. 사용자가 결제 양식을 다시 제출하면 원하는 동일한 거래에 대해 여러 개의 고유 주문이 생성됩니다.

솔루션 설계자는 여러 주문이 생성되는 것을 방지하기 위해 이 워크플로를 어떻게 리팩터링해야 합니까?

  • A. Amazon Kinesis Data Firehose에 주문 메시지를 보내도록 웹 애플리케이션을 구성합니다. Kinesis Data Firehose에서 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다.
  • B. AWS CloudTrail에서 기록된 애플리케이션 경로 요청을 기반으로 AWS Lambda 함수를 호출하는 규칙을 생성합니다. Lambda를 사용하여 데이터베이스를 쿼리하고 결제 서비스를 호출하고 주문 정보를 전달합니다.
  • C. 주문을 데이터베이스에 저장합니다. Amazon Simple 알림 서비스(Amazon SNS)에 주문 번호가 포함된 메시지를 보냅니다. Amazon SNS를 폴링하고, 메시지를 검색하고, 주문을 처리하도록 결제 서비스를 설정합니다.
  • D. 주문을 데이터베이스에 저장합니다. 주문 번호가 포함된 메시지를 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 보냅니다. 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다. 대기열에서 메시지를 삭제합니다.
더보기
해설
  • A. Amazon Kinesis Data Firehose에 주문 메시지를 보내도록 웹 애플리케이션을 구성합니다. Kinesis Data Firehose에서 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다.
  • B. AWS CloudTrail에서 기록된 애플리케이션 경로 요청을 기반으로 AWS Lambda 함수를 호출하는 규칙을 생성합니다. Lambda를 사용하여 데이터베이스를 쿼리하고 결제 서비스를 호출하고 주문 정보를 전달합니다.
  • C. 주문을 데이터베이스에 저장합니다. Amazon Simple 알림 서비스(Amazon SNS)에 주문 번호가 포함된 메시지를 보냅니다. Amazon SNS를 폴링하고, 메시지를 검색하고, 주문을 처리하도록 결제 서비스를 설정합니다.
  • D. 주문을 데이터베이스에 저장합니다. 주문 번호가 포함된 메시지를 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 보냅니다. 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다. 대기열에서 메시지를 삭제합니다.

#258



한 회사에 매시간 수백 개의 .csv 파일을 Amazon S3 버킷에 저장하는 애플리케이션이 있습니다. 파일 크기는 1GB입니다. 파일이 업로드될 때마다 회사는 파일을 Apache Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 저장해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
  • A. AWS Lambda 함수를 생성하여 .csv 파일을 다운로드하고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장합니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 호출합니다.
  • B. .csv 파일을 읽고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하는 Apache Spark 작업을 생성합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 Spark 작업을 호출합니다.
  • C. 애플리케이션이 .csv 파일을 배치하는 S3 버킷에 대한 AWS Glue 테이블과 AWS Glue 크롤러를 생성합니다. 주기적으로 Amazon Athena를 사용하여 AWS Glue 테이블을 쿼리하고, 쿼리 결과를 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하도록 AWS Lambda 함수를 예약합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 .csv 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 ETL 작업을 호출합니다
더보기
해설
  • A. AWS Lambda 함수를 생성하여 .csv 파일을 다운로드하고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장합니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 호출합니다.
  • B. .csv 파일을 읽고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하는 Apache Spark 작업을 생성합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 Spark 작업을 호출합니다.
  • C. 애플리케이션이 .csv 파일을 배치하는 S3 버킷에 대한 AWS Glue 테이블과 AWS Glue 크롤러를 생성합니다. 주기적으로 Amazon Athena를 사용하여 AWS Glue 테이블을 쿼리하고, 쿼리 결과를 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하도록 AWS Lambda 함수를 예약합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 .csv 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 ETL 작업을 호출합니다

A와 D 모두 작동할 수 있지만 A가 더 간단

 

A. 상당한 운영 오버헤드가 발생합니다. 이 접근 방식을 사용하려면 Lambda를 관리하고, 동시성을 처리하고, 대용량 파일 크기에 대한 적절한 오류 처리를 보장해야 하는데 이는 어려울 수 있습니다. B. 불필요한 복잡성과 운영 오버헤드를 추가합니다. Spark 작업 관리, 확장성 처리, 각 파일 업로드에 대한 Lambda 호출 조정은 번거로울 수 있습니다. C.는 추가적인 복잡성을 야기하며 가장 효율적인 솔루션이 아닐 수 있습니다. 여기에는 Glue 리소스 관리, Lambda 예약, 새 파일이 업로드되지 않은 경우에도 데이터 쿼리가 포함됩니다. 옵션 D는 AWS Glue의 ETL 기능을 활용하여 대규모로 데이터 변환 작업을 정의하고 실행할 수 있도록 해줍니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 사용하여 ETL 작업을 호출하면 수동 개입 없이도 파일이 Parquet 형식으로 효율적으로 변환되도록 할 수 있습니다. 이 접근 방식은 운영 오버헤드를 최소화하고 간소화되고 확장 가능한 솔루션을 제공


#259



한 회사가 Amazon RDS DB 인스턴스에서 실행되는 모든 데이터베이스에 대해 새로운 데이터 보존 정책을 구현하고 있습니다. 회사는 최소 2년 동안 일일 백업을 보관해야 합니다. 백업은 일관되고 복원 가능해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 솔루션을 권장해야 합니까?

  • A. RDS 백업을 보관하려면 AWS Backup에 백업 볼트를 생성하세요. 일일 일정과 생성 후 만료 기간이 2년인 새 백업 계획을 생성합니다. RDS DB 인스턴스를 백업 계획에 할당합니다.
  • B. 일일 스냅샷을 위해 RDS DB 인스턴스의 백업 기간을 구성합니다. 각 RDS DB 인스턴스에 2년의 스냅샷 보존 정책을 할당합니다. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 스냅샷 삭제를 예약합니다.
  • C. 만료 기간이 2년인 Amazon CloudWatch Logs에 자동으로 백업되도록 데이터베이스 트랜잭션 로그를 구성합니다.
  • D. AWS Database Migration Service(AWS DMS) 복제 작업을 구성합니다. 복제 인스턴스를 배포하고 데이터베이스 변경 사항을 Amazon S3 대상으로 스트리밍하도록 변경 데이터 캡처(CDC) 작업을 구성합니다. 2년 후에 스냅샷을 삭제하도록 S3 수명 주기 정책을 구성합니다.
더보기
해설
  • A. RDS 백업을 보관하려면 AWS Backup에 백업 볼트를 생성하세요. 일일 일정과 생성 후 만료 기간이 2년인 새 백업 계획을 생성합니다. RDS DB 인스턴스를 백업 계획에 할당합니다.
  • B. 일일 스냅샷을 위해 RDS DB 인스턴스의 백업 기간을 구성합니다. 각 RDS DB 인스턴스에 2년의 스냅샷 보존 정책을 할당합니다. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 스냅샷 삭제를 예약합니다.
  • C. 만료 기간이 2년인 Amazon CloudWatch Logs에 자동으로 백업되도록 데이터베이스 트랜잭션 로그를 구성합니다.
  • D. AWS Database Migration Service(AWS DMS) 복제 작업을 구성합니다. 복제 인스턴스를 배포하고 데이터베이스 변경 사항을 Amazon S3 대상으로 스트리밍하도록 변경 데이터 캡처(CDC) 작업을 구성합니다. 2년 후에 스냅샷을 삭제하도록 S3 수명 주기 정책을 구성합니다.
A. 중앙 집중식 백업 관리 서비스인 AWS Backup을 사용하여 RDS 백업을 보관할 것을 제안합니다. 백업 볼트가 생성되고, 일일 일정과 백업 보관 기간 2년으로 백업 계획이 정의됩니다. RDS DB 인스턴스는 이 백업 계획에 할당됩니다. B. 일관되고 복원 가능한 백업에 대한 요구 사항을 다루지 않습니다. 스냅샷은 특정 시점 백업이므로 원하는 수준의 일관성을 제공하지 못할 수 있습니다. C. 데이터베이스에 필요한 백업 및 복원 기능을 제공하도록 설계되지 않았습니다. 백업의 일관성을 보장하거나 쉬운 복원 메커니즘을 제공하지 않습니다. D. 일일 백업 및 일관된 백업 보존에 대한 요구 사항을 다루지 않습니다. 백업 및 복원보다는 복제 및 변경 데이터 캡처에 더 중점을 둡

#260



회사의 규정 준수 팀은 파일 공유를 AWS로 이동해야 합니다. 공유는 Windows Server SMB 파일 공유에서 실행됩니다. 자체 관리형 온프레미스 Active Directory는 파일 및 폴더에 대한 액세스를 제어합니다.

회사는 솔루션의 일부로 Amazon FSx for Windows File Server를 사용하려고 합니다. 회사는 AWS로 이동한 후 온프레미스 Active Directory 그룹이 FSx for Windows File Server SMB 규정 준수 공유, 폴더 및 파일에 대한 액세스를 제한하는지 확인해야 합니다. 회사는 Windows 파일 서버 파일 시스템용 FSx를 만들었습니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Active Directory에 연결하기 위해 Active Directory Connector를 생성합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • B. Restrict 태그 키와 규정 준수 태그 값을 사용하여 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • C. FSx for Windows File Server에 직접 연결되는 IAM 서비스 연결 역할을 생성하여 액세스를 제한합니다.
  • D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다
더보기
해설
  • A. Active Directory에 연결하기 위해 Active Directory Connector를 생성합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • B. Restrict 태그 키와 규정 준수 태그 값을 사용하여 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • C. FSx for Windows File Server에 직접 연결되는 IAM 서비스 연결 역할을 생성하여 액세스를 제한합니다.
  • D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다

A는 이 설정과 관련이 없는 IAM 역할을 사용합니다. BC는 완전히 틀렸

 

D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다. FSx for Windows File Server 파일 시스템을 온프레미스 Active Directory에 결합하면 회사는 AWS로 이동한 후 기존 Active Directory 그룹을 사용하여 파일 공유, 폴더 및 파일에 대한 액세스를 제한할 수 있습니다. 이 옵션을 사용하면 회사는 기존 액세스 제어 및 관리 구조를 계속 사용할 수 있으므로 AWS로의 전환이 더욱 원활해

 


#261



한 회사는 최근 전 세계 고객을 대상으로 소매 웹사이트를 구축한다고 발표했습니다. 웹 사이트는 Elastic Load Balancer 뒤의 여러 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행됩니다.

회사는 고객이 웹 사이트에 액세스하는 데 사용하는 장치에 따라 다양한 버전의 콘텐츠를 고객에게 제공하려고 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. 여러 버전의 콘텐츠를 캐시하도록 Amazon CloudFront를 구성합니다.
  • B. Network Load Balancer에서 호스트 헤더를 구성하여 트래픽을 다른 인스턴스로 전달합니다.
  • C. User-Agent 헤더를 기반으로 사용자에게 특정 객체를 보내도록 Lambda@Edge 함수를 구성합니다.
  • D. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 호스트 기반 라우팅을 설정하도록 NLB를 구성합니다.
  • E. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정하도록 NLB를 구성합니다.
더보기
해설
  • A. 여러 버전의 콘텐츠를 캐시하도록 Amazon CloudFront를 구성합니다.
  • B. Network Load Balancer에서 호스트 헤더를 구성하여 트래픽을 다른 인스턴스로 전달합니다.
  • C. User-Agent 헤더를 기반으로 사용자에게 특정 객체를 보내도록 Lambda@Edge 함수를 구성합니다.
  • D. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 호스트 기반 라우팅을 설정하도록 NLB를 구성합니다.
  • E. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정하도록 NLB를 구성합니다.

#263


한 회사가 여러 마이크로서비스로 구성된 애플리케이션을 구축하고 있습니다. 회사는 컨테이너 기술을 사용하여 AWS에 소프트웨어를 배포하기로 결정했습니다. 회사에는 유지 관리 및 확장을 위한 지속적인 노력을 최소화하는 솔루션이 필요합니다. 회사는 추가 인프라를 관리할 수 없습니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Elastic Container Service(Amazon ECS) 클러스터를 배포합니다.
  • B. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 제어 플레인을 배포합니다.
  • C. Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • D. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • E. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 작업자 노드를 배포합니다. 각 마이크로서비스에 대해 두 개 이상의 복제본을 지정하는 배포를 만듭니다.
더보기
해설
  • A. Amazon Elastic Container Service(Amazon ECS) 클러스터를 배포합니다.
  • B. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 제어 플레인을 배포합니다.
  • C. Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • D. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • E. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 작업자 노드를 배포합니다. 각 마이크로서비스에 대해 두 개 이상의 복제본을 지정하는 배포를 만듭니다.

#264


회사에는 Amazon Route 53을 통해 트래픽이 전달되는 10개 이상의 Amazon EC2 인스턴스를 호스팅하는 웹 애플리케이션이 있습니다. 회사에서 애플리케이션을 탐색하려고 할 때 때때로 시간 초과 오류가 발생합니다. 네트워킹 팀은 일부 DNS 쿼리가 비정상 인스턴스의 IP 주소를 반환하여 시간 초과 오류가 발생한다는 사실을 발견했습니다.

이러한 시간 초과 오류를 극복하기 위해 솔루션 설계자는 무엇을 구현해야 합니까?

  • A. 각 EC2 인스턴스에 대해 Route 53 단순 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • B. 각 EC2 인스턴스에 대해 Route 53 장애 조치 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • C. EC2 인스턴스를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 상태 확인을 EC2 인스턴스와 연결합니다.
  • D. EC2 인스턴스 앞에 상태 확인을 통해 Application Load Balancer(ALB)를 생성합니다. Route 53에서 ALB로 이동합니다.
더보기
해설
  • A. 각 EC2 인스턴스에 대해 Route 53 단순 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • B. 각 EC2 인스턴스에 대해 Route 53 장애 조치 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • C. EC2 인스턴스를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 상태 확인을 EC2 인스턴스와 연결합니다.
  • D. EC2 인스턴스 앞에 상태 확인을 통해 Application Load Balancer(ALB)를 생성합니다. Route 53에서 ALB로 이동합니다.

#266


한 회사에는 AWS에서 실행되는 인기 있는 게임 플랫폼이 있습니다. 대기 시간은 사용자 경험에 영향을 미치고 일부 플레이어에게 불공정한 이점을 가져올 수 있으므로 애플리케이션은 대기 시간에 민감합니다. 애플리케이션은 모든 AWS 리전에 배포됩니다. 이는 Application Load Balancer(ALB) 뒤에 구성된 Auto Scaling 그룹의 일부인 Amazon EC2 인스턴스에서 실행됩니다. 솔루션 설계자는 애플리케이션 상태를 모니터링하고 트래픽을 정상 엔드포인트로 리디렉션하는 메커니즘을 구현해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Global Accelerator에서 액셀러레이터를 구성합니다. 애플리케이션이 수신하는 포트에 대한 리스너를 추가하고 이를 각 리전의 리전 엔드포인트에 연결합니다. ALB를 엔드포인트로 추가합니다.
  • B. Amazon CloudFront 배포판을 생성하고 ALB를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • C. Amazon CloudFront 배포를 생성하고 Amazon S3를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • D. 애플리케이션의 데이터 저장소 역할을 하도록 Amazon DynamoDB 데이터베이스를 구성합니다. 애플리케이션 데이터를 호스팅하는 DynamoDB의 인 메모리 캐시 역할을 하는 DynamoDB Accelerator(DAX) 클러스터를 생성합니다.
더보기
해설
  • A. AWS Global Accelerator에서 액셀러레이터를 구성합니다. 애플리케이션이 수신하는 포트에 대한 리스너를 추가하고 이를 각 리전의 리전 엔드포인트에 연결합니다. ALB를 엔드포인트로 추가합니다.
  • B. Amazon CloudFront 배포판을 생성하고 ALB를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • C. Amazon CloudFront 배포를 생성하고 Amazon S3를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • D. 애플리케이션의 데이터 저장소 역할을 하도록 Amazon DynamoDB 데이터베이스를 구성합니다. 애플리케이션 데이터를 호스팅하는 DynamoDB의 인 메모리 캐시 역할을 하는 DynamoDB Accelerator(DAX) 클러스터를 생성합니다.

#267


한 회사에 모바일 앱을 사용하는 사용자가 백만 명 있습니다. 회사는 거의 실시간으로 데이터 사용량을 분석해야 합니다. 또한 회사는 거의 실시간으로 데이터를 암호화해야 하며 추가 처리를 위해 중앙 위치에 Apache Parquet 형식으로 데이터를 저장해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다. AWS Lambda 함수를 호출하여 Kinesis Data Analytics 애플리케이션으로 데이터를 보냅니다.
  • B. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다. AWS Lambda 함수를 호출하여 데이터를 EMR 클러스터로 보냅니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다.
  • D. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다.
더보기
해설
  • A. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다. AWS Lambda 함수를 호출하여 Kinesis Data Analytics 애플리케이션으로 데이터를 보냅니다.
  • B. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다. AWS Lambda 함수를 호출하여 데이터를 EMR 클러스터로 보냅니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다.
  • D. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다.

#268



게임 회사에는 점수를 표시하는 웹 애플리케이션이 있습니다. 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 MySQL용 Amazon RDS 데이터베이스에 데이터를 저장합니다. 사용자는 데이터베이스 읽기 성능으로 인해 오랜 지연과 중단을 경험하기 시작했습니다. 회사는 애플리케이션 아키텍처 변경을 최소화하면서 사용자 경험을 개선하기를 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 데이터베이스 앞에 Amazon ElastiCache를 사용하십시오.
  • B. 애플리케이션과 데이터베이스 사이에 RDS Proxy를 사용합니다.
  • C. 애플리케이션을 EC2 인스턴스에서 AWS Lambda로 마이그레이션합니다.
  • D. MySQL용 Amazon RDS에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다
더보기
해설
  • A. 데이터베이스 앞에 Amazon ElastiCache를 사용하십시오.
  • B. 애플리케이션과 데이터베이스 사이에 RDS Proxy를 사용합니다.
  • C. 애플리케이션을 EC2 인스턴스에서 AWS Lambda로 마이그레이션합니다.
  • D. MySQL용 Amazon RDS에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다

#270



한 회사는 중앙 집중식 AWS 계정을 사용하여 다양한 Amazon S3 버킷에 로그 데이터를 저장하고 있습니다. 솔루션 설계자는 데이터가 S3 버킷에 업로드되기 전에 데이터가 암호화되어 있는지 확인해야 합니다. 또한 데이터는 전송 중에 암호화되어야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?


  • A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
  • B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다.
  • C. S3 업로드를 위해 S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용해야 하는 버킷 정책을 생성합니다.
  • D. 기본 AWS Key Management Service(AWS KMS) 키를 사용하여 S3 버킷을 암호화하는 보안 옵션을 활성화합니다.
더보기
해설
  • A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
  • B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다.
  • C. S3 업로드를 위해 S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용해야 하는 버킷 정책을 생성합니다.
  • D. 기본 AWS Key Management Service(AWS KMS) 키를 사용하여 S3 버킷을 암호화하는 보안 옵션을 활성화합니다.

#272



한 회사는 ALB(Application Load Balancer) 뒤에 있는 Amazon EC2 인스턴스 집합에서 동적 웹 사이트를 제공합니다. 웹사이트는 전 세계 고객에게 서비스를 제공하기 위해 여러 언어를 지원해야 합니다. 웹 사이트의 아키텍처는 us-west-1 지역에서 실행되고 있으며 세계 다른 지역에 있는 사용자에 대해 높은 요청 지연 시간을 보이고 있습니다.

웹사이트는 사용자의 위치에 관계없이 신속하고 효율적으로 요청을 처리해야 합니다. 그러나 회사는 여러 지역에 걸쳐 기존 아키텍처를 다시 만들고 싶지 않습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 기존 아키텍처를 Amazon S3 버킷에서 제공되는 웹 사이트로 바꾸십시오. S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • B. ALB를 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • C. ALB와 통합된 Amazon API Gateway API를 생성합니다. HTTP 통합 유형을 사용하도록 API를 구성합니다. Accept-Language 요청 헤더를 기반으로 API 캐시를 활성화하도록 API 게이트웨이 단계를 설정합니다.
  • D. 각 추가 지역에서 EC2 인스턴스를 시작하고 해당 지역의 캐시 서버 역할을 하도록 NGINX를 구성합니다. 지리적 위치 라우팅 정책을 사용하여 모든 EC2 인스턴스와 ALB를 Amazon Route 53 레코드 세트 뒤에 배치합니다
더보기
해설
  • A. 기존 아키텍처를 Amazon S3 버킷에서 제공되는 웹 사이트로 바꾸십시오. S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • B. ALB를 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • C. ALB와 통합된 Amazon API Gateway API를 생성합니다. HTTP 통합 유형을 사용하도록 API를 구성합니다. Accept-Language 요청 헤더를 기반으로 API 캐시를 활성화하도록 API 게이트웨이 단계를 설정합니다.
  • D. 각 추가 지역에서 EC2 인스턴스를 시작하고 해당 지역의 캐시 서버 역할을 하도록 NGINX를 구성합니다. 지리적 위치 라우팅 정책을 사용하여 모든 EC2 인스턴스와 ALB를 Amazon Route 53 레코드 세트 뒤에 배치합니다

#275


회사는 내부 브라우저 기반 애플리케이션을 실행합니다. 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 업무 시간 동안 최대 20개의 인스턴스로 확장되지만 밤에는 2개의 인스턴스로 축소됩니다. 직원들은 오전 중반까지는 잘 실행되지만, 하루가 시작될 때 애플리케이션이 매우 느리다고 불평하고 있습니다.

직원 불만을 해결하고 비용을 최소로 유지하려면 규모 조정을 어떻게 변경해야 합니까?

  • A. 사무실 개장 직전에 원하는 용량을 20으로 설정하는 예약된 작업을 구현합니다.
  • B. 더 낮은 CPU 임계값에서 트리거되는 단계 조정 작업을 구현하고 휴지 기간을 줄입니다.
  • C. 낮은 CPU 임계값에서 트리거되는 대상 추적 작업을 구현하고 휴지 기간을 줄입니다.
  • D. 사무실 개장 직전에 최소 및 최대 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다
 
더보기
해설
  • A. 사무실 개장 직전에 원하는 용량을 20으로 설정하는 예약된 작업을 구현합니다.
  • B. 더 낮은 CPU 임계값에서 트리거되는 단계 조정 작업을 구현하고 휴지 기간을 줄입니다.
  • C. 낮은 CPU 임계값에서 트리거되는 대상 추적 작업을 구현하고 휴지 기간을 줄입니다.
  • D. 사무실 개장 직전에 최소 및 최대 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다.
 

#278



회사에서는 직원 데이터를 계층적 구조 관계로 저장하는 애플리케이션을 만들고 싶어합니다. 회사는 직원 데이터에 대한 트래픽이 많은 쿼리에 대한 응답 시간을 최소화하고 민감한 데이터를 보호해야 합니다. 또한 직원 데이터에 재무 정보가 있는 경우 회사는 월별 이메일 메시지를 받아야 합니다.

이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Redshift를 사용하여 직원 데이터를 계층 구조로 저장하십시오. 매달 Amazon S3에 데이터를 언로드합니다.
  • B. Amazon DynamoDB를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매달 데이터를 Amazon S3로 내보냅니다.
  • C. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 월별 이벤트를 AWS Lambda로 보냅니다.
  • D. Amazon Athena를 사용하여 Amazon S3의 직원 데이터를 분석합니다. Athena를 Amazon QuickSight와 통합하여 분석 대시보드를 게시하고 대시보드를 사용자와 공유합니다.
  • E. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 Amazon Simple 알림 서비스(Amazon SNS) 구독을 통해 월별 알림을 보냅니다.
더보기
해설
  • A. Amazon Redshift를 사용하여 직원 데이터를 계층 구조로 저장하십시오. 매달 Amazon S3에 데이터를 언로드합니다.
  • B. Amazon DynamoDB를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매달 데이터를 Amazon S3로 내보냅니다.
  • C. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 월별 이벤트를 AWS Lambda로 보냅니다.
  • D. Amazon Athena를 사용하여 Amazon S3의 직원 데이터를 분석합니다. Athena를 Amazon QuickSight와 통합하여 분석 대시보드를 게시하고 대시보드를 사용자와 공유합니다.
  • E. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 Amazon Simple 알림 서비스(Amazon SNS) 구독을 통해 월별 알림을 보냅니다.

#281


한 회사는 PostgreSQL DB 인스턴스용 Amazon RDS를 사용하여 여러 웹 서버를 운영하고 있습니다. 정기적인 규정 준수 검사 후 회사는 모든 프로덕션 데이터베이스에 대해 1초 미만의 RPO(복구 지점 목표)를 요구하는 표준을 설정합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. DB 인스턴스에 대한 다중 AZ 배포를 활성화합니다.
  • B. 하나의 가용 영역에서 DB 인스턴스에 대한 Auto Scaling을 활성화합니다.
  • C. 하나의 가용 영역에 DB 인스턴스를 구성하고 별도의 가용 영역에 여러 읽기 전용 복제본을 생성합니다.
  • D. 하나의 가용 영역에서 DB 인스턴스를 구성하고 AWS DMS(AWS Database Migration Service) 변경 데이터 캡처(CDC) 작업을 구성합니다.
더보기
해설
  • A. DB 인스턴스에 대한 다중 AZ 배포를 활성화합니다.
  • B. 하나의 가용 영역에서 DB 인스턴스에 대한 Auto Scaling을 활성화합니다.
  • C. 하나의 가용 영역에 DB 인스턴스를 구성하고 별도의 가용 영역에 여러 읽기 전용 복제본을 생성합니다.
  • D. 하나의 가용 영역에서 DB 인스턴스를 구성하고 AWS DMS(AWS Database Migration Service) 변경 데이터 캡처(CDC) 작업을 구성합니다.

#283



한 연구 회사에서는 시뮬레이션 애플리케이션과 시각화 애플리케이션을 기반으로 실험을 실행합니다. 시뮬레이션 애플리케이션은 Linux에서 실행되며 5분마다 NFS 공유에 중간 데이터를 출력합니다. 시각화 응용 프로그램은 시뮬레이션 출력을 표시하는 Windows 데스크톱 응용 프로그램이며 SMB 파일 시스템이 필요합니다.

회사는 두 개의 동기화된 파일 시스템을 유지 관리합니다. 이 전략은 데이터 중복과 비효율적인 리소스 사용을 초래합니다. 회사는 애플리케이션의 코드를 변경하지 않고 애플리케이션을 AWS로 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 두 애플리케이션을 모두 AWS Lambda로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하기 위해 Amazon S3 버킷을 생성합니다.
  • B. 두 애플리케이션을 모두 Amazon Elastic Container Service(Amazon ECS)로 마이그레이션합니다. 스토리지를 위해 Amazon FSx 파일 게이트웨이를 구성합니다.
  • C. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하도록 Amazon Simple Queue Service(Amazon SQS)를 구성합니다.
  • D. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 스토리지를 위해 NetApp ONTAP용 Amazon FSx를 구성합니다.
더보기
해설
  • A. 두 애플리케이션을 모두 AWS Lambda로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하기 위해 Amazon S3 버킷을 생성합니다.
  • B. 두 애플리케이션을 모두 Amazon Elastic Container Service(Amazon ECS)로 마이그레이션합니다. 스토리지를 위해 Amazon FSx 파일 게이트웨이를 구성합니다.
  • C. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하도록 Amazon Simple Queue Service(Amazon SQS)를 구성합니다.
  • D. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 스토리지를 위해 NetApp ONTAP용 Amazon FSx를 구성합니다.

#285



회사는 Amazon S3를 사용하여 정적 웹 사이트를 호스팅합니다. 회사는 웹페이지에 문의 양식을 추가하려고 합니다. 문의 양식에는 사용자가 이름, 이메일 주소, 전화번호 및 사용자 메시지를 입력할 수 있는 동적 서버측 구성 요소가 있습니다. 회사에서는 매월 사이트 방문 횟수가 100회 미만이 될 것으로 예상하고 있습니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Amazon Elastic Container Service(Amazon ECS)에서 동적 문의 양식 페이지를 호스팅합니다. 타사 이메일 공급자에 연결하려면 Amazon Simple Email Service(Amazon SES)를 설정하세요.
  • B. Amazon Simple Email Service(Amazon SES)를 호출하는 AWS Lambda 백엔드로 Amazon API Gateway 엔드포인트를 생성합니다.
  • C. Amazon Lightsail을 배포하여 정적 웹 페이지를 동적으로 변환합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다.
  • D. t2.micro Amazon EC2 인스턴스를 생성합니다. LAMP(Linux, Apache, MySQL, PHP/Perl/Python) 스택을 배포하여 웹페이지를 호스팅합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다
더보기
해설
  • A. Amazon Elastic Container Service(Amazon ECS)에서 동적 문의 양식 페이지를 호스팅합니다. 타사 이메일 공급자에 연결하려면 Amazon Simple Email Service(Amazon SES)를 설정하세요.
  • B. Amazon Simple Email Service(Amazon SES)를 호출하는 AWS Lambda 백엔드로 Amazon API Gateway 엔드포인트를 생성합니다.
  • C. Amazon Lightsail을 배포하여 정적 웹 페이지를 동적으로 변환합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다.
  • D. t2.micro Amazon EC2 인스턴스를 생성합니다. LAMP(Linux, Apache, MySQL, PHP/Perl/Python) 스택을 배포하여 웹페이지를 호스팅합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다

#286



회사에는 Amazon S3 앞의 Amazon CloudFront에 호스팅되는 정적 웹 사이트가 있습니다. 정적 웹사이트는 데이터베이스 백엔드를 사용합니다. 회사는 웹사이트의 Git 저장소에서 이루어진 업데이트가 웹사이트에 반영되지 않음을 확인했습니다. 회사는 Git 리포지토리와 Amazon S3 간의 지속적인 통합 및 지속적인 전달(CI/CD) 파이프라인을 확인합니다. 회사에서는 웹후크가 올바르게 구성되었는지, CI/CD 파이프라인이 성공적인 배포를 나타내는 메시지를 보내고 있는지 확인합니다.

솔루션 아키텍트는 웹 사이트에 업데이트를 표시하는 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Application Load Balancer를 추가합니다.
  • B. 웹 애플리케이션의 데이터베이스 계층에 Redis 또는 Memcached용 Amazon ElastiCache를 추가합니다.
  • C. CloudFront 캐시를 무효화합니다.
  • D. ACM(AWS Certificate Manager)을 사용하여 웹사이트의 SSL 인증서를 검증합니다.
더보기
해설
  • A. Application Load Balancer를 추가합니다.
  • B. 웹 애플리케이션의 데이터베이스 계층에 Redis 또는 Memcached용 Amazon ElastiCache를 추가합니다.
  • C. CloudFront 캐시를 무효화합니다.
  • D. ACM(AWS Certificate Manager)을 사용하여 웹사이트의 SSL 인증서를 검증합니다.

#287



회사는 Windows 기반 애플리케이션을 온프레미스에서 AWS 클라우드로 마이그레이션하려고 합니다. 애플리케이션에는 애플리케이션 계층, 비즈니스 계층, Microsoft SQL Server가 포함된 데이터베이스 계층이라는 세 가지 계층이 있습니다. 회사는 기본 백업 및 데이터 품질 서비스와 같은 SQL Server의 특정 기능을 사용하려고 합니다. 또한 회사는 계층 간 처리를 위해 파일을 공유해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?

  • A. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx 파일 게이트웨이를 사용합니다.
  • B. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx for Windows File Server를 사용합니다.
  • C. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 Amazon Elastic File System(Amazon EFS)을 사용합니다.
  • D. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용합니다
더보기
해설
  • A. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx 파일 게이트웨이를 사용합니다.
  • B. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx for Windows File Server를 사용합니다.
  • C. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 Amazon Elastic File System(Amazon EFS)을 사용합니다.
  • D. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용합니다

#288



한 회사가 Linux 기반 웹 서버 그룹을 AWS로 마이그레이션하고 있습니다. 웹 서버는 일부 콘텐츠에 대해 공유 파일 저장소의 파일에 액세스해야 합니다. 회사는 신청서를 변경해서는 안 됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.
  • B. Amazon S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 모든 웹 서버에 EFS 파일 시스템을 탑재합니다.
  • D. 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 구성합니다. 모든 웹 서버에 EBS 볼륨을 마운트합니다.
더보기
해설
  • A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.
  • B. Amazon S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 모든 웹 서버에 EFS 파일 시스템을 탑재합니다.
  • D. 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 구성합니다. 모든 웹 서버에 EBS 볼륨을 마운트합니다.

#292



한 회사는 여러 소스에서 실시간 스트리밍 데이터를 수집할 새로운 데이터 플랫폼을 준비하고 있습니다. 회사는 Amazon S3에 데이터를 쓰기 전에 데이터를 변환해야 합니다. 회사에서는 SQL을 사용하여 변환된 데이터를 쿼리할 수 있는 능력이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍하십시오. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • D. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다
더보기
해설
  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍하십시오. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • D. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다

#293



회사에 수명이 다한 온프레미스 볼륨 백업 솔루션이 있습니다. 회사는 AWS를 새로운 백업 솔루션의 일부로 사용하고 AWS에 백업되는 동안 모든 데이터에 대한 로컬 액세스를 유지하려고 합니다. 회사는 AWS에 백업된 데이터가 자동으로 안전하게 전송되기를 원합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Snowball을 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션하십시오. 데이터에 대한 로컬 액세스를 제공하기 위해 Snowball S3 엔드포인트를 탑재하도록 온프레미스 시스템을 구성합니다.
  • B. AWS Snowball Edge를 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
  • C. AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. Storage Gateway 소프트웨어 어플라이언스를 온프레미스에서 실행하고 로컬로 캐시할 데이터 비율을 구성합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
  • D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
더보기
해설
  • A. AWS Snowball을 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션하십시오. 데이터에 대한 로컬 액세스를 제공하기 위해 Snowball S3 엔드포인트를 탑재하도록 온프레미스 시스템을 구성합니다.
  • B. AWS Snowball Edge를 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
  • C. AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. Storage Gateway 소프트웨어 어플라이언스를 온프레미스에서 실행하고 로컬로 캐시할 데이터 비율을 구성합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
  • D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.

#295



전자 상거래 회사는 AWS 클라우드에 테라바이트 규모의 고객 데이터를 저장합니다. 데이터에는 개인 식별 정보(PII)가 포함되어 있습니다. 회사는 세 가지 애플리케이션에서 데이터를 사용하려고 합니다. 애플리케이션 중 하나만 PII를 처리해야 합니다. 다른 두 애플리케이션이 데이터를 처리하기 전에 PII를 제거해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리하는 프록시 애플리케이션 계층을 만듭니다.
  • B. Amazon S3 버킷에 데이터를 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.
  • C. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 S3 버킷을 가리키도록 합니다.
  • D. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 DynamoDB 테이블을 가리키도록 합니다.
더보기
해설
  • A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리하는 프록시 애플리케이션 계층을 만듭니다.
  • B. Amazon S3 버킷에 데이터를 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.
  • C. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 S3 버킷을 가리키도록 합니다.
  • D. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 DynamoDB 테이블을 가리키도록 합니다.

#296



개발 팀은 개발 VPC 내부의 Amazon EC2 인스턴스에서 호스팅되는 새로운 애플리케이션을 출시했습니다. 솔루션 아키텍트는 동일한 계정에 새 VPC를 생성해야 합니다. 새 VPC는 ​​개발 VPC와 피어링됩니다. 개발 VPC의 VPC CIDR 블록은 192.168.0.0/24입니다. 솔루션 아키텍트는 새 VPC에 대한 CIDR 블록을 생성해야 합니다. CIDR 블록은 개발 VPC에 대한 VPC 피어링 연결에 유효해야 합니다.

이러한 요구 사항을 충족하는 가장 작은 CIDR 블록은 무엇입니까?

  • A.10.0.1.0 /32
  • B. 192.168.0.0/24
  • C.192.168.1.0 /32
  • D.10.0.1.0 /24
더보기
해설
  • A.10.0.1.0 /32
  • B. 192.168.0.0/24
  • C.192.168.1.0 /32
  • D.10.0.1.0 /24

#298



한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 중요한 비즈니스 애플리케이션을 실행하고 있습니다. EC2 인스턴스는 Auto Scaling 그룹에서 실행되며 Amazon RDS DB 인스턴스에 액세스합니다.

EC2 인스턴스와 DB 인스턴스가 모두 단일 가용 영역에 위치하므로 설계가 운영 검토를 통과하지 못했습니다. 솔루션 아키텍트는 두 번째 가용 영역을 사용하도록 설계를 업데이트해야 합니다.

애플리케이션의 가용성을 높이는 솔루션은 무엇입니까?

  • A. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • B. 두 가용 영역에 걸쳐 확장되는 두 개의 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • C. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
  • D. 두 가용 영역 모두에 걸쳐 확장되는 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
더보기
해설
  • A. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • B. 두 가용 영역에 걸쳐 확장되는 두 개의 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • C. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
  • D. 두 가용 영역 모두에 걸쳐 확장되는 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.

#299



연구실에서는 약 8TB의 데이터를 처리해야 합니다. 실험실에서는 스토리지 하위 시스템에 대해 밀리초 미만의 대기 시간과 최소 6GBps의 처리량을 요구합니다. Amazon Linux를 실행하는 수백 개의 Amazon EC2 인스턴스가 데이터를 배포하고 처리합니다.

어떤 솔루션이 성능 요구 사항을 충족합니까?

  • A. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 ALL로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 탑재합니다.
  • B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Lustre용 Amazon FSx 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • C. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 HDD 스토리지를 사용하는 Lustre 파일 시스템용 Amazon FSx를 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • D. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 NONE으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
더보기
해설
  • A. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 ALL로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 탑재합니다.
  • B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Lustre용 Amazon FSx 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • C. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 HDD 스토리지를 사용하는 Lustre 파일 시스템용 Amazon FSx를 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • D. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 NONE으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 탑재합니다.

#300



회사는 하드웨어 용량 제약으로 인해 온프레미스 데이터 센터에서 AWS 클라우드로 레거시 애플리케이션을 마이그레이션해야 합니다. 애플리케이션은 하루 24시간, 일주일 내내 실행됩니다. 애플리케이션의 데이터베이스 스토리지는 시간이 지남에 따라 계속해서 증가합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 애플리케이션 계층을 Amazon EC2 스팟 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
  • B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
  • C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.
  • D. 애플리케이션 계층을 Amazon EC2 온디맨드 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 예약 인스턴스로 마이그레이션합니다.
더보기
해설
  • A. 애플리케이션 계층을 Amazon EC2 스팟 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
  • B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
  • C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.
  • D. 애플리케이션 계층을 Amazon EC2 온디맨드 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 예약 인스턴스로 마이그레이션합니다.

 

728x90