728x90

#501⭐

https://www.examtopics.com/discussions/amazon/view/109421-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 고객 결제 데이터를 Amazon S3에 있는 회사 데이터 레이크로 수집하려고 합니다. 회사는 평균 1분마다 결제 데이터를 받습니다. 회사는 결제 데이터를 실시간으로 분석하고 싶어합니다. 그런 다음 회사는 데이터를 데이터 레이크에 수집하려고 합니다.

가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요.
  • B. AWS Glue를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
  • C. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
  • D. Amazon API Gateway를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요
더보기
해설
  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요.
  • B. AWS Glue를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
  • C. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
  • D. Amazon API Gateway를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요

Amazon Kinesis Data Firehose와 Amazon Kinesis Data Analytics의 조합을 활용하면 수동 처리나 추가 인프라 관리 없이 결제 데이터를 실시간으로 효율적으로 수집하고 분석할 수 있습니다.
이 솔루션은 지속적인 데이터 수집 및 분석 요구 사항을 처리하기 위한 간소화되고 확장 가능한 접근 방식을 제공

데이터는 S3에 저장되므로 운영상 더 복잡하기 때문에 Lambda 솔루션(A 및 D)을 배제하는 Kinesis Data Analytics를 사용하여 실시간 데이터 분석을 수행할 수 있음


#502⭐

https://www.examtopics.com/discussions/amazon/view/109420-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 Amazon EC2에서 콘텐츠 관리 시스템(CMS)을 사용하는 웹 사이트를 운영하고 있습니다. CMS는 단일 EC2 인스턴스에서 실행되며 데이터 계층에 Amazon Aurora MySQL 다중 AZ DB 인스턴스를 사용합니다. 웹 사이트 이미지는 EC2 인스턴스 내부에 탑재된 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장됩니다.

웹사이트의 성능과 복원력을 향상시키기 위해 솔루션 아키텍트가 취해야 하는 조치의 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 웹 사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon S3 버킷으로 이동합니다.
  • B. 기본 EC2 인스턴스의 NFS 공유를 사용하여 웹 사이트 이미지를 공유합니다. 다른 EC2 인스턴스에 이 공유를 탑재합니다.
  • C. 웹사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
  • D. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대해 AWS Global Accelerator에서 액셀러레이터 구성
  • E. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대한 Amazon CloudFront 배포를 구성합니다.
더보기
해설
  • A. 웹 사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon S3 버킷으로 이동합니다.
  • B. 기본 EC2 인스턴스의 NFS 공유를 사용하여 웹 사이트 이미지를 공유합니다. 다른 EC2 인스턴스에 이 공유를 탑재합니다.
  • C. 웹사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
  • D. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대해 AWS Global Accelerator에서 액셀러레이터 구성
  • E. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대한 Amazon CloudFront 배포를 구성합니다.

공유 파일 스토리지에 Amazon EFS를 사용하고 콘텐츠 전송에 Amazon CloudFront를 사용하면 웹 사이트의 성능과 복원력을 향상시킬 수 있음

EC2 인스턴스에 S3 버킷을 탑재할 수 없기 때문에 A가 아님


#503⭐

https://www.examtopics.com/discussions/amazon/view/109595-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 인프라 모니터링 서비스를 운영하고 있습니다. 회사는 고객 AWS 계정의 데이터를 모니터링할 수 있는 서비스를 제공하는 새로운 기능을 구축하고 있습니다. 새로운 기능은 고객 계정에서 AWS API를 호출하여 Amazon EC2 인스턴스를 설명하고 Amazon CloudWatch 지표를 읽습니다.

가장 안전한 방법으로 고객 계정에 액세스하려면 회사는 무엇을 해야 합니까?

  • A. 고객이 읽기 전용 EC2 및 CloudWatch 권한과 회사 계정에 대한 신뢰 정책을 사용하여 자신의 계정에 IAM 역할을 생성하는지 확인하십시오.
  • B. 토큰 자동 판매기를 구현하는 서버리스 API를 생성하여 읽기 전용 EC2 및 CloudWatch 권한이 있는 역할에 대한 임시 AWS 자격 증명을 제공합니다.
  • C. 고객이 자신의 계정에 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 사용자를 생성하는지 확인하십시오. 비밀 관리 시스템에서 고객 액세스 및 비밀 키를 암호화하고 저장합니다.
  • D. 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 역할을 사용하려면 고객이 자신의 계정에 Amazon Cognito 사용자를 생성했는지 확인하십시오. Amazon Cognito 사용자 및 암호를 암호화하여 비밀 관리 시스템에 저장합니다
더보기
해설
  • A. 고객이 읽기 전용 EC2 및 CloudWatch 권한과 회사 계정에 대한 신뢰 정책을 사용하여 자신의 계정에 IAM 역할을 생성하는지 확인하십시오.
  • B. 토큰 자동 판매기를 구현하는 서버리스 API를 생성하여 읽기 전용 EC2 및 CloudWatch 권한이 있는 역할에 대한 임시 AWS 자격 증명을 제공합니다.
  • C. 고객이 자신의 계정에 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 사용자를 생성하는지 확인하십시오. 비밀 관리 시스템에서 고객 액세스 및 비밀 키를 암호화하고 저장합니다.
  • D. 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 역할을 사용하려면 고객이 자신의 계정에 Amazon Cognito 사용자를 생성했는지 확인하십시오. Amazon Cognito 사용자 및 암호를 암호화하여 비밀 관리 시스템에 저장합니다

고객이 자신의 계정에 필요한 권한이 있는 IAM 역할을 생성하도록 하면 회사는 AWS Identity and Access Management(IAM)를 사용하여 교차 계정 액세스를 설정할 수 있습니다. 신뢰 정책은 회사의 AWS 계정이 일시적으로 고객의 IAM 역할을 맡아 고객 계정 내의 지정된 리소스(EC2 인스턴스 및 CloudWatch 지표)에 대한 액세스 권한을 부여하도록 허용합니다. 이 접근 방식은 회사가 필요한 권한만 요청하고 고객에게 장기 액세스 키나 사용자 자격 증명을 요구하지 않으므로 최소 권한의 원칙을 따릅

A. 역할은 임시 자격 증명을 제공

B: 임시라도 자격 증명을 공유하는 것은 안전하지 않습니다. C: 액세스 및 비밀 키. 이는 작동하지 않으며 계정 외부에서 비밀을 공유하는 것은 이 사용 사례에서 안전하지 않습니다. A: 키워드 "신뢰 정책" D: 다시 말하지만, 사용자 이름과 비밀번호를 공유하고 어떤 방식으로든 공유하는 것은 안전하지 않습


#504

https://www.examtopics.com/discussions/amazon/view/109690-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 수백 개의 AWS 계정에 걸쳐 있는 us-east-1 지역의 여러 VPC를 연결해야 합니다. 회사의 네트워킹 팀에는 클라우드 네트워크를 관리하기 위한 자체 AWS 계정이 있습니다.

VPC를 연결하는 가장 운영 효율적인 솔루션은 무엇입니까?


  • A. 각 VPC 간에 VPC 피어링 연결을 설정합니다. 연결된 각 서브넷의 라우팅 테이블 업데이트
  • B. 각 VPC에 NAT 게이트웨이와 인터넷 게이트웨이를 구성하여 인터넷을 통해 각 VPC를 연결합니다.
  • C. 네트워킹 팀의 AWS 계정에 AWS Transit Gateway를 생성합니다. 각 VPC에서 정적 경로를 구성합니다.
  • D. 각 VPC에 VPN 게이트웨이를 배포합니다. 네트워킹 팀의 AWS 계정에 전송 VPC를 생성하여 각 VPC에 연결합니다.
더보기
해설
  • A. 각 VPC 간에 VPC 피어링 연결을 설정합니다. 연결된 각 서브넷의 라우팅 테이블 업데이트
  • B. 각 VPC에 NAT 게이트웨이와 인터넷 게이트웨이를 구성하여 인터넷을 통해 각 VPC를 연결합니다.
  • C. 네트워킹 팀의 AWS 계정에 AWS Transit Gateway를 생성합니다. 각 VPC에서 정적 경로를 구성합니다.
  • D. 각 VPC에 VPN 게이트웨이를 배포합니다. 네트워킹 팀의 AWS 계정에 전송 VPC를 생성하여 각 VPC에 연결합니다.

#505

https://www.examtopics.com/discussions/amazon/view/109691-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에 야간 배치 작업을 실행하여 데이터를 처리하는 Amazon EC2 인스턴스가 있습니다. EC2 인스턴스는 온디맨드 결제를 사용하는 Auto Scaling 그룹에서 실행됩니다. 한 인스턴스에서 작업이 실패하면 다른 인스턴스가 작업을 다시 처리합니다. 일괄 작업은 매일 현지 시간 오전 12시부터 오전 6시 사이에 실행됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 EC2 인스턴스를 제공하는 솔루션은 무엇입니까?

  • A. 배치 작업에 사용되는 Auto Scaling 그룹의 인스턴스 제품군을 포함하는 Amazon EC2용 1년 Savings Plan을 구매하세요.
  • B. 배치 작업이 사용하는 Auto Scaling 그룹의 인스턴스 운영 체제 및 특정 인스턴스 유형에 대해 1년 예약 인스턴스를 구입합니다.
  • C. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스를 스팟 인스턴스로 설정합니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
  • D. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스 크기를 늘립니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
더보기
해설
  • A. 배치 작업에 사용되는 Auto Scaling 그룹의 인스턴스 제품군을 포함하는 Amazon EC2용 1년 Savings Plan을 구매하세요.
  • B. 배치 작업이 사용하는 Auto Scaling 그룹의 인스턴스 운영 체제 및 특정 인스턴스 유형에 대해 1년 예약 인스턴스를 구입합니다.
  • C. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스를 스팟 인스턴스로 설정합니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
  • D. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스 크기를 늘립니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.

#506

https://www.examtopics.com/discussions/amazon/view/109692-exam-aws-certified-solutions-architect-associate-saa-c03/


한 소셜 미디어 회사에서 웹사이트용 기능을 구축하고 있습니다. 이 기능을 통해 사용자는 사진을 업로드할 수 있습니다. 회사는 대규모 이벤트 기간 동안 수요가 크게 증가할 것으로 예상하고 웹사이트가 사용자의 업로드 트래픽을 처리할 수 있는지 확인해야 합니다.

가장 뛰어난 확장성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 사용자의 브라우저에서 응용 프로그램 서버로 파일을 업로드합니다. 파일을 Amazon S3 버킷으로 전송합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 프로비저닝합니다. 사용자 브라우저에서 파일 게이트웨이로 직접 파일을 업로드합니다.
  • C. 애플리케이션에서 Amazon S3의 미리 서명된 URL을 생성합니다. 사용자 브라우저에서 S3 버킷으로 직접 파일을 업로드합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 프로비저닝합니다. 사용자 브라우저에서 파일 시스템으로 직접 파일을 업로드합니다.
더보기
해설
  • A. 사용자의 브라우저에서 응용 프로그램 서버로 파일을 업로드합니다. 파일을 Amazon S3 버킷으로 전송합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 프로비저닝합니다. 사용자 브라우저에서 파일 게이트웨이로 직접 파일을 업로드합니다.
  • C. 애플리케이션에서 Amazon S3의 미리 서명된 URL을 생성합니다. 사용자 브라우저에서 S3 버킷으로 직접 파일을 업로드합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 프로비저닝합니다. 사용자 브라우저에서 파일 시스템으로 직접 파일을 업로드합니다.

#507⭐

https://www.examtopics.com/discussions/amazon/view/109608-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에 여행 발권을 위한 웹 애플리케이션이 있습니다. 이 애플리케이션은 북미 지역의 단일 데이터 센터에서 실행되는 데이터베이스를 기반으로 합니다. 회사는 글로벌 사용자 기반에 서비스를 제공하기 위해 애플리케이션을 확장하려고 합니다. 회사는 여러 AWS 지역에 애플리케이션을 배포해야 합니다. 예약 데이터베이스 업데이트 시 평균 대기 시간은 1초 미만이어야 합니다.

회사는 여러 지역에 걸쳐 웹 플랫폼을 별도로 배포하려고 합니다. 그러나 회사는 전 세계적으로 일관된 단일 기본 예약 데이터베이스를 유지해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 솔루션을 권장해야 합니까?

  • A. Amazon DynamoDB를 사용하도록 애플리케이션을 변환합니다. 센터 예약 테이블은 글로벌 테이블을 사용합니다. 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • B. 데이터베이스를 Amazon Aurora MySQL 데이터베이스로 마이그레이션합니다. 각 지역에 Aurora 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • C. 데이터베이스를 MySQL용 Amazon RDS 데이터베이스로 마이그레이션합니다. 각 리전에 MySQL 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • D. 애플리케이션을 Amazon Aurora Serverless 데이터베이스로 마이그레이션합니다. 각 지역에 데이터베이스 인스턴스를 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요. AWS Lambda 함수를 사용하여 각 리전의 이벤트 스트림을 처리하여 데이터베이스를 동기화합니다.
더보기
해설
  • A. Amazon DynamoDB를 사용하도록 애플리케이션을 변환합니다. 센터 예약 테이블은 글로벌 테이블을 사용합니다. 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • B. 데이터베이스를 Amazon Aurora MySQL 데이터베이스로 마이그레이션합니다. 각 지역에 Aurora 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • C. 데이터베이스를 MySQL용 Amazon RDS 데이터베이스로 마이그레이션합니다. 각 리전에 MySQL 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
  • D. 애플리케이션을 Amazon Aurora Serverless 데이터베이스로 마이그레이션합니다. 각 지역에 데이터베이스 인스턴스를 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요. AWS Lambda 함수를 사용하여 각 리전의 이벤트 스트림을 처리하여 데이터베이스를 동기화합니다.

DynamoDB의 글로벌 테이블 기능을 사용하면 업데이트 시 지연 시간이 짧은 전역적으로 일관된 예약 데이터베이스를 얻을 수 있어 글로벌 사용자 기반에 서비스를 제공하는 데 적합합니다. DynamoDB가 제공하는 자동 복제를 사용하면 리전 간 수동 동기화가 필요하지 않습니다.


#508

https://www.examtopics.com/discussions/amazon/view/109530-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 여러 Microsoft Windows Server 워크로드를 us-west-1 리전에서 실행되는 Amazon EC2 인스턴스로 마이그레이션했습니다. 회사에서는 필요에 따라 워크로드를 수동으로 백업하여 이미지를 생성합니다.

us-west-1 리전에서 자연재해가 발생할 경우 회사는 us-west-2 리전에서 워크로드를 신속하게 복구하려고 합니다. 회사는 EC2 인스턴스에서 24시간 이상 데이터 손실이 발생하지 않기를 원합니다. 또한 회사는 EC2 인스턴스의 모든 백업을 자동화하려고 합니다.

최소한의 관리 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. 요청 시 이미지를 복사합니다.
  • B. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. us-west-2 리전으로 복사본을 구성합니다.
  • C. AWS Backup을 사용하여 us-west-1 및 us-west-2에 백업 볼트를 생성합니다. 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 백업 데이터를 us-west-2에 복사하기 위해 예약된 작업으로 실행할 AWS Lambda 함수를 생성합니다.
  • D. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 복사본의 대상을 us-west-2로 정의합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다.
  • E. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다. 요청 시 us-west-2에 복사합니다.
더보기
해설
  • A. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. 요청 시 이미지를 복사합니다.
  • B. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. us-west-2 리전으로 복사본을 구성합니다.
  • C. AWS Backup을 사용하여 us-west-1 및 us-west-2에 백업 볼트를 생성합니다. 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 백업 데이터를 us-west-2에 복사하기 위해 예약된 작업으로 실행할 AWS Lambda 함수를 생성합니다.
  • D. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 복사본의 대상을 us-west-2로 정의합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다.
  • E. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다. 요청 시 us-west-2에 복사합니다.

#509⭐

https://www.examtopics.com/discussions/amazon/view/109531-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서는 이미지 처리를 위해 2계층 애플리케이션을 운영하고 있습니다. 애플리케이션은 각각 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 있는 2개의 가용 영역을 사용합니다. 웹 계층용 ALB(Application Load Balancer)는 퍼블릭 서브넷을 사용합니다. 애플리케이션 계층의 Amazon EC2 인스턴스는 프라이빗 서브넷을 사용합니다.

사용자들은 애플리케이션이 예상보다 느리게 실행되고 있다고 보고합니다. 웹 서버 로그 파일의 보안 감사에 따르면 애플리케이션이 소수의 IP 주소로부터 수백만 건의 불법적인 요청을 받고 있는 것으로 나타났습니다. 솔루션 설계자는 즉각적인 성능 문제를 해결해야 하며 회사는 보다 영구적인 솔루션을 조사해야 합니다.

이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
  • B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
  • C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
  • D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
더보기
해설
  • A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
  • B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
  • C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
  • D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.

이 시나리오에서 보안 감사는 애플리케이션이 소수의 IP 주소로부터 수백만 건의 불법적인 요청을 받고 있음을 보여줍니다. 이 문제를 해결하려면 웹 계층 서브넷에 대한 네트워크 ACL(액세스 제어 목록)을 수정하는 것이 좋습니다. 리소스를 소비하는 IP 주소를 구체적으로 대상으로 하는 인바운드 거부 규칙을 추가함으로써 네트워크 ACL은 불법 트래픽이 웹 서버에 도달하기 전에 서브넷 수준에서 차단할 수 있습니다. 이는 웹 계층의 과도한 로드를 완화하고 애플리케이션 성능을 향상시키는 데 도움이 됩니다.

보안그룹에서는 거부할 수 없기 때문에 잘못된 것입니다(허용만 가능

CD: 앱 계층은 공격을 받지 않으므로 관련 없는 옵션입니다. B: NACL은 CIDR 또는 IP 주소에 대한 규칙을 정의하는 이 액세스 제어 목록에 정확히 적합하므로 정확


#510

https://www.examtopics.com/discussions/amazon/view/109708-exam-aws-certified-solutions-architect-associate-saa-c03/



글로벌 마케팅 회사에는 ap-southeast-2 리전 및 eu-west-1 리전에서 실행되는 애플리케이션이 있습니다. eu-west-1의 VPC에서 실행되는 애플리케이션은 ap-southeast-2의 VPC에서 실행되는 데이터베이스와 안전하게 통신해야 합니다.

이러한 요구 사항을 충족하는 네트워크 디자인은 무엇입니까?

  • A. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 VPC 피어링 연결을 생성합니다. ap-southeast-2 보안 그룹의 데이터베이스 서버 IP 주소로부터의 트래픽을 허용하는 eu-west-1 애플리케이션 보안 그룹에 인바운드 규칙을 생성합니다.
  • B. ap-southeast-2 VPC와 eu-west-1 VPC 사이에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1에 있는 애플리케이션 서버의 보안 그룹 ID를 참조하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
  • C. ap-southeast-2 VPC와 eu-west-1 VP 간에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1 애플리케이션 서버 IP 주소의 트래픽을 허용하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
  • D. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 피어링 연결을 사용하여 전송 게이트웨이를 생성합니다. 전송 게이트웨이가 올바르게 피어링되고 라우팅이 구성된 후 eu-west-1에서 애플리케이션 서버의 보안 그룹 ID를 참조하는 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
더보기
해설
  • A. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 VPC 피어링 연결을 생성합니다. ap-southeast-2 보안 그룹의 데이터베이스 서버 IP 주소로부터의 트래픽을 허용하는 eu-west-1 애플리케이션 보안 그룹에 인바운드 규칙을 생성합니다.
  • B. ap-southeast-2 VPC와 eu-west-1 VPC 사이에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1에 있는 애플리케이션 서버의 보안 그룹 ID를 참조하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
  • C. ap-southeast-2 VPC와 eu-west-1 VP 간에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1 애플리케이션 서버 IP 주소의 트래픽을 허용하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
  • D. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 피어링 연결을 사용하여 전송 게이트웨이를 생성합니다. 전송 게이트웨이가 올바르게 피어링되고 라우팅이 구성된 후 eu-west-1에서 애플리케이션 서버의 보안 그룹 ID를 참조하는 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.

#511⭐

https://www.examtopics.com/discussions/amazon/view/109532-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 PostgreSQL 데이터베이스 스키마를 사용하는 소프트웨어를 개발하고 있습니다. 회사는 회사 개발자를 위해 여러 개발 환경과 데이터베이스를 구성해야 합니다. 평균적으로 각 개발 환경은 하루 8시간의 절반 동안 사용됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 자체 Amazon Aurora PostgreSQL 데이터베이스로 각 개발 환경을 구성합니다.
  • B. PostgreSQL 단일 AZ DB 인스턴스용 자체 Amazon RDS로 각 개발 환경을 구성합니다.
  • C. 자체 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스로 각 개발 환경을 구성합니다.
  • D. Amazon S3 Object Select를 사용하여 자체 Amazon S3 버킷으로 각 개발 환경을 구성합니다.
더보기
해설
  • A. 자체 Amazon Aurora PostgreSQL 데이터베이스로 각 개발 환경을 구성합니다.
  • B. PostgreSQL 단일 AZ DB 인스턴스용 자체 Amazon RDS로 각 개발 환경을 구성합니다.
  • C. 자체 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스로 각 개발 환경을 구성합니다.
  • D. Amazon S3 Object Select를 사용하여 자체 Amazon S3 버킷으로 각 개발 환경을 구성합니다.

옵션 C는 각 개발 환경에 대해 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스를 사용할 것을 제안합니다. 이 옵션은 확장 가능한 고성능 데이터베이스 엔진인 Amazon Aurora의 이점을 제공하는 동시에 온디맨드 방식으로 사용량에 대한 비용을 지불할 수 있도록 해줍니다. Amazon Aurora On-Demand 인스턴스는 일반적으로 프로비저닝된 용량 옵션에 비해 개별 개발 환경에서 더 비용 효율적입니다.


#512

https://www.examtopics.com/discussions/amazon/view/109709-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 계정별로 태그가 지정된 리소스와 함께 AWS Organizations를 사용합니다. 또한 이 회사는 AWS Backup을 사용하여 AWS 인프라 리소스를 백업합니다. 회사는 모든 AWS 리소스를 백업해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Config를 사용하여 태그가 지정되지 않은 모든 리소스를 식별하십시오. 프로그래밍 방식으로 식별된 리소스에 태그를 지정합니다. 백업 계획에 태그를 사용합니다.
  • B. AWS Config를 사용하여 실행되지 않는 모든 리소스를 식별합니다. 해당 리소스를 백업 볼트에 추가합니다.
  • C. 모든 AWS 계정 소유자에게 리소스를 검토하여 백업해야 하는 리소스를 식별하도록 요구합니다.
  • D. Amazon Inspector를 사용하여 모든 비준수 리소스를 식별합니다.
더보기
해설
  • A. AWS Config를 사용하여 태그가 지정되지 않은 모든 리소스를 식별하십시오. 프로그래밍 방식으로 식별된 리소스에 태그를 지정합니다. 백업 계획에 태그를 사용합니다.
  • B. AWS Config를 사용하여 실행되지 않는 모든 리소스를 식별합니다. 해당 리소스를 백업 볼트에 추가합니다.
  • C. 모든 AWS 계정 소유자에게 리소스를 검토하여 백업해야 하는 리소스를 식별하도록 요구합니다.
  • D. Amazon Inspector를 사용하여 모든 비준수 리소스를 식별합니다.

#513⭐

https://www.examtopics.com/discussions/amazon/view/109713-exam-aws-certified-solutions-architect-associate-saa-c03/



한 소셜 미디어 회사는 사용자가 AWS 클라우드에 호스팅된 애플리케이션에 이미지를 업로드할 수 있도록 허용하려고 합니다. 회사에는 이미지가 여러 장치 유형에 표시될 수 있도록 이미지 크기를 자동으로 조정하는 솔루션이 필요합니다. 애플리케이션은 하루 종일 예측할 수 없는 트래픽 패턴을 경험합니다. 회사는 확장성을 극대화하는 가용성이 뛰어난 솔루션을 찾고 있습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS Lambda 함수를 호출하여 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하는 Amazon S3에서 호스팅되는 정적 웹 사이트를 생성합니다.
  • B. AWS Step Functions를 호출하여 이미지 크기를 조정하고 Amazon RDS 데이터베이스에 이미지를 저장하는 Amazon CloudFront에서 호스팅되는 정적 웹 사이트를 생성합니다.
  • C. Amazon EC2 인스턴스에서 실행되는 웹 서버에서 호스팅되는 동적 웹 사이트를 생성합니다. 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하도록 EC2 인스턴스에서 실행되는 프로세스를 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)에서 크기 조정 작업을 생성하는 자동 확장 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 호스팅되는 동적 웹 사이트를 생성합니다. 크기 조정 작업을 처리하기 위해 Amazon EC2 인스턴스에서 실행되는 이미지 크기 조정 프로그램을 설정합니다.
더보기
해설
  • A. AWS Lambda 함수를 호출하여 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하는 Amazon S3에서 호스팅되는 정적 웹 사이트를 생성합니다.
  • B. AWS Step Functions를 호출하여 이미지 크기를 조정하고 Amazon RDS 데이터베이스에 이미지를 저장하는 Amazon CloudFront에서 호스팅되는 정적 웹 사이트를 생성합니다.
  • C. Amazon EC2 인스턴스에서 실행되는 웹 서버에서 호스팅되는 동적 웹 사이트를 생성합니다. 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하도록 EC2 인스턴스에서 실행되는 프로세스를 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)에서 크기 조정 작업을 생성하는 자동 확장 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 호스팅되는 동적 웹 사이트를 생성합니다. 크기 조정 작업을 처리하기 위해 Amazon EC2 인스턴스에서 실행되는 이미지 크기 조정 프로그램을 설정합니다.

Amazon S3와 AWS Lambda를 함께 사용하면 확장성과 가용성이 뛰어난 이미지 크기 조정 기능을 제공하는 서버리스 아키텍처를 생성할 수 있습니다. 

image = static = S3 또는 cloudfront이지만 이미지는 구조화되지 않은 데이터이므로 RDS와 같은 관계형 데이터베이스에 저장하지 않으며 Step Function은 처리용이 아닙


#514⭐

https://www.examtopics.com/discussions/amazon/view/109534-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 Amazon EC2 인스턴스에서 마이크로서비스 애플리케이션을 실행하고 있습니다. 회사는 확장성을 위해 애플리케이션을 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터로 마이그레이션하려고 합니다. 회사는 보안 규정 준수를 유지하기 위해 엔드포인트 프라이빗 액세스가 true로 설정되고 엔드포인트 퍼블릭 액세스가 false로 설정된 Amazon EKS 제어 플레인을 구성해야 합니다. 회사는 또한 데이터 플레인을 프라이빗 서브넷에 배치해야 합니다. 그러나 노드가 클러스터에 참여할 수 없기 때문에 회사는 오류 알림을 받았습니다.

노드가 클러스터에 합류하도록 허용하는 솔루션은 무엇입니까?

  • A. AWS Identity and Access Management(IAM)에서 필요한 권한을 AmazonEKSNodeRole IAM 역할에 부여합니다.
  • B. 노드가 제어 플레인에 액세스할 수 있도록 인터페이스 VPC 엔드포인트를 생성합니다.
  • C. 퍼블릭 서브넷에서 노드를 다시 생성합니다. EC2 노드에 대한 보안 그룹을 제한합니다.
  • D. 노드의 보안 그룹에서 아웃바운드 트래픽을 허용합니다.
더보기
해설 * A와 B 각각 50으로 정답이 갈림
  • A. AWS Identity and Access Management(IAM)에서 필요한 권한을 AmazonEKSNodeRole IAM 역할에 부여합니다.
  • B. 노드가 제어 플레인에 액세스할 수 있도록 인터페이스 VPC 엔드포인트를 생성합니다.
  • C. 퍼블릭 서브넷에서 노드를 다시 생성합니다. EC2 노드에 대한 보안 그룹을 제한합니다.
  • D. 노드의 보안 그룹에서 아웃바운드 트래픽을 허용합니다.

A => https://docs.aws.amazon.com/eks/latest/userguide/create-node-role.html 또한 EKS에는 VPC 엔드포인트가 필요하지 않습니다. 이는 EKS의 올바른 사용 사례가 아닙

B => 인터페이스 VPC 엔드포인트를 생성하면 Amazon EKS 제어 플레인과 프라이빗 서브넷의 노드 간에 필요한 통신을 활성화할 수 있습니다. 이 솔루션은 컨트롤 플레인이 보안 규정 준수를 위해 엔드포인트 프라이빗 액세스(true로 설정)와 엔드포인트 퍼블릭 액세스(false로 설정)를 유지하도록 보장


#515⭐

https://www.examtopics.com/discussions/amazon/view/109535-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에서 온프레미스 애플리케이션을 AWS로 마이그레이션하고 있습니다. 회사는 Amazon Redshift를 솔루션으로 사용하려고 합니다.

이 시나리오에서 Amazon Redshift에 적합한 사용 사례는 무엇입니까? (3개를 선택하세요.)

  • A. 기존의 컨테이너화된 이벤트 기반 애플리케이션을 통해 데이터에 액세스할 수 있는 데이터 API 지원
  • B. 클라이언트 측 및 서버 측 암호화 지원
  • C. 지정된 시간 동안 및 애플리케이션이 활성화되지 않은 동안 분석 워크로드 구축
  • D. 백엔드 데이터베이스에 대한 부담을 줄이기 위한 데이터 캐싱
  • E. 페타바이트 규모의 데이터와 분당 수천만 건의 요청을 지원하기 위해 전 세계적으로 확장
  • F. AWS Management Console을 사용하여 클러스터의 보조 복제본 생성
더보기
해설 *
  • A. 기존의 컨테이너화된 이벤트 기반 애플리케이션을 통해 데이터에 액세스할 수 있는 데이터 API 지원
  • B. 클라이언트 측 및 서버 측 암호화 지원
  • C. 지정된 시간 동안 및 애플리케이션이 활성화되지 않은 동안 분석 워크로드 구축
  • D. 백엔드 데이터베이스에 대한 부담을 줄이기 위한 데이터 캐싱
  • E. 페타바이트 규모의 데이터와 분당 수천만 건의 요청을 지원하기 위해 전 세계적으로 확장
  • F. AWS Management Console을 사용하여 클러스터의 보조 복제본 생성

A, C, E는 데이터용이고 Redshift는 데이터 웨어하우스입니다. B는 너무 일반적인 선택입니다. D 캐싱은 Redshift의 주요 목적이 아닙니다. F 복제는 Redshift의 주요 용도가 아닙니다. CE는 쉽습니다. AB 사이에서는 Redshift가 데이터 API를 지원하고 클라이언트 측 암호화가 Redshift에만 국한되지 않기 때문에 A를 선택

 

"데이터 API는 일반적으로 Redshift와 함께 사용되지 않음

A냐 B냐 의견 엇갈림...

 

Amazon Redshift는 데이터 웨어하우스 솔루션이므로 다음에 적합합니다. -암호화 지원(클라이언트 측 및 서버 측) -특히 애플리케이션 활동이 적은 사용량이 적은 시간 동안 분석 워크로드 처리 -대량 데이터로 확장 분석 목적을 위한 높은 쿼리 볼륨 다음 옵션은 올바르지 않습니다. A) 데이터 API는 일반적으로 Redshift와 함께 사용되지 않습니다. SQL 쿼리 및 분석을 실행하는 데 더 적합합니다. D) Redshift는 일반적으로 데이터 캐싱에 사용되지 않습니다. 이는 분석 및 데이터 웨어하우스 목적으로 사용됩니다. F) Redshift 클러스터는 관리 콘솔에서 복제본을 생성하지 않습니다. 이들은 독립형 클러스터입니다. 스냅샷에서 DR 클러스터를 생성하고 다른 지역으로 복원(자동 또는 수동)할 수 있


#516⭐

https://www.examtopics.com/discussions/amazon/view/109719-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 고객이 금융 정보를 검색할 수 있도록 고객에게 API 인터페이스를 제공합니다. 회사에서는 연중 사용량이 가장 많은 시간대에 더 많은 요청이 발생할 것으로 예상합니다.

회사에서는 고객 만족을 보장하기 위해 API가 짧은 대기 시간으로 일관되게 응답하도록 요구합니다. 회사는 API에 대한 컴퓨팅 호스트를 제공해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Application Load Balancer와 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
  • B. 프로비저닝된 동시성을 갖춘 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오.
  • C. Application Load Balancer와 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 사용합니다.
  • D. 예약된 동시성을 통해 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다.
더보기
해설
  • A. Application Load Balancer와 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
  • B. 프로비저닝된 동시성을 갖춘 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오.
  • C. Application Load Balancer와 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 사용합니다.
  • D. 예약된 동시성을 통해 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다.

회사가 피크 사용 시간 동안 API에 대한 짧은 대기 시간과 일관된 성능을 원하는 특정 시나리오의 맥락에서는 프로비저닝된 동시성을 사용하는 것이 더 적합할 것


#517⭐

https://www.examtopics.com/discussions/amazon/view/109536-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에서는 보관 목적으로 모든 AWS Systems Manager Session Manager 로그를 Amazon S3 버킷으로 보내려고 합니다.

가장 효율적인 운영 효율성으로 이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Systems Manager 콘솔에서 S3 로깅을 활성화합니다. 세션 데이터를 보낼 S3 버킷을 선택합니다.
  • B. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 보관 목적으로 그룹에서 S3 버킷으로 로그를 내보냅니다.
  • C. 시스템 관리자 문서를 생성하여 모든 서버 로그를 중앙 S3 버킷에 업로드합니다. Amazon EventBridge를 사용하여 매일 계정에 있는 모든 서버에 대해 Systems Manager 문서를 실행하십시오.
  • D. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 수신 로그 이벤트를 Amazon Kinesis Data Firehose 전송 스트림으로 푸시하는 CloudWatch 로그 구독을 생성합니다. Amazon S3를 대상으로 설정합니다.
더보기
해설
  • A. Systems Manager 콘솔에서 S3 로깅을 활성화합니다. 세션 데이터를 보낼 S3 버킷을 선택합니다.
  • B. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 보관 목적으로 그룹에서 S3 버킷으로 로그를 내보냅니다.
  • C. 시스템 관리자 문서를 생성하여 모든 서버 로그를 중앙 S3 버킷에 업로드합니다. Amazon EventBridge를 사용하여 매일 계정에 있는 모든 서버에 대해 Systems Manager 문서를 실행하십시오.
  • D. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 수신 로그 이벤트를 Amazon Kinesis Data Firehose 전송 스트림으로 푸시하는 CloudWatch 로그 구독을 생성합니다. Amazon S3를 대상으로 설정합니다.

세션 관리자 -> 기본 설정 탭에서 S3에 보관된 로그를 구성할 수 있

A는 SM 로깅의 직접 옵션이므로 가장 효율적입니다.

B는 작동할 수 있지만 CloudWatch를 사용하게 되면서 운영 오버헤드가 더 커집


#518

https://www.examtopics.com/discussions/amazon/view/109721-exam-aws-certified-solutions-architect-associate-saa-c03/


애플리케이션은 Amazon RDS MySQL DB 인스턴스를 사용합니다. RDS 데이터베이스의 디스크 공간이 부족해지고 있습니다. 솔루션 설계자는 가동 중지 시간 없이 디스크 공간을 늘리기를 원합니다.

최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. RDS에서 스토리지 자동 확장 활성화
  • B. RDS 데이터베이스 인스턴스 크기 늘리기
  • C. RDS 데이터베이스 인스턴스 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.
  • D. RDS 데이터베이스 백업, 스토리지 용량 늘리기, 데이터베이스 복원 및 이전 인스턴스 중지
더보기
해설
  • A. RDS에서 스토리지 자동 확장 활성화
  • B. RDS 데이터베이스 인스턴스 크기 늘리기
  • C. RDS 데이터베이스 인스턴스 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.
  • D. RDS 데이터베이스 백업, 스토리지 용량 늘리기, 데이터베이스 복원 및 이전 인스턴스 중지

#519⭐

https://www.examtopics.com/discussions/amazon/view/109722-exam-aws-certified-solutions-architect-associate-saa-c03/



컨설팅 회사는 전 세계 고객에게 전문적인 서비스를 제공합니다. 이 회사는 고객이 AWS에서 데이터를 신속하게 수집하고 분석할 수 있는 솔루션과 도구를 제공합니다. 회사는 고객이 셀프 서비스 목적으로 사용할 수 있는 공통 솔루션 및 도구 세트를 중앙에서 관리하고 배포해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 고객을 위한 AWS CloudFormation 템플릿을 생성합니다.
  • B. 고객을 위한 AWS Service Catalog 제품을 생성합니다.
  • C. 고객을 위한 AWS 시스템 관리자 템플릿을 생성합니다.
  • D. 고객을 위한 AWS Config 항목을 생성합니다.
더보기
해설
  • A. 고객을 위한 AWS CloudFormation 템플릿을 생성합니다.
  • B. 고객을 위한 AWS Service Catalog 제품을 생성합니다.
  • C. 고객을 위한 AWS 시스템 관리자 템플릿을 생성합니다.
  • D. 고객을 위한 AWS Config 항목을 생성합니다.

CloudFormation: 인프라 서비스로서의 코드

Systems Manager: 리소스 관리 솔루션

구성: 구성 평가, 감사 및 평가

다른 옵션은 이 시나리오에 적합하지 않


#520⭐

https://www.examtopics.com/discussions/amazon/view/109539-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 Amazon EC2 인스턴스에서 실행될 새로운 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 백엔드 데이터 저장을 위해 Amazon DynamoDB를 사용합니다. 애플리케이션 트래픽은 예측할 수 없습니다. 회사에서는 데이터베이스에 대한 애플리케이션 읽기 및 쓰기 처리량이 보통에서 높을 것으로 예상합니다. 회사는 애플리케이션 트래픽에 대응하여 확장해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 DynamoDB 테이블 구성은 무엇입니까?

  • A. DynamoDB 표준 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
  • B. DynamoDB 표준 테이블 클래스를 사용하여 온디맨드 모드로 DynamoDB를 구성합니다.
  • C. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
  • D. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 온디맨드 모드에서 DynamoDB를 구성합니다.
더보기
해설
  • A. DynamoDB 표준 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
  • B. DynamoDB 표준 테이블 클래스를 사용하여 온디맨드 모드로 DynamoDB를 구성합니다.
  • C. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
  • D. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 온디맨드 모드에서 DynamoDB를 구성합니다.

"예측할 수 없는" 트래픽으로 인해 A가 아님

보통에서 높은" 트래픽이 예상되므로 C 및 D가 아님


#521

https://www.examtopics.com/discussions/amazon/view/109703-exam-aws-certified-solutions-architect-associate-saa-c03/



소매 회사에는 여러 사업체가 있습니다. 각 비즈니스의 IT 팀은 자체 AWS 계정을 관리합니다. 각 팀 계정은 AWS Organizations 조직의 일부입니다. 각 팀은 팀 자체 AWS 계정의 Amazon DynamoDB 테이블에서 제품 재고 수준을 모니터링합니다.

회사는 중앙 재고 보고 애플리케이션을 공유 AWS 계정에 배포하고 있습니다. 애플리케이션은 모든 팀의 DynamoDB 테이블에서 항목을 읽을 수 있어야 합니다.

어떤 인증 옵션이 이러한 요구 사항을 가장 안전하게 충족합니까?

  • A. 인벤토리 애플리케이션 계정에서 DynamoDB를 AWS Secrets Manager와 통합합니다. Secrets Manager의 올바른 암호를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. 30일마다 비밀 교체를 예약합니다.
  • B. 모든 비즈니스 계정에서 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. 올바른 IAM 사용자 액세스 키 ID와 보안 액세스 키를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. IAM 액세스 키를 30일마다 수동으로 교체합니다.
  • C. 모든 비즈니스 계정에서 DynamoDB 테이블에 대한 액세스 권한을 역할에 부여하는 정책과 인벤토리 애플리케이션 계정의 특정 역할을 신뢰하는 신뢰 정책을 사용하여 BU_ROLE이라는 IAM 역할을 생성합니다. 인벤토리 계정에서 STS AssumeRole API 작업에 대한 액세스를 허용하는 APP_ROLE이라는 역할을 생성합니다. APP_ROLE을 사용하도록 애플리케이션을 구성하고 교차 계정 역할 BU_ROLE을 가정하여 DynamoDB 테이블을 읽습니다.
  • D. DynamoDB를 AWS Certificate Manager(ACM)와 통합합니다. DynamoDB를 인증하기 위해 ID 인증서를 생성합니다. 올바른 인증서를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다.
더보기
해설
  • A. 인벤토리 애플리케이션 계정에서 DynamoDB를 AWS Secrets Manager와 통합합니다. Secrets Manager의 올바른 암호를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. 30일마다 비밀 교체를 예약합니다.
  • B. 모든 비즈니스 계정에서 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. 올바른 IAM 사용자 액세스 키 ID와 보안 액세스 키를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. IAM 액세스 키를 30일마다 수동으로 교체합니다.
  • C. 모든 비즈니스 계정에서 DynamoDB 테이블에 대한 액세스 권한을 역할에 부여하는 정책과 인벤토리 애플리케이션 계정의 특정 역할을 신뢰하는 신뢰 정책을 사용하여 BU_ROLE이라는 IAM 역할을 생성합니다. 인벤토리 계정에서 STS AssumeRole API 작업에 대한 액세스를 허용하는 APP_ROLE이라는 역할을 생성합니다. APP_ROLE을 사용하도록 애플리케이션을 구성하고 교차 계정 역할 BU_ROLE을 가정하여 DynamoDB 테이블을 읽습니다.
  • D. DynamoDB를 AWS Certificate Manager(ACM)와 통합합니다. DynamoDB를 인증하기 위해 ID 인증서를 생성합니다. 올바른 인증서를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다.

#522

https://www.examtopics.com/discussions/amazon/view/109702-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하여 컨테이너 애플리케이션을 실행합니다. 회사의 업무량은 하루 종일 일정하지 않습니다. 회사는 Amazon EKS가 워크로드에 따라 확장 및 축소되기를 원합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 조정하십시오.
  • B. Kubernetes Metrics Server를 사용하여 수평형 포드 자동 크기 조정을 활성화합니다.
  • C. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
  • D. Amazon API Gateway를 사용하여 Amazon EKS에 연결합니다.
  • E. AWS App Mesh를 사용하여 네트워크 활동을 관찰합니다.
더보기
해설
  • A. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 조정하십시오.
  • B. Kubernetes Metrics Server를 사용하여 수평형 포드 자동 크기 조정을 활성화합니다.
  • C. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
  • D. Amazon API Gateway를 사용하여 Amazon EKS에 연결합니다.
  • E. AWS App Mesh를 사용하여 네트워크 활동을 관찰합니다.

#523⭐

https://www.examtopics.com/discussions/amazon/view/109701-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 마이크로서비스 기반 서버리스 웹 애플리케이션을 실행하고 있습니다. 애플리케이션은 여러 Amazon DynamoDB 테이블에서 데이터를 검색할 수 있어야 합니다. 솔루션 아키텍트는 애플리케이션의 기본 성능에 영향을 주지 않고 데이터를 검색할 수 있는 기능을 애플리케이션에 제공해야 합니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?

  • A. AWS AppSync 파이프라인 해석기
  • B. Lambda@Edge 기능을 갖춘 Amazon CloudFront
  • C. AWS Lambda 기능을 갖춘 엣지 최적화 Amazon API Gateway
  • D. DynamoDB 커넥터를 사용한 Amazon Athena 통합 쿼리
더보기
해설
  • A. AWS AppSync 파이프라인 해석기
  • B. Lambda@Edge 기능을 갖춘 Amazon CloudFront
  • C. AWS Lambda 기능을 갖춘 엣지 최적화 Amazon API Gateway
  • D. DynamoDB 커넥터를 사용한 Amazon Athena 통합 쿼리

A 아님 - 파이프 해석기에는 코딩이 필요하며 '운영 효율성'을 고려하지 않습니다. B 아님 - CloudFront는 앱에 대한 DynamoDB 쿼리 결과가 아닌 엣지에서 웹 콘텐츠를 캐시합니다. C 아님 - API Gateway나 Lambda 모두 DynamoDB 성능과 관련이 없습니다. D - 바로 그럴 수 있지


#524⭐

https://www.examtopics.com/discussions/amazon/view/111425-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에서는 IAM 권한과 관련된 액세스 거부 오류 및 무단 오류를 분석하고 문제를 해결하려고 합니다. 회사에서는 AWS CloudTrail을 활성화했습니다.

최소한의 노력으로 이러한 요구 사항을 충족할 수 있는 솔루션은 무엇입니까?

  • A. AWS Glue를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
  • B. AWS Batch를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
  • C. Amazon Athena 쿼리로 CloudTrail 로그를 검색하여 오류를 식별합니다.
  • D. Amazon QuickSight로 CloudTrail 로그를 검색합니다. 오류를 식별하기 위해 대시보드를 만듭니다
더보기
해설
  • A. AWS Glue를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
  • B. AWS Batch를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
  • C. Amazon Athena 쿼리로 CloudTrail 로그를 검색하여 오류를 식별합니다.
  • D. Amazon QuickSight로 CloudTrail 로그를 검색합니다. 오류를 식별하기 위해 대시보드를 만듭니다.

"Amazon QuickSight로 CloudTrail 로그 검색"이 작동하지 않습니다. QuickSight는 Athena 쿼리 결과를 시각화할 수 있으므로 "Amazon Athena로 CloudTrail 로그를 검색한 다음 Amazon QuickSight로 대시보드를 생성"하는 것이 합리적입니다. 그러나 Athena가 없으면 QuickSight는 작동하지 않


#525⭐

https://www.examtopics.com/discussions/amazon/view/111278-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에서는 운영 비용 대시보드에 기존 AWS 사용 비용을 추가하려고 합니다. 
솔루션 설계자는 회사가 프로그래밍 방식으로 사용 비용에 액세스할 수 있도록 하는 솔루션을 추천해야 합니다. 
회사는 올해의 비용 데이터에 액세스하고 향후 12개월 동안의 비용을 예측할 수 있어야 합니다.

  • A. 페이지 매김 기능이 있는 AWS Cost Explorer API를 사용하여 사용량 비용 관련 데이터에 액세스합니다.
  • B. 다운로드 가능한 AWS Cost Explorer 보고서 .csv 파일을 사용하여 사용 비용 관련 데이터에 액세스합니다.
  • C. FTP를 통해 회사에 사용 비용 데이터를 전송하도록 AWS Budgets 작업을 구성합니다.
  • D. 사용 비용 데이터에 대한 AWS 예산 보고서를 생성합니다. SMTP를 통해 회사에 데이터를 보냅니다.
더보기
해설
  • A. 페이지 매김 기능이 있는 AWS Cost Explorer API를 사용하여 사용량 비용 관련 데이터에 액세스합니다.
  • B. 다운로드 가능한 AWS Cost Explorer 보고서 .csv 파일을 사용하여 사용 비용 관련 데이터에 액세스합니다.
  • C. FTP를 통해 회사에 사용 비용 데이터를 전송하도록 AWS Budgets 작업을 구성합니다.
  • D. 사용 비용 데이터에 대한 AWS 예산 보고서를 생성합니다. SMTP를 통해 회사에 데이터를 보냅니다.

프로그래밍 방식 + 최소 오버헤드 = API

프로그래밍 방식으로 사용 비용에 액세스 = AWS Cost Explorer API


#526⭐

https://www.examtopics.com/discussions/amazon/view/111245-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자가 애플리케이션의 복원력을 검토하고 있습니다. 솔루션 설계자는 최근 데이터베이스 관리자가 확장 연습의 일환으로 애플리케이션의 Amazon Aurora PostgreSQL 데이터베이스 기록기 인스턴스를 장애 조치했다는 사실을 알아냈습니다. 장애 조치로 인해 애플리케이션 가동 중지 시간이 3분 발생했습니다.

최소한의 운영 오버헤드로 확장 연습의 가동 중지 시간을 줄이는 솔루션은 무엇입니까?

  • A. 장애 조치 중 로드를 처리하기 위해 클러스터에 더 많은 Aurora PostgreSQL 읽기 전용 복제본을 생성합니다.
  • B. 동일한 AWS 리전에 보조 Aurora PostgreSQL 클러스터를 설정합니다. 장애 조치 중에 보조 클러스터의 작성자 엔드포인트를 사용하도록 애플리케이션을 업데이트합니다.
  • C. 장애 조치 중 로드를 처리하기 위해 Memcached용 Amazon ElastiCache 클러스터를 생성합니다.
  • D. 데이터베이스에 대한 Amazon RDS 프록시를 설정합니다. 프록시 끝점을 사용하도록 애플리케이션을 업데이트합니다.
더보기
해설
  • A. 장애 조치 중 로드를 처리하기 위해 클러스터에 더 많은 Aurora PostgreSQL 읽기 전용 복제본을 생성합니다.
  • B. 동일한 AWS 리전에 보조 Aurora PostgreSQL 클러스터를 설정합니다. 장애 조치 중에 보조 클러스터의 작성자 엔드포인트를 사용하도록 애플리케이션을 업데이트합니다.
  • C. 장애 조치 중 로드를 처리하기 위해 Memcached용 Amazon ElastiCache 클러스터를 생성합니다.
  • D. 데이터베이스에 대한 Amazon RDS 프록시를 설정합니다. 프록시 끝점을 사용하도록 애플리케이션을 업데이트합니다.

RDS 프록시는 Amazon Aurora MySQL의 장애 조치 후 클라이언트 복구 시간을 최대 79% 단축


#527

https://www.examtopics.com/discussions/amazon/view/111428-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 단일 AWS 지역에서 실행되는 지역 구독 기반 스트리밍 서비스가 있습니다. 아키텍처는 Amazon EC2 인스턴스의 웹 서버와 애플리케이션 서버로 구성됩니다. EC2 인스턴스는 Elastic Load Balancer 뒤의 Auto Scaling 그룹에 있습니다. 아키텍처에는 여러 가용 영역에 걸쳐 확장되는 Amazon Aurora 글로벌 데이터베이스 클러스터가 포함되어 있습니다.

회사는 전 세계적으로 확장하고 애플리케이션 가동 중지 시간을 최소화하기를 원합니다.

가장 뛰어난 내결함성을 제공하는 솔루션은 무엇입니까?

  • A. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 확장하여 두 번째 지역의 가용 영역에 인스턴스를 배포합니다. Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
  • B. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 리전 간 Aurora 복제본을 추가합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
  • C. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 데이터베이스를 생성합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기본 데이터베이스를 두 번째 리전에 복제합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
  • D. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. Amazon Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
더보기
해설
  • A. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 확장하여 두 번째 지역의 가용 영역에 인스턴스를 배포합니다. Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
  • B. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 리전 간 Aurora 복제본을 추가합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
  • C. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 데이터베이스를 생성합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기본 데이터베이스를 두 번째 리전에 복제합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
  • D. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. Amazon Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.

#528⭐

https://www.examtopics.com/discussions/amazon/view/111317-exam-aws-certified-solutions-architect-associate-saa-c03/



한 데이터 분석 회사가 배치 처리 시스템을 AWS로 마이그레이션하려고 합니다. 회사는 FTP를 통해 하루 동안 정기적으로 수천 개의 작은 데이터 파일을 받습니다. 온프레미스 일괄 작업은 밤새 데이터 파일을 처리합니다. 그러나 일괄 작업 실행을 완료하는 데 몇 시간이 걸립니다.

회사는 파일을 보내는 FTP 클라이언트에 대한 변경을 최소화하면서 AWS 솔루션이 수신 데이터 파일을 최대한 빨리 처리하기를 원합니다. 솔루션은 파일이 성공적으로 처리된 후 들어오는 데이터 파일을 삭제해야 합니다. 각 파일을 처리하는 데는 3~8분이 소요됩니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?

  • A. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 수신 파일을 Amazon S3 Glacier 유연한 검색의 객체로 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 S3 Glacier 유연한 검색에서 야간에 객체를 처리하는 작업을 호출합니다. 작업에서 개체를 처리한 후 개체를 삭제합니다.
  • B. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 EBS 볼륨에서 매일 밤 파일을 처리하는 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
  • C. AWS Transfer Family를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장하기 위한 FTP 서버를 생성합니다. AWS Batch에서 작업 대기열을 구성합니다. 각 파일이 도착하면 Amazon S3 이벤트 알림을 사용하여 AWS Batch에서 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
  • D. AWS Transfer Family를 사용하여 Amazon S3 Standard에 수신 파일을 저장할 FTP 서버를 생성합니다. 파일을 처리하고 처리된 후 파일을 삭제하는 AWS Lambda 함수를 생성합니다. 파일이 도착하면 S3 이벤트 알림을 사용하여 Lambda 함수를 호출합니다.
더보기
해설
  • A. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 수신 파일을 Amazon S3 Glacier 유연한 검색의 객체로 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 S3 Glacier 유연한 검색에서 야간에 객체를 처리하는 작업을 호출합니다. 작업에서 개체를 처리한 후 개체를 삭제합니다.
  • B. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 EBS 볼륨에서 매일 밤 파일을 처리하는 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
  • C. AWS Transfer Family를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장하기 위한 FTP 서버를 생성합니다. AWS Batch에서 작업 대기열을 구성합니다. 각 파일이 도착하면 Amazon S3 이벤트 알림을 사용하여 AWS Batch에서 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
  • D. AWS Transfer Family를 사용하여 Amazon S3 Standard에 수신 파일을 저장할 FTP 서버를 생성합니다. 파일을 처리하고 처리된 후 파일을 삭제하는 AWS Lambda 함수를 생성합니다. 파일이 도착하면 S3 이벤트 알림을 사용하여 Lambda 함수를 호출합니다.

FTP => AWS Transfer Family, => C 또는 D,

그러나 C에서는 EC2가 필요한 S3가 아닌 EBS가 사용되며 일반적으로 더 복잡


#529

https://www.examtopics.com/discussions/amazon/view/111246-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 워크로드를 AWS로 마이그레이션하고 있습니다. 회사는 데이터베이스에 거래 및 민감한 데이터를 보유하고 있습니다. 회사는 AWS 클라우드 솔루션을 사용하여 보안을 강화하고 데이터베이스의 운영 오버헤드를 줄이고 싶어합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 데이터베이스를 Amazon EC2로 마이그레이션합니다. 암호화를 위해 AWS Key Management Service(AWS KMS) AWS 관리형 키를 사용합니다.
  • B. 데이터베이스를 Amazon RDS로 마이그레이션하여 저장 암호화를 구성합니다.
  • C. 데이터를 Amazon S3로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon Macie를 사용합니다.
  • D. 데이터베이스를 Amazon RDS로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon CloudWatch Logs를 사용하십시오.
더보기
해설
  • A. 데이터베이스를 Amazon EC2로 마이그레이션합니다. 암호화를 위해 AWS Key Management Service(AWS KMS) AWS 관리형 키를 사용합니다.
  • B. 데이터베이스를 Amazon RDS로 마이그레이션하여 저장 암호화를 구성합니다.
  • C. 데이터를 Amazon S3로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon Macie를 사용합니다.
  • D. 데이터베이스를 Amazon RDS로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon CloudWatch Logs를 사용하십시오.

#530⭐

https://www.examtopics.com/discussions/amazon/view/111271-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에는 TCP 및 UDP 멀티플레이어 게임 기능을 갖춘 온라인 게임 애플리케이션이 있습니다. 이 회사는 Amazon Route 53을 사용하여 애플리케이션 트래픽을 다양한 AWS 지역의 여러 Network Load Balancer(NLB)로 지정합니다. 회사는 사용자 성장에 대비하여 온라인 게임의 애플리케이션 성능을 개선하고 대기 시간을 줄여야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. NLB 앞에 Amazon CloudFront 배포판을 추가합니다. Cache-Control max-age 매개변수를 늘립니다.
  • B. NLB를 ALB(Application Load Balancer)로 교체합니다. 지연 시간 기반 라우팅을 사용하도록 Route 53을 구성합니다.
  • C. NLB 앞에 AWS Global Accelerator를 추가합니다. 올바른 수신기 포트를 사용하도록 Global Accelerator 끝점을 구성합니다.
  • D. NLB 뒤에 Amazon API Gateway 엔드포인트를 추가합니다. API 캐싱을 활성화합니다. 다양한 단계에 대한 메서드 캐싱을 재정의합니다.
더보기
해설
  • A. NLB 앞에 Amazon CloudFront 배포판을 추가합니다. Cache-Control max-age 매개변수를 늘립니다.
  • B. NLB를 ALB(Application Load Balancer)로 교체합니다. 지연 시간 기반 라우팅을 사용하도록 Route 53을 구성합니다.
  • C. NLB 앞에 AWS Global Accelerator를 추가합니다. 올바른 수신기 포트를 사용하도록 Global Accelerator 끝점을 구성합니다.
  • D. NLB 뒤에 Amazon API Gateway 엔드포인트를 추가합니다. API 캐싱을 활성화합니다. 다양한 단계에 대한 메서드 캐싱을 재정의합니다.

A: CloudFront는 캐싱용입니다. 필요하지 않음 B: ALB는 HTTP 레이어용이며 TCP UDP 문제에 도움이 되지 않습니다. D: API 게이트웨이, API 캐싱 전체 쓰레기, 이 옵션을 무시합니다. C: Global Accelerator가 대기 시간을 전체적으로 줄이기 위해 유니캐스트를 사용


#531

https://www.examtopics.com/discussions/amazon/view/111430-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 제3자 데이터 피드와 통합해야 합니다. 데이터 피드는 새 데이터를 사용할 준비가 되면 외부 서비스에 알리기 위해 웹후크를 보냅니다. 개발자는 회사가 웹훅 콜백을 수신할 때 데이터를 검색하는 AWS Lambda 함수를 작성했습니다. 개발자는 타사가 호출할 수 있도록 Lambda 함수를 제공해야 합니다.

가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Lambda 함수에 대한 함수 URL을 생성합니다. Webhook에 대한 Lambda 함수 URL을 타사에 제공합니다.
  • B. Lambda 함수 앞에 Application Load Balancer(ALB)를 배포합니다. 웹훅에 대한 ALB URL을 제3자에게 제공합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 주제를 Lambda 함수에 연결합니다. 웹훅을 위해 SNS 주제의 공개 호스트 이름을 제3자에게 제공합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. Lambda 함수에 대기열을 연결합니다. 웹후크에 대해 SQS 대기열의 공개 호스트 이름을 제3자에게 제공합니다.
더보기
해설
  • A. Lambda 함수에 대한 함수 URL을 생성합니다. Webhook에 대한 Lambda 함수 URL을 타사에 제공합니다.
  • B. Lambda 함수 앞에 Application Load Balancer(ALB)를 배포합니다. 웹훅에 대한 ALB URL을 제3자에게 제공합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 주제를 Lambda 함수에 연결합니다. 웹훅을 위해 SNS 주제의 공개 호스트 이름을 제3자에게 제공합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. Lambda 함수에 대기열을 연결합니다. 웹후크에 대해 SQS 대기열의 공개 호스트 이름을 제3자에게 제공합니다.

#532⭐

https://www.examtopics.com/discussions/amazon/view/111382-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에는 AWS 리전에 워크로드가 있습니다. 고객은 Amazon API Gateway REST API를 사용하여 워크로드에 연결하고 액세스합니다. 이 회사는 Amazon Route 53을 DNS 공급자로 사용합니다. 회사는 모든 고객에게 개별적이고 안전한 URL을 제공하려고 합니다.

가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.)

  • A. 등록기관에 필요한 도메인을 등록하세요. Route 53 호스팅 영역에 와일드카드 사용자 지정 도메인 이름을 생성하고 API Gateway 엔드포인트를 가리키는 영역에 기록합니다.
  • B. 다른 지역의 AWS Certificate Manager(ACM) 도메인과 일치하는 와일드카드 인증서를 요청합니다.
  • C. Route 53에서 필요에 따라 각 고객에 대한 호스팅 영역을 생성합니다. API 게이트웨이 엔드포인트를 가리키는 영역 레코드를 생성합니다.
  • D. 동일한 리전에 있는 AWS Certificate Manager(ACM)의 사용자 지정 도메인 이름과 일치하는 와일드카드 인증서를 요청합니다.
  • E. API Gateway에서 각 고객에 대해 여러 API 엔드포인트를 생성합니다.
  • F. API 게이트웨이에서 REST API용 사용자 지정 도메인 이름을 생성합니다. AWS Certificate Manager(ACM)에서 인증서를 가져옵니다.
더보기
해설
  • A. 등록기관에 필요한 도메인을 등록하세요. Route 53 호스팅 영역에 와일드카드 사용자 지정 도메인 이름을 생성하고 API Gateway 엔드포인트를 가리키는 영역에 기록합니다.
  • B. 다른 지역의 AWS Certificate Manager(ACM) 도메인과 일치하는 와일드카드 인증서를 요청합니다.
  • C. Route 53에서 필요에 따라 각 고객에 대한 호스팅 영역을 생성합니다. API 게이트웨이 엔드포인트를 가리키는 영역 레코드를 생성합니다.
  • D. 동일한 리전에 있는 AWS Certificate Manager(ACM)의 사용자 지정 도메인 이름과 일치하는 와일드카드 인증서를 요청합니다.
  • E. API Gateway에서 각 고객에 대해 여러 API 엔드포인트를 생성합니다.
  • F. API 게이트웨이에서 REST API용 사용자 지정 도메인 이름을 생성합니다. AWS Certificate Manager(ACM)에서 인증서를 가져옵니다.

핵심 사항: 와일드카드 도메인 및 인증서를 사용하면 고객별로 개별 도메인/인증서를 관리할 필요가 없습니다. 이것이 더 효율적입니다. 단순화를 위해 도메인, 호스팅 영역 및 인증서는 모두 API Gateway REST API와 동일한 지역에 있어야 합니다. 고객별로 여러 API 엔드포인트를 생성하면(옵션 E) 복잡성이 추가되며 필수는 아닙니다. 옵션 B와 C는 도메인, 인증서 및 호스팅 영역을 분리하여 불필요한 복잡성을 추가합니


#533

https://www.examtopics.com/discussions/amazon/view/111432-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 Amazon S3에 데이터를 저장합니다. 규정에 따르면 데이터에는 개인 식별 정보(PII)가 포함되어서는 안 됩니다. 회사는 최근 S3 버킷에 PII가 포함된 일부 객체가 있다는 사실을 발견했습니다. 회사는 S3 버킷에서 PII를 자동으로 감지하고 회사 보안 팀에 알려야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • B. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • C. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData:S3Object/Personal 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • D. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
더보기
해설
  • A. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • B. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • C. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData:S3Object/Personal 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
  • D. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.

#534⭐

https://www.examtopics.com/discussions/amazon/view/111434-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 여러 AWS 계정에 대한 로깅 솔루션을 구축하려고 합니다. 회사는 현재 모든 계정의 로그를 중앙 집중식 계정에 저장합니다. 회사는 VPC 흐름 로그와 AWS CloudTrail 로그를 저장하기 위해 중앙 집중식 계정에 Amazon S3 버킷을 생성했습니다. 모든 로그는 빈번한 분석을 위해 30일 동안 가용성이 높아야 하고, 백업 목적으로 추가 60일 동안 보관되어야 하며, 생성 후 90일 후에 삭제되어야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 생성 후 30일이 지나면 객체를 S3 Standard 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • B. 생성 후 30일이 지나면 객체를 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • C. 생성 후 30일이 지나면 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • D. 생성 후 30일이 지나면 객체를 S3 One Zone-IA(S3 One Zone-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
더보기
해설
  • A. 생성 후 30일이 지나면 객체를 S3 Standard 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • B. 생성 후 30일이 지나면 객체를 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • C. 생성 후 30일이 지나면 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
  • D. 생성 후 30일이 지나면 객체를 S3 One Zone-IA(S3 One Zone-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.

C가 가장 적합한 것 같습니다. 최저가입니다. 30일 이후는 백업만 되며, 자주 접속하도록 지정하지 않습니다. 따라서 30일 후에 항목을 Glacier 유연한 검색으로 전환해야 합니다. 또한 90일 후 삭제라고 되어 있으므로 90일 후 전환을 지정하는 모든 답변은 의미가 없

 

A가 아님: 객체가 S3 Standard에서 생성되므로 "생성 후 30일"에서 객체를 '전환'하는 것은 의미가 없습니다. B 또는 C가 아님: S3 Standard 이후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동할 필요가 없습니다. 90일"을 의미합니다. 왜냐하면 보관이 아닌 삭제를 원하기 때문입니다. 이사 후 바로 삭제하더라도 최소 보관 기간인 90일을 지불하겠습니다. 게다가 여기서는 "Infrequent Access" 클래스를 사용하고 있지만 전혀 액세스할 수 없습


#535

https://www.examtopics.com/discussions/amazon/view/111385-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 워크로드를 위해 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 구축하고 있습니다. Amazon EKS에 저장된 모든 비밀은 Kubernetes etcd 키-값 저장소에서 암호화되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. AWS Secrets Manager를 사용하여 Amazon EKS의 모든 비밀을 관리, 교체 및 저장합니다.
  • B. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. Amazon EKS 클러스터에서 Amazon EKS KMS 암호 암호화를 활성화합니다.
  • C. 기본 옵션을 사용하여 Amazon EKS 클러스터를 생성합니다. Amazon Elastic Block Store(Amazon EBS) CSI(컨테이너 스토리지 인터페이스) 드라이버를 추가 기능으로 사용합니다.
  • D. 별칭/aws/ebs 별칭을 사용하여 새 AWS Key Management Service(AWS KMS) 키를 생성합니다. 계정에 대해 기본 Amazon Elastic Block Store(Amazon EBS) 볼륨 암호화를 활성화합니다.
더보기
해설
  • A. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. AWS Secrets Manager를 사용하여 Amazon EKS의 모든 비밀을 관리, 교체 및 저장합니다.
  • B. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. Amazon EKS 클러스터에서 Amazon EKS KMS 암호 암호화를 활성화합니다.
  • C. 기본 옵션을 사용하여 Amazon EKS 클러스터를 생성합니다. Amazon Elastic Block Store(Amazon EBS) CSI(컨테이너 스토리지 인터페이스) 드라이버를 추가 기능으로 사용합니다.
  • D. 별칭/aws/ebs 별칭을 사용하여 새 AWS Key Management Service(AWS KMS) 키를 생성합니다. 계정에 대해 기본 Amazon Elastic Block Store(Amazon EBS) 볼륨 암호화를 활성화합니다.

#536⭐

https://www.examtopics.com/discussions/amazon/view/111435-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 데이터 과학자에게 회사의 프로덕션 PostgreSQL용 Amazon RDS 데이터베이스에 대한 거의 실시간 읽기 전용 액세스를 제공하려고 합니다. 데이터베이스는 현재 단일 AZ 데이터베이스로 구성되어 있습니다. 데이터 과학자는 프로덕션 데이터베이스에 영향을 주지 않는 복잡한 쿼리를 사용합니다. 회사에는 가용성이 뛰어난 솔루션이 필요합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 유지 관리 기간에 기존 프로덕션 데이터베이스를 확장하여 데이터 과학자에게 충분한 성능을 제공합니다.
  • B. 단일 AZ에서 더 큰 보조 대기 인스턴스가 있는 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자에게 보조 인스턴스에 대한 액세스 권한을 제공합니다.
  • C. 단일 AZ에서 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자를 위해 두 개의 추가 읽기 복제본을 제공합니다.
  • D. 단일 AZ에서 읽기 가능한 대기 인스턴스 2개가 있는 다중 AZ 클러스터 배포로 설정을 변경합니다. 데이터 과학자에게 읽기 엔드포인트를 제공합니다.
더보기
해설
  • A. 유지 관리 기간에 기존 프로덕션 데이터베이스를 확장하여 데이터 과학자에게 충분한 성능을 제공합니다.
  • B. 단일 AZ에서 더 큰 보조 대기 인스턴스가 있는 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자에게 보조 인스턴스에 대한 액세스 권한을 제공합니다.
  • C. 단일 AZ에서 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자를 위해 두 개의 추가 읽기 복제본을 제공합니다.
  • D. 단일 AZ에서 읽기 가능한 대기 인스턴스 2개가 있는 다중 AZ 클러스터 배포로 설정을 변경합니다. 데이터 과학자에게 읽기 엔드포인트를 제공합니다.

A 아님 - "고가용성" 아님 B 아님 - 다중 AZ에서는 "보조 인스턴스에 대한 액세스"가 불가능함 C 아님 - 다중 AZ + 2개(!) 읽기 전용 복제본이 클러스터 D보다 비쌈 - "읽기 가능한 대기 인스턴스 제공" "


#537⭐

https://www.examtopics.com/discussions/amazon/view/111386-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 3개의 가용 영역에서 작동하는 AWS 클라우드에서 3계층 웹 애플리케이션을 실행합니다. 애플리케이션 아키텍처에는 Application Load Balancer, 사용자 세션 상태를 호스팅하는 Amazon EC2 웹 서버, EC2 인스턴스에서 실행되는 MySQL 데이터베이스가 있습니다. 회사에서는 애플리케이션 트래픽이 갑자기 증가할 것으로 예상하고 있습니다. 회사는 향후 애플리케이션 용량 요구 사항을 충족하고 3개 가용 영역 모두에서 고가용성을 보장하기 위해 확장할 수 있기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • B. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Amazon ElastiCache for Memcached를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • C. MySQL 데이터베이스를 Amazon DynamoDB로 마이그레이션 DynamoDB Accelerator(DAX)를 사용하여 읽기를 캐시합니다. DynamoDB에 세션 데이터를 저장합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • D. 단일 가용 영역에서 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
더보기
해설
  • A. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • B. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Amazon ElastiCache for Memcached를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • C. MySQL 데이터베이스를 Amazon DynamoDB로 마이그레이션 DynamoDB Accelerator(DAX)를 사용하여 읽기를 캐시합니다. DynamoDB에 세션 데이터를 저장합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
  • D. 단일 가용 영역에서 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.

Memcached는 데이터 캐싱에 가장 적합한 반면 Redis는 지속되어야 하는 데이터를 저장하는 데 더 적합


#538⭐

https://www.examtopics.com/discussions/amazon/view/111387-exam-aws-certified-solutions-architect-associate-saa-c03/


한 글로벌 비디오 스트리밍 회사는 Amazon CloudFront를 CDN(콘텐츠 배포 네트워크)으로 사용합니다. 회사는 여러 국가에 걸쳐 단계적으로 콘텐츠를 출시하려고 합니다. 회사는 회사가 콘텐츠를 출시하는 국가 외부에 있는 시청자가 콘텐츠를 볼 수 없도록 해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 허용 목록을 사용하여 CloudFront의 콘텐츠에 지리적 제한을 추가합니다. 사용자 정의 오류 메시지를 설정합니다.
  • B. 제한된 콘텐츠를 위해 새로운 URL을 설정합니다. 서명된 URL과 쿠키를 사용하여 액세스를 승인합니다. 사용자 정의 오류 메시지를 설정합니다.
  • 다. 회사가 배포하는 콘텐츠에 대한 데이터를 암호화합니다. 사용자 정의 오류 메시지를 설정합니다.
  • D. 제한된 콘텐츠에 대한 새 URL을 만듭니다. 서명된 URL에 대해 시간 제한 액세스 정책을 설정합니다.
더보기
해설
  • A. 허용 목록을 사용하여 CloudFront의 콘텐츠에 지리적 제한을 추가합니다. 사용자 정의 오류 메시지를 설정합니다.
  • B. 제한된 콘텐츠를 위해 새로운 URL을 설정합니다. 서명된 URL과 쿠키를 사용하여 액세스를 승인합니다. 사용자 정의 오류 메시지를 설정합니다.
  • 다. 회사가 배포하는 콘텐츠에 대한 데이터를 암호화합니다. 사용자 정의 오류 메시지를 설정합니다.
  • D. 제한된 콘텐츠에 대한 새 URL을 만듭니다. 서명된 URL에 대해 시간 제한 액세스 정책을 설정합니다.

BCD는 지역별로 URL을 제한할 수 없고 지역(국가 등)별로 암호화할 수 없으므로 지역 제한에는 실용적이지 않


#539⭐

https://www.examtopics.com/discussions/amazon/view/111301-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에서는 AWS 클라우드를 사용하여 온프레미스 재해 복구(DR) 구성을 개선하려고 합니다. 회사의 핵심 프로덕션 비즈니스 애플리케이션은 가상 머신(VM)에서 실행되는 Microsoft SQL Server Standard를 사용합니다. 애플리케이션의 RPO(복구 지점 목표)는 30초 이하이고 RTO(복구 시간 목표)는 60분입니다. DR 솔루션은 가능한 한 비용을 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Always On 가용성 그룹이 포함된 Microsoft SQL Server Enterprise를 사용하여 온프레미스 서버와 AWS 간에 다중 사이트 활성/활성 설정을 구성합니다.
  • B. AWS의 SQL Server 데이터베이스에 대한 웜 대기 Amazon RDS를 구성합니다. 변경 데이터 캡처(CDC)를 사용하도록 AWS Database Migration Service(AWS DMS)를 구성합니다.
  • C. 디스크 변경 사항을 AWS에 복제하도록 구성된 AWS Elastic Disaster Recovery를 파일럿 라이트로 사용합니다.
  • D. 타사 백업 소프트웨어를 사용하여 매일 밤 백업을 캡처합니다. Amazon S3에 보조 백업 세트를 저장합니다.
더보기
해설
  • A. Always On 가용성 그룹이 포함된 Microsoft SQL Server Enterprise를 사용하여 온프레미스 서버와 AWS 간에 다중 사이트 활성/활성 설정을 구성합니다.
  • B. AWS의 SQL Server 데이터베이스에 대한 웜 대기 Amazon RDS를 구성합니다. 변경 데이터 캡처(CDC)를 사용하도록 AWS Database Migration Service(AWS DMS)를 구성합니다.
  • C. 디스크 변경 사항을 AWS에 복제하도록 구성된 AWS Elastic Disaster Recovery를 파일럿 라이트로 사용합니다.
  • D. 타사 백업 소프트웨어를 사용하여 매일 밤 백업을 캡처합니다. Amazon S3에 보조 백업 세트를 저장합니다.

백업 및 복원(시간 단위 RPO, 24시간 이하 RTO) 지시등(분 단위 RPO, 시간 단위 RTO) 웜 대기(초 단위 RPO, 분 단위 RTO) *** 정답 *** 활성-활성(RPO) 없음 또는 초(초 단위의 RTO)


#540⭐

https://www.examtopics.com/discussions/amazon/view/111439-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 Oracle 데이터베이스를 사용하여 고객 정보를 처리하고 저장하는 온프레미스 서버가 있습니다. 회사는 더 높은 가용성을 달성하고 애플리케이션 성능을 향상시키기 위해 AWS 데이터베이스 서비스를 사용하려고 합니다. 또한 회사는 기본 데이터베이스 시스템에서 보고 작업을 오프로드하려고 합니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?

  • A. AWS Database Migration Service(AWS DMS)를 사용하여 여러 AWS 리전에 Amazon RDS DB 인스턴스를 생성하십시오. 보고 기능이 기본 DB 인스턴스와 별도의 DB 인스턴스를 가리키도록 합니다.
  • B. 단일 AZ 배포에서 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 기본 DB 인스턴스와 동일한 영역에 읽기 전용 복제본을 생성합니다. 보고 기능을 읽기 전용 복제본으로 보냅니다.
  • C. 다중 AZ 클러스터 배포에 배포된 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 클러스터 배포에서 리더 인스턴스를 사용하도록 보고 기능에 지시합니다.
  • D. 다중 AZ 인스턴스 배포에 배포된 Amazon RDS를 사용하여 Amazon Aurora 데이터베이스를 생성합니다. 보고 기능을 리더 인스턴스에 지시합니다.
더보기
해설
  • A. AWS Database Migration Service(AWS DMS)를 사용하여 여러 AWS 리전에 Amazon RDS DB 인스턴스를 생성하십시오. 보고 기능이 기본 DB 인스턴스와 별도의 DB 인스턴스를 가리키도록 합니다.
  • B. 단일 AZ 배포에서 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 기본 DB 인스턴스와 동일한 영역에 읽기 전용 복제본을 생성합니다. 보고 기능을 읽기 전용 복제본으로 보냅니다.
  • C. 다중 AZ 클러스터 배포에 배포된 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 클러스터 배포에서 리더 인스턴스를 사용하도록 보고 기능에 지시합니다.
  • D. 다중 AZ 인스턴스 배포에 배포된 Amazon RDS를 사용하여 Amazon Aurora 데이터베이스를 생성합니다. 보고 기능을 리더 인스턴스에 지시합니다.

D 다중 AZ DB 클러스터는 다음 엔진에서 사용할 수 없습니다. MariaDB용 RDS Oracle용 RDS SQL Server용 RDS


#541⭐

https://www.examtopics.com/discussions/amazon/view/111440-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 AWS에서 웹 애플리케이션을 구축하려고 합니다. 웹 사이트에 대한 클라이언트 액세스 요청은 예측할 수 없으며 오랫동안 유휴 상태일 수 있습니다. 가입비를 지불한 고객만이 웹 애플리케이션에 로그인하고 사용할 수 있습니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.)

  • A. Amazon DynamoDB에서 사용자 정보를 검색하는 AWS Lambda 함수를 생성합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
  • B. Application Load Balancer 뒤에 Amazon Elastic Container Service(Amazon ECS) 서비스를 생성하여 Amazon RDS에서 사용자 정보를 검색합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
  • C. 사용자를 인증하기 위해 Amazon Cognito 사용자 풀을 생성합니다.
  • D. 사용자를 인증하기 위해 Amazon Cognito 자격 증명 풀을 생성합니다.
  • E. AWS Amplify를 사용하여 HTML, CSS 및 JS로 프런트엔드 웹 콘텐츠를 제공합니다. 통합 Amazon CloudFront 구성을 사용합니다.
  • F. PHP, CSS 및 JS와 함께 Amazon S3 정적 웹 호스팅을 사용하십시오. Amazon CloudFront를 사용하여 프런트엔드 웹 콘텐츠를 제공합니다.
더보기
해설
  • A. Amazon DynamoDB에서 사용자 정보를 검색하는 AWS Lambda 함수를 생성합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
  • B. Application Load Balancer 뒤에 Amazon Elastic Container Service(Amazon ECS) 서비스를 생성하여 Amazon RDS에서 사용자 정보를 검색합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
  • C. 사용자를 인증하기 위해 Amazon Cognito 사용자 풀을 생성합니다.
  • D. 사용자를 인증하기 위해 Amazon Cognito 자격 증명 풀을 생성합니다.
  • E. AWS Amplify를 사용하여 HTML, CSS 및 JS로 프런트엔드 웹 콘텐츠를 제공합니다. 통합 Amazon CloudFront 구성을 사용합니다.
  • F. PHP, CSS 및 JS와 함께 Amazon S3 정적 웹 호스팅을 사용하십시오. Amazon CloudFront를 사용하여 프런트엔드 웹 콘텐츠를 제공합니다.

옵션 B(Amazon ECS)는 웹 사이트가 "오랜 시간 동안 유휴 상태일 수 있으므로" 최선의 옵션이 아니므로 Lambda(옵션 A)가 더 비용 효율적인 선택입니다. 사용자 풀은 인증(ID 확인)용이고 자격 증명 풀은 승인(액세스 제어)용이므로 옵션 D는 올바르지 않습니다. 옵션 F는 잘못된 것입니다. S3 웹 호스팅은 HTML/CSS와 같은 정적 웹 파일만 지원하고 PHP 또는 JavaScript는 지원하지 않기 때문

A: 앱이 오랫동안 유휴 상태일 수 있으므로 Lambda가 완벽합니다(호출당 요금 부과) C: 사용자 인증을 위한 Cognito 사용자 풀 E: Amplify는 로우 코드 웹 개발 도구입니다 B: 잘못되었습니다. 유휴 시 비용이 너무 많이 듭니다 D: 자격 증명 풀은 세션입니다. 관리/식별. 인증에 도움이 되지 않습니다. F: S3 + PHP는 보안 없이도 작동하지 않


#542 ⭐

https://www.examtopics.com/discussions/amazon/view/111441-exam-aws-certified-solutions-architect-associate-saa-c03/



미디어 회사는 Amazon CloudFront 배포를 사용하여 인터넷을 통해 콘텐츠를 제공합니다. 회사는 프리미엄 고객만 미디어 스트림과 파일 콘텐츠에 액세스할 수 있기를 원합니다. 회사는 모든 콘텐츠를 Amazon S3 버킷에 저장합니다. 또한 회사는 영화 대여나 음악 다운로드와 같은 특정 목적을 위해 고객에게 주문형 콘텐츠를 제공합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 서명 쿠키를 생성하여 프리미엄 고객에게 제공합니다.
  • B. CloudFront 서명 URL을 생성하여 프리미엄 고객에게 제공합니다.
  • C. OAC(오리진 액세스 제어)를 사용하여 프리미엄이 아닌 고객의 액세스를 제한합니다.
  • D. 프리미엄이 아닌 고객을 차단하기 위해 필드 수준 암호화를 생성하고 활성화합니다.
더보기
해설
  • A. S3 서명 쿠키를 생성하여 프리미엄 고객에게 제공합니다.
  • B. CloudFront 서명 URL을 생성하여 프리미엄 고객에게 제공합니다.
  • C. OAC(오리진 액세스 제어)를 사용하여 프리미엄이 아닌 고객의 액세스를 제한합니다.
  • D. 프리미엄이 아닌 고객을 차단하기 위해 필드 수준 암호화를 생성하고 활성화합니다.

사용자 지정 정책이 포함된 CloudFront 서명된 URL이 바로 이에 대한 것입니다. A: 아니요, 쿠키는 URL을 제한하지 않으므로 도움이 되지 않


#543 ★

https://www.examtopics.com/discussions/amazon/view/111442-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 개별적으로 삭제된 여러 AWS 계정에서 Amazon EC2 인스턴스를 실행합니다. 회사는 최근 Savings Pian을 구입했습니다. 회사의 비즈니스 요구 사항 변경으로 인해 회사에서는 다수의 EC2 인스턴스를 폐기했습니다. 회사는 다른 AWS 계정에서 Savings Plan 할인을 사용하려고 합니다.

이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 마스터 계정의 AWS 계정 관리 콘솔에서 청구 기본 설정 섹션에서 할인 공유를 활성화하십시오.
  • B. 기존 Savings Plan을 구매한 계정의 AWS 계정 관리 콘솔의 결제 기본 설정 섹션에서 할인 공유를 활성화합니다. 모든 계정을 포함합니다.
  • C. AWS Organizations 마스터 계정에서 AWS Resource Access Manager(AWS RAM)를 사용하여 Savings Plan을 다른 계정과 공유합니다.
  • D. 새로운 지불자 계정으로 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
  • E. 기존 EC2 인스턴스 및 Savings Plan을 사용하여 기존 AWS 계정의 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
더보기
해설
  • A. 마스터 계정의 AWS 계정 관리 콘솔에서 청구 기본 설정 섹션에서 할인 공유를 활성화하십시오.
  • B. 기존 Savings Plan을 구매한 계정의 AWS 계정 관리 콘솔의 결제 기본 설정 섹션에서 할인 공유를 활성화합니다. 모든 계정을 포함합니다.
  • C. AWS Organizations 마스터 계정에서 AWS Resource Access Manager(AWS RAM)를 사용하여 Savings Plan을 다른 계정과 공유합니다.
  • D. 새로운 지불자 계정으로 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
  • E. 기존 EC2 인스턴스 및 Savings Plan을 사용하여 기존 AWS 계정의 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.

나에게 E는 할인이 새로운 지불인에게 적용되고 고객 서비스가 포함되지 않는 한 기존 계정으로 이전될 수 없기 때문에 의미가 없

조직은 관리용으로 예약된 새 계정으로 생성되어야 합니다. 따라서 D 다음에 A가 옵니다(할인 공유는 마스터 계정에서 활성화되어야 함

E가 아님 - 기존 EC2가 있는 계정을 마스터 계정으로 사용한다고 언급합니다. 이는 마스터 계정

마스터 계정에 워크로드를 두는 것은 권장되지 않

D에는 "새 지불자 계정의 AWS 조직에 조직 생성"이 있으므로 잘못되었습니다. D를 제거하십시오


#544

https://www.examtopics.com/discussions/amazon/view/111450-exam-aws-certified-solutions-architect-associate-saa-c03/


소매 회사는 공개 REST API에 지역 Amazon API Gateway API를 사용합니다. API 게이트웨이 엔드포인트는 Amazon Route 53 별칭 레코드를 가리키는 사용자 지정 도메인 이름입니다. 솔루션 설계자는 새 버전의 API를 출시하기 위해 고객에게 미치는 영향과 데이터 손실을 최소화하는 솔루션을 만들어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. API Gateway용 카나리아 릴리스 배포 단계를 생성합니다. 최신 API 버전을 배포합니다. 적절한 비율의 트래픽을 카나리아 단계로 지정합니다. API 검증 후 카나리아 단계를 프로덕션 단계로 승격합니다.
  • B. OpenAPI YAML 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. API Gateway의 API에 병합 모드에서 가져오기-업데이트 작업을 사용합니다. 새 버전의 API를 프로덕션 단계에 배포합니다.
  • C. OpenAPI JSON 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 덮어쓰기 모드에서 가져오기-업데이트 작업을 API Gateway의 API에 사용하세요. 새 버전의 API를 프로덕션 단계에 배포합니다.
  • D. 새 버전의 API 정의를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 새 API Gateway API에 대한 사용자 지정 도메인 이름을 생성합니다. Route 53 별칭 레코드가 새 API Gateway API 사용자 지정 도메인 이름을 가리키도록 합니다.
더보기
해설
  • A. API Gateway용 카나리아 릴리스 배포 단계를 생성합니다. 최신 API 버전을 배포합니다. 적절한 비율의 트래픽을 카나리아 단계로 지정합니다. API 검증 후 카나리아 단계를 프로덕션 단계로 승격합니다.
  • B. OpenAPI YAML 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. API Gateway의 API에 병합 모드에서 가져오기-업데이트 작업을 사용합니다. 새 버전의 API를 프로덕션 단계에 배포합니다.
  • C. OpenAPI JSON 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 덮어쓰기 모드에서 가져오기-업데이트 작업을 API Gateway의 API에 사용하세요. 새 버전의 API를 프로덕션 단계에 배포합니다.
  • D. 새 버전의 API 정의를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 새 API Gateway API에 대한 사용자 지정 도메인 이름을 생성합니다. Route 53 별칭 레코드가 새 API Gateway API 사용자 지정 도메인 이름을 가리키도록 합니다.

#545★

https://www.examtopics.com/discussions/amazon/view/116974-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에서는 회사의 기본 웹사이트를 사용할 수 없는 경우 사용자에게 백업 정적 오류 페이지를 표시하려고 합니다. 기본 웹 사이트의 DNS 레코드는 Amazon Route 53에서 호스팅됩니다. 도메인은 ALB(Application Load Balancer)를 가리키고 있습니다. 회사에는 변경 사항과 인프라 오버헤드를 최소화하는 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 지연 시간 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트하십시오. 트래픽이 가장 반응이 빠른 엔드포인트로 전송되도록 Amazon S3 버킷에서 호스팅되는 정적 오류 페이지를 레코드에 추가합니다.
  • B. Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
  • C. 정적 오류 페이지를 엔드포인트로 호스팅하는 Amazon EC2 인스턴스와 ALB를 사용하여 Route 53 활성-활성 구성을 설정합니다. ALB에 대한 상태 확인이 실패한 경우에만 인스턴스에 요청을 보내도록 Route 53을 구성합니다.
  • D. 다중 응답 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트합니다. 상태 확인을 만듭니다. 상태 확인을 통과하면 웹사이트로 트래픽을 보냅니다. 상태 확인을 통과하지 못한 경우 Amazon S3에서 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
더보기
해설
  • A. 지연 시간 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트하십시오. 트래픽이 가장 반응이 빠른 엔드포인트로 전송되도록 Amazon S3 버킷에서 호스팅되는 정적 오류 페이지를 레코드에 추가합니다.
  • B. Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
  • C. 정적 오류 페이지를 엔드포인트로 호스팅하는 Amazon EC2 인스턴스와 ALB를 사용하여 Route 53 활성-활성 구성을 설정합니다. ALB에 대한 상태 확인이 실패한 경우에만 인스턴스에 요청을 보내도록 Route 53을 구성합니다.
  • D. 다중 응답 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트합니다. 상태 확인을 만듭니다. 상태 확인을 통과하면 웹사이트로 트래픽을 보냅니다. 상태 확인을 통과하지 못한 경우 Amazon S3에서 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.

Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅


#546 ★

https://www.examtopics.com/discussions/amazon/view/116975-exam-aws-certified-solutions-architect-associate-saa-c03/



최근 회사의 IT 비용을 분석한 결과 백업 비용을 줄여야 할 필요성이 강조되었습니다. 회사의 최고 정보 책임자(CIO)는 온프레미스 백업 인프라를 단순화하고 물리적 백업 테이프의 사용을 제거하여 비용을 절감하려고 합니다. 회사는 온프레미스 백업 애플리케이션 및 워크플로우에 대한 기존 투자를 보존해야 합니다.

솔루션 설계자는 무엇을 추천해야 합니까?

  • A. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
  • B. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하는 Amazon EFS 파일 시스템을 설정합니다.
  • C. iSCSI 인터페이스를 사용하여 백업 애플리케이션과 연결되는 Amazon EFS 파일 시스템을 설정합니다.
  • D. iSCSI-VTL(가상 테이프 라이브러리) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
더보기
해설
  • A. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
  • B. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하는 Amazon EFS 파일 시스템을 설정합니다.
  • C. iSCSI 인터페이스를 사용하여 백업 애플리케이션과 연결되는 Amazon EFS 파일 시스템을 설정합니다.
  • D. iSCSI-VTL(가상 테이프 라이브러리) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.

iSCSI-가상 테이프 라이브러리(VTL) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정


#547★

https://www.examtopics.com/discussions/amazon/view/116976-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에는 여러 위치에 데이터 수집 센서가 있습니다. 데이터 수집 센서는 대량의 데이터를 회사에 스트리밍합니다. 회사는 대용량 스트리밍 데이터를 수집하고 처리하기 위해 AWS에서 플랫폼을 설계하려고 합니다. 솔루션은 확장 가능해야 하며 거의 실시간으로 데이터 수집을 지원해야 합니다. 회사는 향후 보고를 위해 Amazon S3에 데이터를 저장해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Kinesis Data Firehose를 사용하여 스트리밍 데이터를 Amazon S3에 전달하십시오.
  • B. AWS Glue를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
  • C. AWS Lambda를 사용하여 스트리밍 데이터를 전달하고 Amazon S3에 데이터를 저장합니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
더보기
해설
  • A. Amazon Kinesis Data Firehose를 사용하여 스트리밍 데이터를 Amazon S3에 전달하십시오.
  • B. AWS Glue를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
  • C. AWS Lambda를 사용하여 스트리밍 데이터를 전달하고 Amazon S3에 데이터를 저장합니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.

센서 데이터 = Kinesis
대용량 스트리밍 데이터 = Kinesis B: Glue는 ETL용이지만(S3로 이동해도 괜찮음) 스트리밍용은 아님 C: Lambda에 더 많은 오버헤드 D: 스트리밍 != 데이터 마이그레이션


#548

https://www.examtopics.com/discussions/amazon/view/116977-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에는 재무, 데이터 분석 및 개발 부서에 대한 별도의 AWS 계정이 있습니다. 비용과 보안 문제로 인해 회사는 각 AWS 계정이 사용할 수 있는 서비스를 제어하려고 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Systems Manager 템플릿을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스를 제어하십시오.
  • B. AWS Organizations의 각 부서에 대한 조직 단위(OU)를 생성합니다. SCP(서비스 제어 정책)를 OU에 연결합니다.
  • C. AWS CloudFormation을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스만 자동으로 프로비저닝합니다.
  • D. 특정 AWS 서비스의 사용을 관리하고 제어하려면 AWS 계정의 AWS Service Catalog에 제품 목록을 설정합니다
더보기
해설
  • A. AWS Systems Manager 템플릿을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스를 제어하십시오.
  • B. AWS Organizations의 각 부서에 대한 조직 단위(OU)를 생성합니다. SCP(서비스 제어 정책)를 OU에 연결합니다.
  • C. AWS CloudFormation을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스만 자동으로 프로비저닝합니다.
  • D. 특정 AWS 서비스의 사용을 관리하고 제어하려면 AWS 계정의 AWS Service Catalog에 제품 목록을 설정합니다

#549

https://www.examtopics.com/discussions/amazon/view/116978-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 전자상거래 웹사이트를 위한 다중 계층 애플리케이션을 만들었습니다. 웹 사이트는 퍼블릭 서브넷에 있는 Application Load Balancer, 퍼블릭 서브넷의 웹 계층, 프라이빗 서브넷의 Amazon EC2 인스턴스에서 호스팅되는 MySQL 클러스터를 사용합니다. MySQL 데이터베이스는 타사 제공업체가 인터넷에서 호스팅하는 제품 카탈로그 및 가격 정보를 검색해야 합니다. 솔루션 설계자는 운영 오버헤드를 늘리지 않고 보안을 극대화하는 전략을 고안해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. VPC에 NAT 인스턴스를 배포합니다. NAT 인스턴스를 통해 모든 인터넷 기반 트래픽을 라우팅합니다.
  • B. 퍼블릭 서브넷에 NAT 게이트웨이를 배포합니다. 모든 인터넷 바인딩 트래픽이 NAT 게이트웨이로 향하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
  • C. 인터넷 게이트웨이를 구성하고 이를 프라이빗 서브넷 라우팅 테이블의 VPModify에 연결하여 인터넷 바인딩 트래픽을 인터넷 게이트웨이로 보냅니다.
  • D. 가상 프라이빗 게이트웨이를 구성하고 이를 VPC에 연결합니다. 인터넷 바인딩 트래픽을 가상 프라이빗 게이트웨이로 전달하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
더보기
해설
  • A. VPC에 NAT 인스턴스를 배포합니다. NAT 인스턴스를 통해 모든 인터넷 기반 트래픽을 라우팅합니다.
  • B. 퍼블릭 서브넷에 NAT 게이트웨이를 배포합니다. 모든 인터넷 바인딩 트래픽이 NAT 게이트웨이로 향하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
  • C. 인터넷 게이트웨이를 구성하고 이를 프라이빗 서브넷 라우팅 테이블의 VPModify에 연결하여 인터넷 바인딩 트래픽을 인터넷 게이트웨이로 보냅니다.
  • D. 가상 프라이빗 게이트웨이를 구성하고 이를 VPC에 연결합니다. 인터넷 바인딩 트래픽을 가상 프라이빗 게이트웨이로 전달하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.

#550★

https://www.examtopics.com/discussions/amazon/view/116979-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 AWS Key Management Service(AWS KMS) 키를 사용하여 AWS Lambda 환경 변수를 암호화하고 있습니다. 솔루션 설계자는 환경 변수를 해독하고 사용하는 데 필요한 권한이 있는지 확인해야 합니다.

솔루션 설계자는 올바른 권한을 구현하기 위해 어떤 단계를 수행해야 합니까? (2개를 선택하세요.)

  • A. Lambda 리소스 정책에 AWS KMS 권한을 추가합니다.
  • B. Lambda 실행 역할에 AWS KMS 권한을 추가합니다.
  • C. Lambda 함수 정책에 AWS KMS 권한을 추가합니다.
  • D. AWS KMS 키 정책에서 Lambda 실행 역할을 허용합니다.
  • E. AWS KMS 키 정책에서 Lambda 리소스 정책을 허용합니다.
더보기
해설
  • A. Lambda 리소스 정책에 AWS KMS 권한을 추가합니다.
  • B. Lambda 실행 역할에 AWS KMS 권한을 추가합니다.
  • C. Lambda 함수 정책에 AWS KMS 권한을 추가합니다.
  • D. AWS KMS 키 정책에서 Lambda 실행 역할을 허용합니다.
  • E. AWS KMS 키 정책에서 Lambda 리소스 정책을 허용합니다.

AWS KMS 키 정책에서 Lambda 실행 역할을 허용한 다음 해당 역할에 AWS KMS 권한을 추가합

 

AWS KMS로 암호화된 환경 변수를 해독하려면 Lambda에 KMS API를 호출할 수 있는 권한을 부여받아야 합니다. 이 작업은 두 곳에서 수행됩니다. Lambda 실행 역할에는 kms:Decrypt 및 kms:GenerateDataKey 권한이 추가되어야 합니다. 실행 역할은 함수 코드가 액세스할 수 있는 AWS 서비스를 제어합니다. KMS 키 정책은 Lambda 실행 역할이 해당 특정 키에 대해 kms:Decrypt 및 kms:GenerateDataKey 권한을 갖도록 허용해야 합니다. 이를 통해 실행 역할이 해당 특정 키를 사용할 수 있습니


 

728x90
728x90

#451⭐

https://www.examtopics.com/discussions/amazon/view/109408-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 애플리케이션과 데이터베이스를 AWS 클라우드로 마이그레이션하고 있습니다. 이 회사는 Amazon Elastic Container Service(Amazon ECS), AWS Direct Connect 및 Amazon RDS를 사용할 예정입니다.

회사 운영팀에서는 어떤 활동을 관리하게 되나요? (3개를 선택하세요.)


  • A. Amazon RDS 인프라 계층, 운영 체제 및 플랫폼 관리
  • B. Amazon RDS DB 인스턴스 생성 및 예약된 유지 관리 기간 구성
  • C. 모니터링, 패치 관리, 로그 관리 및 호스트 침입 감지를 위해 Amazon ECS에 추가 소프트웨어 구성 요소 구성
  • D. Amazon RDS의 모든 마이너 및 메이저 데이터베이스 버전에 대한 패치 설치
  • E. 데이터 센터 내 Amazon RDS 인프라의 물리적 보안을 보장합니다.
  • F. Direct Connect를 통해 전송되는 데이터의 암호화
더보기
해설
  • A. Amazon RDS 인프라 계층, 운영 체제 및 플랫폼 관리
  • B. Amazon RDS DB 인스턴스 생성 및 예약된 유지 관리 기간 구성
  • C. 모니터링, 패치 관리, 로그 관리 및 호스트 침입 감지를 위해 Amazon ECS에 추가 소프트웨어 구성 요소 구성
  • D. Amazon RDS의 모든 마이너 및 메이저 데이터베이스 버전에 대한 패치 설치
  • E. 데이터 센터 내 Amazon RDS 인프라의 물리적 보안을 보장합니다.
  • F. Direct Connect를 통해 전송되는 데이터의 암호화

ADE = AWS 책임

F. Direct Connect는 ISP 및 AWS 제품이므로 집에서 ISP로부터 받는 것과 같은 물리적 연결로 간주합니다. 연결에 대한 보안을 구축할 때까지는 보안이 적용되지 않습니다. AWS는 Direct Connect를 제공하지만 기본적으로 이를 통한 데이터 이동에 대한 암호화 수준 보안을 제공하지 않습니다. 그것은 고객의 책임입니다.


#452

https://www.examtopics.com/discussions/amazon/view/109521-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 Amazon EC2 인스턴스에서 Java 기반 작업을 실행합니다. 작업은 1시간마다 실행되며 실행하는 데 10초가 걸립니다. 작업은 예약된 간격으로 실행되며 1GB의 메모리를 사용합니다. 작업이 사용 가능한 최대 CPU를 사용하는 짧은 급증을 제외하고 인스턴스의 CPU 사용률은 낮습니다. 회사는 작업을 실행하는 데 드는 비용을 최적화하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?


  • A. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 0.5 vCPU(가상 CPU) 및 1GB 메모리를 사용하여 AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS) 작업으로 작업을 실행합니다.
  • B. 메모리가 1GB인 AWS Lambda 함수에 코드를 복사합니다. 매시간 코드를 실행하는 Amazon EventBridge 예약 규칙을 생성합니다.
  • C. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 기존 Amazon 머신 이미지(AMI)에 컨테이너를 설치합니다. 작업이 완료되면 일정이 컨테이너를 중지하는지 확인하세요.
  • D. 작업 완료 시 EC2 인스턴스를 중지하고 다음 작업이 시작될 때 EC2 인스턴스를 다시 시작하도록 기존 일정을 구성합니다.
더보기
해설
  • A. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 0.5 vCPU(가상 CPU) 및 1GB 메모리를 사용하여 AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS) 작업으로 작업을 실행합니다.
  • B. 메모리가 1GB인 AWS Lambda 함수에 코드를 복사합니다. 매시간 코드를 실행하는 Amazon EventBridge 예약 규칙을 생성합니다.
  • C. AWS App2Container(A2C)를 사용하여 작업을 컨테이너화합니다. 기존 Amazon 머신 이미지(AMI)에 컨테이너를 설치합니다. 작업이 완료되면 일정이 컨테이너를 중지하는지 확인하세요.
  • D. 작업 완료 시 EC2 인스턴스를 중지하고 다음 작업이 시작될 때 EC2 인스턴스를 다시 시작하도록 기존 일정을 구성합니다.

#453⭐

https://www.examtopics.com/discussions/amazon/view/109410-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 Amazon EC2 데이터와 여러 Amazon S3 버킷에 대한 백업 전략을 구현하려고 합니다. 규정 요구 사항으로 인해 회사는 특정 기간 동안 백업 파일을 보관해야 합니다. 회사는 보관기간 동안 해당 파일을 변경해서는 안 됩니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Backup을 사용하여 거버넌스 모드에서 볼트 잠금이 있는 백업 볼트를 생성하십시오. 필요한 백업 계획을 생성합니다.
  • B. Amazon Data Lifecycle Manager를 사용하여 필요한 자동 스냅샷 정책을 생성합니다.
  • C. Amazon S3 파일 게이트웨이를 사용하여 백업을 생성합니다. 적절한 S3 수명주기 관리를 구성합니다.
  • D. AWS Backup을 사용하여 규정 준수 모드에서 볼트 잠금이 있는 백업 볼트를 생성합니다. 필요한 백업 계획을 생성합니다.
더보기
해설
  • A. AWS Backup을 사용하여 거버넌스 모드에서 볼트 잠금이 있는 백업 볼트를 생성하십시오. 필요한 백업 계획을 생성합니다.
  • B. Amazon Data Lifecycle Manager를 사용하여 필요한 자동 스냅샷 정책을 생성합니다.
  • C. Amazon S3 파일 게이트웨이를 사용하여 백업을 생성합니다. 적절한 S3 수명주기 관리를 구성합니다.
  • D. AWS Backup을 사용하여 규정 준수 모드에서 볼트 잠금이 있는 백업 볼트를 생성합니다. 필요한 백업 계획을 생성합니다.

D. AWS Backup을 사용하여 규정 준수 모드에서 볼트 잠금이 있는 백업 볼트를 생성합니다. 필요한 백업 계획 생성


#454⭐

https://www.examtopics.com/discussions/amazon/view/109433-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 여러 AWS 리전 및 계정에 걸쳐 리소스를 보유하고 있습니다. 새로 고용된 솔루션 설계자는 이전 직원이 리소스 인벤토리에 대한 세부 정보를 제공하지 않았다는 사실을 발견했습니다. 솔루션 아키텍트는 모든 계정에 걸쳐 다양한 워크로드의 관계 세부 정보를 구축하고 매핑해야 합니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?

  • A. AWS Systems Manager Inventory를 사용하여 상세 보기 보고서에서 지도 보기를 생성하십시오.
  • B. AWS Step Functions를 사용하여 워크로드 세부 정보를 수집합니다. 워크로드의 아키텍처 다이어그램을 수동으로 구축합니다.
  • C. AWS에서 Workload Discovery를 사용하여 워크로드의 아키텍처 다이어그램을 생성합니다.
  • D. AWS X-Ray를 사용하여 워크로드 세부 정보를 확인합니다. 관계가 있는 아키텍처 다이어그램을 작성하세요.
더보기
해설
  • A. AWS Systems Manager Inventory를 사용하여 상세 보기 보고서에서 지도 보기를 생성하십시오.
  • B. AWS Step Functions를 사용하여 워크로드 세부 정보를 수집합니다. 워크로드의 아키텍처 다이어그램을 수동으로 구축합니다.
  • C. AWS에서 Workload Discovery를 사용하여 워크로드의 아키텍처 다이어그램을 생성합니다.
  • D. AWS X-Ray를 사용하여 워크로드 세부 정보를 확인합니다. 관계가 있는 아키텍처 다이어그램을 작성하세요.

A: 시스템 관리자 인벤토리 -> 메타데이터

D: X-Ray는 애플리케이션 디버깅을 위한 것


#455⭐

https://www.examtopics.com/discussions/amazon/view/109522-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 AWS Organizations를 사용합니다. 회사는 다양한 예산으로 일부 AWS 계정을 운영하려고 합니다. 회사는 특정 기간 동안 할당된 예산 임계값이 충족되면 알림을 받고 AWS 계정에 대한 추가 리소스 프로비저닝을 자동으로 방지하려고 합니다.

이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (3개를 선택하세요.)

  • A. AWS 예산을 사용하여 예산을 생성하십시오. 필요한 AWS 계정의 비용 및 사용 보고서 섹션에서 예산 금액을 설정합니다.
  • B. AWS 예산을 사용하여 예산을 생성합니다. 필요한 AWS 계정의 결제 대시보드에서 예산 금액을 설정합니다.
  • C. AWS 예산에 대한 IAM 사용자를 생성하여 필요한 권한으로 예산 작업을 실행합니다.
  • D. AWS 예산에 대한 IAM 역할을 생성하여 필요한 권한으로 예산 작업을 실행합니다.
  • E. 각 계정이 예산 임계값을 충족할 때 회사에 알리는 경고를 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 구성 규칙으로 생성된 IAM ID를 선택하는 예산 작업을 추가합니다.
  • F. 각 계정이 예산 임계값을 충족할 때 회사에 알리는 경고를 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 서비스 제어 정책(SCP)으로 생성된 IAM 자격 증명을 선택하는 예산 작업을 추가합니다
더보기
해설
  • A. AWS 예산을 사용하여 예산을 생성하십시오. 필요한 AWS 계정의 비용 및 사용 보고서 섹션에서 예산 금액을 설정합니다.
  • B. AWS 예산을 사용하여 예산을 생성합니다. 필요한 AWS 계정의 결제 대시보드에서 예산 금액을 설정합니다.
  • C. AWS 예산에 대한 IAM 사용자를 생성하여 필요한 권한으로 예산 작업을 실행합니다.
  • D. AWS 예산에 대한 IAM 역할을 생성하여 필요한 권한으로 예산 작업을 실행합니다.
  • E. 각 계정이 예산 임계값을 충족할 때 회사에 알리는 경고를 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 구성 규칙으로 생성된 IAM ID를 선택하는 예산 작업을 추가합니다.
  • F. 각 계정이 예산 임계값을 충족할 때 회사에 알리는 경고를 추가합니다. 추가 리소스 프로비저닝을 방지하기 위해 적절한 서비스 제어 정책(SCP)으로 생성된 IAM 자격 증명을 선택하는 예산 작업을 추가합니다.

예산 생성 방법: 빌링 콘솔 > 예산 > 예산 생성


#456

https://www.examtopics.com/discussions/amazon/view/109523-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 하나의 AWS 지역에 있는 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 회사는 EC2 인스턴스를 두 번째 리전에 백업하려고 합니다. 또한 회사는 두 번째 지역에 EC2 리소스를 프로비저닝하고 하나의 AWS 계정에서 EC2 인스턴스를 중앙에서 관리하려고 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 두 번째 지역에 비슷한 수의 EC2 인스턴스가 있는 재해 복구(DR) 계획을 생성합니다. 데이터 복제를 구성합니다.
  • B. EC2 인스턴스의 특정 시점 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 생성합니다. 정기적으로 스냅샷을 두 번째 리전에 복사합니다.
  • C. AWS Backup을 사용하여 백업 계획을 생성합니다. EC2 인스턴스의 두 번째 리전으로 교차 리전 백업을 구성합니다.
  • D. 두 번째 지역에 비슷한 수의 EC2 인스턴스를 배포합니다. AWS DataSync를 사용하여 소스 리전의 데이터를 두 번째 리전으로 전송합니다.
더보기
해설
  • A. 두 번째 지역에 비슷한 수의 EC2 인스턴스가 있는 재해 복구(DR) 계획을 생성합니다. 데이터 복제를 구성합니다.
  • B. EC2 인스턴스의 특정 시점 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 생성합니다. 정기적으로 스냅샷을 두 번째 리전에 복사합니다.
  • C. AWS Backup을 사용하여 백업 계획을 생성합니다. EC2 인스턴스의 두 번째 리전으로 교차 리전 백업을 구성합니다.
  • D. 두 번째 지역에 비슷한 수의 EC2 인스턴스를 배포합니다. AWS DataSync를 사용하여 소스 리전의 데이터를 두 번째 리전으로 전송합니다.

#457

https://www.examtopics.com/discussions/amazon/view/109524-exam-aws-certified-solutions-architect-associate-saa-c03/



AWS를 사용하는 회사는 데이터를 제품 제조업체에 전송하기 위한 애플리케이션을 구축하고 있습니다. 회사에는 자체 ID 공급자(IdP)가 있습니다. 회사는 사용자가 애플리케이션을 사용하여 데이터를 전송하는 동안 IdP가 애플리케이션 사용자를 인증하기를 원합니다. 회사는 AS2(적용성 설명 2) 프로토콜을 사용해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS DataSync를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 생성합니다.
  • B. Amazon AppFlow 흐름을 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Elastic Container Service(Amazon ECS) 작업을 생성합니다.
  • C. AWS Transfer Family를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 생성합니다.
  • D. AWS Storage Gateway를 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Cognito 자격 증명 풀을 생성합니다.
더보기
해설
  • A. AWS DataSync를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 생성합니다.
  • B. Amazon AppFlow 흐름을 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Elastic Container Service(Amazon ECS) 작업을 생성합니다.
  • C. AWS Transfer Family를 사용하여 데이터를 전송합니다. IdP 인증을 위한 AWS Lambda 함수를 생성합니다.
  • D. AWS Storage Gateway를 사용하여 데이터를 전송합니다. IdP 인증을 위한 Amazon Cognito 자격 증명 풀을 생성합니다.

#458⭐

https://www.examtopics.com/discussions/amazon/view/109435-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 현금 회수 서비스를 위해 Amazon API Gateway에서 RESTAPI를 설계하고 있습니다. 애플리케이션에는 계산 리소스를 위해 1GB의 메모리와 2GB의 스토리지가 필요합니다. 애플리케이션에서는 데이터가 관계형 형식이어야 합니다.

최소한의 관리 노력으로 이러한 요구 사항을 충족하는 AWS 서비스의 추가 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 아마존 EC2
  • B. AWS 람다
  • C. 아마존 RDS
  • D. 아마존 다이나모DB
  • E. Amazon Elastic Kubernetes Services(Amazon EKS)
더보기
해설
  • A. 아마존 EC2
  • B. AWS 람다
  • C. 아마존 RDS
  • D. 아마존 다이나모DB
  • E. Amazon Elastic Kubernetes Services(Amazon EKS)

"애플리케이션에서는 데이터가 관계형 형식" => DynamoDB(X) RDS(O)

람다는 서버리스


#459

https://www.examtopics.com/discussions/amazon/view/109440-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 AWS Organizations를 사용하여 여러 AWS 계정 내에서 워크로드를 실행합니다. 태그 지정 정책은 회사가 태그를 생성할 때 AWS 리소스에 부서 태그를 추가합니다.

회계팀은 Amazon EC2 소비에 대한 지출을 결정해야 합니다. 회계팀은 AWS 계정에 관계없이 비용을 담당하는 부서를 결정해야 합니다. 회계팀은 조직 내 모든 AWS 계정에 대해 AWS Cost Explorer에 액세스할 수 있으며 Cost Explorer의 모든 보고서에 액세스해야 합니다.

운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 조직 마스터 계정 청구 콘솔에서 부서라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.
  • B. 조직 마스터 계정 결제 콘솔에서 부서라는 AWS 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.
  • C. 조직 회원 계정 청구 콘솔에서 부서라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2로 필터링합니다.
  • D. 조직 회원 계정 결제 콘솔에서 부서라는 AWS 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.
더보기
해설
  • A. 조직 마스터 계정 청구 콘솔에서 부서라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.
  • B. 조직 마스터 계정 결제 콘솔에서 부서라는 AWS 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.
  • C. 조직 회원 계정 청구 콘솔에서 부서라는 사용자 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2로 필터링합니다.
  • D. 조직 회원 계정 결제 콘솔에서 부서라는 AWS 정의 비용 할당 태그를 활성화합니다. Cost Explorer에서 태그 이름별로 그룹화하여 하나의 비용 보고서를 생성하고 EC2별로 필터링합니다.

#460⭐

https://www.examtopics.com/discussions/amazon/view/109525-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 SaaS(Software as a Service) 애플리케이션 Salesforce 계정과 Amazon S3 간에 데이터를 안전하게 교환하려고 합니다. 
회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키(CMK)를 사용하여 저장 데이터를 암호화해야 합니다. 
회사는 전송 중인 데이터도 암호화해야 합니다. 
회사는 Salesforce 계정에 대한 API 액세스를 활성화했습니다.

  • A. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하는 AWS Lambda 함수를 만듭니다.
  • B. AWS Step Functions 워크플로를 생성합니다. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하는 작업을 정의합니다.
  • C. Amazon AppFlow 흐름을 생성하여 Salesforce에서 Amazon S3로 데이터를 안전하게 전송합니다.
  • D. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하기 위해 Salesforce용 사용자 정의 커넥터를 만듭니다.
더보기
해설
  • A. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하는 AWS Lambda 함수를 만듭니다.
  • B. AWS Step Functions 워크플로를 생성합니다. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하는 작업을 정의합니다.
  • C. Amazon AppFlow 흐름을 생성하여 Salesforce에서 Amazon S3로 데이터를 안전하게 전송합니다.
  • D. Salesforce에서 Amazon S3로 데이터를 안전하게 전송하기 위해 Salesforce용 사용자 정의 커넥터를 만듭니다.

AWS AppFlow가 다양한 SaaS 애플리케이션과 AWS 서비스 간에 데이터를 안전하게 전송한다


#461

https://www.examtopics.com/discussions/amazon/view/109446-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 단일 AWS 리전에서 모바일 게임 앱을 개발하고 있습니다. 앱은 Auto Scaling 그룹의 여러 Amazon EC2 인스턴스에서 실행됩니다. 회사는 앱 데이터를 Amazon DynamoDB에 저장합니다. 앱은 사용자와 서버 간의 TCP 트래픽과 UDP 트래픽을 사용하여 통신합니다. 응용 프로그램은 전 세계적으로 사용됩니다. 회사는 모든 사용자에 대해 가능한 가장 낮은 대기 시간을 보장하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하십시오. Global Accelerator 통합을 사용하고 TCP 및 UDP 포트에서 수신 대기하는 가속기 엔드포인트 뒤에 ALB(Application Load Balancer)를 생성합니다. ALB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요.
  • B. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하십시오. Global Accelerator 통합을 사용하고 TCP 및 UDP 포트에서 수신 대기하는 가속기 엔드포인트 뒤에 NLB(Network Load Balancer)를 생성합니다. NLB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요.
  • C. Amazon CloudFront 콘텐츠 전송 네트워크(CDN) 엔드포인트를 생성합니다. 엔드포인트 뒤에 NLB(Network Load Balancer)를 생성하고 TCP 및 UDP 포트를 수신합니다. NLB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요. NLB를 오리진으로 사용하도록 CloudFront를 업데이트합니다.
  • D. Amazon CloudFront 콘텐츠 전송 네트워크(CDN) 엔드포인트를 생성합니다. 엔드포인트 뒤에 ALB(Application Load Balancer)를 생성하고 TCP 및 UDP 포트를 수신합니다. ALB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요. ALB를 오리진으로 사용하도록 CloudFront를 업데이트합니다.
더보기
해설
  • A. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하십시오. Global Accelerator 통합을 사용하고 TCP 및 UDP 포트에서 수신 대기하는 가속기 엔드포인트 뒤에 ALB(Application Load Balancer)를 생성합니다. ALB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요.
  • B. AWS Global Accelerator를 사용하여 액셀러레이터를 생성하십시오. Global Accelerator 통합을 사용하고 TCP 및 UDP 포트에서 수신 대기하는 가속기 엔드포인트 뒤에 NLB(Network Load Balancer)를 생성합니다. NLB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요.
  • C. Amazon CloudFront 콘텐츠 전송 네트워크(CDN) 엔드포인트를 생성합니다. 엔드포인트 뒤에 NLB(Network Load Balancer)를 생성하고 TCP 및 UDP 포트를 수신합니다. NLB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요. NLB를 오리진으로 사용하도록 CloudFront를 업데이트합니다.
  • D. Amazon CloudFront 콘텐츠 전송 네트워크(CDN) 엔드포인트를 생성합니다. 엔드포인트 뒤에 ALB(Application Load Balancer)를 생성하고 TCP 및 UDP 포트를 수신합니다. ALB에 인스턴스를 등록하려면 Auto Scaling 그룹을 업데이트하세요. ALB를 오리진으로 사용하도록 CloudFront를 업데이트합니다.

#462

https://www.examtopics.com/discussions/amazon/view/109653-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에 고객 주문을 처리하는 애플리케이션이 있습니다. 이 회사는 주문을 Amazon Aurora 데이터베이스에 저장하는 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 때때로 트래픽이 높을 때 작업량이 주문을 충분히 빠르게 처리하지 못하는 경우가 있습니다.

가능한 한 빨리 데이터베이스에 안정적으로 주문을 작성하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 트래픽이 높을 때 EC2 인스턴스의 인스턴스 크기를 늘리십시오. Amazon Simple 알림 서비스(Amazon SNS)에 주문을 작성합니다. 데이터베이스 엔드포인트에서 SNS 주제를 구독하세요.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 주문을 작성합니다. Application Load Balancer 뒤에 있는 Auto Scaling 그룹의 EC2 인스턴스를 사용하여 SQS 대기열에서 읽고 주문을 데이터베이스로 처리합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)에 주문을 작성합니다. 데이터베이스 엔드포인트에서 SNS 주제를 구독하세요. Application Load Balancer 뒤에 있는 Auto Scaling 그룹의 EC2 인스턴스를 사용하여 SNS 주제를 읽습니다.
  • D. EC2 인스턴스가 CPU 임계값 한도에 도달하면 Amazon Simple Queue Service(Amazon SQS) 대기열에 주문을 씁니다. Application Load Balancer 뒤의 Auto Scaling 그룹에서 EC2 인스턴스의 예약된 조정을 사용하여 SQS 대기열에서 읽고 주문을 데이터베이스로 처리합니다.
더보기
해설
  • A. 트래픽이 높을 때 EC2 인스턴스의 인스턴스 크기를 늘리십시오. Amazon Simple 알림 서비스(Amazon SNS)에 주문을 작성합니다. 데이터베이스 엔드포인트에서 SNS 주제를 구독하세요.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 주문을 작성합니다. Application Load Balancer 뒤에 있는 Auto Scaling 그룹의 EC2 인스턴스를 사용하여 SQS 대기열에서 읽고 주문을 데이터베이스로 처리합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)에 주문을 작성합니다. 데이터베이스 엔드포인트에서 SNS 주제를 구독하세요. Application Load Balancer 뒤에 있는 Auto Scaling 그룹의 EC2 인스턴스를 사용하여 SNS 주제를 읽습니다.
  • D. EC2 인스턴스가 CPU 임계값 한도에 도달하면 Amazon Simple Queue Service(Amazon SQS) 대기열에 주문을 씁니다. Application Load Balancer 뒤의 Auto Scaling 그룹에서 EC2 인스턴스의 예약된 조정을 사용하여 SQS 대기열에서 읽고 주문을 데이터베이스로 처리합니다.

#463⭐

https://www.examtopics.com/discussions/amazon/view/109501-exam-aws-certified-solutions-architect-associate-saa-c03/



한 IoT 기업이 사용자의 수면에 대한 데이터를 수집하는 센서가 장착된 매트리스를 출시하고 있습니다. 센서는 Amazon S3 버킷으로 데이터를 보냅니다. 센서는 매일 밤 각 매트리스에 대해 약 2MB의 데이터를 수집합니다. 회사는 각 매트리스에 대한 데이터를 처리하고 요약해야 합니다. 결과는 가능한 한 빨리 제공되어야 합니다. 데이터 처리에는 1GB의 메모리가 필요하며 30초 이내에 완료됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Scala 작업에 AWS Glue 사용
  • B. Apache Spark 스크립트와 함께 Amazon EMR 사용
  • C. Python 스크립트와 함께 AWS Lambda 사용
  • D. PySpark 작업에 AWS Glue 사용
더보기
해설
  • A. Scala 작업에 AWS Glue 사용
  • B. Apache Spark 스크립트와 함께 Amazon EMR 사용
  • C. Python 스크립트와 함께 AWS Lambda 사용
  • D. PySpark 작업에 AWS Glue 사용

처리에는 1GB의 메모리가 필요하며 30초 이내에 완료됩니다."는 AWS Lambda에 적합


#464⭐

https://www.examtopics.com/discussions/amazon/view/109449-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 PostgreSQL 단일 AZ DB 인스턴스용 Amazon RDS에 모든 주문을 저장하는 온라인 쇼핑 애플리케이션을 호스팅합니다. 경영진은 단일 장애 지점을 제거하기를 원하며 솔루션 설계자에게 애플리케이션 코드를 변경할 필요 없이 데이터베이스 가동 중지 시간을 최소화하는 접근 방식을 권장하도록 요청했습니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?


  • A. 데이터베이스 인스턴스를 수정하고 다중 AZ 옵션을 지정하여 기존 데이터베이스 인스턴스를 다중 AZ 배포로 변환합니다.
  • B. 새로운 RDS 다중 AZ 배포를 생성합니다. 현재 RDS 인스턴스의 스냅샷을 만들고 해당 스냅샷을 사용하여 새 다중 AZ 배포를 복원합니다.
  • C. 다른 가용 영역에 PostgreSQL 데이터베이스의 읽기 전용 복제본을 생성합니다. Amazon Route 53 가중치 기반 레코드 세트를 사용하여 데이터베이스 전체에 요청을 분산시킵니다.
  • D. RDS for PostgreSQL 데이터베이스를 최소 그룹 크기가 2인 Amazon EC2 Auto Scaling 그룹에 배치합니다. Amazon Route 53 가중치 기반 레코드 세트를 사용하여 인스턴스 전체에 요청을 분산시킵니다.
더보기
해설
  • A. 데이터베이스 인스턴스를 수정하고 다중 AZ 옵션을 지정하여 기존 데이터베이스 인스턴스를 다중 AZ 배포로 변환합니다.
  • B. 새로운 RDS 다중 AZ 배포를 생성합니다. 현재 RDS 인스턴스의 스냅샷을 만들고 해당 스냅샷을 사용하여 새 다중 AZ 배포를 복원합니다.
  • C. 다른 가용 영역에 PostgreSQL 데이터베이스의 읽기 전용 복제본을 생성합니다. Amazon Route 53 가중치 기반 레코드 세트를 사용하여 데이터베이스 전체에 요청을 분산시킵니다.
  • D. RDS for PostgreSQL 데이터베이스를 최소 그룹 크기가 2인 Amazon EC2 Auto Scaling 그룹에 배치합니다. Amazon Route 53 가중치 기반 레코드 세트를 사용하여 인스턴스 전체에 요청을 분산시킵니다.

단일 장애 지점 제거 = 다중 AZ 배포


#465⭐

https://www.examtopics.com/discussions/amazon/view/109655-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 고객 요구를 지원하기 위해 애플리케이션을 개발하고 있습니다. 회사는 동일한 가용 영역 내의 여러 Amazon EC2 Nitro 기반 인스턴스에 애플리케이션을 배포하려고 합니다. 또한 회사는 더 높은 애플리케이션 가용성을 달성하기 위해 여러 EC2 Nitro 기반 인스턴스의 여러 블록 스토리지 볼륨에 동시에 쓸 수 있는 기능을 애플리케이션에 제공하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 범용 SSD(gp3) EBS 볼륨을 사용합니다.
  • B. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 처리량 최적화 HDD(st1) EBS 볼륨을 사용합니다.
  • C. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 프로비저닝된 IOPS SSD(io2) EBS 볼륨 사용
  • D. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 범용 SSD(gp2) EBS 볼륨 사용
더보기
해설
  • A. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 범용 SSD(gp3) EBS 볼륨을 사용합니다.
  • B. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 처리량 최적화 HDD(st1) EBS 볼륨을 사용합니다.
  • C. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 프로비저닝된 IOPS SSD(io2) EBS 볼륨 사용
  • D. Amazon Elastic Block Store(Amazon EBS) 다중 연결과 함께 범용 SSD(gp2) EBS 볼륨 사용

HDD<gp2<gp3<io2


#466

https://www.examtopics.com/discussions/amazon/view/109450-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 단일 가용 영역과 Amazon RDS 다중 AZ DB 인스턴스에서 Amazon EC2를 사용하는 상태 비저장 2계층 애플리케이션을 설계했습니다. 새로운 회사 경영진은 애플리케이션의 가용성을 높이고 싶어합니다.

이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 다중 AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.
  • B. EC2 인스턴스의 스냅샷을 찍어 다른 AWS 리전으로 보내도록 애플리케이션을 구성합니다.
  • C. Amazon Route 53 지연 시간 기반 라우팅을 사용하여 애플리케이션에 요청을 공급하도록 애플리케이션을 구성합니다.
  • D. 수신 요청을 처리하고 다중 AZ 애플리케이션 로드 밸런서를 생성하도록 Amazon Route 53 규칙을 구성합니다
더보기
해설
  • A. 다중 AZ EC2 Auto Scaling을 사용하도록 애플리케이션을 구성하고 Application Load Balancer를 생성합니다.
  • B. EC2 인스턴스의 스냅샷을 찍어 다른 AWS 리전으로 보내도록 애플리케이션을 구성합니다.
  • C. Amazon Route 53 지연 시간 기반 라우팅을 사용하여 애플리케이션에 요청을 공급하도록 애플리케이션을 구성합니다.
  • D. 수신 요청을 처리하고 다중 AZ 애플리케이션 로드 밸런서를 생성하도록 Amazon Route 53 규칙을 구성합니다

#467⭐

https://www.examtopics.com/discussions/amazon/view/109485-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 AWS Organizations를 사용합니다. 
회원 계정이 Compute Savings Plan을 구매했습니다. 
멤버 계정 내부의 워크로드 변경으로 인해 해당 계정은 더 이상 Compute Savings Plan 약정의 모든 혜택을 받을 수 없습니다. 
회사는 구매한 컴퓨팅 성능의 50% 미만을 사용합니다.

  • A. Compute Savings Plan을 구매한 회원 계정의 계정 콘솔에 있는 결제 기본 설정 섹션에서 할인 공유를 활성화하세요.
  • B. 회사의 조직 마스터 계정에 있는 계정 콘솔의 청구 기본 설정 섹션에서 할인 공유를 활성화합니다.
  • C. 다른 AWS 계정의 추가 컴퓨팅 워크로드를 Compute Savings Plan이 있는 계정으로 마이그레이션합니다.
  • D. 예약 인스턴스 마켓플레이스에서 초과 Savings Plan 약정을 판매합니다.
더보기
해설
  • A. Compute Savings Plan을 구매한 회원 계정의 계정 콘솔에 있는 결제 기본 설정 섹션에서 할인 공유를 활성화하세요.
  • B. 회사의 조직 마스터 계정에 있는 계정 콘솔의 청구 기본 설정 섹션에서 할인 공유를 활성화합니다.
  • C. 다른 AWS 계정의 추가 컴퓨팅 워크로드를 Compute Savings Plan이 있는 계정으로 마이그레이션합니다.
  • D. 예약 인스턴스 마켓플레이스에서 초과 Savings Plan 약정을 판매합니다.

B, 다른 계정의 컴퓨팅 작업 부하에 사용할 수 있는 일반적인 Compute Savings Plan입니다. A가 작동하지 않습니다. 모든 계정(적어도 할인을 제공하고 공유하는 계정)에 대해 할인 공유를 활성화해야 합니다. C는 불가능합니다. 워크로드가 다른 계정에 있는 이유가 있습니다. D는 자체 조직에 다른 작업 부하가 없다면 최후의 수단이 될 것이지만 여기에는 있습니다.


#468⭐

https://www.examtopics.com/discussions/amazon/view/109451-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 고객에게 검색 카탈로그를 제공할 마이크로서비스 애플리케이션을 개발하고 있습니다. 회사는 사용자에게 애플리케이션의 프런트엔드를 제공하기 위해 REST API를 사용해야 합니다. REST API는 회사가 프라이빗 VPC 서브넷의 컨테이너에서 호스팅하는 백엔드 서비스에 액세스해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon API Gateway를 사용하여 WebSocket API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API 게이트웨이에 대한 프라이빗 VPC 링크를 생성합니다.
  • B. Amazon API Gateway를 사용하여 REST API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API 게이트웨이에 대한 프라이빗 VPC 링크를 생성합니다.
  • C. Amazon API Gateway를 사용하여 WebSocket API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API Gateway에 대한 보안 그룹을 생성합니다.
  • D. Amazon API Gateway를 사용하여 REST API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API Gateway에 대한 보안 그룹을 생성합니다.
더보기
해설
  • A. Amazon API Gateway를 사용하여 WebSocket API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API 게이트웨이에 대한 프라이빗 VPC 링크를 생성합니다.
  • B. Amazon API Gateway를 사용하여 REST API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API 게이트웨이에 대한 프라이빗 VPC 링크를 생성합니다.
  • C. Amazon API Gateway를 사용하여 WebSocket API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API Gateway에 대한 보안 그룹을 생성합니다.
  • D. Amazon API Gateway를 사용하여 REST API를 설계합니다. 프라이빗 서브넷의 Amazon Elastic Container Service(Amazon ECS)에서 애플리케이션을 호스팅합니다. Amazon ECS에 액세스하기 위해 API Gateway에 대한 보안 그룹을 생성합니다.

프라이빗 서브넷의 Amazon ECS: 프라이빗 서브넷의 Amazon ECS에서 애플리케이션을 호스팅하면 컨테이너가 VPC 내에 안전하게 배포되고 퍼블릭 인터넷에 직접 노출되지 않습니다. 프라이빗 VPC 링크: API Gateway에서 REST API를 활성화하여 Amazon ECS에서 호스팅되는 백엔드 서비스에 액세스하려면 프라이빗 VPC 링크를 생성하면 됩니다. 이를 통해 API 게이트웨이와 ECS 컨테이너 사이에 프라이빗 네트워크 연결이 설정되어 퍼블릭 인터넷을 통과하지 않고도 안전한 통신이 가능해집니다.


#469⭐

https://www.examtopics.com/discussions/amazon/view/109452-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 수집된 원시 데이터를 Amazon S3 버킷에 저장합니다. 데이터는 회사 고객을 대신하여 여러 유형의 분석에 사용됩니다. 요청된 분석 유형에 따라 S3 객체에 대한 액세스 패턴이 결정됩니다.

회사는 접속 패턴을 예측하거나 통제할 수 없습니다. 회사는 S3 비용을 줄이고 싶어합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?


  • A. S3 복제를 사용하여 자주 액세스하지 않는 객체를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
  • B. S3 수명 주기 규칙을 사용하여 객체를 S3 Standard에서 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
  • C. S3 수명 주기 규칙을 사용하여 객체를 S3 Standard에서 S3 Intelligent-Tiering으로 전환합니다.
  • D. S3 Inventory를 사용하여 S3 Standard에서 S3 Intelligent-Tiering으로 액세스되지 않은 객체를 식별하고 전환합니다.
더보기
해설
  • A. S3 복제를 사용하여 자주 액세스하지 않는 객체를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
  • B. S3 수명 주기 규칙을 사용하여 객체를 S3 Standard에서 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
  • C. S3 수명 주기 규칙을 사용하여 객체를 S3 Standard에서 S3 Intelligent-Tiering으로 전환합니다.
  • D. S3 Inventory를 사용하여 S3 Standard에서 S3 Intelligent-Tiering으로 액세스되지 않은 객체를 식별하고 전환합니다.

예측할 수 없는 액세스 패턴 = 지능형 계층화.


#470⭐

https://www.examtopics.com/discussions/amazon/view/109334-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 IPv6 주소를 사용하여 Amazon EC2 인스턴스에 호스팅되는 애플리케이션이 있습니다. 애플리케이션은 인터넷을 사용하여 다른 외부 애플리케이션과의 통신을 시작해야 합니다. 그러나 회사의 보안 정책에는 외부 서비스가 EC2 인스턴스에 대한 연결을 시작할 수 없다고 명시되어 있습니다.

이 문제를 해결하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. NAT 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 만듭니다.
  • B. 인터넷 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 만듭니다.
  • C. 가상 프라이빗 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 설정합니다.
  • D. 외부 전용 인터넷 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 설정합니다.
더보기
해설
  • A. NAT 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 만듭니다.
  • B. 인터넷 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 만듭니다.
  • C. 가상 프라이빗 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 설정합니다.
  • D. 외부 전용 인터넷 게이트웨이를 생성하고 이를 서브넷 라우팅 테이블의 대상으로 설정합니다.

외부 전용 인터넷 게이트웨이: IPv6 NAT 게이트웨이: IPv4

외부 전용 인터넷 게이트웨이(EIGW)는 IPv6 전용 VPC용으로 특별히 설계되었으며 인바운드 IPv6 트래픽을 차단하는 동시에 아웃바운드 IPv6 인터넷 액세스를 제공


#471⭐

https://www.examtopics.com/discussions/amazon/view/109453-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 VPC의 컨테이너에서 실행되는 애플리케이션을 만들고 있습니다. 애플리케이션은 Amazon S3 버킷에 데이터를 저장하고 액세스합니다. 개발 단계에서 애플리케이션은 매일 Amazon S3에 1TB의 데이터를 저장하고 액세스합니다. 회사는 비용을 최소화하고 가능할 때마다 트래픽이 인터넷을 통과하는 것을 방지하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 버킷에 대해 S3 Intelligent-Tiering을 활성화합니다.
  • B. S3 버킷에 대해 S3 Transfer Acceleration 활성화
  • C. Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 이 엔드포인트를 VPC의 모든 라우팅 테이블과 연결
  • D. VPC에서 Amazon S3에 대한 인터페이스 엔드포인트를 생성합니다. 이 엔드포인트를 VPC의 모든 라우팅 테이블과 연결
더보기
해설
  • A. S3 버킷에 대해 S3 Intelligent-Tiering을 활성화합니다.
  • B. S3 버킷에 대해 S3 Transfer Acceleration 활성화
  • C. Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 이 엔드포인트를 VPC의 모든 라우팅 테이블과 연결
  • D. VPC에서 Amazon S3에 대한 인터페이스 엔드포인트를 생성합니다. 이 엔드포인트를 VPC의 모든 라우팅 테이블과 연결

트래픽이 인터넷을 통과하지 못하도록 방지 = S3용 게이트웨이 VPC 엔드포인트.


#472

https://www.examtopics.com/discussions/amazon/view/109454-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에 Amazon DynamoDB 기반 데이터 저장소가 포함된 모바일 채팅 애플리케이션이 있습니다. 사용자는 가능한 한 짧은 지연 시간으로 새 메시지를 읽기를 원합니다. 솔루션 아키텍트는 애플리케이션 변경을 최소화하는 최적의 솔루션을 설계해야 합니다.

솔루션 설계자는 어떤 방법을 선택해야 합니까?

  • A. 새 메시지 테이블에 대해 Amazon DynamoDB Accelerator(DAX)를 구성합니다. DAX 엔드포인트를 사용하도록 코드를 업데이트합니다.
  • B. 증가된 읽기 로드를 처리하기 위해 DynamoDB 읽기 전용 복제본을 추가합니다. 읽기 전용 복제본의 읽기 엔드포인트를 가리키도록 애플리케이션을 업데이트합니다.
  • C. DynamoDB의 새 메시지 테이블에 대한 읽기 용량 단위 수를 두 배로 늘립니다. 기존 DynamoDB 엔드포인트를 계속 사용합니다.
  • D. 애플리케이션 스택에 Redis용 Amazon ElastiCache 캐시를 추가합니다. DynamoDB 대신 Redis 캐시 엔드포인트를 가리키도록 애플리케이션을 업데이트합니다.
더보기
해설
  • A. 새 메시지 테이블에 대해 Amazon DynamoDB Accelerator(DAX)를 구성합니다. DAX 엔드포인트를 사용하도록 코드를 업데이트합니다.
  • B. 증가된 읽기 로드를 처리하기 위해 DynamoDB 읽기 전용 복제본을 추가합니다. 읽기 전용 복제본의 읽기 엔드포인트를 가리키도록 애플리케이션을 업데이트합니다.
  • C. DynamoDB의 새 메시지 테이블에 대한 읽기 용량 단위 수를 두 배로 늘립니다. 기존 DynamoDB 엔드포인트를 계속 사용합니다.
  • D. 애플리케이션 스택에 Redis용 Amazon ElastiCache 캐시를 추가합니다. DynamoDB 대신 Redis 캐시 엔드포인트를 가리키도록 애플리케이션을 업데이트합니다.

#473

https://www.examtopics.com/discussions/amazon/view/109455-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 ALB(Application Load Balancer) 뒤에 있는 Amazon EC2 인스턴스에서 웹 사이트를 호스팅합니다. 
웹사이트는 정적 콘텐츠를 제공합니다. 
웹사이트 트래픽이 증가하고 있어 회사에서는 비용 증가 가능성을 우려하고 있습니다

  • A. 엣지 위치에서 상태 파일을 캐시하기 위해 Amazon CloudFront 배포를 생성합니다.
  • B. Amazon ElastiCache 클러스터를 생성합니다. ALB를 ElastiCache 클러스터에 연결하여 캐시된 파일 제공
  • C. AWS WAF 웹 ACL을 생성하고 이를 ALB와 연결합니다. 웹 ACL에 규칙을 추가하여 정적 파일 캐시
  • D. 대체 AWS 지역에 두 번째 ALB를 생성합니다. 데이터 전송 비용을 최소화하기 위해 사용자 트래픽을 가장 가까운 지역으로 라우팅합니다
더보기
해설
  • A. 엣지 위치에서 상태 파일을 캐시하기 위해 Amazon CloudFront 배포를 생성합니다.
  • B. Amazon ElastiCache 클러스터를 생성합니다. ALB를 ElastiCache 클러스터에 연결하여 캐시된 파일 제공
  • C. AWS WAF 웹 ACL을 생성하고 이를 ALB와 연결합니다. 웹 ACL에 규칙을 추가하여 정적 파일 캐시
  • D. 대체 AWS 지역에 두 번째 ALB를 생성합니다. 데이터 전송 비용을 최소화하기 위해 사용자 트래픽을 가장 가까운 지역으로 라우팅합니다

#474⭐

https://www.examtopics.com/discussions/amazon/view/109659-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 다른 지역의 워크로드와 격리된 워크로드를 지원하고 실행하기 위해 AWS 지역 전체에 여러 VPC를 보유하고 있습니다. 최근 애플리케이션 시작 요구 사항으로 인해 회사의 VPC는 ​​모든 리전의 다른 모든 VPC와 통신해야 합니다.

최소한의 관리 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?


  • A. 단일 지역에서 VPC 통신을 관리하려면 VPC 피어링을 사용하십시오. 리전 간 VPC 피어링을 사용하여 VPC 통신을 관리하세요.
  • B. 모든 지역에서 AWS Direct Connect 게이트웨이를 사용하여 지역 전체에 걸쳐 VPC를 연결하고 VPC 통신을 관리합니다.
  • C. AWS Transit Gateway를 사용하여 단일 지역의 VPC 통신을 관리하고 지역 간 Transit Gateway 피어링을 사용하여 VPC 통신을 관리합니다.
  • D. 모든 지역에서 AWS PrivateLink를 사용하여 지역 전체에 걸쳐 VPC를 연결하고 VPC 통신을 관리합니다
더보기
해설
  • A. 단일 지역에서 VPC 통신을 관리하려면 VPC 피어링을 사용하십시오. 리전 간 VPC 피어링을 사용하여 VPC 통신을 관리하세요.
  • B. 모든 지역에서 AWS Direct Connect 게이트웨이를 사용하여 지역 전체에 걸쳐 VPC를 연결하고 VPC 통신을 관리합니다.
  • C. AWS Transit Gateway를 사용하여 단일 지역의 VPC 통신을 관리하고 지역 간 Transit Gateway 피어링을 사용하여 VPC 통신을 관리합니다.
  • D. 모든 지역에서 AWS PrivateLink를 사용하여 지역 전체에 걸쳐 VPC를 연결하고 VPC 통신을 관리합니다

C는 A의 관리형 솔루션과 같음

A는 작동할 수 있지만 오버헤드가 많이 발생합니다(CIDR 블록 고유성 요구 사항

여러 지역 + 여러 VPC --> Transit Gateway


#475⭐

https://www.examtopics.com/discussions/amazon/view/109456-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사에서 Amazon Elastic Container Service(Amazon ECS)를 사용할 컨테이너화된 애플리케이션을 설계하고 있습니다. 애플리케이션은 내구성이 뛰어나고 RPO(복구 지점 목표)가 8시간인 다른 AWS 리전으로 데이터를 복구할 수 있는 공유 파일 시스템에 액세스해야 합니다. 파일 시스템은 지역 내의 각 가용 영역에 탑재 대상을 제공해야 합니다.

솔루션 아키텍트는 AWS Backup을 사용하여 다른 리전으로의 복제를 관리하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 다중 AZ 배포가 포함된 Windows 파일 서버용 Amazon FSx
  • B. 다중 AZ 배포가 포함된 NetApp ONTAP용 Amazon FSx
  • C. 표준 스토리지 클래스를 사용하는 Amazon Elastic File System(Amazon EFS)
  • D. OpenZFS용 Amazon FSx
더보기
해설
  • A. 다중 AZ 배포가 포함된 Windows 파일 서버용 Amazon FSx
  • B. 다중 AZ 배포가 포함된 NetApp ONTAP용 Amazon FSx
  • C. 표준 스토리지 클래스를 사용하는 Amazon Elastic File System(Amazon EFS)
  • D. OpenZFS용 Amazon FSx

A: ECS는 Windows 파일 서버가 아니므로 작동하지 않습니다. B: ONTAP은 이 질문과 전혀 관련이 없는 독점 데이터 클러스터입니다. D: OpenZFS에는 액세스하려면 Linux 종류의 호스트가 필요합니다. 기본적으로 AWS에 내장된 파일 시스템이 아닙


#476⭐

https://www.examtopics.com/discussions/amazon/view/109458-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 가까운 미래에 급속한 성장을 기대하고 있습니다. 솔루션 아키텍트는 기존 사용자를 구성하고 AWS의 새 사용자에게 권한을 부여해야 합니다. 솔루션 설계자는 IAM 그룹을 생성하기로 결정했습니다. 솔루션 설계자는 부서를 기반으로 IAM 그룹에 새 사용자를 추가합니다.

새로운 사용자에게 권한을 부여하는 가장 안전한 방법은 무엇입니까?

  • A. SCP(서비스 제어 정책)를 적용하여 액세스 권한을 관리합니다.
  • B. 최소 권한 권한이 있는 IAM 역할을 생성합니다. IAM 그룹에 역할 연결
  • C. 최소 권한 권한을 부여하는 IAM 정책을 생성합니다. IAM 그룹에 정책 연결
  • D. IAM 역할을 생성합니다. 최대 권한을 정의하는 권한 경계와 역할을 연결합니다
더보기
해설
  • A. SCP(서비스 제어 정책)를 적용하여 액세스 권한을 관리합니다.
  • B. 최소 권한 권한이 있는 IAM 역할을 생성합니다. IAM 그룹에 역할 연결
  • C. 최소 권한 권한을 부여하는 IAM 정책을 생성합니다. IAM 그룹에 정책 연결
  • D. IAM 역할을 생성합니다. 최대 권한을 정의하는 권한 경계와 역할을 연결합니다

IAM 역할이 IAM 그룹에 직접 연결되지 않기 때문


#477⭐

https://www.examtopics.com/discussions/amazon/view/109459-exam-aws-certified-solutions-architect-associate-saa-c03/


그룹에는 Amazon S3 버킷을 나열하고 해당 버킷에서 객체를 삭제할 수 있는 권한이 필요합니다. 
관리자는 버킷에 대한 액세스를 제공하기 위해 다음 IAM 정책을 생성하고 해당 정책을 그룹에 적용했습니다. 
그룹은 버킷의 객체를 삭제할 수 없습니다. 
회사는 최소 권한 액세스 규칙을 따릅니다

버킷 액세스를 수정하려면 솔루션 설계자가 정책에 어떤 설명을 추가해야 합니까?


더보기
해설

B 작업은 S3:*입니다. 이는 모든 행동을 의미합니다. 회사는 최소 권한 액세스 규칙을 따릅니다

#478

https://www.examtopics.com/discussions/amazon/view/109725-exam-aws-certified-solutions-architect-associate-saa-c03/


로펌은 대중과 정보를 공유해야 합니다. 정보에는 공개적으로 읽을 수 있어야 하는 수백 개의 파일이 포함되어 있습니다. 지정된 미래 날짜 이전에 누구든지 파일을 수정하거나 삭제하는 것은 금지됩니다.

가장 안전한 방식으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 정적 웹 사이트 호스팅용으로 구성된 Amazon S3 버킷에 모든 파일을 업로드합니다. 지정된 날짜까지 S3 버킷에 액세스하는 모든 AWS 보안 주체에게 읽기 전용 IAM 권한을 부여합니다.
  • B. S3 버전 관리가 활성화된 새 Amazon S3 버킷을 생성합니다. 지정된 날짜에 따라 보존 기간이 있는 S3 객체 잠금을 사용하세요. 정적 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. 객체에 대한 읽기 전용 액세스를 허용하도록 S3 버킷 정책을 설정합니다.
  • C. S3 버전 관리가 활성화된 새 Amazon S3 버킷을 생성합니다. 객체 수정 또는 삭제 시 AWS Lambda 함수를 실행하도록 이벤트 트리거를 구성합니다. 객체를 프라이빗 S3 버킷의 원래 버전으로 바꾸도록 Lambda 함수를 구성합니다.
  • D. 정적 웹 사이트 호스팅용으로 구성된 Amazon S3 버킷에 모든 파일을 업로드합니다. 파일이 포함된 폴더를 선택합니다. 지정된 날짜에 따라 보존 기간이 있는 S3 객체 잠금을 사용하세요. S3 버킷에 액세스하는 모든 AWS 보안 주체에게 읽기 전용 IAM 권한을 부여합니다
더보기
해설
  • A. 정적 웹 사이트 호스팅용으로 구성된 Amazon S3 버킷에 모든 파일을 업로드합니다. 지정된 날짜까지 S3 버킷에 액세스하는 모든 AWS 보안 주체에게 읽기 전용 IAM 권한을 부여합니다.
  • B. S3 버전 관리가 활성화된 새 Amazon S3 버킷을 생성합니다. 지정된 날짜에 따라 보존 기간이 있는 S3 객체 잠금을 사용하세요. 정적 웹 사이트 호스팅을 위해 S3 버킷을 구성합니다. 객체에 대한 읽기 전용 액세스를 허용하도록 S3 버킷 정책을 설정합니다.
  • C. S3 버전 관리가 활성화된 새 Amazon S3 버킷을 생성합니다. 객체 수정 또는 삭제 시 AWS Lambda 함수를 실행하도록 이벤트 트리거를 구성합니다. 객체를 프라이빗 S3 버킷의 원래 버전으로 바꾸도록 Lambda 함수를 구성합니다.
  • D. 정적 웹 사이트 호스팅용으로 구성된 Amazon S3 버킷에 모든 파일을 업로드합니다. 파일이 포함된 폴더를 선택합니다. 지정된 날짜에 따라 보존 기간이 있는 S3 객체 잠금을 사용하세요. S3 버킷에 액세스하는 모든 AWS 보안 주체에게 읽기 전용 IAM 권한을 부여합니다

#479

https://www.examtopics.com/discussions/amazon/view/109461-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 필요한 인프라를 수동으로 프로비저닝하여 새 웹사이트에 대한 인프라 프로토타입을 만들고 있습니다. 이 인프라에는 Auto Scaling 그룹, Application Load Balancer 및 Amazon RDS 데이터베이스가 포함됩니다. 구성이 철저하게 검증된 후 회사는 자동화된 방식으로 두 개의 가용 영역에서 개발 및 프로덕션 사용을 위한 인프라를 즉시 배포할 수 있는 기능을 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. AWS Systems Manager를 사용하여 두 개의 가용 영역에서 프로토타입 인프라를 복제하고 프로비저닝합니다.
  • B. 프로토타입 인프라를 가이드로 사용하여 인프라를 템플릿으로 정의합니다. AWS CloudFormation을 사용하여 인프라를 배포합니다.
  • C. AWS Config를 사용하여 프로토타입 인프라에서 사용되는 리소스의 인벤토리를 기록합니다. AWS Config를 사용하여 프로토타입 인프라를 두 개의 가용 영역에 배포합니다.
  • D. AWS Elastic Beanstalk를 사용하고 프로토타입 인프라에 대한 자동화된 참조를 사용하여 두 개의 가용 영역에 새 환경을 자동으로 배포하도록 구성합니다.
더보기
해설
  • A. AWS Systems Manager를 사용하여 두 개의 가용 영역에서 프로토타입 인프라를 복제하고 프로비저닝합니다.
  • B. 프로토타입 인프라를 가이드로 사용하여 인프라를 템플릿으로 정의합니다. AWS CloudFormation을 사용하여 인프라를 배포합니다.
  • C. AWS Config를 사용하여 프로토타입 인프라에서 사용되는 리소스의 인벤토리를 기록합니다. AWS Config를 사용하여 프로토타입 인프라를 두 개의 가용 영역에 배포합니다.
  • D. AWS Elastic Beanstalk를 사용하고 프로토타입 인프라에 대한 자동화된 참조를 사용하여 두 개의 가용 영역에 새 환경을 자동으로 배포하도록 구성합니다.

#480

https://www.examtopics.com/discussions/amazon/view/109663-exam-aws-certified-solutions-architect-associate-saa-c03/


비즈니스 애플리케이션은 Amazon EC2에서 호스팅되며 암호화된 객체 저장을 위해 Amazon S3를 사용합니다. 최고 정보 보안 책임자(CIO)는 두 서비스 간의 애플리케이션 트래픽이 공용 인터넷을 통과해서는 안 된다고 지시했습니다.

솔루션 설계자는 규정 준수 요구 사항을 충족하기 위해 어떤 기능을 사용해야 합니까?

  • A. AWS 키 관리 서비스(AWS KMS)
  • B. VPC 엔드포인트
  • C. 프라이빗 서브넷
  • D. 가상 프라이빗 게이트웨이
더보기
해설
  • A. AWS 키 관리 서비스(AWS KMS)
  • B. VPC 엔드포인트
  • C. 프라이빗 서브넷
  • D. 가상 프라이빗 게이트웨이

#481⭐

https://www.examtopics.com/discussions/amazon/view/109462-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 AWS 클라우드에서 3티어 웹 애플리케이션을 호스팅합니다. MySQL용 다중 AZAmazon RDS 서버는 데이터베이스 계층을 형성합니다. Amazon ElastiCache는 캐시 계층을 형성합니다. 회사는 고객이 데이터베이스에 항목을 추가할 때 캐시에 데이터를 추가하거나 업데이트하는 캐싱 전략을 원합니다. 캐시의 데이터는 항상 데이터베이스의 데이터와 일치해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 지연 로딩 캐싱 전략 구현
  • B. 연속 쓰기 캐싱 전략 구현
  • C. TTL 캐싱 전략 추가 구현
  • D. AWS AppConfig 캐싱 전략 구현
더보기
해설
  • A. 지연 로딩 캐싱 전략 구현
  • B. 연속 쓰기 캐싱 전략 구현
  • C. TTL 캐싱 전략 추가 구현
  • D. AWS AppConfig 캐싱 전략 구현

연속 쓰기(Write-through) 캐싱 전략은 데이터베이스와 동시에 캐시를 업데이트합


#482

https://www.examtopics.com/discussions/amazon/view/109490-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 온프레미스 위치에서 Amazon S3 버킷으로 100GB의 기록 데이터를 마이그레이션하려고 합니다. 회사는 사내에서 100Mbps 인터넷 연결을 보유하고 있습니다. 회사는 S3 버킷으로 전송되는 데이터를 암호화해야 합니다. 회사는 새로운 데이터를 Amazon S3에 직접 저장합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CLI에서 s3 sync 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.
  • B. AWS DataSync를 사용하여 온프레미스 위치에서 S3 버킷으로 데이터를 마이그레이션합니다.
  • C. AWS Snowball을 사용하여 데이터를 S3 버킷으로 이동
  • D. 온프레미스 위치에서 AWS로 IPsec VPN을 설정합니다. AWS CLI에서 s3 cp 명령을 사용하여 데이터를 S3 버킷으로 직접 이동
더보기
해설
  • A. AWS CLI에서 s3 sync 명령을 사용하여 데이터를 S3 버킷으로 직접 이동합니다.
  • B. AWS DataSync를 사용하여 온프레미스 위치에서 S3 버킷으로 데이터를 마이그레이션합니다.
  • C. AWS Snowball을 사용하여 데이터를 S3 버킷으로 이동
  • D. 온프레미스 위치에서 AWS로 IPsec VPN을 설정합니다. AWS CLI에서 s3 cp 명령을 사용하여 데이터를 S3 버킷으로 직접 이동

#483

https://www.examtopics.com/discussions/amazon/view/109463-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 Windows 컨테이너 아래의 .NET 6 Framework에서 실행되는 Windows 작업을 컨테이너화했습니다. 회사는 AWS 클라우드에서 이 작업을 실행하려고 합니다. 작업은 10분마다 실행됩니다. 작업 실행 시간은 1분에서 3분 사이입니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 작업의 컨테이너 이미지를 기반으로 AWS Lambda 함수를 생성합니다. 10분마다 함수를 호출하도록 Amazon EventBridge를 구성합니다.
  • B. AWS Batch를 사용하여 AWS Fargate 리소스를 사용하는 작업을 생성합니다. 10분마다 실행되도록 작업 예약을 구성합니다.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 10분마다 실행할 작업의 컨테이너 이미지를 기반으로 예약된 작업을 만듭니다.
  • D. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 작업의 컨테이너 이미지를 기반으로 독립형 작업을 생성합니다.
    Windows 작업 스케줄러를 사용하여 10분 마다 작업을 실행합니다 .
더보기
해설
  • A. 작업의 컨테이너 이미지를 기반으로 AWS Lambda 함수를 생성합니다. 10분마다 함수를 호출하도록 Amazon EventBridge를 구성합니다.
  • B. AWS Batch를 사용하여 AWS Fargate 리소스를 사용하는 작업을 생성합니다. 10분마다 실행되도록 작업 예약을 구성합니다.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 10분마다 실행할 작업의 컨테이너 이미지를 기반으로 예약된 작업을 만듭니다.
  • D. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하여 작업을 실행합니다. 작업의 컨테이너 이미지를 기반으로 독립형 작업을 생성합니다.
    Windows 작업 스케줄러를 사용하여 10분 마다 작업을 실행합니다 .

#484⭐

https://www.examtopics.com/discussions/amazon/view/109467-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 많은 독립형 AWS 계정에서 통합된 다중 계정 아키텍처로 전환하려고 합니다. 회사는 다양한 사업부에 대해 많은 새로운 AWS 계정을 생성할 계획입니다. 회사는 중앙 집중식 회사 디렉터리 서비스를 사용하여 이러한 AWS 계정에 대한 액세스를 인증해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 작업 조합을 권장해야 합니까? (2개를 선택하세요.)


  • A. 모든 기능이 활성화된 AWS Organizations에서 새 조직을 생성합니다. 조직에 새 AWS 계정을 생성합니다.
  • B. Amazon Cognito 자격 증명 풀을 설정합니다. Amazon Cognito 인증을 허용하도록 AWS IAM Identity Center(AWS Single Sign-On)를 구성합니다.
  • C. AWS 계정을 관리하기 위해 서비스 제어 정책(SCP)을 구성합니다. AWS Directory Service에 AWS IAM Identity Center(AWS Single Sign-On)를 추가합니다.
  • D. AWS Organizations에서 새 조직을 생성합니다. AWS Directory Service를 직접 사용하도록 조직의 인증 메커니즘을 구성합니다.
  • E. 조직에 AWS IAM Identity Center(AWS Single Sign-On)를 설정합니다. IAM ID 센터를 구성하고 회사의 기업 디렉터리 서비스와 통합합니다
더보기
해설
  • A. 모든 기능이 활성화된 AWS Organizations에서 새 조직을 생성합니다. 조직에 새 AWS 계정을 생성합니다.
  • B. Amazon Cognito 자격 증명 풀을 설정합니다. Amazon Cognito 인증을 허용하도록 AWS IAM Identity Center(AWS Single Sign-On)를 구성합니다.
  • C. AWS 계정을 관리하기 위해 서비스 제어 정책(SCP)을 구성합니다. AWS Directory Service에 AWS IAM Identity Center(AWS Single Sign-On)를 추가합니다.
  • D. AWS Organizations에서 새 조직을 생성합니다. AWS Directory Service를 직접 사용하도록 조직의 인증 메커니즘을 구성합니다.
  • E. 조직에 AWS IAM Identity Center(AWS Single Sign-On)를 설정합니다. IAM ID 센터를 구성하고 회사의 기업 디렉터리 서비스와 통합합니다

A:AWS 조직 E:권한 부여를 위한 옵션 C(SCP)로 인한 인증

A. AWS Organizations에서 새 조직을 생성하면 통합 다중 계정 아키텍처를 구축할 수 있습니다. 이를 통해 단일 조직의 다양한 사업부에 대해 여러 AWS 계정을 생성하고 관리할 수 있습니다. E. 조직 내에 AWS IAM Identity Center(AWS Single Sign-On)를 설정하면 이를 회사의 기업 디렉토리 서비스와 통합할 수 있습니다. 이 통합을 통해 사용자는 회사 자격 증명을 사용하여 로그인하고 조직 내 AWS 계정에 액세스할 수 있는 중앙 집중식 인증이 가능해졌습니다. 이러한 작업을 통해 계정 관리에는 AWS Organizations를, 인증 및 액세스 제어에는 AWS IAM Identity Center(AWS Single Sign-On)를 활용하는 중앙 집중식 다중 계정 아키텍처가 생성됩니다


#485⭐

https://www.examtopics.com/discussions/amazon/view/109470-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 오래된 뉴스 영상의 비디오 아카이브를 AWS에 저장할 수 있는 솔루션을 찾고 있습니다. 회사는 비용을 최소화해야 하며 이러한 파일을 복원할 필요가 거의 없습니다. 파일이 필요한 경우 최대 5분 이내에 사용할 수 있어야 합니다.

가장 비용 효율적인 솔루션은 무엇입니까?

  • A. Amazon S3 Glacier에 비디오 아카이브를 저장하고 긴급 검색을 사용하십시오.
  • B. Amazon S3 Glacier에 비디오 아카이브를 저장하고 표준 검색을 사용합니다.
  • C. Amazon S3 Standard-Infrequent Access(S3 Standard-IA)에 비디오 아카이브를 저장합니다.
  • D. Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)에 비디오 아카이브를 저장합니다
더보기
해설
  • A. Amazon S3 Glacier에 비디오 아카이브를 저장하고 긴급 검색을 사용하십시오.
  • B. Amazon S3 Glacier에 비디오 아카이브를 저장하고 표준 검색을 사용합니다.
  • C. Amazon S3 Standard-Infrequent Access(S3 Standard-IA)에 비디오 아카이브를 저장합니다.
  • D. Amazon S3 One Zone-Infrequent Access(S3 One Zone-IA)에 비디오 아카이브를 저장합니다

Glacier에서 검색하는 데 드는 간헐적인 비용은 C에 비해 엄청난 저장 비용 절감에 비하면 아무것도 아닙니다. 여전히 5분 요구 사항을 충족함

 


#486⭐

https://www.examtopics.com/discussions/amazon/view/109664-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사가 AWS에서 3티어 애플리케이션을 구축하고 있습니다. 프레젠테이션 계층은 정적 웹 사이트를 제공합니다. 논리 계층은 컨테이너화된 애플리케이션입니다. 이 응용 프로그램은 관계형 데이터베이스에 데이터를 저장합니다. 회사는 배포를 단순화하고 운영 비용을 절감하기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon S3를 사용하여 정적 콘텐츠를 호스팅하십시오. 컴퓨팅 성능을 위해 AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • B. Amazon CloudFront를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 Amazon EC2와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • C. Amazon S3를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • D. Amazon EC2 예약 인스턴스를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 Amazon EC2와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
더보기
해설
  • A. Amazon S3를 사용하여 정적 콘텐츠를 호스팅하십시오. 컴퓨팅 성능을 위해 AWS Fargate와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • B. Amazon CloudFront를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 Amazon EC2와 함께 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • C. Amazon S3를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 AWS Fargate와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.
  • D. Amazon EC2 예약 인스턴스를 사용하여 정적 콘텐츠를 호스팅합니다. 컴퓨팅 성능을 위해 Amazon EC2와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하십시오. 데이터베이스에 관리형 Amazon RDS 클러스터를 사용합니다.

B: CloudFront = 원하지 않는 것에 대한 추가 비용(CDN)

S3= 정적 콘텐츠 호스팅

ECS Fargate = "컨테이너화된 애플리케이션"


#487⭐

https://www.examtopics.com/discussions/amazon/view/109665-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 해당 애플리케이션에 맞는 스토리지 솔루션을 찾고 있습니다. 솔루션은 가용성과 확장성이 높아야 합니다. 또한 솔루션은 기본 프로토콜을 통해 AWS 및 온프레미스의 여러 Linux 인스턴스에서 탑재할 수 있는 파일 시스템으로 작동해야 하며 최소 크기 요구 사항이 없습니다. 회사는 온프레미스 네트워크에서 VPC로 액세스하기 위해 Site-to-Site VPN을 설정했습니다.

이러한 요구 사항을 충족하는 스토리지 솔루션은 무엇입니까?

  • A. Amazon FSx 다중 AZ 배포
  • B. Amazon Elastic Block Store(Amazon EBS) 다중 연결 볼륨
  • C. 탑재 대상이 여러 개인 Amazon Elastic File System(Amazon EFS)
  • D. 단일 탑재 대상과 여러 액세스 포인트가 있는 Amazon Elastic File System(Amazon EFS)
더보기
해설
  • A. Amazon FSx 다중 AZ 배포
  • B. Amazon Elastic Block Store(Amazon EBS) 다중 연결 볼륨
  • C. 탑재 대상이 여러 개인 Amazon Elastic File System(Amazon EFS)
  • D. 단일 탑재 대상과 여러 액세스 포인트가 있는 Amazon Elastic File System(Amazon EFS)

A: FSx는 탑재 가능한 파일 시스템이 아닌 파일 서버임

Amazon EFS는 Amazon EC2 인스턴스에 확장 가능한 공유 스토리지를 제공하는 완전관리형 파일 시스템 서비스입니다. Linux 기반 시스템의 기본 프로토콜인 NFSv4(Network File System 버전 4) 프로토콜을 지원합니다. EFS는 가용성, 내구성, 확장성이 뛰어나도록 설계되었음


#488

https://www.examtopics.com/discussions/amazon/view/109509-exam-aws-certified-solutions-architect-associate-saa-c03/


설립된 지 4년 된 한 미디어 회사는 AWS Organizations의 모든 기능 세트를 사용하여 AWS 계정을 구성하고 있습니다. 회사 재무팀에 따르면, 회원 계정의 결제 정보는 회원 계정의 루트 사용자를 포함하여 누구에게도 접근할 수 없어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 모든 재무팀 사용자를 IAM 그룹에 추가합니다. Billing이라는 AWS 관리형 정책을 그룹에 연결합니다.
  • B. 루트 사용자를 포함한 모든 사용자의 결제 정보에 대한 액세스를 거부하는 자격 증명 기반 정책을 연결합니다.
  • C. 청구 정보에 대한 액세스를 거부하는 SCP(서비스 제어 정책)를 만듭니다. SCP를 루트 조직 단위(OU)에 연결합니다.
  • D. 조직의 모든 기능 기능 세트를 조직 통합 결제 기능 세트로 전환합니다.
더보기
해설
  • A. 모든 재무팀 사용자를 IAM 그룹에 추가합니다. Billing이라는 AWS 관리형 정책을 그룹에 연결합니다.
  • B. 루트 사용자를 포함한 모든 사용자의 결제 정보에 대한 액세스를 거부하는 자격 증명 기반 정책을 연결합니다.
  • C. 청구 정보에 대한 액세스를 거부하는 SCP(서비스 제어 정책)를 만듭니다. SCP를 루트 조직 단위(OU)에 연결합니다.
  • D. 조직의 모든 기능 기능 세트를 조직 통합 결제 기능 세트로 전환합니다.

#489

https://www.examtopics.com/discussions/amazon/view/109637-exam-aws-certified-solutions-architect-associate-saa-c03/


전자 상거래 회사는 온프레미스 웨어하우스 솔루션과 통합된 애플리케이션을 AWS 클라우드에서 실행합니다. 이 회사는 Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 창고 애플리케이션이 주문을 처리할 수 있도록 온프레미스 HTTPS 엔드포인트에 주문 메시지를 보냅니다. 로컬 데이터 센터 팀에서는 일부 주문 메시지가 수신되지 않은 것을 감지했습니다.

솔루션 아키텍트는 전달되지 않은 메시지를 보관하고 최대 14일 동안 메시지를 분석해야 합니다.

최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?


  • A. 보존 기간이 14일인 Amazon Kinesis Data Stream 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
  • B. 애플리케이션과 Amazon SNS 사이에 보존 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대기열을 추가합니다.
  • C. 보존 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
  • D. 보존 기간이 14일로 설정된 TTL 속성이 있는 Amazon DynamoDB 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다
더보기
해설
  • A. 보존 기간이 14일인 Amazon Kinesis Data Stream 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
  • B. 애플리케이션과 Amazon SNS 사이에 보존 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대기열을 추가합니다.
  • C. 보존 기간이 14일인 Amazon Simple Queue Service(Amazon SQS) 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다.
  • D. 보존 기간이 14일로 설정된 TTL 속성이 있는 Amazon DynamoDB 대상이 있는 Amazon SNS 배달 못한 편지 대기열을 구성합니다

#490

https://www.examtopics.com/discussions/amazon/view/109577-exam-aws-certified-solutions-architect-associate-saa-c03/


한 게임 회사는 Amazon DynamoDB를 사용하여 지리적 위치, 플레이어 데이터, 순위표 등의 사용자 정보를 저장합니다. 회사는 최소한의 코딩으로 Amazon S3 버킷에 대한 연속 백업을 구성해야 합니다. 백업은 애플리케이션의 가용성에 영향을 주어서는 안 되며 테이블에 정의된 읽기 용량 단위(RCU)에 영향을 주어서는 안 됩니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon EMR 클러스터를 사용하십시오. 데이터를 Amazon S3에 백업하는 Apache Hive 작업을 생성합니다.
  • B. 지속적인 백업을 통해 DynamoDB에서 Amazon S3로 데이터를 직접 내보냅니다. 테이블에 대한 특정 시점 복구를 활성화합니다.
  • C. Amazon DynamoDB 스트림을 구성합니다. 스트림을 사용하고 데이터를 Amazon S3 버킷으로 내보내는 AWS Lambda 함수를 생성합니다.
  • D. 정기적으로 데이터베이스 테이블의 데이터를 Amazon S3로 내보내는 AWS Lambda 함수를 생성합니다. 테이블에 대한 특정 시점 복구를 활성화합니다.
더보기
해설
  • A. Amazon EMR 클러스터를 사용하십시오. 데이터를 Amazon S3에 백업하는 Apache Hive 작업을 생성합니다.
  • B. 지속적인 백업을 통해 DynamoDB에서 Amazon S3로 데이터를 직접 내보냅니다. 테이블에 대한 특정 시점 복구를 활성화합니다.
  • C. Amazon DynamoDB 스트림을 구성합니다. 스트림을 사용하고 데이터를 Amazon S3 버킷으로 내보내는 AWS Lambda 함수를 생성합니다.
  • D. 정기적으로 데이터베이스 테이블의 데이터를 Amazon S3로 내보내는 AWS Lambda 함수를 생성합니다. 테이블에 대한 특정 시점 복구를 활성화합니다.

#491⭐

https://www.examtopics.com/discussions/amazon/view/109513-exam-aws-certified-solutions-architect-associate-saa-c03/



솔루션 설계자는 은행에 대한 신용 카드 데이터 유효성 검사 요청을 처리하기 위한 비동기 애플리케이션을 설계하고 있습니다. 애플리케이션은 안전해야 하며 각 요청을 한 번 이상 처리할 수 있어야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화에는 AWS Key Management Service(SSE-KMS)를 사용합니다. Lambda 실행 역할에 대한 kms:Decrypt 권한을 추가합니다.
  • B. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 사용합니다. 암호화에는 SQS 관리 암호화 키(SSE-SQS)를 사용합니다. Lambda 함수에 대한 암호화 키 호출 권한을 추가합니다.
  • C. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 설정합니다. AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 실행 역할에 대한 kms:Decrypt 권한을 추가합니다.
  • D. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화에는 AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 함수에 대한 암호화 키 호출 권한을 추가합니다.
더보기
해설
  • A. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화에는 AWS Key Management Service(SSE-KMS)를 사용합니다. Lambda 실행 역할에 대한 kms:Decrypt 권한을 추가합니다.
  • B. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 사용합니다. 암호화에는 SQS 관리 암호화 키(SSE-SQS)를 사용합니다. Lambda 함수에 대한 암호화 키 호출 권한을 추가합니다.
  • C. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 이벤트 소스로 설정합니다. AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 실행 역할에 대한 kms:Decrypt 권한을 추가합니다.
  • D. AWS Lambda 이벤트 소스 매핑을 사용하십시오. Amazon Simple Queue Service(Amazon SQS) 표준 대기열을 이벤트 소스로 설정합니다. 암호화에는 AWS KMS 키(SSE-KMS)를 사용합니다. Lambda 함수에 대한 암호화 키 호출 권한을 추가합니다.

"각 요청을 한 번 이상 처리" = 표준 대기열, 더 비싼 FIFO 대기열을 사용하는 B와 C를 제외합니다. 권한은 Lambda 함수가 아닌 Lambda 실행 역할에 추가되므로 D는 제외됨


#492

https://www.examtopics.com/discussions/amazon/view/109638-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 개발 작업을 위한 여러 AWS 계정이 있습니다. 일부 직원은 지속적으로 대형 Amazon EC2 인스턴스를 사용하므로 회사의 개발 계정에 대한 연간 예산을 초과하게 됩니다. 회사는 이러한 계정에서 AWS 리소스 생성을 중앙에서 제한하려고 합니다.

최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 승인된 EC2 생성 프로세스를 사용하는 AWS 시스템 관리자 템플릿을 개발합니다. 승인된 Systems Manager 템플릿을 사용하여 EC2 인스턴스를 프로비저닝합니다.
  • B. AWS Organizations를 사용하여 계정을 조직 단위(OU)로 구성합니다. 서비스 제어 정책(SCP)을 정의하고 연결하여 EC2 인스턴스 유형의 사용을 제어합니다.
  • C. EC2 인스턴스가 생성될 때 AWS Lambda 함수를 호출하는 Amazon EventBridge 규칙을 구성합니다. 허용되지 않는 EC2 인스턴스 유형을 중지합니다.
  • D. 직원이 허용되는 EC2 인스턴스 유형을 생성할 수 있도록 AWS Service Catalog 제품을 설정합니다. 직원이 서비스 카탈로그 제품을 통해서만 EC2 인스턴스를 배포할 수 있는지 확인하십시오.
더보기
해설
  • A. 승인된 EC2 생성 프로세스를 사용하는 AWS 시스템 관리자 템플릿을 개발합니다. 승인된 Systems Manager 템플릿을 사용하여 EC2 인스턴스를 프로비저닝합니다.
  • B. AWS Organizations를 사용하여 계정을 조직 단위(OU)로 구성합니다. 서비스 제어 정책(SCP)을 정의하고 연결하여 EC2 인스턴스 유형의 사용을 제어합니다.
  • C. EC2 인스턴스가 생성될 때 AWS Lambda 함수를 호출하는 Amazon EventBridge 규칙을 구성합니다. 허용되지 않는 EC2 인스턴스 유형을 중지합니다.
  • D. 직원이 허용되는 EC2 인스턴스 유형을 생성할 수 있도록 AWS Service Catalog 제품을 설정합니다. 직원이 서비스 카탈로그 제품을 통해서만 EC2 인스턴스를 배포할 수 있는지 확인하십시오.

#493

https://www.examtopics.com/discussions/amazon/view/109639-exam-aws-certified-solutions-architect-associate-saa-c03/



한 회사는 인공 지능(AI)을 사용하여 고객 서비스 통화 품질을 결정하려고 합니다. 회사는 현재 영어를 포함해 4개 언어로 통화를 관리하고 있습니다. 회사는 앞으로 새로운 언어를 제공할 예정입니다. 회사에는 기계 학습(ML) 모델을 정기적으로 유지 관리할 리소스가 없습니다.

회사는 고객 서비스 통화 녹음을 통해 서면 감정 분석 보고서를 작성해야 합니다. 고객 서비스 통화 녹음 텍스트는 영어로 번역되어야 합니다.

이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.)

  • A. Amazon Comprehend를 사용하여 오디오 녹음을 영어로 번역하십시오.
  • B. Amazon Lex를 사용하여 서면 감정 분석 보고서를 작성하십시오.
  • C. Amazon Polly를 사용하여 오디오 녹음을 텍스트로 변환합니다.
  • D. Amazon Transcribe를 사용하여 모든 언어의 오디오 녹음을 텍스트로 변환합니다.
  • E. Amazon Translate를 사용하여 모든 언어의 텍스트를 영어로 번역합니다.
  • F. Amazon Comprehend를 사용하여 감정 분석 보고서를 생성합니다.
더보기
해설
  • A. Amazon Comprehend를 사용하여 오디오 녹음을 영어로 번역하십시오.
  • B. Amazon Lex를 사용하여 서면 감정 분석 보고서를 작성하십시오.
  • C. Amazon Polly를 사용하여 오디오 녹음을 텍스트로 변환합니다.
  • D. Amazon Transcribe를 사용하여 모든 언어의 오디오 녹음을 텍스트로 변환합니다.
  • E. Amazon Translate를 사용하여 모든 언어의 텍스트를 영어로 번역합니다.
  • F. Amazon Comprehend를 사용하여 감정 분석 보고서를 생성합니다.

#494

https://www.examtopics.com/discussions/amazon/view/109727-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 Amazon EC2 인스턴스를 사용하여 내부 시스템을 호스팅합니다. 배포 작업의 일부로 관리자는 AWS CLI를 사용하여 EC2 인스턴스를 종료하려고 합니다. 그러나 관리자는 403(액세스 거부) 오류 메시지를 받습니다.

관리자는 다음 IAM 정책이 연결된 IAM 역할을 사용하고 있습니다.
실패한 요청의 원인은 무엇입니까?


  • A. EC2 인스턴스에는 Deny 문이 포함된 리소스 기반 정책이 있습니다.
  • B. 정책 설명에 주체가 명시되어 있지 않습니다.
  • C. "작업" 필드는 EC2 인스턴스를 종료하는 데 필요한 작업을 부여하지 않습니다.
  • D. EC2 인스턴스 종료 요청은 CIDR 블록 192.0.2.0/24 또는 203.0.113.0/24에서 시작되지 않습니다.
더보기
해설
  • A. EC2 인스턴스에는 Deny 문이 포함된 리소스 기반 정책이 있습니다.
  • B. 정책 설명에 주체가 명시되어 있지 않습니다.
  • C. "작업" 필드는 EC2 인스턴스를 종료하는 데 필요한 작업을 부여하지 않습니다.
  • D. EC2 인스턴스 종료 요청은 CIDR 블록 192.0.2.0/24 또는 203.0.113.0/24에서 시작되지 않습니다.

#495⭐

https://www.examtopics.com/discussions/amazon/view/109666-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에서 내부 감사를 실시하고 있습니다. 회사는 회사의 AWS Lake Formation 데이터 레이크와 연결된 Amazon S3 버킷의 데이터에 민감한 고객 또는 직원 데이터가 포함되지 않았는지 확인하려고 합니다. 회사는 여권 번호, 신용 카드 번호 등 개인 식별 정보(PII)나 금융 정보를 검색하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 계정에 AWS Audit Manager를 구성합니다. 감사를 위해 PCI DSS(지불 카드 산업 데이터 보안 표준)를 선택하세요.
  • B. S3 버킷에 Amazon S3 인벤토리를 구성합니다. 인벤토리를 쿼리하도록 Amazon Athena를 구성합니다.
  • C. 필요한 데이터 유형에 대해 관리형 식별자를 사용하는 데이터 검색 작업을 실행하도록 Amazon Macie를 구성합니다.
  • D. Amazon S3 Select를 사용하여 S3 버킷 전체에 걸쳐 보고서를 실행합니다
더보기
해설
  • A. 계정에 AWS Audit Manager를 구성합니다. 감사를 위해 PCI DSS(지불 카드 산업 데이터 보안 표준)를 선택하세요.
  • B. S3 버킷에 Amazon S3 인벤토리를 구성합니다. 인벤토리를 쿼리하도록 Amazon Athena를 구성합니다.
  • C. 필요한 데이터 유형에 대해 관리형 식별자를 사용하는 데이터 검색 작업을 실행하도록 Amazon Macie를 구성합니다.
  • D. Amazon S3 Select를 사용하여 S3 버킷 전체에 걸쳐 보고서를 실행합니다

PII 또는 민감한 데이터 = Macie


#496⭐

https://www.examtopics.com/discussions/amazon/view/109552-exam-aws-certified-solutions-architect-associate-saa-c03/



회사는 온프레미스 서버를 사용하여 애플리케이션을 호스팅합니다. 회사의 저장 용량이 부족합니다. 애플리케이션은 블록 스토리지와 NFS 스토리지를 모두 사용합니다. 이 회사에는 기존 애플리케이션을 재설계하지 않고도 로컬 캐싱을 지원하는 고성능 솔루션이 필요합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon S3를 온프레미스 서버에 파일 시스템으로 탑재합니다.
  • B. NFS 스토리지를 대체하기 위해 AWS Storage Gateway 파일 게이트웨이를 배포합니다.
  • C. AWS Snowball Edge를 배포하여 온프레미스 서버에 NFS 마운트를 프로비저닝합니다.
  • D. AWS Storage Gateway 볼륨 게이트웨이를 배포하여 블록 스토리지를 교체합니다.
  • E. Amazon Elastic File System(Amazon EFS) 볼륨을 배포하고 온프레미스 서버에 탑재합니다.
더보기
해설
  • A. Amazon S3를 온프레미스 서버에 파일 시스템으로 탑재합니다.
  • B. NFS 스토리지를 대체하기 위해 AWS Storage Gateway 파일 게이트웨이를 배포합니다.
  • C. AWS Snowball Edge를 배포하여 온프레미스 서버에 NFS 마운트를 프로비저닝합니다.
  • D. AWS Storage Gateway 볼륨 게이트웨이를 배포하여 블록 스토리지를 교체합니다.
  • E. Amazon Elastic File System(Amazon EFS) 볼륨을 배포하고 온프레미스 서버에 탑재합니다.

A: 불가능합니다. C: Snowball Edge는 컴퓨팅의 눈덩이입니다. NAS가 아닙니다! E: 기술적으로는 그렇습니다. 그러나 VPN 또는 Direct Connect가 필요하므로 재구성된 B & D는 모두 NFS 및 블록 스토리지로 사용할 수 있는 Storage Gateway(https://aws.amazon.com/storagegateway/)를 사용

 

NFS 스토리지를 대체하기 위해 AWS Storage Gateway 파일 게이트웨이 배포 블록 스토리지를 대체하기 위해 AWS Storage Gateway 볼륨 게이트웨이 배포

 


#497

https://www.examtopics.com/discussions/amazon/view/109667-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에 동일한 AWS 리전의 Amazon S3 버킷에서 대량의 데이터를 읽고 쓰는 서비스가 있습니다. 서비스는 VPC의 프라이빗 서브넷 내의 Amazon EC2 인스턴스에 배포됩니다. 이 서비스는 퍼블릭 서브넷의 NAT 게이트웨이를 통해 Amazon S3와 통신합니다. 그러나 회사는 데이터 출력 비용을 줄일 수 있는 솔루션을 원합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 퍼블릭 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 대상으로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.
  • B. 프라이빗 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 대상으로 사용하도록 퍼블릭 서브넷의 라우팅 테이블을 구성합니다.
  • C. VPC 게이트웨이 엔드포인트를 프로비저닝합니다. 게이트웨이 엔드포인트를 모든 S3 트래픽의 경로로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.
  • D. 두 번째 NAT 게이트웨이를 프로비저닝합니다. 이 NAT 게이트웨이를 모든 S3 트래픽의 대상으로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.
더보기
해설
  • A. 퍼블릭 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 대상으로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.
  • B. 프라이빗 서브넷에 전용 EC2 NAT 인스턴스를 프로비저닝합니다. 이 인스턴스의 탄력적 네트워크 인터페이스를 모든 S3 트래픽의 대상으로 사용하도록 퍼블릭 서브넷의 라우팅 테이블을 구성합니다.
  • C. VPC 게이트웨이 엔드포인트를 프로비저닝합니다. 게이트웨이 엔드포인트를 모든 S3 트래픽의 경로로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.
  • D. 두 번째 NAT 게이트웨이를 프로비저닝합니다. 이 NAT 게이트웨이를 모든 S3 트래픽의 대상으로 사용하도록 프라이빗 서브넷의 라우팅 테이블을 구성합니다.

#498⭐

https://www.examtopics.com/discussions/amazon/view/109668-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 Amazon S3를 사용하여 고해상도 사진을 S3 버킷에 저장합니다. 애플리케이션 변경을 최소화하기 위해 회사는 사진을 S3 개체의 최신 버전으로 저장합니다. 회사는 가장 최근 버전의 사진 두 장만 보관하면 됩니다.

회사는 비용을 절감하고 싶어합니다. 회사는 S3 버킷을 큰 비용으로 식별했습니다.

최소한의 운영 오버헤드로 S3 비용을 절감할 수 있는 솔루션은 무엇입니까?

  • A. S3 수명 주기를 사용하여 만료된 객체 버전을 삭제하고 최신 버전 2개를 유지하세요.
  • B. AWS Lambda 함수를 사용하여 이전 버전을 확인하고 최신 버전 2개를 제외하고 모두 삭제합니다.
  • C. S3 배치 작업을 사용하여 최신이 아닌 객체 버전을 삭제하고 최신 버전 2개만 유지합니다.
  • D. S3 버킷의 버전 관리를 비활성화하고 최신 버전 2개를 유지합니다
더보기
해설
  • A. S3 수명 주기를 사용하여 만료된 객체 버전을 삭제하고 최신 버전 2개를 유지하세요.
  • B. AWS Lambda 함수를 사용하여 이전 버전을 확인하고 최신 버전 2개를 제외하고 모두 삭제합니다.
  • C. S3 배치 작업을 사용하여 최신이 아닌 객체 버전을 삭제하고 최신 버전 2개만 유지합니다.
  • D. S3 버킷의 버전 관리를 비활성화하고 최신 버전 2개를 유지합니다

B: Lambda에 대한 작업이 너무 많습니다. C: 가능하지만 많은 작업이 필요합니다. D: 모순된 진술... 즉, 추가 오버헤드 없이 버전을 제거하고 동시에 버전을 유지하는 방법은 무엇입니까? 맞춤형 솔루션이 더 많은 작업이 될 수 있습니다. A: S3 수명 주기는 설정된 기준에 따라 객체와 버전을 유지하도록 설계

 

S3 수명 주기 정책을 사용하면 수명이나 기타 기준에 따라 객체를 자동으로 전환하거나 만료하는 규칙을 정의할 수 있습니다. 만료된 객체 버전을 삭제하고 최신 버전 2개만 보존하도록 S3 수명 주기 정책을 구성하면 원하는 보존 정책을 유지하면서 스토리지 비용을 효과적으로 관리할 수 있습니다. 이 솔루션은 고도로 자동화되어 있으며 수명 주기 관리가 S3 자체에서 처리되므로 운영 오버헤드가 최소화됨


#499

https://www.examtopics.com/discussions/amazon/view/109515-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 1Gbps AWS Direct Connect 연결 비용을 최소화해야 합니다. 회사의 평균 연결 활용도는 10% 미만입니다. 솔루션 설계자는 보안을 손상시키지 않으면서 비용을 절감할 수 있는 솔루션을 권장해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 새로운 1Gbps Direct Connect 연결을 설정합니다. 다른 AWS 계정과 연결을 공유합니다.
  • B. AWS Management Console에서 새로운 200Mbps Direct Connect 연결을 설정합니다.
  • C. 1Gbps 연결을 주문하려면 AWS Direct Connect 파트너에게 문의하세요. 다른 AWS 계정과 연결을 공유합니다.
  • D. 기존 AWS 계정에 대한 200Mbps 호스팅 연결을 주문하려면 AWS Direct Connect 파트너에게 문의하세요
더보기
해설
  • A. 새로운 1Gbps Direct Connect 연결을 설정합니다. 다른 AWS 계정과 연결을 공유합니다.
  • B. AWS Management Console에서 새로운 200Mbps Direct Connect 연결을 설정합니다.
  • C. 1Gbps 연결을 주문하려면 AWS Direct Connect 파트너에게 문의하세요. 다른 AWS 계정과 연결을 공유합니다.
  • D. 기존 AWS 계정에 대한 200Mbps 호스팅 연결을 주문하려면 AWS Direct Connect 파트너에게 문의하세요

#500⭐

https://www.examtopics.com/discussions/amazon/view/109689-exam-aws-certified-solutions-architect-associate-saa-c03/



회사에는 온프레미스에 여러 개의 Windows 파일 서버가 있습니다. 회사는 파일을 Amazon FSx for Windows File Server 파일 시스템으로 마이그레이션하고 통합하려고 합니다. 액세스 권한이 변경되지 않도록 파일 권한을 보존해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. AWS DataSync 에이전트를 온프레미스에 배포합니다. DataSync 작업을 예약하여 FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송합니다.
  • B. AWS CLI를 사용하여 각 파일 서버의 공유를 Amazon S3 버킷에 복사합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다.
  • C. 각 파일 서버에서 드라이브를 제거합니다. Amazon S3로 가져오기 위해 드라이브를 AWS로 배송합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다.
  • D. AWS Snowcone 디바이스를 주문합니다. 장치를 온프레미스 네트워크에 연결합니다. 디바이스에서 AWS DataSync 에이전트를 시작합니다. DataSync 작업을 예약하여 FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송합니다.
  • E. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. 장치를 온프레미스 네트워크에 연결합니다. AWS CLI를 사용하여 디바이스에 데이터를 복사합니다. Amazon S3로 가져오기 위해 디바이스를 AWS로 다시 배송합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다
더보기
해설
  • A. AWS DataSync 에이전트를 온프레미스에 배포합니다. DataSync 작업을 예약하여 FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송합니다.
  • B. AWS CLI를 사용하여 각 파일 서버의 공유를 Amazon S3 버킷에 복사합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다.
  • C. 각 파일 서버에서 드라이브를 제거합니다. Amazon S3로 가져오기 위해 드라이브를 AWS로 배송합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다.
  • D. AWS Snowcone 디바이스를 주문합니다. 장치를 온프레미스 네트워크에 연결합니다. 디바이스에서 AWS DataSync 에이전트를 시작합니다. DataSync 작업을 예약하여 FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송합니다.
  • E. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. 장치를 온프레미스 네트워크에 연결합니다. AWS CLI를 사용하여 디바이스에 데이터를 복사합니다. Amazon S3로 가져오기 위해 디바이스를 AWS로 다시 배송합니다. FSx for Windows 파일 서버 파일 시스템으로 데이터를 전송하도록 AWS DataSync 작업을 예약합니다.

B, C 및 E는 먼저 권한이 손실되는 S3에 파일을 복사합니다

핵심은 마이그레이션 프로세스 중에 파일 권한이 유지된다는 것입니다. datasync만이 이를 지원함


 

728x90
728x90

#401

https://www.examtopics.com/discussions/amazon/view/102170-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 AWS 클라우드를 사용하여 기존 애플리케이션의 가용성과 복원력을 높이고 싶어합니다. 현재 버전의 애플리케이션은 회사의 데이터 센터에 있습니다. 최근 예상치 못한 정전으로 인해 데이터베이스 서버가 중단된 후 애플리케이션에서 데이터 손실이 발생했습니다.

회사에는 단일 실패 지점을 방지하는 솔루션이 필요합니다. 솔루션은 사용자 요구에 맞게 확장할 수 있는 기능을 애플리케이션에 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 다중 AZ 구성에서 Amazon RDS DB 인스턴스를 사용합니다.
  • B. 단일 가용 영역의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. EC2 인스턴스에 데이터베이스를 배포합니다. EC2 자동 복구를 활성화합니다.
  • C. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 단일 가용 영역에서 읽기 전용 복제본과 함께 Amazon RDS DB 인스턴스를 사용합니다. 기본 DB 인스턴스가 실패하는 경우 읽기 전용 복제본을 승격하여 기본 DB 인스턴스를 교체합니다.
  • D. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 여러 가용 영역에 걸쳐 EC2 인스턴스에 기본 및 보조 데이터베이스 서버를 배포합니다. Amazon Elastic Block Store(Amazon EBS) 다중 연결을 사용하여 인스턴스 간에 공유 스토리지를 생성합니다.
더보기
해설
  • A. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 다중 AZ 구성에서 Amazon RDS DB 인스턴스를 사용합니다.
  • B. 단일 가용 영역의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. EC2 인스턴스에 데이터베이스를 배포합니다. EC2 자동 복구를 활성화합니다.
  • C. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 단일 가용 영역에서 읽기 전용 복제본과 함께 Amazon RDS DB 인스턴스를 사용합니다. 기본 DB 인스턴스가 실패하는 경우 읽기 전용 복제본을 승격하여 기본 DB 인스턴스를 교체합니다.
  • D. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 여러 가용 영역에 걸쳐 EC2 인스턴스에 기본 및 보조 데이터베이스 서버를 배포합니다. Amazon Elastic Block Store(Amazon EBS) 다중 연결을 사용하여 인스턴스 간에 공유 스토리지를 생성합니다.

D는 작동하지 않음
(EBS 다중 연결에는 동일한 AZ에 EC2 인스턴스가 필요함)

작동한다면 EBS 볼륨 SPOF가 될 것


#402

https://www.examtopics.com/discussions/amazon/view/102175-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 애플리케이션에서 생성되는 대량의 스트리밍 데이터를 수집하고 처리해야 합니다. 애플리케이션은 Amazon EC2 인스턴스에서 실행되며 기본 설정으로 구성된 Amazon Kinesis Data Streams로 데이터를 보냅니다. 애플리케이션은 격일로 데이터를 소비하고 비즈니스 인텔리전스(BI) 처리를 위해 Amazon S3 버킷에 데이터를 씁니다. 회사는 애플리케이션이 Kinesis Data Streams로 전송하는 모든 데이터를 Amazon S3가 수신하지 못하는 것을 확인했습니다.

이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?


  • A. 데이터 보존 기간을 수정하여 Kinesis Data Streams 기본 설정을 업데이트합니다.
  • B. KPL(Kinesis Producer Library)을 사용하여 데이터를 Kinesis Data Streams로 보내도록 애플리케이션을 업데이트합니다.
  • C. Kinesis Data Streams로 전송되는 데이터의 처리량을 처리하기 위해 Kinesis 샤드 수를 업데이트합니다.
  • D. S3 버킷 내에서 S3 버전 관리를 활성화하여 S3 버킷에 수집된 모든 객체의 모든 버전을 보존합니다.
더보기
해설
  • A. 데이터 보존 기간을 수정하여 Kinesis Data Streams 기본 설정을 업데이트합니다.
  • B. KPL(Kinesis Producer Library)을 사용하여 데이터를 Kinesis Data Streams로 보내도록 애플리케이션을 업데이트합니다.
  • C. Kinesis Data Streams로 전송되는 데이터의 처리량을 처리하기 위해 Kinesis 샤드 수를 업데이트합니다.
  • D. S3 버킷 내에서 S3 버전 관리를 활성화하여 S3 버킷에 수집된 모든 객체의 모든 버전을 보존합니다.

"Kinesis 데이터 스트림은 기본적으로 24시간부터 최대 8,760시간(365일)까지의 레코드를 저장합니다." https://docs.aws.amazon.com/streams/latest/dev/kinesis-extended-retention.html 질문에는 Kinesis 데이터 스트림 기본 설정과 "격일"이 언급되어 있습니다. 24시간 이상 데이터를 저장하도록 기본 설정을 수정하지 않으면 24시간 이후에는 데이터가 데이터 스트림에 없습니다.


#403

https://www.examtopics.com/discussions/amazon/view/102178-exam-aws-certified-solutions-architect-associate-saa-c03/


개발자는 AWS Lambda 함수를 사용하여 Amazon S3에 파일을 업로드하는 애플리케이션을 보유하고 있으며 작업을 수행하는 데 필요한 권한이 필요합니다. 개발자에게는 Amazon S3에 필요한 유효한 IAM 자격 증명을 가진 IAM 사용자가 이미 있습니다.

솔루션 설계자는 권한을 부여하기 위해 무엇을 해야 합니까?


  • A. Lambda 함수의 리소스 정책에 필요한 IAM 권한을 추가합니다.
  • B. Lambda 함수의 기존 IAM 자격 증명을 사용하여 서명된 요청을 생성합니다.
  • C. 새로운 IAM 사용자를 생성하고 Lambda 함수에서 기존 IAM 자격 증명을 사용합니다.
  • D. 필요한 권한이 있는 IAM 실행 역할을 생성하고 IAM 역할을 Lambda 함수에 연결합니다.
더보기
해설
  • A. Lambda 함수의 리소스 정책에 필요한 IAM 권한을 추가합니다.
  • B. Lambda 함수의 기존 IAM 자격 증명을 사용하여 서명된 요청을 생성합니다.
  • C. 새로운 IAM 사용자를 생성하고 Lambda 함수에서 기존 IAM 자격 증명을 사용합니다.
  • D. 필요한 권한이 있는 IAM 실행 역할을 생성하고 IAM 역할을 Lambda 함수에 연결합니다.

#404

https://www.examtopics.com/discussions/amazon/view/102180-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 새 문서가 Amazon S3 버킷에 업로드될 때 AWS Lambda 함수를 호출하는 서버리스 애플리케이션을 배포했습니다. 애플리케이션은 Lambda 함수를 사용하여 문서를 처리합니다. 최근 마케팅 캠페인 이후 회사는 애플리케이션이 많은 문서를 처리하지 않는다는 사실을 발견했습니다.

이 애플리케이션의 아키텍처를 개선하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. Lambda 함수의 런타임 제한 시간 값을 15분으로 설정합니다.
  • B. S3 버킷 복제 정책을 구성합니다. 나중에 처리하기 위해 S3 버킷에 문서를 준비합니다.
  • C. 추가 Lambda 함수를 배포합니다. 두 개의 Lambda 함수에 걸쳐 문서 처리의 로드 밸런싱을 수행합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 요청을 대기열로 보냅니다. 대기열을 Lambda의 이벤트 소스로 구성합니다.
더보기
해설
  • A. Lambda 함수의 런타임 제한 시간 값을 15분으로 설정합니다.
  • B. S3 버킷 복제 정책을 구성합니다. 나중에 처리하기 위해 S3 버킷에 문서를 준비합니다.
  • C. 추가 Lambda 함수를 배포합니다. 두 개의 Lambda 함수에 걸쳐 문서 처리의 로드 밸런싱을 수행합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 요청을 대기열로 보냅니다. 대기열을 Lambda의 이벤트 소스로 구성합니다.

#405

https://www.examtopics.com/discussions/amazon/view/102181-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 소프트웨어 데모 환경을 위한 아키텍처를 설계하고 있습니다. 환경은 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스에서 실행됩니다. 시스템은 업무 시간 동안 상당한 트래픽 증가를 경험하지만 주말에는 작동할 필요가 없습니다.

시스템이 수요에 맞게 확장될 수 있도록 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. AWS Auto Scaling을 사용하여 요청 속도에 따라 ALB 용량을 조정하십시오.
  • B. AWS Auto Scaling을 사용하여 VPC 인터넷 게이트웨이의 용량을 확장합니다.
  • C. 여러 AWS 지역에서 EC2 인스턴스를 시작하여 지역 전체에 로드를 분산합니다.
  • D. 대상 추적 조정 정책을 사용하여 인스턴스 CPU 사용률을 기준으로 Auto Scaling 그룹을 조정합니다.
  • E. 예약된 조정을 사용하여 주말 동안 Auto Scaling 그룹 최소, 최대 및 원하는 용량을 0으로 변경합니다. 한 주가 시작되면 기본값으로 되돌립니다.
더보기
해설
  • A. AWS Auto Scaling을 사용하여 요청 속도에 따라 ALB 용량을 조정하십시오.
  • B. AWS Auto Scaling을 사용하여 VPC 인터넷 게이트웨이의 용량을 확장합니다.
  • C. 여러 AWS 지역에서 EC2 인스턴스를 시작하여 지역 전체에 로드를 분산합니다.
  • D. 대상 추적 조정 정책을 사용하여 인스턴스 CPU 사용률을 기준으로 Auto Scaling 그룹을 조정합니다.
  • E. 예약된 조정을 사용하여 주말 동안 Auto Scaling 그룹 최소, 최대 및 원하는 용량을 0으로 변경합니다. 한 주가 시작되면 기본값으로 되돌립니다.

#406

https://www.examtopics.com/discussions/amazon/view/102183-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 공용 서브넷과 데이터베이스 서브넷을 포함하는 2계층 아키텍처를 설계하고 있습니다. 퍼블릭 서브넷의 웹 서버는 포트 443에서 인터넷에 열려 있어야 합니다. 데이터베이스 서브넷의 Amazon RDS for MySQL DB 인스턴스는 포트 3306의 웹 서버에만 액세스할 수 있어야 합니다.

솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. 퍼블릭 서브넷에 대한 네트워크 ACL을 생성합니다. 포트 3306에서 0.0.0.0/0으로의 아웃바운드 트래픽을 거부하는 규칙을 추가합니다.
  • B. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 퍼블릭 서브넷 CIDR 블록의 트래픽을 허용하는 규칙을 추가합니다.
  • C. 퍼블릭 서브넷의 웹 서버에 대한 보안 그룹을 생성합니다. 포트 443에서 0.0.0.0/0의 트래픽을 허용하는 규칙을 추가합니다.
  • D. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 허용하는 규칙을 추가합니다.
  • E. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 제외한 모든 트래픽을 거부하는 규칙을 추가합니다.
더보기
해설
  • A. 퍼블릭 서브넷에 대한 네트워크 ACL을 생성합니다. 포트 3306에서 0.0.0.0/0으로의 아웃바운드 트래픽을 거부하는 규칙을 추가합니다.
  • B. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 퍼블릭 서브넷 CIDR 블록의 트래픽을 허용하는 규칙을 추가합니다.
  • C. 퍼블릭 서브넷의 웹 서버에 대한 보안 그룹을 생성합니다. 포트 443에서 0.0.0.0/0의 트래픽을 허용하는 규칙을 추가합니다.
  • D. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 허용하는 규칙을 추가합니다.
  • E. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 제외한 모든 트래픽을 거부하는 규칙을 추가합니다.

#407

https://www.examtopics.com/discussions/amazon/view/102184-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS 클라우드에서 호스팅되는 게임 애플리케이션용 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 데이터를 탑재 가능한 파일 시스템으로 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre를 지원하도록 구성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
더보기
해설
  • A. 데이터를 탑재 가능한 파일 시스템으로 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre를 지원하도록 구성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.

#408

https://www.examtopics.com/discussions/amazon/view/102185-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 UDP를 사용하는 지리적으로 분산된 수천 개의 원격 장치로부터 데이터를 수신하는 애플리케이션을 실행합니다. 애플리케이션은 데이터를 즉시 처리하고 필요한 경우 장치에 다시 메시지를 보냅니다. 데이터가 저장되지 않습니다.

회사에는 장치에서 데이터 전송에 대한 대기 시간을 최소화하는 솔루션이 필요합니다. 또한 솔루션은 다른 AWS 리전에 대한 신속한 장애 조치도 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Route 53 장애 조치 라우팅 정책을 구성하십시오. 두 리전 각각에 Network Load Balancer(NLB)를 생성합니다. 데이터를 처리하기 위해 AWS Lambda 함수를 호출하도록 NLB를 구성합니다.
  • B. AWS Global Accelerator를 사용하십시오. 두 리전 각각에 NLB(Network Load Balancer)를 엔드포인트로 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 Amazon ECS의 데이터를 NLProcess의 대상으로 설정합니다.
  • C. AWS Global Accelerator를 사용하십시오. 두 지역 각각에 엔드포인트로 Application Load Balancer(ALB)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정하십시오. Amazon ECS에서 데이터를 처리합니다.
  • D. Amazon Route 53 장애 조치 라우팅 정책을 구성합니다. 두 리전 각각에 ALB(Application Load Balancer)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정합니다. Amazon ECS에서 데이터를 처리합니다.
더보기
해설
  • A. Amazon Route 53 장애 조치 라우팅 정책을 구성하십시오. 두 리전 각각에 Network Load Balancer(NLB)를 생성합니다. 데이터를 처리하기 위해 AWS Lambda 함수를 호출하도록 NLB를 구성합니다.
  • B. AWS Global Accelerator를 사용하십시오. 두 리전 각각에 NLB(Network Load Balancer)를 엔드포인트로 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 Amazon ECS의 데이터를 NLProcess의 대상으로 설정합니다.
  • C. AWS Global Accelerator를 사용하십시오. 두 지역 각각에 엔드포인트로 Application Load Balancer(ALB)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정하십시오. Amazon ECS에서 데이터를 처리합니다.
  • D. Amazon Route 53 장애 조치 라우팅 정책을 구성합니다. 두 리전 각각에 ALB(Application Load Balancer)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정합니다. Amazon ECS에서 데이터를 처리합니다.

#409

https://www.examtopics.com/discussions/amazon/view/102186-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 아키텍트는 Windows 인터넷 정보 서비스(IIS) 웹 애플리케이션을 AWS로 마이그레이션해야 합니다. 애플리케이션은 현재 사용자의 온프레미스 NAS(Network Attached Storage)에서 호스팅되는 파일 공유를 사용합니다. 솔루션 설계자는 IIS 웹 서버를 스토리지 솔루션에 연결된 여러 가용 영역의 Amazon EC2 인스턴스로 마이그레이션하고 인스턴스에 연결된 Elastic Load Balancer를 구성할 것을 제안했습니다.

온프레미스 파일 공유에 대한 복원력과 내구성이 가장 뛰어난 대체 제품은 무엇입니까?

  • A. 파일 공유를 Amazon RDS로 마이그레이션하십시오.
  • B. 파일 공유를 AWS Storage Gateway로 마이그레이션합니다.
  • C. 파일 공유를 Amazon FSx for Windows File Server로 마이그레이션합니다.
  • D. 파일 공유를 Amazon Elastic File System(Amazon EFS)으로 마이그레이션합니다.
더보기
해설
  • A. 파일 공유를 Amazon RDS로 마이그레이션하십시오.
  • B. 파일 공유를 AWS Storage Gateway로 마이그레이션합니다.
  • C. 파일 공유를 Amazon FSx for Windows File Server로 마이그레이션합니다.
  • D. 파일 공유를 Amazon Elastic File System(Amazon EFS)으로 마이그레이션합니다.

#410

https://www.examtopics.com/discussions/amazon/view/102187-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon EC2 인스턴스에 새 애플리케이션을 배포하고 있습니다. 애플리케이션은 Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 씁니다. 회사는 EBS 볼륨에 기록된 모든 데이터가 저장 시 암호화되었는지 확인해야 합니다.

이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. EBS 암호화를 지정하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. EBS 볼륨을 암호화된 볼륨으로 생성합니다. EBS 볼륨을 EC2 인스턴스에 연결합니다.
  • C. 키가 Encrypt이고 값이 True인 EC2 인스턴스 태그를 생성합니다. EBS 수준에서 암호화가 필요한 모든 인스턴스에 태그를 지정합니다.
  • D. 계정에 EBS 암호화를 적용하는 AWS Key Management Service(AWS KMS) 키 정책을 생성합니다. 키 정책이 활성 상태인지 확인하세요.
더보기
해설
  • A. EBS 암호화를 지정하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. EBS 볼륨을 암호화된 볼륨으로 생성합니다. EBS 볼륨을 EC2 인스턴스에 연결합니다.
  • C. 키가 Encrypt이고 값이 True인 EC2 인스턴스 태그를 생성합니다. EBS 수준에서 암호화가 필요한 모든 인스턴스에 태그를 지정합니다.
  • D. 계정에 EBS 암호화를 적용하는 AWS Key Management Service(AWS KMS) 키 정책을 생성합니다. 키 정책이 활성 상태인지 확인하세요.

#411

https://www.examtopics.com/discussions/amazon/view/102188-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에 산발적인 사용 패턴이 있는 웹 애플리케이션이 있습니다. 매월 초에는 사용량이 많고, 매주 초에는 사용량이 적당하며, 주 중에는 사용량이 예측할 수 없습니다. 애플리케이션은 데이터 센터 내부에서 실행되는 웹 서버와 MySQL 데이터베이스 서버로 구성됩니다. 회사는 애플리케이션을 AWS 클라우드로 이동하려고 하며 데이터베이스 수정이 필요하지 않은 비용 효율적인 데이터베이스 플랫폼을 선택해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 아마존 다이나모DB
  • B. MySQL용 Amazon RDS
  • C. MySQL 호환 Amazon Aurora 서버리스
  • D. Auto Scaling 그룹의 Amazon EC2에 배포된 MySQL
더보기
해설
  • A. 아마존 다이나모DB
  • B. MySQL용 Amazon RDS
  • C. MySQL 호환 Amazon Aurora 서버리스
  • D. Auto Scaling 그룹의 Amazon EC2에 배포된 MySQL

#412

https://www.examtopics.com/discussions/amazon/view/102189-exam-aws-certified-solutions-architect-associate-saa-c03/


이미지 호스팅 회사는 객체를 Amazon S3 버킷에 저장합니다. 회사는 S3 버킷에 있는 객체가 실수로 대중에게 노출되는 것을 방지하려고 합니다. 전체 AWS 계정의 모든 S3 객체는 비공개로 유지되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon GuardDuty를 사용하여 S3 버킷 정책을 모니터링하십시오. AWS Lambda 함수를 사용하여 객체를 공개하는 모든 변경 사항을 수정하는 자동 수정 작업 규칙을 생성합니다.
  • B. AWS Trusted Advisor를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Trusted Advisor에서 이메일 알림을 구성합니다. 공개 액세스를 허용하는 경우 S3 버킷 정책을 수동으로 변경합니다.
  • C. AWS Resource Access Manager를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 AWS Lambda 함수를 호출합니다. 프로그래밍 방식으로 변경 사항을 해결하는 Lambda 함수를 배포합니다.
  • D. 계정 수준에서 S3 공개 액세스 차단 기능을 사용하십시오. AWS Organizations를 사용하여 IAM 사용자가 설정을 변경하지 못하도록 하는 서비스 제어 정책(SCP)을 생성합니다. 계정에 SCP를 적용합니다.
더보기
해설
  • A. Amazon GuardDuty를 사용하여 S3 버킷 정책을 모니터링하십시오. AWS Lambda 함수를 사용하여 객체를 공개하는 모든 변경 사항을 수정하는 자동 수정 작업 규칙을 생성합니다.
  • B. AWS Trusted Advisor를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Trusted Advisor에서 이메일 알림을 구성합니다. 공개 액세스를 허용하는 경우 S3 버킷 정책을 수동으로 변경합니다.
  • C. AWS Resource Access Manager를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 AWS Lambda 함수를 호출합니다. 프로그래밍 방식으로 변경 사항을 해결하는 Lambda 함수를 배포합니다.
  • D. 계정 수준에서 S3 공개 액세스 차단 기능을 사용하십시오. AWS Organizations를 사용하여 IAM 사용자가 설정을 변경하지 못하도록 하는 서비스 제어 정책(SCP)을 생성합니다. 계정에 SCP를 적용합니다.

#413

https://www.examtopics.com/discussions/amazon/view/102190-exam-aws-certified-solutions-architect-associate-saa-c03/


한 전자상거래 회사에서 사용자 트래픽이 증가하고 있습니다. 회사의 스토어는 웹 계층과 별도의 데이터베이스 계층으로 구성된 2계층 웹 애플리케이션으로 Amazon EC2 인스턴스에 배포됩니다. 트래픽이 증가함에 따라 회사는 아키텍처로 인해 사용자에게 적시에 마케팅 및 주문 확인 이메일을 보내는 데 상당한 지연이 발생하고 있음을 발견했습니다. 회사는 복잡한 이메일 전달 문제를 해결하는 데 소요되는 시간을 줄이고 운영 오버헤드를 최소화하기를 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • D. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다. Auto Scaling 그룹에 인스턴스를 배치합니다.
더보기
해설
  • A. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • D. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다. Auto Scaling 그룹에 인스턴스를 배치합니다.

#414

https://www.examtopics.com/discussions/amazon/view/103452-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에는 매일 수백 개의 보고서를 생성하는 비즈니스 시스템이 있습니다. 비즈니스 시스템은 보고서를 CSV 형식으로 네트워크 공유에 저장합니다. 회사는 분석을 위해 이 데이터를 거의 실시간으로 AWS 클라우드에 저장해야 합니다.

최소한의 관리 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS DataSync를 사용하여 파일을 Amazon S3로 전송하십시오. 매일 저녁에 실행되는 예약된 작업을 만듭니다.
  • B. Amazon S3 파일 게이트웨이를 생성합니다. S3 파일 게이트웨이의 새 네트워크 공유를 사용하도록 비즈니스 시스템을 업데이트합니다.
  • C. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 자동화 워크플로에서 DataSync API를 사용하는 애플리케이션을 생성합니다.
  • D. SFTP 엔드포인트를 위한 AWS 전송을 배포합니다. 네트워크 공유에서 새 파일을 확인하고 SFTP를 사용하여 새 파일을 업로드하는 스크립트를 만듭니다.
더보기
해설
  • A. AWS DataSync를 사용하여 파일을 Amazon S3로 전송하십시오. 매일 저녁에 실행되는 예약된 작업을 만듭니다.
  • B. Amazon S3 파일 게이트웨이를 생성합니다. S3 파일 게이트웨이의 새 네트워크 공유를 사용하도록 비즈니스 시스템을 업데이트합니다.
  • C. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 자동화 워크플로에서 DataSync API를 사용하는 애플리케이션을 생성합니다.
  • D. SFTP 엔드포인트를 위한 AWS 전송을 배포합니다. 네트워크 공유에서 새 파일을 확인하고 SFTP를 사용하여 새 파일을 업로드하는 스크립트를 만듭니다.

'최소 관리 오버헤드'에 대한 요구 사항 => B


#415

https://www.examtopics.com/discussions/amazon/view/103404-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon S3 Standard에 페타바이트 규모의 데이터를 저장하고 있습니다. 데이터는 여러 S3 버킷에 저장되며 다양한 빈도로 액세스됩니다. 회사는 모든 데이터에 대한 접근 패턴을 알지 못합니다. 회사는 S3 사용 비용을 최적화하기 위해 각 S3 버킷에 대한 솔루션을 구현해야 합니다.

가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. S3 버킷의 객체를 S3 Intelligent-Tiering으로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • B. S3 스토리지 클래스 분석 도구를 사용하여 S3 버킷의 각 객체에 대한 올바른 계층을 결정합니다. 각 개체를 식별된 스토리지 계층으로 이동합니다.
  • C. S3 버킷의 객체를 S3 Glacier Instant Retrieval로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • D. S3 버킷의 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
더보기
해설
  • A. S3 버킷의 객체를 S3 Intelligent-Tiering으로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • B. S3 스토리지 클래스 분석 도구를 사용하여 S3 버킷의 각 객체에 대한 올바른 계층을 결정합니다. 각 개체를 식별된 스토리지 계층으로 이동합니다.
  • C. S3 버킷의 객체를 S3 Glacier Instant Retrieval로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • D. S3 버킷의 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.

#416

https://www.examtopics.com/discussions/amazon/view/103423-exam-aws-certified-solutions-architect-associate-saa-c03/


빠르게 성장하는 글로벌 전자 상거래 회사가 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 웹 애플리케이션에는 정적 콘텐츠와 동적 콘텐츠가 포함됩니다. 웹 사이트는 온라인 트랜잭션 처리(OLTP) 데이터를 Amazon RDS 데이터베이스에 저장합니다. 웹 사이트 사용자의 페이지 로드 속도가 느려지고 있습니다.

이 문제를 해결하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Redshift 클러스터를 구성하십시오.
  • B. Amazon CloudFront 배포를 설정합니다.
  • C. Amazon S3에서 동적 웹 콘텐츠를 호스팅합니다.
  • D. RDS DB 인스턴스에 대한 읽기 전용 복제본을 생성합니다.
  • E. RDS DB 인스턴스에 대한 다중 AZ 배포를 구성합니다.
더보기
해설
  • A. Amazon Redshift 클러스터를 구성하십시오.
  • B. Amazon CloudFront 배포를 설정합니다.
  • C. Amazon S3에서 동적 웹 콘텐츠를 호스팅합니다.
  • D. RDS DB 인스턴스에 대한 읽기 전용 복제본을 생성합니다.
  • E. RDS DB 인스턴스에 대한 다중 AZ 배포를 구성합니다.

#417

https://www.examtopics.com/discussions/amazon/view/103598-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 Amazon EC2 인스턴스와 AWS Lambda 함수를 사용하여 애플리케이션을 실행합니다. 회사의 AWS 계정에는 퍼블릭 서브넷과 프라이빗 서브넷이 있는 VPC가 있습니다. EC2 인스턴스는 VPC 중 하나의 프라이빗 서브넷에서 실행됩니다. 애플리케이션이 작동하려면 Lambda 함수가 EC2 인스턴스에 대한 직접 네트워크 액세스가 필요합니다.

신청서는 최소 1년 동안 실행됩니다. 회사는 해당 기간 동안 애플리케이션이 사용하는 Lambda 함수 수가 증가할 것으로 예상합니다. 회사는 모든 애플리케이션 리소스에 대한 절감 효과를 극대화하고 서비스 간의 네트워크 대기 시간을 낮게 유지하기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. EC2 인스턴스 절약 플랜을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 횟수를 최적화하세요. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • B. EC2 인스턴스 절약 플랜 구매 Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 실행되는 동일한 VPC의 퍼블릭 서브넷에 Lambda 함수를 연결합니다.
  • C. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • D. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. Lambda 서비스 VPC에 Lambda 함수를 유지합니다.
더보기
해설
  • A. EC2 인스턴스 절약 플랜을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 횟수를 최적화하세요. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • B. EC2 인스턴스 절약 플랜 구매 Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 실행되는 동일한 VPC의 퍼블릭 서브넷에 Lambda 함수를 연결합니다.
  • C. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • D. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. Lambda 서비스 VPC에 Lambda 함수를 유지합니다.

#418

https://www.examtopics.com/discussions/amazon/view/103585-exam-aws-certified-solutions-architect-associate-saa-c03/

솔루션 아키텍트는 팀 구성원이 개발 계정과 프로덕션 계정이라는 두 가지 AWS 계정에서 Amazon S3 버킷에 액세스할 수 있도록 허용해야 합니다. 팀은 현재 계정에서 적절한 권한이 있는 IAM 그룹에 할당된 고유한 IAM 사용자를 사용하여 개발 계정의 S3 버킷에 액세스할 수 있습니다.

솔루션스 아키텍트가 프로덕션 계정에 IAM 역할을 생성했습니다. 이 역할에는 프로덕션 계정의 S3 버킷에 대한 액세스 권한을 부여하는 정책이 있습니다.

최소 권한 원칙을 준수하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 개발 계정 사용자에게 관리자 액세스 정책을 연결합니다.
  • B. 프로덕션 계정의 역할에 대한 신뢰 정책에 개발 계정을 보안 주체로 추가합니다.
  • C. 프로덕션 계정의 S3 버킷에서 S3 퍼블릭 액세스 차단 기능을 끕니다.
  • D. 각 팀 구성원에 대한 고유한 자격 증명을 사용하여 프로덕션 계정에 사용자를 만듭니다.
더보기
해설
  • A. 개발 계정 사용자에게 관리자 액세스 정책을 연결합니다.
  • B. 프로덕션 계정의 역할에 대한 신뢰 정책에 개발 계정을 보안 주체로 추가합니다.
  • C. 프로덕션 계정의 S3 버킷에서 S3 퍼블릭 액세스 차단 기능을 끕니다.
  • D. 각 팀 구성원에 대한 고유한 자격 증명을 사용하여 프로덕션 계정에 사용자를 만듭니다.

#419

https://www.examtopics.com/discussions/amazon/view/109268-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 모든 기능이 활성화된 AWS Organizations를 사용하고 ap-southeast-2 지역에서 여러 Amazon EC2 워크로드를 실행합니다. 회사에는 다른 리전에서 리소스가 생성되지 않도록 하는 서비스 제어 정책(SCP)이 있습니다. 보안 정책에 따라 회사는 모든 저장 데이터를 암호화해야 합니다.

감사 결과 직원들이 볼륨을 암호화하지 않고 EC2 인스턴스용 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성한 것으로 나타났습니다. 회사는 암호화된 EBS 볼륨을 사용하기 위해 모든 IAM 사용자 또는 루트 사용자가 ap-southeast-2에서 시작하는 모든 새 EC2 인스턴스를 원합니다. 회사는 EBS 볼륨을 생성하는 직원에게 최소한의 영향을 미치는 솔루션을 원합니다.

이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon EC2 콘솔에서 EBS 암호화 계정 속성을 선택하고 기본 암호화 키를 정의하십시오.
  • B. IAM 권한 경계를 생성합니다. 루트 조직 단위(OU)에 권한 경계를 연결합니다. ec2:Encrypted 조건이 false일 때 ec2:CreateVolume 작업을 거부하도록 경계를 정의합니다.
  • C. SCP를 생성합니다. SCP를 루트 조직 단위(OU)에 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 SCP를 정의합니다.
  • D. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 각 계정의 IAM 정책을 업데이트합니다.
  • E. 조직 관리 계정에서 기본 EBS 볼륨 암호화 설정을 지정합니다.
더보기
해설
  • A. Amazon EC2 콘솔에서 EBS 암호화 계정 속성을 선택하고 기본 암호화 키를 정의하십시오.
  • B. IAM 권한 경계를 생성합니다. 루트 조직 단위(OU)에 권한 경계를 연결합니다. ec2:Encrypted 조건이 false일 때 ec2:CreateVolume 작업을 거부하도록 경계를 정의합니다.
  • C. SCP를 생성합니다. SCP를 루트 조직 단위(OU)에 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 SCP를 정의합니다.
  • D. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 각 계정의 IAM 정책을 업데이트합니다.
  • E. 조직 관리 계정에서 기본 EBS 볼륨 암호화 설정을 지정합니다.

#420

https://www.examtopics.com/discussions/amazon/view/109269-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 PostgreSQL DB 클러스터용 Amazon RDS를 사용하여 프로덕션 데이터베이스 워크로드에 대한 시간 소모적인 데이터베이스 관리 작업을 단순화하려고 합니다. 회사는 데이터베이스의 가용성을 높이고 대부분의 시나리오에서 40초 이내에 자동 장애 조치 지원을 제공하기를 원합니다. 회사는 기본 인스턴스에서 읽기 작업을 오프로드하고 비용을 최대한 낮게 유지하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용하십시오. 하나의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • B. Amazon RDS 다중 AZ DB Duster 배포 사용 두 개의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • C. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 다중 AZ 쌍의 보조 인스턴스에 읽기 워크로드를 지정합니다.
  • D. Amazon RDS 다중 AZ DB 클러스터 배포를 사용하십시오. 읽기 워크로드를 리더 엔드포인트로 지정하십시오.
더보기
해설
  • A. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용하십시오. 하나의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • B. Amazon RDS 다중 AZ DB Duster 배포 사용 두 개의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • C. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 다중 AZ 쌍의 보조 인스턴스에 읽기 워크로드를 지정합니다.
  • D. Amazon RDS 다중 AZ DB 클러스터 배포를 사용하십시오. 읽기 워크로드를 리더 엔드포인트로 지정하십시오.

#421

https://www.examtopics.com/discussions/amazon/view/109270-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 가용성이 높은 SFTP 서비스를 운영하고 있습니다. SFTP 서비스는 탄력적 IP 주소로 실행되는 두 개의 Amazon EC2 Linux 인스턴스를 사용하여 인터넷에서 신뢰할 수 있는 IP 소스의 트래픽을 허용합니다. SFTP 서비스는 인스턴스에 연결된 공유 스토리지를 통해 지원됩니다. 사용자 계정은 SFTP 서버에서 Linux 사용자로 생성 및 관리됩니다.

회사는 높은 IOPS 성능과 고도로 구성 가능한 보안을 제공하는 서버리스 옵션을 원합니다. 회사는 또한 사용자 권한에 대한 제어를 유지하기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. SFTP 서비스 엔드포인트에 EBS 볼륨을 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 탄력적 IP 주소와 인터넷 연결 액세스가 가능한 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 엔드포인트에 보안 그룹을 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • C. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • D. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 프라이빗 서브넷에서 내부 액세스 권한이 있는 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
더보기
해설
  • A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. SFTP 서비스 엔드포인트에 EBS 볼륨을 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 탄력적 IP 주소와 인터넷 연결 액세스가 가능한 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 엔드포인트에 보안 그룹을 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • C. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • D. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 프라이빗 서브넷에서 내부 액세스 권한이 있는 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

A  - Transfer Family는 EBS를 사용할 수 없음

C - S3는 "높은 IOPS 성능"을 보장하지 않음

D - 엔드포인트가 프라이빗 서브넷에 있으므로 인터넷에서 전혀 액세스할 수 없음


#422

https://www.examtopics.com/discussions/amazon/view/109280-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS에서 새로운 기계 학습(ML) 모델 솔루션을 개발하고 있습니다. 모델은 시작 시 Amazon S3에서 약 1GB의 모델 데이터를 가져와 메모리에 로드하는 독립적인 마이크로서비스로 개발되었습니다. 사용자는 비동기 API를 통해 모델에 액세스합니다. 사용자는 요청 또는 요청 일괄 처리를 보내고 결과를 보낼 위치를 지정할 수 있습니다.

회사는 수백 명의 사용자에게 모델을 제공합니다. 모델의 사용 패턴은 불규칙합니다. 일부 모델은 며칠 또는 몇 주 동안 사용되지 않을 수 있습니다. 다른 모델은 한 번에 수천 개의 요청을 일괄적으로 받을 수 있습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 디자인을 권장해야 합니까?

  • A. API의 요청을 NLB(Network Load Balancer)로 전달합니다. NLB에서 호출되는 AWS Lambda 함수로 모델을 배포합니다.
  • B. API의 요청을 ALB(Application Load Balancer)로 전달합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터의 인스턴스를 확장합니다.
  • C. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. SQS 이벤트에 의해 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수에 대한 vCPU 수를 늘립니다.
  • D. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기를 기준으로 클러스터와 서비스 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.
더보기
해설
  • A. API의 요청을 NLB(Network Load Balancer)로 전달합니다. NLB에서 호출되는 AWS Lambda 함수로 모델을 배포합니다.
  • B. API의 요청을 ALB(Application Load Balancer)로 전달합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터의 인스턴스를 확장합니다.
  • C. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. SQS 이벤트에 의해 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수에 대한 vCPU 수를 늘립니다.
  • D. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기를 기준으로 클러스터와 서비스 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.

배치 요청/비동기 = Amazon SQS 마이크로서비스 = Amazon ECS 워크로드 변형 = Amazon ECS의 AWS Auto Scaling

비동기=SQS, 마이크로서비스=ECS. AWS Auto Scaling을 사용하여 ECS 서비스 수를 조정


#423

https://www.examtopics.com/discussions/amazon/view/109281-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 다음 JSON 텍스트를 자격 증명 기반 정책으로 사용하여 특정 권한을 부여하려고 합니다.

솔루션 설계자는 이 정책을 어떤 IAM 보안 주체에 연결할 수 있습니까? 
(2개를 선택하세요.)

  • 가. 역할
  • 나. 그룹
  • 다. 조직
  • D. Amazon Elastic Container Service(Amazon ECS) 리소스
  • E. Amazon EC2 리소스
더보기
해설
  • 가. 역할
  • 나. 그룹
  • 다. 조직
  • D. Amazon Elastic Container Service(Amazon ECS) 리소스
  • E. Amazon EC2 리소스

IAM 정책은 사용자, 그룹 또는 역할에 적용


#424

https://www.examtopics.com/discussions/amazon/view/109283-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon EC2 온디맨드 인스턴스에서 사용자 지정 애플리케이션을 실행하고 있습니다. 애플리케이션에는 하루 24시간, 일주일 내내 실행해야 하는 프런트엔드 노드와 워크로드에 따라 짧은 시간 동안만 실행해야 하는 백엔드 노드가 있습니다. 백엔드 노드 수는 하루 동안 다양합니다.

회사는 워크로드에 따라 더 많은 인스턴스를 확장하고 확장해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
  • B. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에 스팟 인스턴스를 사용합니다.
  • C. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 예약 인스턴스를 사용합니다.
  • D. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
더보기
해설
  • A. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
  • B. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에 스팟 인스턴스를 사용합니다.
  • C. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 예약 인스턴스를 사용합니다.
  • D. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.

#425

https://www.examtopics.com/discussions/amazon/view/109282-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 온프레미스에서 워크로드를 실행하기 위해 높은 블록 스토리지 용량을 사용합니다. 회사의 일일 최대 초당 입출력 트랜잭션은 15,000 IOPS를 넘지 않습니다. 회사는 워크로드를 Amazon EC2로 마이그레이션하고 스토리지 용량과 관계없이 디스크 성능을 프로비저닝하려고 합니다.

어떤 Amazon Elastic Block Store(Amazon EBS) 볼륨 유형이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A. GP2 볼륨 유형
  • B. io2 볼륨 유형
  • C. GP3 볼륨 유형
  • D. io1 볼륨 유형
더보기
해설
  • A. GP2 볼륨 유형
  • B. io2 볼륨 유형
  • C. GP3 볼륨 유형
  • D. io1 볼륨 유형

GP2와 GP3 모두 최대 IOPS는 16000

GP3가 상대적 비용 효율적


#426

https://www.examtopics.com/discussions/amazon/view/109278-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 의료 애플리케이션의 데이터를 저장해야 합니다. 애플리케이션의 데이터는 자주 변경됩니다. 새로운 규정에서는 저장된 데이터의 모든 수준에 대한 감사 액세스를 요구합니다.

회사는 스토리지 용량이 부족한 온프레미스 인프라에서 애플리케이션을 호스팅합니다. 솔루션 아키텍트는 새로운 규정을 충족하면서 기존 데이터를 AWS로 안전하게 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
  • C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
더보기
해설
  • A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
  • C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.

#427

https://www.examtopics.com/discussions/amazon/view/109279-exam-aws-certified-solutions-architect-associate-saa-c03/

솔루션 설계자는 MySQL 데이터베이스를 사용하여 복잡한 Java 애플리케이션을 구현하고 있습니다. Java 애플리케이션은 Apache Tomcat에 배포되어야 하며 가용성이 높아야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수와 연결하도록 Amazon API Gateway API를 구성합니다.
  • B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 부하 분산 환경과 롤링 배포 정책을 구성합니다.
  • C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션의 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
  • D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 생성합니다. AMI를 사용하여 Auto Scaling 그룹이 포함된 시작 템플릿을 생성합니다.
더보기
해설
  • A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수와 연결하도록 Amazon API Gateway API를 구성합니다.
  • B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 부하 분산 환경과 롤링 배포 정책을 구성합니다.
  • C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션의 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
  • D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 생성합니다. AMI를 사용하여 Auto Scaling 그룹이 포함된 시작 템플릿을 생성합니다.

#428

https://www.examtopics.com/discussions/amazon/view/109285-exam-aws-certified-solutions-architect-associate-saa-c03/


서버리스 애플리케이션은 Amazon API Gateway, AWS Lambda 및 Amazon DynamoDB를 사용합니다. Lambda 함수에는 DynamoDB 테이블을 읽고 쓸 수 있는 권한이 필요합니다.

DynamoDB 테이블에 대한 Lambda 함수 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?

  • A. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 Lambda 환경 변수의 일부로 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인하십시오.
  • B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할을 실행 역할로 사용하도록 Lambda 함수 구성을 업데이트합니다.
  • C. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 AWS 시스템 관리자 매개변수 저장소에 보안 문자열 매개변수로 저장합니다. DynamoDB 테이블에 연결하기 전에 보안 문자열 파라미터를 검색하도록 Lambda 함수 코드를 업데이트합니다.
  • D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할에 실행 역할로 연결되도록 Lambda 함수의 코드를 업데이트합니다.
더보기
해설
  • A. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 Lambda 환경 변수의 일부로 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인하십시오.
  • B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할을 실행 역할로 사용하도록 Lambda 함수 구성을 업데이트합니다.
  • C. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 AWS 시스템 관리자 매개변수 저장소에 보안 문자열 매개변수로 저장합니다. DynamoDB 테이블에 연결하기 전에 보안 문자열 파라미터를 검색하도록 Lambda 함수 코드를 업데이트합니다.
  • D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할에 실행 역할로 연결되도록 Lambda 함수의 코드를 업데이트합니다.

DynamoDB는 Lambda를 신뢰해야 합니다. 그 반대는 아닙니다. 따라서 Lambda는 신뢰할 수 있는 서비스로 구성되어야 합니다


#429

https://www.examtopics.com/discussions/amazon/view/109286-exam-aws-certified-solutions-architect-associate-saa-c03/


다음 IAM 정책은 IAM 그룹에 연결됩니다. 이는 그룹에 적용되는 유일한 정책입니다.

그룹 구성원에 대한 이 정책의 유효한 IAM 권한은 무엇입니까?

  • A. 그룹 구성원은 us-east-1 지역 내에서 모든 Amazon EC2 작업이 허용됩니다. 허용 권한 이후의 문은 적용되지 않습니다.
  • B. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인하지 않는 한 us-east-1 지역에서 모든 Amazon EC2 권한이 거부됩니다.
  • C. 그룹 멤버는 멀티 팩터 인증(MFA)으로 로그인하면 모든 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원에게는 다른 Amazon EC2 작업이 허용됩니다.
  • D. 그룹 멤버에게는 MFA(다단계 인증)로 로그인한 경우에만 us-east-1 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.
더보기
해설
  • A. 그룹 구성원은 us-east-1 지역 내에서 모든 Amazon EC2 작업이 허용됩니다. 허용 권한 이후의 문은 적용되지 않습니다.
  • B. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인하지 않는 한 us-east-1 지역에서 모든 Amazon EC2 권한이 거부됩니다.
  • C. 그룹 멤버는 멀티 팩터 인증(MFA)으로 로그인하면 모든 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원에게는 다른 Amazon EC2 작업이 허용됩니다.
  • D. 그룹 멤버에게는 MFA(다단계 인증)로 로그인한 경우에만 us-east-1 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.

#430

https://www.examtopics.com/discussions/amazon/view/109288-exam-aws-certified-solutions-architect-associate-saa-c03/


한 제조 회사에는 .csv 파일을 Amazon S3 버킷에 업로드하는 기계 센서가 있습니다. 이러한 .csv 파일은 이미지로 변환되어야 하며 그래픽 보고서의 자동 생성을 위해 가능한 한 빨리 사용할 수 있어야 합니다.

이미지는 1개월이 지나면 관련성이 없어지지만, 기계 학습(ML) 모델을 1년에 두 번 훈련하려면 .csv 파일을 보관해야 합니다. ML 교육 및 감사는 몇 주 전에 미리 계획됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 매시간 .csv 파일을 다운로드하고, 이미지 파일을 생성하고, S3 버킷에 이미지를 업로드하는 Amazon EC2 스팟 인스턴스를 시작합니다.
  • B. .csv 파일을 이미지로 변환하고 S3 버킷에 이미지를 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
  • C. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • D. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • E. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 지 1일 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. RRS(Reduced Redundancy Storage)에 이미지 파일을 보관합니다.
더보기
해설
  • A. 매시간 .csv 파일을 다운로드하고, 이미지 파일을 생성하고, S3 버킷에 이미지를 업로드하는 Amazon EC2 스팟 인스턴스를 시작합니다.
  • B. .csv 파일을 이미지로 변환하고 S3 버킷에 이미지를 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
  • C. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • D. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • E. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 지 1일 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. RRS(Reduced Redundancy Storage)에 이미지 파일을 보관합니다.

"가능한 한 빨리" 이미지가 필요 => A는 매시간 실행

"ML 교육 및 감사는 몇 주 전에 미리 계획 => Glacier(C)는 괜찮음


#431

https://www.examtopics.com/discussions/amazon/view/109274-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 웹 애플리케이션으로 새로운 비디오 게임을 개발했습니다. 애플리케이션은 데이터베이스 계층에 MySQL용 Amazon RDS가 있는 VPC의 3계층 아키텍처에 있습니다. 여러 플레이어가 온라인에서 동시에 경쟁하게 됩니다. 게임 개발자는 거의 실시간으로 상위 10위 점수판을 표시하고 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있는 기능을 제공하려고 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 웹 애플리케이션이 표시할 점수를 캐시하도록 Memcached용 Amazon ElastiCache 클러스터를 설정합니다.
  • B. 웹 애플리케이션이 표시할 점수를 계산하고 캐시하도록 Redis용 Amazon ElastiCache 클러스터를 설정합니다.
  • C. 웹 애플리케이션 앞에 Amazon CloudFront 배포판을 배치하여 애플리케이션 섹션에 점수판을 캐시합니다.
  • D. MySQL용 Amazon RDS에서 읽기 전용 복제본을 생성하여 점수판을 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행합니다.
더보기
해설
  • A. 웹 애플리케이션이 표시할 점수를 캐시하도록 Memcached용 Amazon ElastiCache 클러스터를 설정합니다.
  • B. 웹 애플리케이션이 표시할 점수를 계산하고 캐시하도록 Redis용 Amazon ElastiCache 클러스터를 설정합니다.
  • C. 웹 애플리케이션 앞에 Amazon CloudFront 배포판을 배치하여 애플리케이션 섹션에 점수판을 캐시합니다.
  • D. MySQL용 Amazon RDS에서 읽기 전용 복제본을 생성하여 점수판을 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행합니다.

Redis용 ElastiCache는 데이터 세트를 정렬하고 순위를 매깁


#432

https://www.examtopics.com/discussions/amazon/view/109291-exam-aws-certified-solutions-architect-associate-saa-c03/


전자상거래 회사는 기계 학습(ML) 알고리즘을 사용하여 모델을 구축하고 훈련하려고 합니다. 회사는 이 모델을 사용하여 복잡한 시나리오를 시각화하고 고객 데이터의 추세를 감지할 것입니다. 아키텍처 팀은 ML 모델을 보고 플랫폼과 통합하여 증강 데이터를 분석하고 비즈니스 인텔리전스 대시보드에서 직접 데이터를 사용하려고 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Glue를 사용하여 ML 변환을 생성하여 모델을 구축하고 교육하십시오. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • B. Amazon SageMaker를 사용하여 모델을 구축하고 훈련하십시오. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
  • C. AWS Marketplace에서 사전 구축된 ML Amazon 머신 이미지(AMI)를 사용하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
더보기
해설
  • A. AWS Glue를 사용하여 ML 변환을 생성하여 모델을 구축하고 교육하십시오. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • B. Amazon SageMaker를 사용하여 모델을 구축하고 훈련하십시오. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
  • C. AWS Marketplace에서 사전 구축된 ML Amazon 머신 이미지(AMI)를 사용하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.

#433

https://www.examtopics.com/discussions/amazon/view/109384-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 여러 AWS 계정에서 프로덕션 및 비프로덕션 환경 워크로드를 실행하고 있습니다. 계정은 AWS Organizations의 조직에 있습니다. 회사는 비용 사용량 태그의 수정을 방지하는 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 승인된 보안 주체를 제외한 태그 수정을 방지하기 위해 사용자 지정 AWS Config 규칙을 생성합니다.
  • B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 추적을 생성합니다.
  • C. 승인된 주체 이외의 태그 수정을 방지하기 위해 서비스 제어 정책(SCP)을 생성합니다.
  • D. 태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.
더보기
해설
  • A. 승인된 보안 주체를 제외한 태그 수정을 방지하기 위해 사용자 지정 AWS Config 규칙을 생성합니다.
  • B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 추적을 생성합니다.
  • C. 승인된 주체 이외의 태그 수정을 방지하기 위해 서비스 제어 정책(SCP)을 생성합니다.
  • D. 태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.

AWS 조직에서 무엇이든 제한해야 할 때마다 => SCP 정책

태그 정책이 아닌 기술적인 내용을 보려면 C. AWS Config

D "Amazon CloudWatch"는 로깅 전용이며 태그 수정 방지용이 아님

https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps.html 이 질문/사용 사례에 대한 AWS 예제: https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps_examples_tagged. html#example-require-restrict-tag-mods-to-admin


#434

https://www.examtopics.com/discussions/amazon/view/109294-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 AWS 클라우드에서 애플리케이션을 호스팅합니다. 애플리케이션은 Auto Scaling 그룹의 Elastic Load Balancer 뒤와 Amazon DynamoDB 테이블과 함께 Amazon EC2 인스턴스에서 실행됩니다. 회사는 가동 중지 시간을 최소화하면서 다른 AWS 리전에서 애플리케이션을 사용할 수 있기를 원합니다.

가동 중지 시간을 최소화하면서 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • B. AWS CloudFormation 템플릿을 생성하여 필요할 때 시작할 EC2 인스턴스, 로드 밸런서 및 DynamoDB 테이블을 생성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • C. AWS CloudFormation 템플릿을 생성하여 EC2 인스턴스와 필요할 때 실행할 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • D. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 경보를 생성합니다.
더보기
해설
  • A. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • B. AWS CloudFormation 템플릿을 생성하여 필요할 때 시작할 EC2 인스턴스, 로드 밸런서 및 DynamoDB 테이블을 생성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • C. AWS CloudFormation 템플릿을 생성하여 EC2 인스턴스와 필요할 때 실행할 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • D. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 경보를 생성합니다.

그들은 자동 장애 조치를 요구하는 것이 아니라 "다운타임을 최소화하면서 다른 AWS 리전에서 애플리케이션을 사용할 수 있는지 확인"하고 싶어합니다. 이것은 C에서 작동합니다. 그들은 템플릿을 실행하기만 하면 짧은 시간 내에 사용할 수 있게 됩니다. A는 이미 사용 가능한 DR 환경을 만들 것입니다. 이는 질문에서 요구하는 것이 아닙니다.

가동 중지 시간이 가장 적음 = A 비용 효율적 = C, DR로 전환해야 할 때 당시 리전에서 사용할 수 없는 EC2 유형/용량 중 일부가 위험함


#435

https://www.examtopics.com/discussions/amazon/view/109377-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 2주 이내에 MySQL 데이터베이스를 온프레미스 데이터 센터에서 AWS로 마이그레이션해야 합니다. 데이터베이스 크기는 20TB입니다. 회사는 가동 중지 시간을 최소화하면서 마이그레이션을 완료하려고 합니다.

가장 비용 효율적으로 데이터베이스를 마이그레이션하는 솔루션은 무엇입니까?
  • A. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다. Snowball Edge 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • B. AWS Snowmobile 차량을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 AWS로 다시 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • C. GPU 디바이스가 포함된 AWS Snowball Edge Compute Optimized를 주문하세요. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • D. 데이터 센터와의 연결을 설정하려면 1GB 전용 AWS Direct Connect 연결을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다.
더보기
해설
  • A. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다. Snowball Edge 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • B. AWS Snowmobile 차량을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 AWS로 다시 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • C. GPU 디바이스가 포함된 AWS Snowball Edge Compute Optimized를 주문하세요. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • D. 데이터 센터와의 연결을 설정하려면 1GB 전용 AWS Direct Connect 연결을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다.

Direct Connect 설정에 최소 1개월 소요 - D는 유효하지 않음

AWS Snowmobile은 클라우드 연결이 불가능한 원격 위치에서 대량의 데이터(페타바이트)를 전송하는 데 사용 - B는 유효하지 않음

AWS Snowball Edge Compute Optimized는 더 높은 vCPU를 제공, Snowball 스토리지에 비해 성능이 뛰어나고 스토리지가 더 적음, 요구 사항은 데이터 전송뿐이므로 높은 vCPU 성능은 필요하지 않지만 높은 스토리지는 필요하지 않습니다. - C는 유효하지 않음


#436

https://www.examtopics.com/discussions/amazon/view/109277-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사에서 온프레미스 PostgreSQL 데이터베이스를 PostgreSQL DB 인스턴스용 Amazon RDS로 옮겼습니다. 회사는 성공적으로 신제품을 출시했습니다. 데이터베이스의 작업량이 증가했습니다. 회사는 인프라를 추가하지 않고도 더 큰 워크로드를 수용하기를 원합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 Amazon RDS를 더 크게 만듭니다.
  • B. PostgreSQL용 Amazon RDS DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
  • C. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 다른 Amazon RDS를 추가합니다.
  • D. PostgreSQL용 Amazon RDS DB 인스턴스를 온디맨드 DB 인스턴스로 만듭니다.
더보기
해설
  • A. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 Amazon RDS를 더 크게 만듭니다.
  • B. PostgreSQL용 Amazon RDS DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
  • C. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 다른 Amazon RDS를 추가합니다.
  • D. PostgreSQL용 Amazon RDS DB 인스턴스를 온디맨드 DB 인스턴스로 만듭니다.

#437

https://www.examtopics.com/discussions/amazon/view/109378-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 Auto Scaling 그룹의 ALB(Application Load Balancer) 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 웹 사이트를 운영하고 있습니다. IP 주소가 변경되는 불법 외부 시스템의 높은 요청률과 관련된 성능 문제가 사이트에 발생하고 있습니다. 보안팀은 웹사이트에 대한 잠재적인 DDoS 공격을 우려하고 있습니다. 회사는 합법적인 사용자에게 최소한의 영향을 미치는 방식으로 불법적으로 들어오는 요청을 차단해야 합니다.

솔루션 설계자는 무엇을 추천해야 합니까?

  • A. Amazon Inspector를 배포하고 이를 ALB와 연결합니다.
  • B. AWS WAF를 배포하고 이를 ALB와 연결하고 속도 제한 규칙을 구성합니다.
  • C. ALB와 연결된 네트워크 ACL에 규칙을 배포하여 들어오는 트래픽을 차단합니다.
  • D. GuardDuty를 구성할 때 Amazon GuardDuty를 배포하고 속도 제한 보호를 활성화합니다.
더보기
해설
  • A. Amazon Inspector를 배포하고 이를 ALB와 연결합니다.
  • B. AWS WAF를 배포하고 이를 ALB와 연결하고 속도 제한 규칙을 구성합니다.
  • C. ALB와 연결된 네트워크 ACL에 규칙을 배포하여 들어오는 트래픽을 차단합니다.
  • D. GuardDuty를 구성할 때 Amazon GuardDuty를 배포하고 속도 제한 보호를 활성화합니다.

최고의 솔루션인 Shield Advanced는 여기에 나열되지 않았으므로

두 번째로 좋은 솔루션인 속도 제한이 있는 WAF임

A. Amazon Inspector = OS 패치 등 소프트웨어 취약점. 목적에 맞지 않음

C. DDoS에서 IP를 변경하여 구성을 위한 수신 트래픽을 알 수 없음(가능하더라도)

D. GardDuty는 워크로드 및 AWS 계정 모니터링용이므로 DDoS에 도움이 될 수 없음

AWS WAF + ALB는 소스 IP가 변경되더라도 속도 제한을 구성할 수 있으므로 B


#438

https://www.examtopics.com/discussions/amazon/view/109398-exam-aws-certified-solutions-architect-associate-saa-c03/

회사에서 회계 데이터를 외부 감사자와 공유하려고 합니다. 데이터는 프라이빗 서브넷에 있는 Amazon RDS DB 인스턴스에 저장됩니다. 감사자는 자체 AWS 계정을 갖고 있으며 자체 데이터베이스 사본이 필요합니다.

회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 무엇입니까?

  • A. 데이터베이스의 읽기 전용 복제본을 생성합니다. 감사자 액세스 권한을 부여하도록 IAM 표준 데이터베이스 인증을 구성합니다.
  • B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. Amazon S3 버킷에 파일을 저장합니다. 감사자를 위한 새 IAM 사용자를 생성합니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
  • C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 생성합니다. 사용자의 키를 감사자와 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.
  • D. 데이터베이스의 암호화된 스냅샷을 생성합니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.
더보기
해설
  • A. 데이터베이스의 읽기 전용 복제본을 생성합니다. 감사자 액세스 권한을 부여하도록 IAM 표준 데이터베이스 인증을 구성합니다.
  • B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. Amazon S3 버킷에 파일을 저장합니다. 감사자를 위한 새 IAM 사용자를 생성합니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
  • C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 생성합니다. 사용자의 키를 감사자와 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.
  • D. 데이터베이스의 암호화된 스냅샷을 생성합니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.

회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 옵션 D입니다. 데이터베이스의 암호화된 스냅샷을 생성하고, 해당 스냅샷을 감사자와 공유하고, AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다. 암호화된 스냅샷을 생성함으로써 회사는 데이터베이스 데이터가 미사용 상태에서도 보호되도록 보장합니다. 암호화된 스냅샷을 감사자와 공유하면 감사자는 자신만의 데이터베이스 복사본을 안전하게 보유할 수 있습니다. 또한 AWS KMS 암호화 키에 대한 액세스 권한을 부여하면 감사자가 암호화된 스냅샷을 해독하고 액세스하는 데 필요한 권한을 갖게 됩니다. 이를 통해 감사자는 스냅샷을 복원하고 데이터에 안전하게 액세스할 수 있습니다. 이 접근 방식은 데이터 보호와 액세스 제어를 모두 제공하여 데이터의 기밀성과 무결성을 유지하면서 데이터베이스가 감사자와 안전하게 공유되도록 보장합니다.


#439

https://www.examtopics.com/discussions/amazon/view/109400-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 작은 범위의 IP 주소가 있는 VPC를 구성했습니다. VPC에 있는 Amazon EC2 인스턴스 수가 증가하고 있으며 향후 워크로드를 위한 IP 주소 수가 부족합니다.

최소한의 운영 오버헤드로 이 문제를 해결하는 솔루션은 무엇입니까?

  • A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 생성하십시오. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.
  • B. 추가 서브넷이 있는 두 번째 VPC를 생성합니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC와 연결합니다. 경로를 업데이트하고 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • C. AWS Transit Gateway를 사용하여 전송 게이트웨이를 추가하고 두 번째 VPC를 첫 번째 VP와 연결합니다. 전송 게이트웨이와 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • D. 두 번째 VPC를 생성합니다. Amazon EC2의 VPN 호스팅 솔루션과 가상 프라이빗 게이트웨이를 사용하여 첫 번째 VPC와 두 번째 VPC 사이에 사이트 간 VPN 연결을 생성합니다. VPN을 통한 트래픽에 대한 VPC 간의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다
더보기
해설
  • A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 생성하십시오. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.
  • B. 추가 서브넷이 있는 두 번째 VPC를 생성합니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC와 연결합니다. 경로를 업데이트하고 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • C. AWS Transit Gateway를 사용하여 전송 게이트웨이를 추가하고 두 번째 VPC를 첫 번째 VP와 연결합니다. 전송 게이트웨이와 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • D. 두 번째 VPC를 생성합니다. Amazon EC2의 VPN 호스팅 솔루션과 가상 프라이빗 게이트웨이를 사용하여 첫 번째 VPC와 두 번째 VPC 사이에 사이트 간 VPN 연결을 생성합니다. VPN을 통한 트래픽에 대한 VPC 간의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.

#440

https://www.examtopics.com/discussions/amazon/view/109297-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 애플리케이션 테스트 중에 MySQL DB 인스턴스용 Amazon RDS를 사용했습니다. 테스트 주기가 끝날 때 DB 인스턴스를 종료하기 전에 솔루션 아키텍트는 두 개의 백업을 생성했습니다. 솔루션 설계자는 mysqldump 유틸리티를 사용하여 데이터베이스 덤프를 생성함으로써 첫 번째 백업을 생성했습니다. 솔루션스 아키텍트는 RDS 종료 시 최종 DB 스냅샷 옵션을 활성화하여 두 번째 백업을 생성했습니다.

회사는 이제 새로운 테스트 주기를 계획하고 있으며 최신 백업에서 새 DB 인스턴스를 생성하려고 합니다. 이 회사는 DB 인스턴스를 호스팅하기 위해 Amazon Aurora의 MySQL 호환 버전을 선택했습니다.

새 DB 인스턴스를 생성하는 솔루션은 무엇입니까? (2개를 선택하세요.)

  • A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
  • B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
  • C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
  • E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.
더보기
해설
  • A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
  • B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
  • C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
  • E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.

A는 스냅샷이 이미 AWS에 저장되어 있기 때문입니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migating.RDSMySQL.Snapshot.html

C는 MySQL에서 MySQL로 이동하는 마이그레이션 도구가 필요하지 않기 때문입니다. MySQL 유틸리티를 사용합니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL


#441

https://www.examtopics.com/discussions/amazon/view/109423-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 Application Load Balancer 뒤의 Amazon Linux Amazon EC2 인스턴스에서 다중 계층 웹 애플리케이션을 호스팅합니다. 인스턴스는 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행됩니다. 회사에서는 애플리케이션의 최종 사용자가 대량의 정적 웹 콘텐츠에 액세스할 때 Auto Scaling 그룹이 더 많은 온디맨드 인스턴스를 시작한다는 사실을 관찰했습니다. 회사는 비용을 최적화하려고 합니다.

솔루션 설계자는 애플리케이션을 가장 비용 효율적으로 재설계하기 위해 무엇을 해야 합니까?

  • A. 온디맨드 인스턴스 대신 예약 인스턴스를 사용하도록 Auto Scaling 그룹을 업데이트합니다.
  • B. 온디맨드 인스턴스 대신 스팟 인스턴스를 시작하여 확장할 수 있도록 Auto Scaling 그룹을 업데이트합니다.
  • C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
  • D. Amazon API Gateway API 뒤에 AWS Lambda 함수를 생성하여 정적 웹 사이트 콘텐츠를 호스팅합니다.
더보기
해설
  • A. 온디맨드 인스턴스 대신 예약 인스턴스를 사용하도록 Auto Scaling 그룹을 업데이트합니다.
  • B. 온디맨드 인스턴스 대신 스팟 인스턴스를 시작하여 확장할 수 있도록 Auto Scaling 그룹을 업데이트합니다.
  • C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
  • D. Amazon API Gateway API 뒤에 AWS Lambda 함수를 생성하여 정적 웹 사이트 콘텐츠를 호스팅합니다.

정적 콘텐츠 -> CloudFront


#442

https://www.examtopics.com/discussions/amazon/view/109647-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 여러 AWS 계정에 걸쳐 수 페타바이트의 데이터를 저장합니다. 회사는 AWS Lake Formation을 사용하여 데이터 레이크를 관리합니다. 회사의 데이터 과학 팀은 분석 목적으로 회사 엔지니어링 팀과 계정의 선택적 데이터를 안전하게 공유하려고 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 필요한 데이터를 공통 계정에 복사하십시오. 해당 계정에서 IAM 액세스 역할을 생성합니다. 엔지니어링 팀 계정의 사용자를 신뢰할 수 있는 엔터티로 포함하는 권한 정책을 지정하여 액세스 권한을 부여하세요.
  • B. 필요한 엔지니어링 팀 사용자가 데이터에 액세스할 수 있도록 데이터가 저장된 각 계정에서 Lake Formation 권한 부여 명령을 사용하십시오.
  • C. AWS Data Exchange를 사용하여 필요한 엔지니어링 팀 계정에 필요한 데이터를 비공개로 게시합니다.
  • D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 부여하고 부여합니다.
더보기
해설
  • A. 필요한 데이터를 공통 계정에 복사하십시오. 해당 계정에서 IAM 액세스 역할을 생성합니다. 엔지니어링 팀 계정의 사용자를 신뢰할 수 있는 엔터티로 포함하는 권한 정책을 지정하여 액세스 권한을 부여하세요.
  • B. 필요한 엔지니어링 팀 사용자가 데이터에 액세스할 수 있도록 데이터가 저장된 각 계정에서 Lake Formation 권한 부여 명령을 사용하십시오.
  • C. AWS Data Exchange를 사용하여 필요한 엔지니어링 팀 계정에 필요한 데이터를 비공개로 게시합니다.
  • D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 부여하고 부여합니다.

#443

https://www.examtopics.com/discussions/amazon/view/109424-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS에서 확장 가능한 웹 애플리케이션을 호스팅하려고 합니다. 이 애플리케이션은 전 세계 다양한 지역의 사용자가 액세스할 수 있습니다. 애플리케이션 사용자는 최대 기가바이트 크기의 고유한 데이터를 다운로드하고 업로드할 수 있습니다. 개발팀은 업로드 및 다운로드 대기 시간을 최소화하고 성능을 최대화할 수 있는 비용 효율적인 솔루션을 원합니다.

이를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. Transfer Acceleration과 함께 Amazon S3를 사용하여 애플리케이션을 호스팅하십시오.
  • B. CacheControl 헤더와 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
  • C. Auto Scaling 및 Amazon CloudFront와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
  • D. Auto Scaling 및 Amazon ElastiCache와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
더보기
해설
  • A. Transfer Acceleration과 함께 Amazon S3를 사용하여 애플리케이션을 호스팅하십시오.
  • B. CacheControl 헤더와 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
  • C. Auto Scaling 및 Amazon CloudFront와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
  • D. Auto Scaling 및 Amazon ElastiCache와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.

#444

https://www.examtopics.com/discussions/amazon/view/109426-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 애플리케이션에 대한 안정적인 아키텍처를 설계하기 위해 솔루션 설계자를 고용했습니다. 애플리케이션은 Amazon RDS DB 인스턴스 1개와 웹 서버를 실행하는 수동으로 프로비저닝된 Amazon EC2 인스턴스 2개로 구성됩니다. EC2 인스턴스는 단일 가용 영역에 위치합니다.

최근 한 직원이 DB 인스턴스를 삭제해 그 결과 24시간 동안 애플리케이션을 사용할 수 없게 되었습니다. 회사는 환경의 전반적인 신뢰성에 관심을 갖고 있습니다.

애플리케이션 인프라의 안정성을 극대화하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 하나의 EC2 인스턴스를 삭제하고 다른 EC2 인스턴스에서 종료 방지 기능을 활성화하십시오. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
  • B. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다. Application Load Balancer 뒤에 EC2 인스턴스를 배치하고 여러 가용 영역에 걸쳐 EC2 Auto Scaling 그룹에서 실행합니다.
  • C. Amazon API Gateway 및 AWS Lambda 함수와 함께 추가 DB 인스턴스를 생성합니다. API 게이트웨이를 통해 Lambda 함수를 호출하도록 애플리케이션을 구성합니다. Lambda 함수가 두 개의 DB 인스턴스에 데이터를 쓰도록 합니다.
  • D. 여러 가용 영역에 여러 서브넷이 있는 EC2 Auto Scaling 그룹에 EC2 인스턴스를 배치합니다. 온디맨드 인스턴스 대신 스팟 인스턴스를 사용하십시오. 인스턴스 상태를 모니터링하도록 Amazon CloudWatch 경보를 설정합니다. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
더보기
해설
  • A. 하나의 EC2 인스턴스를 삭제하고 다른 EC2 인스턴스에서 종료 방지 기능을 활성화하십시오. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
  • B. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다. Application Load Balancer 뒤에 EC2 인스턴스를 배치하고 여러 가용 영역에 걸쳐 EC2 Auto Scaling 그룹에서 실행합니다.
  • C. Amazon API Gateway 및 AWS Lambda 함수와 함께 추가 DB 인스턴스를 생성합니다. API 게이트웨이를 통해 Lambda 함수를 호출하도록 애플리케이션을 구성합니다. Lambda 함수가 두 개의 DB 인스턴스에 데이터를 쓰도록 합니다.
  • D. 여러 가용 영역에 여러 서브넷이 있는 EC2 Auto Scaling 그룹에 EC2 인스턴스를 배치합니다. 온디맨드 인스턴스 대신 스팟 인스턴스를 사용하십시오. 인스턴스 상태를 모니터링하도록 Amazon CloudWatch 경보를 설정합니다. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.

#445

https://www.examtopics.com/discussions/amazon/view/109403-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 회사 데이터 센터의 대규모 NAS(Network Attached Storage) 시스템에 700테라바이트의 데이터를 저장하고 있습니다. 이 회사는 10Gbps AWS Direct Connect 연결을 갖춘 하이브리드 환경을 보유하고 있습니다.

규제 기관의 감사를 받은 후 회사는 90일 이내에 데이터를 클라우드로 이동할 수 있습니다. 회사는 데이터를 중단 없이 효율적으로 이동해야 합니다. 회사는 이전 기간 동안에도 데이터에 액세스하고 업데이트할 수 있어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
  • B. 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 백업합니다. 디바이스를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
  • C. rsync를 사용하여 Direct Connect 연결을 통해 로컬 스토리지에서 지정된 Amazon S3 버킷으로 데이터를 직접 복사합니다.
  • D. 데이터를 테이프에 백업합니다. 테이프를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
더보기
해설
  • A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
  • B. 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 백업합니다. 디바이스를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
  • C. rsync를 사용하여 Direct Connect 연결을 통해 로컬 스토리지에서 지정된 Amazon S3 버킷으로 데이터를 직접 복사합니다.
  • D. 데이터를 테이프에 백업합니다. 테이프를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.

전송 기간 중 접속 -> DataSync


#446

https://www.examtopics.com/discussions/amazon/view/109404-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 Amazon S3 버킷에 PDF 형식으로 데이터를 저장합니다. 회사는 Amazon S3에 모든 신규 데이터와 기존 데이터를 7년 동안 보관해야 하는 법적 요구 사항을 따라야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. S3 버킷에 대한 S3 버전 관리 기능을 활성화합니다. 7년 후에 데이터를 삭제하도록 S3 수명 주기를 구성합니다. 모든 S3 객체에 대해 다단계 인증(MFA) 삭제를 구성합니다.
  • B. S3 버킷에 대한 거버넌스 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • C. S3 버킷에 대해 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • D. S3 버킷에 대한 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. S3 배치 작업을 사용하여 기존 데이터를 규정에 맞게 가져옵니다.
더보기
해설
  • A. S3 버킷에 대한 S3 버전 관리 기능을 활성화합니다. 7년 후에 데이터를 삭제하도록 S3 수명 주기를 구성합니다. 모든 S3 객체에 대해 다단계 인증(MFA) 삭제를 구성합니다.
  • B. S3 버킷에 대한 거버넌스 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • C. S3 버킷에 대해 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • D. S3 버킷에 대한 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. S3 배치 작업을 사용하여 기존 데이터를 규정에 맞게 가져옵니다.

A: 버전 관리, 관련 없음

B: 거버넌스, 객체 잠금을 적용하지 않음

C: 기존 객체를 다시 복사할 수 있지만 운영 오버헤드가 많음(링크 참조)

https:// repost.aws/questions/QUGKrl8XRLTEeuIzUHq0Ikew/s3-object-lock-on-existing-s3-objects


#447

https://www.examtopics.com/discussions/amazon/view/109405-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 Amazon API Gateway에서 호출되는 AWS Lambda 함수에서 실행되는 상태 비저장 웹 애플리케이션이 있습니다. 회사는 지역 장애 조치 기능을 제공하기 위해 여러 AWS 지역에 애플리케이션을 배포하려고 합니다.

트래픽을 여러 지역으로 라우팅하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. 각 지역에 대한 Amazon Route 53 상태 확인을 생성하십시오. 활성-활성 장애 조치 구성을 사용합니다.
  • B. 각 지역의 오리진을 사용하여 Amazon CloudFront 배포판을 생성합니다. CloudFront 상태 확인을 사용하여 트래픽을 라우팅합니다.
  • C. 전송 게이트웨이를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트에 전송 게이트웨이를 연결합니다. 요청을 라우팅하도록 전송 게이트웨이를 구성합니다.
  • D. 기본 지역에 Application Load Balancer를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트 호스트 이름을 가리키도록 대상 그룹을 설정합니다.
더보기
해설
  • A. 각 지역에 대한 Amazon Route 53 상태 확인을 생성하십시오. 활성-활성 장애 조치 구성을 사용합니다.
  • B. 각 지역의 오리진을 사용하여 Amazon CloudFront 배포판을 생성합니다. CloudFront 상태 확인을 사용하여 트래픽을 라우팅합니다.
  • C. 전송 게이트웨이를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트에 전송 게이트웨이를 연결합니다. 요청을 라우팅하도록 전송 게이트웨이를 구성합니다.
  • D. 기본 지역에 Application Load Balancer를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트 호스트 이름을 가리키도록 대상 그룹을 설정합니다.

애플리케이션은 서버리스이므로 실행 위치가 중요하지 않으므로 활성-활성 설정이 가능하고 요청이 들어올 때마다 실행할 수 있습니다. 상태 확인이 포함된 Route 53은 정상적인 지역으로 라우팅됩니다. B도 작동할 수 있지만 CloudFront는 API에 도움이 되지 않는 캐싱용입니다. 여기서 목표는 캐싱/성능/지연 시간 등이 아닌 "장애 조치 기능"

B: 캐싱 솔루션. 장애 조치에는 적합하지 않지만 작동합니다. A가 옵션이 아니었다면 정답이었을 것


#448

https://www.examtopics.com/discussions/amazon/view/109499-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 관리 및 프로덕션이라는 두 개의 VPC가 있습니다. 관리 VPC는 ​​고객 게이트웨이를 통해 VPN을 사용하여 데이터 센터의 단일 디바이스에 연결합니다. 프로덕션 VPC는 ​​2개의 AWS Direct Connect 연결이 연결된 가상 프라이빗 게이트웨이를 사용합니다. 관리 및 프로덕션 VPC는 ​​모두 단일 VPC 피어링 연결을 사용하여 애플리케이션 간의 통신을 허용합니다.

이 아키텍처의 단일 실패 지점을 완화하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 관리 및 프로덕션 VPC 사이에 VPN 세트를 추가하십시오.
  • B. 두 번째 가상 프라이빗 게이트웨이를 추가하고 이를 관리 VPC에 연결합니다.
  • C. 두 번째 고객 게이트웨이 디바이스에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
  • D. 관리 VPC와 프로덕션 VPC 사이에 두 번째 VPC 피어링 연결을 추가합니다.
더보기
해설
  • A. 관리 및 프로덕션 VPC 사이에 VPN 세트를 추가하십시오.
  • B. 두 번째 가상 프라이빗 게이트웨이를 추가하고 이를 관리 VPC에 연결합니다.
  • C. 두 번째 고객 게이트웨이 디바이스에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
  • D. 관리 VPC와 프로덕션 VPC 사이에 두 번째 VPC 피어링 연결을 추가합니다.

C는 단일 실패 지점을 완화하는 올바른 옵션입니다. 관리 VPC에는 현재 하나의 고객 게이트웨이 디바이스를 통한 단일 VPN 연결이 있습니다. 이는 단일 실패 지점입니다. 관리 VPC에서 두 번째 고객 게이트웨이 디바이스로 두 번째 VPN 연결 세트를 추가하면 중복성이 제공되고 이러한 단일 실패 지점이 제거


#449

https://www.examtopics.com/discussions/amazon/view/109432-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 Oracle 데이터베이스에서 애플리케이션을 실행합니다. 회사는 데이터베이스, 백업 관리 및 데이터 센터 유지 관리를 위한 리소스가 제한되어 있기 때문에 AWS로 신속하게 마이그레이션할 계획입니다. 애플리케이션은 권한 있는 액세스가 필요한 타사 데이터베이스 기능을 사용합니다.

회사가 가장 비용 효율적으로 데이터베이스를 AWS로 마이그레이션하는 데 도움이 되는 솔루션은 무엇입니까?

  • A. 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 타사 기능을 클라우드 서비스로 대체합니다.
  • B. 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • C. 데이터베이스를 Oracle용 Amazon EC2 Amazon 머신 이미지(AMI)로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • D. Oracle APEX에 대한 종속성을 제거하기 위해 애플리케이션 코드를 다시 작성하여 PostgreSQL용 Amazon RDS로 데이터베이스를 마이그레이션합니다.
더보기
해설
  • A. 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 타사 기능을 클라우드 서비스로 대체합니다.
  • B. 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • C. 데이터베이스를 Oracle용 Amazon EC2 Amazon 머신 이미지(AMI)로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • D. Oracle APEX에 대한 종속성을 제거하기 위해 애플리케이션 코드를 다시 작성하여 PostgreSQL용 Amazon RDS로 데이터베이스를 마이그레이션합니다.

#450

https://www.examtopics.com/discussions/amazon/view/109406-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 단일 서버에 3계층 웹 애플리케이션이 있습니다. 회사는 애플리케이션을 AWS 클라우드로 마이그레이션하려고 합니다. 또한 회사는 애플리케이션이 AWS Well-Architected 프레임워크와 일치하고 보안, 확장성 및 복원성에 대한 AWS 권장 모범 사례와 일관되기를 원합니다.

이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (3개를 선택하세요.)

  • A. 애플리케이션의 기존 아키텍처를 사용하여 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. EC2 Auto Scaling 그룹이 있는 각 가용 영역의 프라이빗 서브넷에 있는 Amazon EC2 인스턴스에서 기존 아키텍처로 애플리케이션을 호스팅합니다. 보안 그룹 및 네트워크 액세스 제어 목록(네트워크 ACL)을 사용하여 EC2 인스턴스를 보호합니다.
  • B. 보안 그룹과 네트워크 ACL(네트워크 액세스 제어 목록)을 설정하여 데이터베이스 계층에 대한 액세스를 제어합니다. 프라이빗 서브넷에 단일 Amazon RDS 데이터베이스를 설정합니다.
  • C. 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링합니다. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 사용하여 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
  • D. 단일 Amazon RDS 데이터베이스를 사용하십시오. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
  • E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조가 포함된 보안 그룹을 사용하여 액세스를 제어합니다.
  • F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 다중 AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
더보기
해설
  • A. 애플리케이션의 기존 아키텍처를 사용하여 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. EC2 Auto Scaling 그룹이 있는 각 가용 영역의 프라이빗 서브넷에 있는 Amazon EC2 인스턴스에서 기존 아키텍처로 애플리케이션을 호스팅합니다. 보안 그룹 및 네트워크 액세스 제어 목록(네트워크 ACL)을 사용하여 EC2 인스턴스를 보호합니다.
  • B. 보안 그룹과 네트워크 ACL(네트워크 액세스 제어 목록)을 설정하여 데이터베이스 계층에 대한 액세스를 제어합니다. 프라이빗 서브넷에 단일 Amazon RDS 데이터베이스를 설정합니다.
  • C. 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링합니다. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 사용하여 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
  • D. 단일 Amazon RDS 데이터베이스를 사용하십시오. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
  • E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조가 포함된 보안 그룹을 사용하여 액세스를 제어합니다.
  • F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 다중 AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.

이 질문에 대한 표현은 C의 경우 상황을 모호하게 만듭니다. 그러나 잘 설계된 것을 기억하십시오. A: 기존 아키텍처를 사용하지만 EC2 자동 확장을 사용하도록 제안하므로 이상적이지는 않습니다. 각 계층의 확장성이나 안정성을 개선할 여지가 없습니다. B: 단일 RDS, 잘 설계되지 않음 D: 다시 말하지만, 단일 RDS E,F는 좋은 옵션이고 C는 단지 좋은 옵션으로 남아 있습니다.

C는 "웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링"하는 부분 때문에 IMHO로 잘못 표현되었습니다. E와 F를 읽지 않으면 데이터베이스 계층 계층이 혼란스러워집니다.


 

728x90
728x90

#201⭐

한 회사에서 모바일 앱 사용자를 대상으로 하는 마케팅 커뮤니케이션 서비스를 개발하고 있습니다. 회사는 SMS(Short Message Service)를 통해 사용자에게 확인 메시지를 보내야 합니다. 사용자는 SMS 메시지에 응답할 수 있어야 합니다. 회사는 분석을 위해 응답을 1년 동안 저장해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon Connect 고객 응대 흐름을 생성하여 SMS 메시지를 보냅니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • B. Amazon Pinpoint 여정을 구축합니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림으로 이벤트를 보내도록 Amazon Pinpoint를 구성합니다.
  • C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) FIFO 주제를 생성합니다. 분석 및 보관을 위해 SNS 주제에 Amazon Kinesis 데이터 스트림을 구독합니다.
더보기
해설
  • A. Amazon Connect 고객 응대 흐름을 생성하여 SMS 메시지를 보냅니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • B. Amazon Pinpoint 여정을 구축합니다. 분석 및 보관을 위해 Amazon Kinesis 데이터 스트림으로 이벤트를 보내도록 Amazon Pinpoint를 구성합니다.
  • C. Amazon Simple Queue Service(Amazon SQS)를 사용하여 SMS 메시지를 배포합니다. AWS Lambda를 사용하여 응답을 처리합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) FIFO 주제를 생성합니다. 분석 및 보관을 위해 SNS 주제에 Amazon Kinesis 데이터 스트림을 구독합니다.

마케팅 커뮤니케이션 = Amazon Pinpoint


#203⭐



한 금융회사의 고객이 문자 메시지를 보내 금융 자문가와의 약속을 요청합니다. Amazon EC2 인스턴스에서 실행되는 웹 애플리케이션은 약속 요청을 수락합니다. 문자 메시지는 웹 애플리케이션을 통해 Amazon Simple Queue Service(Amazon SQS) 대기열에 게시됩니다. 그러면 EC2 인스턴스에서 실행되는 또 다른 애플리케이션이 고객에게 회의 초대 및 회의 확인 이메일 메시지를 보냅니다. 예약이 성공적으로 완료되면 이 애플리케이션은 회의 정보를 Amazon DynamoDB 데이터베이스에 저장합니다.

회사가 확장됨에 따라 고객들은 회의 초대장이 도착하는 데 시간이 더 오래 걸린다고 보고합니다.

이 문제를 해결하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가합니다.
  • B. 약속 요청을 수락하는 웹 애플리케이션 앞에 Amazon API Gateway API를 추가합니다.
  • C. Amazon CloudFront 배포를 추가합니다. 약속 요청을 수락하는 웹 애플리케이션으로 원본을 설정합니다.
  • D. 회의 초대를 보내는 애플리케이션에 대한 Auto Scaling 그룹을 추가합니다. SQS 대기열의 깊이에 따라 조정되도록 Auto Scaling 그룹을 구성합니다.
더보기
해설
  • A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가합니다.
  • B. 약속 요청을 수락하는 웹 애플리케이션 앞에 Amazon API Gateway API를 추가합니다.
  • C. Amazon CloudFront 배포를 추가합니다. 약속 요청을 수락하는 웹 애플리케이션으로 원본을 설정합니다.
  • D. 회의 초대를 보내는 애플리케이션에 대한 Auto Scaling 그룹을 추가합니다. SQS 대기열의 깊이에 따라 조정되도록 Auto Scaling 그룹을 구성합니다.

A. DynamoDB 데이터베이스 앞에 DynamoDB Accelerator(DAX) 클러스터를 추가하면 DynamoDB의 읽기 성능이 향상되지만 회의 초대 지연 문제가 직접적으로 해결되지는 않


#204⭐




한 온라인 소매 회사는 5천만 명 이상의 활성 고객을 보유하고 있으며 매일 25,000건 이상의 주문을 받습니다. 회사는 고객의 구매 데이터를 수집하고 이 데이터를 Amazon S3에 저장합니다. 추가 고객 데이터는 Amazon RDS에 저장됩니다.

회사는 다양한 팀이 분석을 수행할 수 있도록 모든 데이터를 다양한 팀에서 사용할 수 있도록 하려고 합니다. 솔루션은 데이터에 대한 세분화된 권한을 관리하는 기능을 제공해야 하며 운영 오버헤드를 최소화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 쓰십시오. RDS 액세스 제어를 사용하여 액세스를 제한합니다.
  • B. Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. AWS Glue 크롤러를 생성합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한합니다.
  • C. AWS Lake Formation을 사용하여 데이터 레이크를 생성합니다. Amazon RDS에 대한 AWS Glue JDBC 연결을 생성합니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한하세요.
  • D. Amazon Redshift 클러스터를 생성합니다. Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한합니다.
더보기

해설

  • A. 구매 데이터를 마이그레이션하여 Amazon RDS에 직접 쓰십시오. RDS 액세스 제어를 사용하여 액세스를 제한합니다.
  • B. Amazon RDS에서 Amazon S3로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. AWS Glue 크롤러를 생성합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다. S3 정책을 사용하여 액세스를 제한합니다.
  • C. AWS Lake Formation을 사용하여 데이터 레이크를 생성합니다. Amazon RDS에 대한 AWS Glue JDBC 연결을 생성합니다. Lake Formation에 S3 버킷을 등록합니다. Lake Formation 액세스 제어를 사용하여 액세스를 제한하세요.
  • D. Amazon Redshift 클러스터를 생성합니다. Amazon S3 및 Amazon RDS에서 Amazon Redshift로 데이터를 주기적으로 복사하도록 AWS Lambda 함수를 예약합니다. Amazon Redshift 액세스 제어를 사용하여 액세스를 제한합니다.

B. Lambda를 사용하고 쿼리를 위해 AWS Glue 및 Athena를 사용하여 RDS에서 S3로 데이터를 주기적으로 복사하면 세분화된 권한 관리가 제공되지 않으며 데이터 동기화 복잡성이 발생


#205⭐




회사는 온프레미스 데이터 센터에서 마케팅 웹사이트를 호스팅합니다. 웹사이트는 정적 문서로 구성되어 있으며 단일 서버에서 실행됩니다. 관리자는 웹사이트 콘텐츠를 자주 업데이트하지 않으며 SFTP 클라이언트를 사용하여 새 문서를 업로드합니다.

회사는 AWS에서 웹 사이트를 호스팅하고 Amazon CloudFront를 사용하기로 결정했습니다. 회사의 솔루션 아키텍트는 CloudFront 배포판을 생성합니다. 솔루션 설계자는 CloudFront 오리진 역할을 하는 웹 사이트 호스팅을 위해 가장 비용 효율적이고 복원력이 뛰어난 아키텍처를 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Lightsail을 사용하여 가상 서버를 생성하십시오. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하세요. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • C. 프라이빗 Amazon S3 버킷을 생성합니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)의 액세스를 허용합니다. AWS CLI를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
  • D. 퍼블릭 Amazon S3 버킷을 생성합니다. SFTP용 AWS 전송을 구성합니다. 웹사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
더보기
해설
  • A. Amazon Lightsail을 사용하여 가상 서버를 생성하십시오. Lightsail 인스턴스에서 웹 서버를 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • B. Amazon EC2 인스턴스에 대한 AWS Auto Scaling 그룹을 생성합니다. Application Load Balancer를 사용하세요. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.
  • C. 프라이빗 Amazon S3 버킷을 생성합니다. S3 버킷 정책을 사용하여 CloudFront 원본 액세스 ID(OAI)의 액세스를 허용합니다. AWS CLI를 사용하여 웹 사이트 콘텐츠를 업로드합니다.
  • D. 퍼블릭 Amazon S3 버킷을 생성합니다. SFTP용 AWS 전송을 구성합니다. 웹사이트 호스팅을 위해 S3 버킷을 구성합니다. SFTP 클라이언트를 사용하여 웹사이트 콘텐츠를 업로드합니다.

D. SFTP용 AWS 전송을 사용하면 SFTP 업로드가 가능하지만 AWS CLI를 사용하여 S3에 콘텐츠를 직접 업로드하는 것에 비해 추가 비용과 복잡성이 발생

 

질문에 따르면 회사는 Amazon Cloudfront를 사용하기로 결정했으며 이 답변에서는 CF를 사용하고 S3를 원본으로 설정하는 내용은 언급하지 않습


#206




한 회사에서 Amazon 머신 이미지(AMI)를 관리하려고 합니다. 회사는 현재 AMI가 생성된 동일한 AWS 리전에 AMI를 복사하고 있습니다. 회사는 회사 계정 내에서 Amazon EC2 CreateImage API 작업이 호출될 때마다 AWS API 호출을 캡처하고 알림을 보내는 애플리케이션을 설계해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
  • B. 업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple 알림 서비스(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. API 호출이 감지되면 Amazon Athena를 사용하여 새 테이블을 생성하고 CreateImage에 대해 쿼리합니다.
  • C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon SNS(Amazon SNS) 주제로 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 AWS CloudTrail 로그의 대상으로 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple 알림 서비스(Amazon SNS) 주제에 알림을 보내는 AWS Lambda 함수를 생성합니다
더보기
해설
  • A. AWS CloudTrail 로그를 쿼리하고 CreateImage API 호출이 감지되면 알림을 보내는 AWS Lambda 함수를 생성합니다.
  • B. 업데이트된 로그가 Amazon S3로 전송될 때 발생하는 Amazon Simple 알림 서비스(Amazon SNS) 알림으로 AWS CloudTrail을 구성합니다. API 호출이 감지되면 Amazon Athena를 사용하여 새 테이블을 생성하고 CreateImage에 대해 쿼리합니다.
  • C. CreateImage API 호출에 대한 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. CreateImage API 호출이 감지되면 알림을 보내도록 대상을 Amazon SNS(Amazon SNS) 주제로 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) FIFO 대기열을 AWS CloudTrail 로그의 대상으로 구성합니다. CreateImage API 호출이 감지되면 Amazon Simple 알림 서비스(Amazon SNS) 주제에 알림을 보내는 AWS Lambda 함수를 생성합니다

#207⭐



회사는 사용자 요청을 수집하고 요청 유형에 따라 처리를 위해 적절한 마이크로서비스로 요청을 전달하는 데 사용되는 비동기 API를 소유하고 있습니다. 이 회사는 Amazon API Gateway를 사용하여 API 프런트 엔드를 배포하고 Amazon DynamoDB를 호출하여 사용자 요청을 처리 마이크로서비스에 전달하기 전에 저장하는 AWS Lambda 함수를 사용하고 있습니다.

회사는 예산이 허용하는 한 많은 DynamoDB 처리량을 프로비저닝했지만 여전히 가용성 문제를 겪고 있으며 사용자 요청이 손실되고 있습니다.

기존 사용자에게 영향을 주지 않고 이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 서버 측 조절 한도를 사용하여 API 게이트웨이에 조절을 추가합니다.
  • B. DynamoDB Accelerator(DAX)와 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
  • C. 사용자 요청이 있는 테이블에 대해 DynamoDB에 보조 인덱스를 생성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다
더보기
해설
  • A. 서버 측 조절 한도를 사용하여 API 게이트웨이에 조절을 추가합니다.
  • B. DynamoDB Accelerator(DAX)와 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다.
  • C. 사용자 요청이 있는 테이블에 대해 DynamoDB에 보조 인덱스를 생성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열과 Lambda를 사용하여 DynamoDB에 대한 쓰기를 버퍼링합니다

A는 "기존 사용자에게 영향을 주지 않고" 요구 사항을 충족하지 않습니다.

B는 쓰기에 도움이 되지 않습니다(DAX 캐시 읽기)

C는 쓰기에 도움이 되지 않습니다(인덱스는 읽기 성능만 향상시킬 수 있음).

D는 프런트 엔드에서 쓰기를 분리

 

여기서 핵심은 "사용자 요청 손실"입니다. sqs 메시지는 처리될 때까지 대기열에 유지


#208⭐



회사는 Amazon EC2 인스턴스에서 Amazon S3 버킷으로 데이터를 이동해야 합니다. 회사는 공개 인터넷 경로를 통해 API 호출과 데이터가 라우팅되지 않도록 해야 합니다. EC2 인스턴스만 S3 버킷에 데이터를 업로드하는 데 액세스할 수 있습니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. EC2 인스턴스가 있는 서브넷에 Amazon S3용 인터페이스 VPC 엔드포인트를 생성합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • B. EC2 인스턴스가 있는 가용 영역에 Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • D. AWS에서 제공하고 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
더보기
해설
  • A. EC2 인스턴스가 있는 서브넷에 Amazon S3용 인터페이스 VPC 엔드포인트를 생성합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • B. EC2 인스턴스가 있는 가용 영역에 Amazon S3용 게이트웨이 VPC 엔드포인트를 생성합니다. 엔드포인트에 적절한 보안 그룹을 연결합니다. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • C. EC2 인스턴스 내부에서 nslookup 도구를 실행하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.
  • D. AWS에서 제공하고 공개적으로 사용 가능한 ip-ranges.json 파일을 사용하여 S3 버킷 서비스 API 엔드포인트의 프라이빗 IP 주소를 얻습니다. EC2 인스턴스에 S3 버킷에 대한 액세스 권한을 제공하려면 VPC 라우팅 테이블에 경로를 생성하세요. EC2 인스턴스의 IAM 역할에만 액세스할 수 있도록 S3 버킷에 리소스 정책을 연결합니다.

질문은 "공용 인터넷을 통해 전송되는" 데이터가 없음을 묻지 않고 "공용 인터넷 경로(!)를 통해 라우팅"되는 데이터가 없음을 묻기 때문에 B는 틀렸습니다.

게이트웨이 VPC 엔드포인트는 퍼블릭 IP를 사용하므로 AWS가 트래픽을 내부적으로 라우팅하더라도 VPC 관점에서 트래픽은 "퍼블릭 인터넷 경로"에 도달하게 됩니다.

게다가 '가용성 영역'에 게이트웨이 VPC 엔드포인트를 생성하지 않


#211⭐


회사는 여러 프로덕션 애플리케이션을 호스팅합니다. 애플리케이션 중 하나는 여러 AWS 리전에 걸쳐 있는 Amazon EC2, AWS Lambda, Amazon RDS, Amazon Simple Notification Service(Amazon SNS) 및 Amazon Simple Queue Service(Amazon SQS)의 리소스로 구성됩니다. 모든 회사 리소스에는 "application"이라는 태그 이름과 각 애플리케이션에 해당하는 값이 태그로 지정됩니다. 솔루션 설계자는 태그가 지정된 모든 구성 요소를 식별하기 위한 가장 빠른 솔루션을 제공해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성하십시오.
  • B. AWS CLI를 사용하여 모든 지역의 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
  • C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소에 대해 보고합니다.
  • D. AWS 리소스 그룹 태그 편집기로 쿼리를 실행하여 애플리케이션 태그를 사용하여 전 세계적으로 리소스에 대해 보고합니다
더보기
해설
  • A. AWS CloudTrail을 사용하여 애플리케이션 태그가 있는 리소스 목록을 생성하십시오.
  • B. AWS CLI를 사용하여 모든 지역의 각 서비스를 쿼리하여 태그가 지정된 구성 요소를 보고합니다.
  • C. Amazon CloudWatch Logs Insights에서 쿼리를 실행하여 애플리케이션 태그가 있는 구성 요소에 대해 보고합니다.
  • D. AWS 리소스 그룹 태그 편집기로 쿼리를 실행하여 애플리케이션 태그를 사용하여 전 세계적으로 리소스에 대해 보고합니다

CloudTrail은 주로 API 활동 캡처 및 로깅에 중점을 두기 때문에 A는 가장 빠른 솔루션이 아닙니다

D는 태그를 기반으로 리소스를 관리하고 구성하기 위해 특별히 설계된 Resource Groups Tag Editor를 활용하므로 가장 빠른 솔루션


#212



회사는 다른 팀이 액세스할 수 있도록 하루에 한 번씩 데이터베이스를 Amazon S3로 내보내야 합니다. 내보낸 객체 크기는 2GB에서 5GB 사이입니다. 데이터에 대한 S3 액세스 패턴은 가변적이며 빠르게 변화합니다. 데이터는 즉시 사용할 수 있어야 하며 최대 3개월 동안 액세스할 수 있어야 합니다. 회사에는 검색 시간을 늘리지 않는 가장 비용 효율적인 솔루션이 필요합니다.

이러한 요구 사항을 충족하려면 회사에서 어떤 S3 스토리지 클래스를 사용해야 합니까?

  • A. S3 지능형 계층화
  • B. S3 Glacier 즉시 검색
  • C. S3 표준
  • D. S3 Standard-Infrequent Access(S3 스탠다드-IA)
더보기
해설
  • A. S3 지능형 계층화
  • B. S3 Glacier 즉시 검색
  • C. S3 표준
  • D. S3 Standard-Infrequent Access(S3 스탠다드-IA)

#213⭐



한 회사에서 새로운 모바일 앱을 개발 중입니다. 회사는 크로스 사이트 스크립팅이나 SQL 주입과 같은 일반적인 애플리케이션 수준 공격으로부터 ALB(Application Load Balancer)를 보호하기 위해 적절한 트래픽 필터링을 구현해야 합니다. 회사는 최소한의 인프라와 운영 직원을 보유하고 있습니다. 회사는 AWS 환경에 대한 서버 관리, 업데이트 및 보안에 대한 책임을 줄여야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. AWS WAF 규칙을 구성하고 이를 ALB와 연결합니다.
  • B. 공개 호스팅이 활성화된 Amazon S3를 사용하여 애플리케이션을 배포합니다.
  • C. AWS Shield Advanced를 배포하고 ALB를 보호된 리소스로 추가합니다.
  • D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 전달하는 새 ALB를 생성한 다음 트래픽을 현재 ALB로 전달합니다.
더보기
해설
  • A. AWS WAF 규칙을 구성하고 이를 ALB와 연결합니다.
  • B. 공개 호스팅이 활성화된 Amazon S3를 사용하여 애플리케이션을 배포합니다.
  • C. AWS Shield Advanced를 배포하고 ALB를 보호된 리소스로 추가합니다.
  • D. 타사 방화벽을 실행하는 Amazon EC2 인스턴스로 트래픽을 전달하는 새 ALB를 생성한 다음 트래픽을 현재 ALB로 전달합니다.

옵션 C는 XSS나 SQL 주입과 같은 애플리케이션 수준 공격보다는 DDoS 보호에 중점을 둡

AWS WAF는 사전 구성된 규칙 세트를 제공하고 사용자 지정 규칙 생성을 허용하여 XSS 및 SQL 주입과 같은 일반적인 취약성으로부터 보호


#214⭐



한 회사의 보고 시스템은 매일 수백 개의 .csv 파일을 Amazon S3 버킷으로 전송합니다. 회사는 이러한 파일을 Apache Parquet 형식으로 변환하고 변환된 데이터 버킷에 파일을 저장해야 합니다.

최소한의 개발 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
  • A. Apache Spark가 설치된 Amazon EMR 클러스터를 생성하십시오. 데이터를 변환하는 Spark 애플리케이션을 작성합니다. EMRFS(EMR 파일 시스템)를 사용하여 변환된 데이터 버킷에 파일을 씁니다.
  • B. AWS Glue 크롤러를 생성하여 데이터를 검색합니다. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다.
  • C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 생성하여 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 작업 유형으로 어레이 작업을 지정합니다.
  • D. 데이터를 변환하고 변환된 데이터 버킷으로 데이터를 출력하는 AWS Lambda 함수를 생성합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. 이벤트 알림의 대상으로 Lambda 함수를 지정합니다.
더보기
해설
  • A. Apache Spark가 설치된 Amazon EMR 클러스터를 생성하십시오. 데이터를 변환하는 Spark 애플리케이션을 작성합니다. EMRFS(EMR 파일 시스템)를 사용하여 변환된 데이터 버킷에 파일을 씁니다.
  • B. AWS Glue 크롤러를 생성하여 데이터를 검색합니다. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 데이터를 변환합니다. 출력 단계에서 변환된 데이터 버킷을 지정합니다.
  • C. AWS Batch를 사용하여 Bash 구문으로 작업 정의를 생성하여 데이터를 변환하고 변환된 데이터 버킷에 데이터를 출력합니다. 작업 정의를 사용하여 작업을 제출합니다. 작업 유형으로 어레이 작업을 지정합니다.
  • D. 데이터를 변환하고 변환된 데이터 버킷으로 데이터를 출력하는 AWS Lambda 함수를 생성합니다. S3 버킷에 대한 이벤트 알림을 구성합니다. 이벤트 알림의 대상으로 Lambda 함수를 지정합니다.

AWS Glue는 완전 관리형 CSV에서 Parquet로의 변환 작업을 허용

옵션 A에는 데이터를 변환하기 위한 Spark 애플리케이션 작성이 포함되므로 더 많은 개발 노력이 필요


#215



한 회사의 데이터 센터에 있는 NAS(Network Attached Storage)에 700TB의 백업 데이터가 저장되어 있습니다. 이 백업 데이터는 규제 요청이 자주 발생하지 않는 경우에도 액세스할 수 있어야 하며 7년 동안 보관해야 합니다. 회사는 이 백업 데이터를 데이터 센터에서 AWS로 마이그레이션하기로 결정했습니다. 마이그레이션은 1개월 이내에 완료되어야 합니다. 회사는 데이터 전송에 사용할 수 있는 공용 인터넷 연결에 500Mbps의 전용 대역폭을 보유하고 있습니다.

솔루션 설계자는 가장 저렴한 비용으로 데이터를 마이그레이션하고 저장하기 위해 무엇을 해야 합니까?

  • A. 데이터 전송을 위해 AWS Snowball 디바이스를 주문하십시오. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • B. 데이터 센터와 Amazon VPC 사이에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
  • C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다
더보기
해설
  • A. 데이터 전송을 위해 AWS Snowball 디바이스를 주문하십시오. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • B. 데이터 센터와 Amazon VPC 사이에 VPN 연결을 배포합니다. AWS CLI를 사용하여 온프레미스에서 Amazon S3 Glacier로 데이터를 복사합니다.
  • C. 500Mbps AWS Direct Connect 연결을 프로비저닝하고 데이터를 Amazon S3로 전송합니다. 수명 주기 정책을 사용하여 파일을 Amazon S3 Glacier Deep Archive로 전환합니다.
  • D. AWS DataSync를 사용하여 데이터를 전송하고 온프레미스에 DataSync 에이전트를 배포합니다. DataSync 작업을 사용하여 온프레미스 NAS 스토리지에서 Amazon S3 Glacier로 파일을 복사합니다

#217⭐



한 회사는 Application Load Balancer 뒤에서 Amazon EC2 인스턴스에서 글로벌 웹 애플리케이션을 실행합니다. 애플리케이션은 Amazon Aurora에 데이터를 저장합니다. 회사는 재해 복구 솔루션을 만들어야 하며 최대 30분의 가동 중지 시간과 잠재적인 데이터 손실을 허용할 수 있습니다. 솔루션은 기본 인프라가 정상일 때 로드를 처리할 필요가 없습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 필요한 인프라 요소를 갖춘 애플리케이션을 배포합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 AWS 리전에 Aurora 복제본을 생성합니다.
  • B. 두 번째 AWS 지역에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 두 번째 리전에 Aurora 복제본을 생성합니다.
  • C. 두 번째 AWS 지역에 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 생성합니다.
  • D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 생성합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 리전에 Aurora 두 번째 기본 인스턴스를 생성합니다
더보기
해설
  • A. 필요한 인프라 요소를 갖춘 애플리케이션을 배포합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 AWS 리전에 Aurora 복제본을 생성합니다.
  • B. 두 번째 AWS 지역에서 애플리케이션의 축소된 배포를 호스팅합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 두 번째 리전에 Aurora 복제본을 생성합니다.
  • C. 두 번째 AWS 지역에 기본 인프라를 복제합니다. Amazon Route 53을 사용하여 활성-활성 장애 조치를 구성합니다. 최신 스냅샷에서 복원된 Aurora 데이터베이스를 생성합니다.
  • D. AWS Backup으로 데이터를 백업합니다. 백업을 사용하여 두 번째 AWS 리전에 필요한 인프라를 생성합니다. Amazon Route 53을 사용하여 액티브-패시브 장애 조치를 구성합니다. 두 번째 리전에 Aurora 두 번째 기본 인스턴스를 생성합니다

A 아님 - 인프라 요소에 대한 두 번째 지역을 언급하지 않습니다. 또한 실제로 "두 번째 AWS 지역에서 Aurora 복제본을 생성"할 수 없습니다. Aurora 글로벌 데이터베이스(언급되지 않음)를 사용하지 않는 한 복제본은 동일한 지역에 있어야 합니다. Not B - 트래픽의 절반을 DR 지역 Not C로 보냅니다. 이는 기본 인스턴스가 정상인 경우에도 DR 인스턴스로 트래픽을 보낼 수 있습니다. D - "Aurora 두 번째 기본 인스턴스"라는 표현은 약간 이상하지만 여전히 "기본 인스턴스"는 다른 지역에서 필요합니다. 여전히 데이터베이스 간 복제(예: binlog)를 설정하거나 장애 조치 전에 스냅샷을 복원해야 하지만 일반적으로 이 옵션은 30분 RTO/RPO 요구 사항을 충족할 수 있습

 

A가 맞습니다. - "기본 인프라가 정상일 때 솔루션은 로드를 처리할 필요가 없습니다." => Route 53 Active-Passive를 사용해야 합니다. ==> Exclude B, C - D는 "두 번째 지역에 Aurora 두 번째 기본 인스턴스를 생성합니다." 때문에 잘못된 것이므로 Aurora 복제본을 충분히 생성해야 합니

https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/dns-failover-types.html


#218⭐



회사에는 탄력적 IP 주소가 있는 퍼블릭 서브넷의 Amazon EC2 인스턴스에서 실행되는 웹 서버가 있습니다. 기본 보안 그룹은 EC2 인스턴스에 할당됩니다. 모든 트래픽을 차단하도록 기본 네트워크 ACL이 수정되었습니다. 솔루션 설계자는 포트 443을 통해 어디에서나 웹 서버에 액세스할 수 있도록 해야 합니다.

이 작업을 수행하려면 어떤 단계를 조합해야 합니까? (2개를 선택하세요.)

  • A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • E. 소스 0.0.0.0/0에서 인바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0으로 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다.
더보기
해설
  • A. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • B. TCP 포트 443을 대상 0.0.0.0/0으로 허용하는 규칙을 사용하여 보안 그룹을 생성합니다.
  • C. 소스 0.0.0.0/0에서 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • D. 소스 0.0.0.0/0에서 대상 0.0.0.0/0으로 인바운드/아웃바운드 TCP 포트 443을 허용하도록 네트워크 ACL을 업데이트합니다.
  • E. 소스 0.0.0.0/0에서 인바운드 TCP 포트 443을 허용하고 대상 0.0.0.0/0으로 아웃바운드 TCP 포트 32768-65535를 허용하도록 네트워크 ACL을 업데이트합니다.

E는 아웃바운드 트래픽과 포트를 명시적으로 포함하는 유일한 옵션

 

ACL은 상태 비저장입니다. 인바운드 및 아웃바운드 규칙을 모두 정의해야 합


#219



회사의 애플리케이션에 성능 문제가 있습니다. 애플리케이션은 상태 저장형이며 Amazon EC2 인스턴스에서 인 메모리 작업을 완료해야 합니다. 이 회사는 AWS CloudFormation을 사용하여 인프라를 배포하고 M5 EC2 인스턴스 제품군을 사용했습니다. 트래픽이 증가함에 따라 애플리케이션 성능이 저하되었습니다. 사용자가 애플리케이션에 액세스하려고 하면 지연이 발생한다고 보고됩니다.

어떤 솔루션이 이러한 문제를 운영상 가장 효율적인 방식으로 해결할 수 있습니까?

  • A. EC2 인스턴스를 Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 교체합니다. AWS Management Console을 사용하여 변경합니다.
  • B. Auto Scaling 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정합니다. 증가가 필요할 경우 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
  • C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. Amazon CloudWatch에 내장된 EC2 메모리 지표를 사용하여 향후 용량 계획을 위한 애플리케이션 성능을 추적하세요.
  • D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 시간 지표를 생성합니다
더보기
해설
  • A. EC2 인스턴스를 Auto Scaling 그룹에서 실행되는 T3 EC2 인스턴스로 교체합니다. AWS Management Console을 사용하여 변경합니다.
  • B. Auto Scaling 그룹에서 EC2 인스턴스를 실행하도록 CloudFormation 템플릿을 수정합니다. 증가가 필요할 경우 Auto Scaling 그룹의 원하는 용량과 최대 용량을 수동으로 늘립니다.
  • C. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. Amazon CloudWatch에 내장된 EC2 메모리 지표를 사용하여 향후 용량 계획을 위한 애플리케이션 성능을 추적하세요.
  • D. CloudFormation 템플릿을 수정합니다. EC2 인스턴스를 R5 EC2 인스턴스로 교체합니다. EC2 인스턴스에 Amazon CloudWatch 에이전트를 배포하여 향후 용량 계획을 위한 사용자 지정 애플리케이션 지연 시간 지표를 생성합니다

#222⭐



회사에서 회사의 AWS 계정에서 작업을 수행하기 위해 외부 공급업체를 고용했습니다. 공급업체는 공급업체가 소유한 AWS 계정에 호스팅된 자동화 도구를 사용합니다. 공급업체에는 회사의 AWS 계정에 대한 IAM 액세스 권한이 없습니다.

솔루션 설계자는 공급업체에 이러한 액세스 권한을 어떻게 부여해야 합니까?

  • A. 공급업체의 IAM 역할에 대한 액세스 권한을 위임하려면 회사 계정에 IAM 역할을 생성하세요. 공급업체에 필요한 권한에 대한 역할에 적절한 IAM 정책을 연결합니다.
  • B. 회사 계정에 암호 복잡성 요구 사항을 충족하는 암호를 사용하여 IAM 사용자를 생성합니다. 공급업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 연결합니다.
  • C. 회사 계정에 IAM 그룹을 생성합니다. 공급업체 계정의 도구 IAM 사용자를 그룹에 추가합니다. 공급업체에 필요한 권한에 대해 적절한 IAM 정책을 그룹에 연결합니다.
  • D. IAM 콘솔에서 공급자 유형으로 "AWS 계정"을 선택하여 새 ID 공급자를 생성합니다. 공급업체의 AWS 계정 ID와 사용자 이름을 제공합니다. 공급업체에 필요한 권한을 위해 적절한 IAM 정책을 새 공급자에 연결합니다
더보기
해설
  • A. 공급업체의 IAM 역할에 대한 액세스 권한을 위임하려면 회사 계정에 IAM 역할을 생성하세요. 공급업체에 필요한 권한에 대한 역할에 적절한 IAM 정책을 연결합니다.
  • B. 회사 계정에 암호 복잡성 요구 사항을 충족하는 암호를 사용하여 IAM 사용자를 생성합니다. 공급업체가 요구하는 권한에 대해 적절한 IAM 정책을 사용자에게 연결합니다.
  • C. 회사 계정에 IAM 그룹을 생성합니다. 공급업체 계정의 도구 IAM 사용자를 그룹에 추가합니다. 공급업체에 필요한 권한에 대해 적절한 IAM 정책을 그룹에 연결합니다.
  • D. IAM 콘솔에서 공급자 유형으로 "AWS 계정"을 선택하여 새 ID 공급자를 생성합니다. 공급업체의 AWS 계정 ID와 사용자 이름을 제공합니다. 공급업체에 필요한 권한을 위해 적절한 IAM 정책을 새 공급자에 연결합니다.

B는 정답이 아닙니다. 암호를 사용하여 IAM 사용자를 생성하려면 공급업체와 자격 증명을 공유해야 하지만 이는 보안상의 이유로 권장되지 않

 

IAM 역할을 생성하고 공급업체의 IAM 역할에 대한 액세스 권한을 위임함으로써 계정 간의 신뢰 관계를 구축할 수 있습니다. 

적절한 IAM 정책을 역할에 연결하면 공급업체가 작업을 수행하는 도구에 대해 요구하는 정확한 권한을 정의할 수 있습니다. 이를 통해 공급업체는 회사 계정에 대한 직접적인 IAM 액세스 권한을 부여하지 않고도 필요한 액세스 권한을 갖게 됩


#224⭐


한 회사는 최근 단일 AWS 리전의 Amazon EC2 인스턴스에 애플리케이션을 다시 호스팅하여 웹 애플리케이션을 AWS로 마이그레이션했습니다. 회사는 가용성이 높고 내결함성을 갖도록 애플리케이션 아키텍처를 재설계하려고 합니다. 트래픽은 실행 중인 모든 EC2 인스턴스에 무작위로 도달해야 합니다.

이러한 요구 사항을 충족하기 위해 회사는 어떤 단계 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Route 53 장애 조치 라우팅 정책을 생성하십시오.
  • B. Amazon Route 53 가중치 기반 라우팅 정책을 생성합니다.
  • C. Amazon Route 53 다중 응답 라우팅 정책을 생성합니다.
  • D. 3개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 두 개의 인스턴스가 있고 다른 가용 영역에 하나의 인스턴스가 있습니다.
  • E. 4개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 2개의 인스턴스가 있고 다른 가용 영역에 2개의 인스턴스가 있습니다
더보기
해설
  • A. Amazon Route 53 장애 조치 라우팅 정책을 생성하십시오.
  • B. Amazon Route 53 가중치 기반 라우팅 정책을 생성합니다.
  • C. Amazon Route 53 다중 응답 라우팅 정책을 생성합니다.
  • D. 3개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 두 개의 인스턴스가 있고 다른 가용 영역에 하나의 인스턴스가 있습니다.
  • E. 4개의 EC2 인스턴스를 시작합니다. 하나의 가용 영역에 2개의 인스턴스가 있고 다른 가용 영역에 2개의 인스턴스가 있습니다.

C. Route 53의 다중 응답 라우팅 정책을 사용하면 DNS 레코드에 대해 여러 값을 구성할 수 있으며 Route 53은 여러 임의 값으로 DNS 쿼리에 응답합니다. 이를 통해 사용 가능한 EC2 인스턴스 간에 트래픽을 무작위로 배포

 

. 장애 조치 라우팅은 기본 리소스나 위치를 사용할 수 없는 경우에만 백업 리소스나 보조 위치로 트래픽을 전달하도록 설계되었


#226


한 회사는 Amazon EC2 인스턴스에서 실행되는 RESTful 웹 서비스 애플리케이션을 사용하여 수천 개의 원격 장치에서 데이터를 수집합니다. EC2 인스턴스는 원시 데이터를 수신하고, 원시 데이터를 변환하고, 모든 데이터를 Amazon S3 버킷에 저장합니다. 원격 장치의 수는 곧 수백만 개로 늘어날 것입니다. 회사에는 운영 오버헤드를 최소화하는 확장성이 뛰어난 솔루션이 필요합니다.

이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. AWS Glue를 사용하여 Amazon S3의 원시 데이터를 처리합니다.
  • B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
  • C. 증가하는 수신 데이터 양을 수용하기 위해 더 많은 EC2 인스턴스를 추가합니다.
  • D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
  • E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터 스트림을 소스로 사용하여 Amazon S3에 데이터를 전송하도록 Amazon Kinesis Data Firehose를 구성합니다.
더보기
해설
  • A. AWS Glue를 사용하여 Amazon S3의 원시 데이터를 처리합니다.
  • B. Amazon Route 53을 사용하여 트래픽을 다른 EC2 인스턴스로 라우팅합니다.
  • C. 증가하는 수신 데이터 양을 수용하기 위해 더 많은 EC2 인스턴스를 추가합니다.
  • D. 원시 데이터를 Amazon Simple Queue Service(Amazon SQS)로 보냅니다. EC2 인스턴스를 사용하여 데이터를 처리합니다.
  • E. Amazon API Gateway를 사용하여 원시 데이터를 Amazon Kinesis 데이터 스트림으로 보냅니다. 데이터 스트림을 소스로 사용하여 Amazon S3에 데이터를 전송하도록 Amazon Kinesis Data Firehose를 구성합니다.

A. 데이터의 스키마를 자동으로 검색하고 이를 변환하기 위한 ETL 코드를 생성합니다. E. API 게이트웨이는 RESTful 웹 서비스를 통해 원격 장치로부터 원시 데이터를 수신하는 데 사용할 수 있습니다. 들어오는 요청을 처리하기 위해 확장 가능하고 관리되는 인프라를 제공합니다. 그런 다음 확장성과 내구성이 뛰어난 실시간 데이터 스트리밍 서비스인 Amazon Kinesis 데이터 스트림으로 데이터를 전송할 수 있습니다. 여기에서 데이터 스트림을 소스로 사용하고 변환된 데이터를 Amazon S3에 전달하도록 Amazon Kinesis Data Firehose를 구성할 수 있습니다. 이러한 서비스 조합을 통해 운영 오버헤드를 최소화하면서 데이터를 원활하게 수집하고 처리할 수 있습니다. B. 확장 가능한 데이터 처리 및 저장에 대한 요구를 직접적으로 다루지는 않습니다. DNS를 관리하고 트래픽을 다른 엔드포인트로 라우팅하는 데 중점을 둡니다. C. EC2를 더 추가하면 인스턴스 관리 및 확장 측면에서 운영 오버헤드가 증가할 수 있습니다. D. 데이터 처리에 SQS와 EC2를 사용하면 더 복잡해지고 운영 오버헤드가 발생


#227


회사는 AWS CloudTrail 로그를 3년 동안 보관해야 합니다. 회사는 상위 계정의 AWS Organizations를 사용하여 일련의 AWS 계정에 걸쳐 CloudTrail을 시행하고 있습니다. CloudTrail 대상 S3 버킷은 S3 버전 관리가 활성화된 상태로 구성됩니다. 3년 후에 현재 객체를 삭제하는 S3 수명 주기 정책이 마련되어 있습니다.

S3 버킷을 사용한 지 4년이 지난 후 S3 버킷 지표를 보면 객체 수가 계속해서 증가한 것으로 나타났습니다. 그러나 S3 버킷으로 전달되는 새로운 CloudTrail 로그 수는 일관되게 유지되었습니다.

가장 비용 효과적인 방식으로 3년이 넘은 객체를 삭제하는 솔루션은 무엇입니까?

  • A. 3년 후에 객체가 만료되도록 조직의 중앙 집중식 CloudTrail 추적을 구성합니다.
  • B. 현재 버전뿐만 아니라 이전 버전도 삭제하도록 S3 수명 주기 정책을 구성합니다.
  • C. Amazon S3에서 3년이 넘은 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
  • D. S3 버킷에 전달되는 모든 객체의 소유자로 상위 계정을 구성합니다.
더보기
해설
  • A. 3년 후에 객체가 만료되도록 조직의 중앙 집중식 CloudTrail 추적을 구성합니다.
  • B. 현재 버전뿐만 아니라 이전 버전도 삭제하도록 S3 수명 주기 정책을 구성합니다.
  • C. Amazon S3에서 3년이 넘은 객체를 열거하고 삭제하는 AWS Lambda 함수를 생성합니다.
  • D. S3 버킷에 전달되는 모든 객체의 소유자로 상위 계정을 구성합니다.

#231



애플리케이션은 VPC A에 탄력적 IP 주소가 있는 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 VPC B의 데이터베이스에 액세스해야 합니다. 두 VPC 모두 동일한 AWS 계정에 있습니다.

필요한 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?

  • A. VPC A에 있는 애플리케이션 서버의 퍼블릭 IP 주소에서 들어오는 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 생성합니다.
  • B. VPC A와 VPC B 사이에 VPC 피어링 연결을 구성합니다.
  • C. DB 인스턴스에 공개적으로 액세스할 수 있도록 합니다. DB 인스턴스에 퍼블릭 IP 주소를 할당합니다.
  • D. 탄력적 IP 주소가 있는 EC2 인스턴스를 VPC B로 시작합니다. 새 EC2 인스턴스를 통해 모든 요청을 프록시합니다.
더보기
해설
  • A. VPC A에 있는 애플리케이션 서버의 퍼블릭 IP 주소에서 들어오는 모든 트래픽을 허용하는 DB 인스턴스 보안 그룹을 생성합니다.
  • B. VPC A와 VPC B 사이에 VPC 피어링 연결을 구성합니다.
  • C. DB 인스턴스에 공개적으로 액세스할 수 있도록 합니다. DB 인스턴스에 퍼블릭 IP 주소를 할당합니다.
  • D. 탄력적 IP 주소가 있는 EC2 인스턴스를 VPC B로 시작합니다. 새 EC2 인스턴스를 통해 모든 요청을 프록시합니다.

옵션 A는 공용 IP 주소로부터의 인바운드 트래픽을 허용하여 데이터베이스를 공용 인터넷에 노출


#232


한 회사가 Amazon EC2 인스턴스에서 고객을 위해 데모 환경을 운영하고 있습니다. 
각 환경은 자체 VPC에 격리되어 있습니다. 
환경에 대한 RDP 또는 SSH 액세스가 설정되면 회사 운영 팀에 알려야 합니다.

  • A. RDP 또는 SSH 액세스가 감지되면 AWS 시스템 관리자 OpsItems를 생성하도록 Amazon CloudWatch Application Insights를 구성합니다.
  • B. AmazonSSMManagedInstanceCore 정책이 연결된 IAM 역할이 있는 IAM 인스턴스 프로필로 EC2 인스턴스를 구성합니다.
  • C. Amazon CloudWatch Logs에 VPC 흐름 로그를 게시합니다. 필수 지표 필터를 생성합니다. 경보가 ALARM 상태일 때 알림 작업이 포함된 Amazon CloudWatch 지표 경보를 생성합니다.
  • D. EC2 인스턴스 상태 변경 알림 유형의 이벤트를 수신하도록 Amazon EventBridge 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 대상으로 구성합니다. 운영팀의 주제를 구독하세요.
더보기
해설
  • A. RDP 또는 SSH 액세스가 감지되면 AWS 시스템 관리자 OpsItems를 생성하도록 Amazon CloudWatch Application Insights를 구성합니다.
  • B. AmazonSSMManagedInstanceCore 정책이 연결된 IAM 역할이 있는 IAM 인스턴스 프로필로 EC2 인스턴스를 구성합니다.
  • C. Amazon CloudWatch Logs에 VPC 흐름 로그를 게시합니다. 필수 지표 필터를 생성합니다. 경보가 ALARM 상태일 때 알림 작업이 포함된 Amazon CloudWatch 지표 경보를 생성합니다.
  • D. EC2 인스턴스 상태 변경 알림 유형의 이벤트를 수신하도록 Amazon EventBridge 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 대상으로 구성합니다. 운영팀의 주제를 구독하세요.

CloudWatch Application Insights는 RDP 또는 SSH 액세스를 감지하도록 설계되지 않았기 때문에 옵션 A는 올바르지 않

 

CloudWatch Logs에 VPC 흐름 로그를 게시하고 지표 필터를 생성하여 RDP 또는 SSH 액세스를 감지함으로써 운영 팀은 경보가 트리거될 때 알리도록 CloudWatch 지표 경보를 구성할 수 있습


#235



한 회사가 온프레미스 Oracle 데이터베이스를 Amazon Aurora PostgreSQL로 이전하고 있습니다. 데이터베이스에는 동일한 테이블에 쓰는 여러 애플리케이션이 있습니다. 애플리케이션은 한 달 간격으로 하나씩 마이그레이션해야 합니다. 경영진은 데이터베이스의 읽기 및 쓰기 횟수가 많다는 우려를 표명했습니다. 마이그레이션하는 동안 두 데이터베이스 모두에서 데이터가 동기화 상태로 유지되어야 합니다.

솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • B. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • C. 메모리 최적화 복제 인스턴스를 사용하는 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 변경 데이터 캡처(CDC) 복제 작업 및 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • D. 컴퓨팅 최적화 복제 인스턴스를 사용하여 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 CDC(변경 데이터 캡처) 복제 작업 및 테이블 매핑을 생성하여 가장 큰 테이블을 선택합니다.
더보기
해설
  • A. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • B. 초기 마이그레이션에는 AWS DataSync를 사용하십시오. AWS Database Migration Service(AWS DMS)를 사용하여 전체 로드 및 변경 데이터 캡처(CDC) 복제 작업과 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • C. 메모리 최적화 복제 인스턴스를 사용하는 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 변경 데이터 캡처(CDC) 복제 작업 및 테이블 매핑을 생성하여 모든 테이블을 선택합니다.
  • D. 컴퓨팅 최적화 복제 인스턴스를 사용하여 AWS Database Migration Service(AWS DMS)와 함께 AWS Schema Conversion Tool을 사용합니다. 전체 로드와 CDC(변경 데이터 캡처) 복제 작업 및 테이블 매핑을 생성하여 가장 큰 테이블을 선택합니다.

Oracle -> PostgreSQL, SCT가 필요하므로 A와 B는 종료됩니다. D는 "가장 큰 테이블"만 매핑하지만 모든 테이블이 필요합


#239



솔루션 설계자는 회사의 애플리케이션을 위한 새로운 마이크로서비스를 설계해야 합니다. 클라이언트는 마이크로서비스에 도달하기 위해 HTTPS 엔드포인트를 호출할 수 있어야 합니다. 또한 마이크로서비스는 AWS Identity and Access Management(IAM)를 사용하여 호출을 인증해야 합니다. 솔루션 아키텍트는 Go 1.x로 작성된 단일 AWS Lambda 함수를 사용하여 이 마이크로서비스에 대한 로직을 작성합니다.

어떤 솔루션이 운영상 가장 효율적인 방식으로 기능을 배포합니까?


  • A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.
  • B. 함수에 대한 Lambda 함수 URL을 생성합니다. 인증 유형으로 AWS_IAM을 지정합니다.
  • C. Amazon CloudFront 배포판을 생성합니다. Lambda@Edge에 함수를 배포합니다. IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.
  • D. Amazon CloudFront 배포판을 생성합니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.
더보기
해설
  • A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다.
  • B. 함수에 대한 Lambda 함수 URL을 생성합니다. 인증 유형으로 AWS_IAM을 지정합니다.
  • C. Amazon CloudFront 배포판을 생성합니다. Lambda@Edge에 함수를 배포합니다. IAM 인증 로직을 Lambda@Edge 함수에 통합합니다.
  • D. Amazon CloudFront 배포판을 생성합니다. CloudFront Functions에 함수를 배포합니다. 인증 유형으로 AWS_IAM을 지정합니다.

A. Amazon API Gateway REST API를 생성합니다. Lambda 함수를 사용하도록 메서드를 구성합니다. API에서 IAM 인증을 활성화합니다. 이 옵션은 API 게이트웨이를 사용하여 HTTPS 엔드포인트를 처리할 수 있고 IAM을 사용하여 마이크로서비스에 대한 호출을 인증할 수 있으므로 운영상 가장 효율적입니다. API 게이트웨이는 또한 마이크로서비스에 유용할 수 있는 캐싱, 제한, 모니터링과 같은 다양한 추가 기능을 제공합니다.

 

나는 원래 B에 투표했지만 이 기사를 읽은 후에는 A가 틀린 것인지 아니면 단지 잘못된 표현인지 잘 모르겠습니다. A가 실제로 "Lambda 함수를 사용하도록 [인증] 메서드를 구성하세요"라고 말한 경우 이는 B보다 훨씬 더 논리적이지만 의도적인 것일 수 있


#243


의학 연구소에서는 새로운 연구와 관련된 데이터를 생성합니다. 연구소에서는 온프레미스 파일 기반 애플리케이션을 위해 전국의 진료소에서 대기 시간을 최소화하면서 데이터를 사용할 수 있도록 하려고 합니다. 데이터 파일은 각 클리닉에 대해 읽기 전용 권한이 있는 Amazon S3 버킷에 저장됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. 각 병원의 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 가상 머신(VM)으로 배포합니다.
  • B. 처리를 위해 AWS DataSync를 사용하여 파일을 각 병원의 온프레미스 애플리케이션으로 마이그레이션합니다.
  • C. AWS Storage Gateway 볼륨 게이트웨이를 각 병원의 온프레미스에 가상 머신(VM)으로 배포합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 각 진료소의 온프레미스 서버에 연결합니다.
더보기
해설
  • A. 각 병원의 온프레미스에 AWS Storage Gateway 파일 게이트웨이를 가상 머신(VM)으로 배포합니다.
  • B. 처리를 위해 AWS DataSync를 사용하여 파일을 각 병원의 온프레미스 애플리케이션으로 마이그레이션합니다.
  • C. AWS Storage Gateway 볼륨 게이트웨이를 각 병원의 온프레미스에 가상 머신(VM)으로 배포합니다.
  • D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 각 진료소의 온프레미스 서버에 연결합니다.

A: 여기서 필요한 작업을 정확히 수행합니다. B: S3에서 파일을 이동하는 "마이그레이션"은 의미가 없


#244



회사는 단일 Amazon EC2 인스턴스에서 실행되는 콘텐츠 관리 시스템을 사용하고 있습니다. EC2 인스턴스에는 웹 서버와 데이터베이스 소프트웨어가 모두 포함되어 있습니다. 회사는 웹 사이트 플랫폼의 가용성을 높여야 하며 사용자 요구에 맞게 웹 사이트를 확장할 수 있어야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
  • A. 데이터베이스를 Amazon RDS로 이동하고 자동 백업을 활성화합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. 가용 영역에서 Application Load Balancer를 구성하고 두 인스턴스를 대상으로 설정합니다.
  • B. 기존 EC2 인스턴스와 동일한 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora 인스턴스로 데이터베이스를 마이그레이션합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. Application Load Balancer를 구성하고 두 개의 EC2 인스턴스를 대상으로 설정합니다.
  • C. 다른 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora로 데이터베이스를 이동합니다. EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
  • D. 데이터베이스를 별도의 EC2 인스턴스로 이동하고 Amazon S3에 대한 백업을 예약합니다. 원본 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
더보기
해설
  • A. 데이터베이스를 Amazon RDS로 이동하고 자동 백업을 활성화합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. 가용 영역에서 Application Load Balancer를 구성하고 두 인스턴스를 대상으로 설정합니다.
  • B. 기존 EC2 인스턴스와 동일한 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora 인스턴스로 데이터베이스를 마이그레이션합니다. 동일한 가용 영역에서 다른 EC2 인스턴스를 수동으로 시작합니다. Application Load Balancer를 구성하고 두 개의 EC2 인스턴스를 대상으로 설정합니다.
  • C. 다른 가용 영역에 읽기 전용 복제본이 있는 Amazon Aurora로 데이터베이스를 이동합니다. EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.
  • D. 데이터베이스를 별도의 EC2 인스턴스로 이동하고 Amazon S3에 대한 백업을 예약합니다. 원본 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. 두 개의 가용 영역에 Application Load Balancer를 구성합니다. 두 개의 가용 영역에서 AMI를 사용하는 Auto Scaling 그룹을 연결합니다.

#247


한 회사가 MySQL용 Amazon RDS에 데이터베이스를 배포했습니다. 트랜잭션 증가로 인해 데이터베이스 지원팀에서는 DB 인스턴스에 대한 읽기 속도가 느리다고 보고하고 읽기 전용 복제본을 추가할 것을 권장합니다.

이 변경 사항을 구현하기 전에 솔루션 설계자가 취해야 할 조치 조합은 무엇입니까? (2개를 선택하세요.)
  • A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
  • B. 원본 DB 인스턴스의 장애 조치 우선 순위를 선택합니다.
  • C. 원본 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다.
  • D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 지역을 지정합니다.
  • E. 백업 보존 기간을 0이 아닌 값으로 설정하여 원본 인스턴스에서 자동 백업을 활성화합니다
더보기
해설
  • A. RDS 기본 노드에서 binlog 복제를 활성화합니다.
  • B. 원본 DB 인스턴스의 장애 조치 우선 순위를 선택합니다.
  • C. 원본 DB 인스턴스에서 장기 실행 트랜잭션이 완료되도록 허용합니다.
  • D. 글로벌 테이블을 생성하고 테이블을 사용할 수 있는 AWS 지역을 지정합니다.
  • E. 백업 보존 기간을 0이 아닌 값으로 설정하여 원본 인스턴스에서 자동 백업을 활성화합니다

B와 D는 질문과 관련이 없습니다. E는 주요 아키텍처 변경을 수행하기 전에 반드시 필요한 것입니다. A는 RDS에 의해 관리되므로 읽기 전용 복제본을 생성할 때 명시적으로 수행해야 하는 작업이 아닙


#249


한 회사가 AWS 클라우드에서 호스팅되는 미디어 애플리케이션을 위한 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 SMB 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.

이러한 요구 사항을 충족하는 AWS 솔루션은 무엇입니까?
  • A. AWS Storage Gateway 볼륨 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. AWS Storage Gateway 테이프 게이트웨이를 생성합니다. Amazon S3를 사용하도록 테이프를 구성합니다. 애플리케이션 서버를 테이프 게이트웨이에 연결합니다.
  • C. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • D. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다
더보기
해설
  • A. AWS Storage Gateway 볼륨 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • B. AWS Storage Gateway 테이프 게이트웨이를 생성합니다. Amazon S3를 사용하도록 테이프를 구성합니다. 애플리케이션 서버를 테이프 게이트웨이에 연결합니다.
  • C. Amazon EC2 Windows 인스턴스를 생성합니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • D. Windows 파일 서버용 Amazon FSx 파일 시스템을 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다

SMB + 완전 관리형 = Windows용 fsx imo

 

A: 볼륨 게이트웨이는 SMB가 아닌 가상 디스크 iSCSI를 제공합니다. B: 테이프 게이트웨이는 SMB가 아닌 iSCSI를 통해 가상 테이프를 제공합니다. C: "완전 관리형"이 아닙


#250


한 회사의 보안 팀은 네트워크 트래픽이 VPC 흐름 로그에 캡처되도록 요청합니다. 로그는 90일 동안 자주 액세스된 후 간헐적으로 액세스됩니다.

로그를 구성할 때 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon CloudWatch를 대상으로 사용하십시오. 90일 만료로 CloudWatch 로그 그룹 설정
  • B. Amazon Kinesis를 대상으로 사용하십시오. 항상 90일 동안 로그를 보관하도록 Kinesis 스트림을 구성합니다.
  • C. AWS CloudTrail을 대상으로 사용하십시오. Amazon S3 버킷에 저장하도록 CloudTrail을 구성하고 S3 Intelligent-Tiering을 활성화합니다.
  • D. Amazon S3를 대상으로 사용하십시오. S3 수명 주기 정책을 활성화하여 90일 후에 로그를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.
더보기
해설
  • A. Amazon CloudWatch를 대상으로 사용하십시오. 90일 만료로 CloudWatch 로그 그룹 설정
  • B. Amazon Kinesis를 대상으로 사용하십시오. 항상 90일 동안 로그를 보관하도록 Kinesis 스트림을 구성합니다.
  • C. AWS CloudTrail을 대상으로 사용하십시오. Amazon S3 버킷에 저장하도록 CloudTrail을 구성하고 S3 Intelligent-Tiering을 활성화합니다.
  • D. Amazon S3를 대상으로 사용하십시오. S3 수명 주기 정책을 활성화하여 90일 후에 로그를 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다.

#251



Amazon EC2 인스턴스는 새 VPC의 프라이빗 서브넷에 있습니다. 이 서브넷에는 아웃바운드 인터넷 액세스가 없지만 EC2 인스턴스에는 외부 공급업체로부터 월간 보안 업데이트를 다운로드할 수 있는 기능이 필요합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
  • A. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • B. NAT 게이트웨이를 생성하고 이를 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • C. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • D. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. NAT 인스턴스를 생성하고 이를 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
더보기
해설
  • A. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • B. NAT 게이트웨이를 생성하고 이를 퍼블릭 서브넷에 배치합니다. NAT 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • C. NAT 인스턴스를 생성하고 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. NAT 인스턴스를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.
  • D. 인터넷 게이트웨이를 생성하고 이를 VPC에 연결합니다. NAT 인스턴스를 생성하고 이를 EC2 인스턴스가 있는 동일한 서브넷에 배치합니다. 인터넷 게이트웨이를 기본 경로로 사용하도록 프라이빗 서브넷 라우팅 테이블을 구성합니다.

 


#254


한 회사가 최근 3티어 애플리케이션을 VPC로 마이그레이션하는 것을 검토하고 있습니다. 보안 팀은 애플리케이션 계층 간의 Amazon EC2 보안 그룹 수신 및 송신 규칙에 최소 권한 원칙이 적용되지 않는다는 사실을 발견했습니다.

이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성하십시오.
  • B. 보안 그룹 ID를 원본 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니
더보기
해설
  • A. 인스턴스 ID를 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성하십시오.
  • B. 보안 그룹 ID를 원본 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • C. VPC CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다.
  • D. 서브넷 CIDR 블록을 소스 또는 대상으로 사용하여 보안 그룹 규칙을 생성합니다

D. 서브넷 CIDR 블록을 기반으로 트래픽을 제한하지만 이는 애플리케이션 계층 간의 적절한 보안을 보장하는 데 충분하지 않을 수 있습니다. 요약하자면, 보안 그룹 ID(옵션 B)를 사용하면 최소 권한 원칙에 맞춰 애플리케이션 계층 간의 트래픽을 정확하게 제어할 수 있으므로 권장되는 접근 방식


#255



회사에는 데이터베이스에 주문을 기록하고 결제를 처리하기 위해 서비스를 호출하는 전자상거래 결제 워크플로가 있습니다. 결제 프로세스 중에 사용자에게 시간 초과가 발생합니다. 사용자가 결제 양식을 다시 제출하면 원하는 동일한 거래에 대해 여러 개의 고유 주문이 생성됩니다.

솔루션 설계자는 여러 주문이 생성되는 것을 방지하기 위해 이 워크플로를 어떻게 리팩터링해야 합니까?

  • A. Amazon Kinesis Data Firehose에 주문 메시지를 보내도록 웹 애플리케이션을 구성합니다. Kinesis Data Firehose에서 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다.
  • B. AWS CloudTrail에서 기록된 애플리케이션 경로 요청을 기반으로 AWS Lambda 함수를 호출하는 규칙을 생성합니다. Lambda를 사용하여 데이터베이스를 쿼리하고 결제 서비스를 호출하고 주문 정보를 전달합니다.
  • C. 주문을 데이터베이스에 저장합니다. Amazon Simple 알림 서비스(Amazon SNS)에 주문 번호가 포함된 메시지를 보냅니다. Amazon SNS를 폴링하고, 메시지를 검색하고, 주문을 처리하도록 결제 서비스를 설정합니다.
  • D. 주문을 데이터베이스에 저장합니다. 주문 번호가 포함된 메시지를 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 보냅니다. 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다. 대기열에서 메시지를 삭제합니다.
더보기
해설
  • A. Amazon Kinesis Data Firehose에 주문 메시지를 보내도록 웹 애플리케이션을 구성합니다. Kinesis Data Firehose에서 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다.
  • B. AWS CloudTrail에서 기록된 애플리케이션 경로 요청을 기반으로 AWS Lambda 함수를 호출하는 규칙을 생성합니다. Lambda를 사용하여 데이터베이스를 쿼리하고 결제 서비스를 호출하고 주문 정보를 전달합니다.
  • C. 주문을 데이터베이스에 저장합니다. Amazon Simple 알림 서비스(Amazon SNS)에 주문 번호가 포함된 메시지를 보냅니다. Amazon SNS를 폴링하고, 메시지를 검색하고, 주문을 처리하도록 결제 서비스를 설정합니다.
  • D. 주문을 데이터베이스에 저장합니다. 주문 번호가 포함된 메시지를 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열로 보냅니다. 메시지를 검색하고 주문을 처리하도록 결제 서비스를 설정합니다. 대기열에서 메시지를 삭제합니다.

#258



한 회사에 매시간 수백 개의 .csv 파일을 Amazon S3 버킷에 저장하는 애플리케이션이 있습니다. 파일 크기는 1GB입니다. 파일이 업로드될 때마다 회사는 파일을 Apache Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 저장해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
  • A. AWS Lambda 함수를 생성하여 .csv 파일을 다운로드하고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장합니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 호출합니다.
  • B. .csv 파일을 읽고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하는 Apache Spark 작업을 생성합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 Spark 작업을 호출합니다.
  • C. 애플리케이션이 .csv 파일을 배치하는 S3 버킷에 대한 AWS Glue 테이블과 AWS Glue 크롤러를 생성합니다. 주기적으로 Amazon Athena를 사용하여 AWS Glue 테이블을 쿼리하고, 쿼리 결과를 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하도록 AWS Lambda 함수를 예약합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 .csv 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 ETL 작업을 호출합니다
더보기
해설
  • A. AWS Lambda 함수를 생성하여 .csv 파일을 다운로드하고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장합니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 호출합니다.
  • B. .csv 파일을 읽고, 파일을 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하는 Apache Spark 작업을 생성합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 Spark 작업을 호출합니다.
  • C. 애플리케이션이 .csv 파일을 배치하는 S3 버킷에 대한 AWS Glue 테이블과 AWS Glue 크롤러를 생성합니다. 주기적으로 Amazon Athena를 사용하여 AWS Glue 테이블을 쿼리하고, 쿼리 결과를 Parquet 형식으로 변환하고, 출력 파일을 S3 버킷에 저장하도록 AWS Lambda 함수를 예약합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 생성하여 .csv 파일을 Parquet 형식으로 변환하고 출력 파일을 S3 버킷에 배치합니다. 각 S3 PUT 이벤트에 대해 AWS Lambda 함수를 생성하여 ETL 작업을 호출합니다

A와 D 모두 작동할 수 있지만 A가 더 간단

 

A. 상당한 운영 오버헤드가 발생합니다. 이 접근 방식을 사용하려면 Lambda를 관리하고, 동시성을 처리하고, 대용량 파일 크기에 대한 적절한 오류 처리를 보장해야 하는데 이는 어려울 수 있습니다. B. 불필요한 복잡성과 운영 오버헤드를 추가합니다. Spark 작업 관리, 확장성 처리, 각 파일 업로드에 대한 Lambda 호출 조정은 번거로울 수 있습니다. C.는 추가적인 복잡성을 야기하며 가장 효율적인 솔루션이 아닐 수 있습니다. 여기에는 Glue 리소스 관리, Lambda 예약, 새 파일이 업로드되지 않은 경우에도 데이터 쿼리가 포함됩니다. 옵션 D는 AWS Glue의 ETL 기능을 활용하여 대규모로 데이터 변환 작업을 정의하고 실행할 수 있도록 해줍니다. 각 S3 PUT 이벤트에 대해 Lambda 함수를 사용하여 ETL 작업을 호출하면 수동 개입 없이도 파일이 Parquet 형식으로 효율적으로 변환되도록 할 수 있습니다. 이 접근 방식은 운영 오버헤드를 최소화하고 간소화되고 확장 가능한 솔루션을 제공


#259



한 회사가 Amazon RDS DB 인스턴스에서 실행되는 모든 데이터베이스에 대해 새로운 데이터 보존 정책을 구현하고 있습니다. 회사는 최소 2년 동안 일일 백업을 보관해야 합니다. 백업은 일관되고 복원 가능해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 솔루션을 권장해야 합니까?

  • A. RDS 백업을 보관하려면 AWS Backup에 백업 볼트를 생성하세요. 일일 일정과 생성 후 만료 기간이 2년인 새 백업 계획을 생성합니다. RDS DB 인스턴스를 백업 계획에 할당합니다.
  • B. 일일 스냅샷을 위해 RDS DB 인스턴스의 백업 기간을 구성합니다. 각 RDS DB 인스턴스에 2년의 스냅샷 보존 정책을 할당합니다. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 스냅샷 삭제를 예약합니다.
  • C. 만료 기간이 2년인 Amazon CloudWatch Logs에 자동으로 백업되도록 데이터베이스 트랜잭션 로그를 구성합니다.
  • D. AWS Database Migration Service(AWS DMS) 복제 작업을 구성합니다. 복제 인스턴스를 배포하고 데이터베이스 변경 사항을 Amazon S3 대상으로 스트리밍하도록 변경 데이터 캡처(CDC) 작업을 구성합니다. 2년 후에 스냅샷을 삭제하도록 S3 수명 주기 정책을 구성합니다.
더보기
해설
  • A. RDS 백업을 보관하려면 AWS Backup에 백업 볼트를 생성하세요. 일일 일정과 생성 후 만료 기간이 2년인 새 백업 계획을 생성합니다. RDS DB 인스턴스를 백업 계획에 할당합니다.
  • B. 일일 스냅샷을 위해 RDS DB 인스턴스의 백업 기간을 구성합니다. 각 RDS DB 인스턴스에 2년의 스냅샷 보존 정책을 할당합니다. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 스냅샷 삭제를 예약합니다.
  • C. 만료 기간이 2년인 Amazon CloudWatch Logs에 자동으로 백업되도록 데이터베이스 트랜잭션 로그를 구성합니다.
  • D. AWS Database Migration Service(AWS DMS) 복제 작업을 구성합니다. 복제 인스턴스를 배포하고 데이터베이스 변경 사항을 Amazon S3 대상으로 스트리밍하도록 변경 데이터 캡처(CDC) 작업을 구성합니다. 2년 후에 스냅샷을 삭제하도록 S3 수명 주기 정책을 구성합니다.
A. 중앙 집중식 백업 관리 서비스인 AWS Backup을 사용하여 RDS 백업을 보관할 것을 제안합니다. 백업 볼트가 생성되고, 일일 일정과 백업 보관 기간 2년으로 백업 계획이 정의됩니다. RDS DB 인스턴스는 이 백업 계획에 할당됩니다. B. 일관되고 복원 가능한 백업에 대한 요구 사항을 다루지 않습니다. 스냅샷은 특정 시점 백업이므로 원하는 수준의 일관성을 제공하지 못할 수 있습니다. C. 데이터베이스에 필요한 백업 및 복원 기능을 제공하도록 설계되지 않았습니다. 백업의 일관성을 보장하거나 쉬운 복원 메커니즘을 제공하지 않습니다. D. 일일 백업 및 일관된 백업 보존에 대한 요구 사항을 다루지 않습니다. 백업 및 복원보다는 복제 및 변경 데이터 캡처에 더 중점을 둡

#260



회사의 규정 준수 팀은 파일 공유를 AWS로 이동해야 합니다. 공유는 Windows Server SMB 파일 공유에서 실행됩니다. 자체 관리형 온프레미스 Active Directory는 파일 및 폴더에 대한 액세스를 제어합니다.

회사는 솔루션의 일부로 Amazon FSx for Windows File Server를 사용하려고 합니다. 회사는 AWS로 이동한 후 온프레미스 Active Directory 그룹이 FSx for Windows File Server SMB 규정 준수 공유, 폴더 및 파일에 대한 액세스를 제한하는지 확인해야 합니다. 회사는 Windows 파일 서버 파일 시스템용 FSx를 만들었습니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Active Directory에 연결하기 위해 Active Directory Connector를 생성합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • B. Restrict 태그 키와 규정 준수 태그 값을 사용하여 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • C. FSx for Windows File Server에 직접 연결되는 IAM 서비스 연결 역할을 생성하여 액세스를 제한합니다.
  • D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다
더보기
해설
  • A. Active Directory에 연결하기 위해 Active Directory Connector를 생성합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • B. Restrict 태그 키와 규정 준수 태그 값을 사용하여 태그를 할당합니다. Active Directory 그룹을 IAM 그룹에 매핑하여 액세스를 제한합니다.
  • C. FSx for Windows File Server에 직접 연결되는 IAM 서비스 연결 역할을 생성하여 액세스를 제한합니다.
  • D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다

A는 이 설정과 관련이 없는 IAM 역할을 사용합니다. BC는 완전히 틀렸

 

D. 파일 시스템을 Active Directory에 연결하여 액세스를 제한합니다. FSx for Windows File Server 파일 시스템을 온프레미스 Active Directory에 결합하면 회사는 AWS로 이동한 후 기존 Active Directory 그룹을 사용하여 파일 공유, 폴더 및 파일에 대한 액세스를 제한할 수 있습니다. 이 옵션을 사용하면 회사는 기존 액세스 제어 및 관리 구조를 계속 사용할 수 있으므로 AWS로의 전환이 더욱 원활해

 


#261



한 회사는 최근 전 세계 고객을 대상으로 소매 웹사이트를 구축한다고 발표했습니다. 웹 사이트는 Elastic Load Balancer 뒤의 여러 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행됩니다.

회사는 고객이 웹 사이트에 액세스하는 데 사용하는 장치에 따라 다양한 버전의 콘텐츠를 고객에게 제공하려고 합니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. 여러 버전의 콘텐츠를 캐시하도록 Amazon CloudFront를 구성합니다.
  • B. Network Load Balancer에서 호스트 헤더를 구성하여 트래픽을 다른 인스턴스로 전달합니다.
  • C. User-Agent 헤더를 기반으로 사용자에게 특정 객체를 보내도록 Lambda@Edge 함수를 구성합니다.
  • D. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 호스트 기반 라우팅을 설정하도록 NLB를 구성합니다.
  • E. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정하도록 NLB를 구성합니다.
더보기
해설
  • A. 여러 버전의 콘텐츠를 캐시하도록 Amazon CloudFront를 구성합니다.
  • B. Network Load Balancer에서 호스트 헤더를 구성하여 트래픽을 다른 인스턴스로 전달합니다.
  • C. User-Agent 헤더를 기반으로 사용자에게 특정 객체를 보내도록 Lambda@Edge 함수를 구성합니다.
  • D. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 호스트 기반 라우팅을 설정하도록 NLB를 구성합니다.
  • E. AWS Global Accelerator를 구성합니다. NLB(Network Load Balancer)로 요청을 전달합니다. 다른 EC2 인스턴스에 대한 경로 기반 라우팅을 설정하도록 NLB를 구성합니다.

#263


한 회사가 여러 마이크로서비스로 구성된 애플리케이션을 구축하고 있습니다. 회사는 컨테이너 기술을 사용하여 AWS에 소프트웨어를 배포하기로 결정했습니다. 회사에는 유지 관리 및 확장을 위한 지속적인 노력을 최소화하는 솔루션이 필요합니다. 회사는 추가 인프라를 관리할 수 없습니다.

이러한 요구 사항을 충족하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Elastic Container Service(Amazon ECS) 클러스터를 배포합니다.
  • B. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 제어 플레인을 배포합니다.
  • C. Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • D. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • E. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 작업자 노드를 배포합니다. 각 마이크로서비스에 대해 두 개 이상의 복제본을 지정하는 배포를 만듭니다.
더보기
해설
  • A. Amazon Elastic Container Service(Amazon ECS) 클러스터를 배포합니다.
  • B. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 제어 플레인을 배포합니다.
  • C. Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • D. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 서비스를 배포합니다. 2보다 크거나 같은 원하는 작업 번호 수준을 지정합니다.
  • E. 여러 가용 영역에 걸쳐 있는 Amazon EC2 인스턴스에 Kubernetes 작업자 노드를 배포합니다. 각 마이크로서비스에 대해 두 개 이상의 복제본을 지정하는 배포를 만듭니다.

#264


회사에는 Amazon Route 53을 통해 트래픽이 전달되는 10개 이상의 Amazon EC2 인스턴스를 호스팅하는 웹 애플리케이션이 있습니다. 회사에서 애플리케이션을 탐색하려고 할 때 때때로 시간 초과 오류가 발생합니다. 네트워킹 팀은 일부 DNS 쿼리가 비정상 인스턴스의 IP 주소를 반환하여 시간 초과 오류가 발생한다는 사실을 발견했습니다.

이러한 시간 초과 오류를 극복하기 위해 솔루션 설계자는 무엇을 구현해야 합니까?

  • A. 각 EC2 인스턴스에 대해 Route 53 단순 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • B. 각 EC2 인스턴스에 대해 Route 53 장애 조치 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • C. EC2 인스턴스를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 상태 확인을 EC2 인스턴스와 연결합니다.
  • D. EC2 인스턴스 앞에 상태 확인을 통해 Application Load Balancer(ALB)를 생성합니다. Route 53에서 ALB로 이동합니다.
더보기
해설
  • A. 각 EC2 인스턴스에 대해 Route 53 단순 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • B. 각 EC2 인스턴스에 대해 Route 53 장애 조치 라우팅 정책 레코드를 생성합니다. 각 레코드에 상태 확인을 연결합니다.
  • C. EC2 인스턴스를 오리진으로 사용하여 Amazon CloudFront 배포를 생성합니다. 상태 확인을 EC2 인스턴스와 연결합니다.
  • D. EC2 인스턴스 앞에 상태 확인을 통해 Application Load Balancer(ALB)를 생성합니다. Route 53에서 ALB로 이동합니다.

#266


한 회사에는 AWS에서 실행되는 인기 있는 게임 플랫폼이 있습니다. 대기 시간은 사용자 경험에 영향을 미치고 일부 플레이어에게 불공정한 이점을 가져올 수 있으므로 애플리케이션은 대기 시간에 민감합니다. 애플리케이션은 모든 AWS 리전에 배포됩니다. 이는 Application Load Balancer(ALB) 뒤에 구성된 Auto Scaling 그룹의 일부인 Amazon EC2 인스턴스에서 실행됩니다. 솔루션 설계자는 애플리케이션 상태를 모니터링하고 트래픽을 정상 엔드포인트로 리디렉션하는 메커니즘을 구현해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Global Accelerator에서 액셀러레이터를 구성합니다. 애플리케이션이 수신하는 포트에 대한 리스너를 추가하고 이를 각 리전의 리전 엔드포인트에 연결합니다. ALB를 엔드포인트로 추가합니다.
  • B. Amazon CloudFront 배포판을 생성하고 ALB를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • C. Amazon CloudFront 배포를 생성하고 Amazon S3를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • D. 애플리케이션의 데이터 저장소 역할을 하도록 Amazon DynamoDB 데이터베이스를 구성합니다. 애플리케이션 데이터를 호스팅하는 DynamoDB의 인 메모리 캐시 역할을 하는 DynamoDB Accelerator(DAX) 클러스터를 생성합니다.
더보기
해설
  • A. AWS Global Accelerator에서 액셀러레이터를 구성합니다. 애플리케이션이 수신하는 포트에 대한 리스너를 추가하고 이를 각 리전의 리전 엔드포인트에 연결합니다. ALB를 엔드포인트로 추가합니다.
  • B. Amazon CloudFront 배포판을 생성하고 ALB를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • C. Amazon CloudFront 배포를 생성하고 Amazon S3를 오리진 서버로 지정합니다. 원본 캐시 헤더를 사용하도록 캐시 동작을 구성합니다. AWS Lambda 기능을 사용하여 트래픽을 최적화하십시오.
  • D. 애플리케이션의 데이터 저장소 역할을 하도록 Amazon DynamoDB 데이터베이스를 구성합니다. 애플리케이션 데이터를 호스팅하는 DynamoDB의 인 메모리 캐시 역할을 하는 DynamoDB Accelerator(DAX) 클러스터를 생성합니다.

#267


한 회사에 모바일 앱을 사용하는 사용자가 백만 명 있습니다. 회사는 거의 실시간으로 데이터 사용량을 분석해야 합니다. 또한 회사는 거의 실시간으로 데이터를 암호화해야 하며 추가 처리를 위해 중앙 위치에 Apache Parquet 형식으로 데이터를 저장해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다. AWS Lambda 함수를 호출하여 Kinesis Data Analytics 애플리케이션으로 데이터를 보냅니다.
  • B. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다. AWS Lambda 함수를 호출하여 데이터를 EMR 클러스터로 보냅니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다.
  • D. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다.
더보기
해설
  • A. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다. AWS Lambda 함수를 호출하여 Kinesis Data Analytics 애플리케이션으로 데이터를 보냅니다.
  • B. Amazon Kinesis 데이터 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다. AWS Lambda 함수를 호출하여 데이터를 EMR 클러스터로 보냅니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon EMR 클러스터를 생성합니다.
  • D. Amazon Kinesis Data Firehose 전송 스트림을 생성하여 Amazon S3에 데이터를 저장합니다. 데이터를 분석하기 위해 Amazon Kinesis Data Analytics 애플리케이션을 생성합니다.

#268



게임 회사에는 점수를 표시하는 웹 애플리케이션이 있습니다. 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 애플리케이션은 MySQL용 Amazon RDS 데이터베이스에 데이터를 저장합니다. 사용자는 데이터베이스 읽기 성능으로 인해 오랜 지연과 중단을 경험하기 시작했습니다. 회사는 애플리케이션 아키텍처 변경을 최소화하면서 사용자 경험을 개선하기를 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 데이터베이스 앞에 Amazon ElastiCache를 사용하십시오.
  • B. 애플리케이션과 데이터베이스 사이에 RDS Proxy를 사용합니다.
  • C. 애플리케이션을 EC2 인스턴스에서 AWS Lambda로 마이그레이션합니다.
  • D. MySQL용 Amazon RDS에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다
더보기
해설
  • A. 데이터베이스 앞에 Amazon ElastiCache를 사용하십시오.
  • B. 애플리케이션과 데이터베이스 사이에 RDS Proxy를 사용합니다.
  • C. 애플리케이션을 EC2 인스턴스에서 AWS Lambda로 마이그레이션합니다.
  • D. MySQL용 Amazon RDS에서 Amazon DynamoDB로 데이터베이스를 마이그레이션합니다

#270



한 회사는 중앙 집중식 AWS 계정을 사용하여 다양한 Amazon S3 버킷에 로그 데이터를 저장하고 있습니다. 솔루션 설계자는 데이터가 S3 버킷에 업로드되기 전에 데이터가 암호화되어 있는지 확인해야 합니다. 또한 데이터는 전송 중에 암호화되어야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?


  • A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
  • B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다.
  • C. S3 업로드를 위해 S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용해야 하는 버킷 정책을 생성합니다.
  • D. 기본 AWS Key Management Service(AWS KMS) 키를 사용하여 S3 버킷을 암호화하는 보안 옵션을 활성화합니다.
더보기
해설
  • A. 클라이언트 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화하십시오.
  • B. 서버 측 암호화를 사용하여 S3 버킷에 업로드되는 데이터를 암호화합니다.
  • C. S3 업로드를 위해 S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용해야 하는 버킷 정책을 생성합니다.
  • D. 기본 AWS Key Management Service(AWS KMS) 키를 사용하여 S3 버킷을 암호화하는 보안 옵션을 활성화합니다.

#272



한 회사는 ALB(Application Load Balancer) 뒤에 있는 Amazon EC2 인스턴스 집합에서 동적 웹 사이트를 제공합니다. 웹사이트는 전 세계 고객에게 서비스를 제공하기 위해 여러 언어를 지원해야 합니다. 웹 사이트의 아키텍처는 us-west-1 지역에서 실행되고 있으며 세계 다른 지역에 있는 사용자에 대해 높은 요청 지연 시간을 보이고 있습니다.

웹사이트는 사용자의 위치에 관계없이 신속하고 효율적으로 요청을 처리해야 합니다. 그러나 회사는 여러 지역에 걸쳐 기존 아키텍처를 다시 만들고 싶지 않습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 기존 아키텍처를 Amazon S3 버킷에서 제공되는 웹 사이트로 바꾸십시오. S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • B. ALB를 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • C. ALB와 통합된 Amazon API Gateway API를 생성합니다. HTTP 통합 유형을 사용하도록 API를 구성합니다. Accept-Language 요청 헤더를 기반으로 API 캐시를 활성화하도록 API 게이트웨이 단계를 설정합니다.
  • D. 각 추가 지역에서 EC2 인스턴스를 시작하고 해당 지역의 캐시 서버 역할을 하도록 NGINX를 구성합니다. 지리적 위치 라우팅 정책을 사용하여 모든 EC2 인스턴스와 ALB를 Amazon Route 53 레코드 세트 뒤에 배치합니다
더보기
해설
  • A. 기존 아키텍처를 Amazon S3 버킷에서 제공되는 웹 사이트로 바꾸십시오. S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • B. ALB를 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다. Accept-Language 요청 헤더를 기반으로 캐시하도록 캐시 동작 설정을 지정합니다.
  • C. ALB와 통합된 Amazon API Gateway API를 생성합니다. HTTP 통합 유형을 사용하도록 API를 구성합니다. Accept-Language 요청 헤더를 기반으로 API 캐시를 활성화하도록 API 게이트웨이 단계를 설정합니다.
  • D. 각 추가 지역에서 EC2 인스턴스를 시작하고 해당 지역의 캐시 서버 역할을 하도록 NGINX를 구성합니다. 지리적 위치 라우팅 정책을 사용하여 모든 EC2 인스턴스와 ALB를 Amazon Route 53 레코드 세트 뒤에 배치합니다

#275


회사는 내부 브라우저 기반 애플리케이션을 실행합니다. 애플리케이션은 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 업무 시간 동안 최대 20개의 인스턴스로 확장되지만 밤에는 2개의 인스턴스로 축소됩니다. 직원들은 오전 중반까지는 잘 실행되지만, 하루가 시작될 때 애플리케이션이 매우 느리다고 불평하고 있습니다.

직원 불만을 해결하고 비용을 최소로 유지하려면 규모 조정을 어떻게 변경해야 합니까?

  • A. 사무실 개장 직전에 원하는 용량을 20으로 설정하는 예약된 작업을 구현합니다.
  • B. 더 낮은 CPU 임계값에서 트리거되는 단계 조정 작업을 구현하고 휴지 기간을 줄입니다.
  • C. 낮은 CPU 임계값에서 트리거되는 대상 추적 작업을 구현하고 휴지 기간을 줄입니다.
  • D. 사무실 개장 직전에 최소 및 최대 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다
 
더보기
해설
  • A. 사무실 개장 직전에 원하는 용량을 20으로 설정하는 예약된 작업을 구현합니다.
  • B. 더 낮은 CPU 임계값에서 트리거되는 단계 조정 작업을 구현하고 휴지 기간을 줄입니다.
  • C. 낮은 CPU 임계값에서 트리거되는 대상 추적 작업을 구현하고 휴지 기간을 줄입니다.
  • D. 사무실 개장 직전에 최소 및 최대 수용 인원을 20명으로 설정하는 예약된 작업을 구현합니다.
 

#278



회사에서는 직원 데이터를 계층적 구조 관계로 저장하는 애플리케이션을 만들고 싶어합니다. 회사는 직원 데이터에 대한 트래픽이 많은 쿼리에 대한 응답 시간을 최소화하고 민감한 데이터를 보호해야 합니다. 또한 직원 데이터에 재무 정보가 있는 경우 회사는 월별 이메일 메시지를 받아야 합니다.

이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Redshift를 사용하여 직원 데이터를 계층 구조로 저장하십시오. 매달 Amazon S3에 데이터를 언로드합니다.
  • B. Amazon DynamoDB를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매달 데이터를 Amazon S3로 내보냅니다.
  • C. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 월별 이벤트를 AWS Lambda로 보냅니다.
  • D. Amazon Athena를 사용하여 Amazon S3의 직원 데이터를 분석합니다. Athena를 Amazon QuickSight와 통합하여 분석 대시보드를 게시하고 대시보드를 사용자와 공유합니다.
  • E. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 Amazon Simple 알림 서비스(Amazon SNS) 구독을 통해 월별 알림을 보냅니다.
더보기
해설
  • A. Amazon Redshift를 사용하여 직원 데이터를 계층 구조로 저장하십시오. 매달 Amazon S3에 데이터를 언로드합니다.
  • B. Amazon DynamoDB를 사용하여 직원 데이터를 계층 구조로 저장합니다. 매달 데이터를 Amazon S3로 내보냅니다.
  • C. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 월별 이벤트를 AWS Lambda로 보냅니다.
  • D. Amazon Athena를 사용하여 Amazon S3의 직원 데이터를 분석합니다. Athena를 Amazon QuickSight와 통합하여 분석 대시보드를 게시하고 대시보드를 사용자와 공유합니다.
  • E. AWS 계정에 대해 Amazon Macie를 구성합니다. Macie를 Amazon EventBridge와 통합하여 Amazon Simple 알림 서비스(Amazon SNS) 구독을 통해 월별 알림을 보냅니다.

#281


한 회사는 PostgreSQL DB 인스턴스용 Amazon RDS를 사용하여 여러 웹 서버를 운영하고 있습니다. 정기적인 규정 준수 검사 후 회사는 모든 프로덕션 데이터베이스에 대해 1초 미만의 RPO(복구 지점 목표)를 요구하는 표준을 설정합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. DB 인스턴스에 대한 다중 AZ 배포를 활성화합니다.
  • B. 하나의 가용 영역에서 DB 인스턴스에 대한 Auto Scaling을 활성화합니다.
  • C. 하나의 가용 영역에 DB 인스턴스를 구성하고 별도의 가용 영역에 여러 읽기 전용 복제본을 생성합니다.
  • D. 하나의 가용 영역에서 DB 인스턴스를 구성하고 AWS DMS(AWS Database Migration Service) 변경 데이터 캡처(CDC) 작업을 구성합니다.
더보기
해설
  • A. DB 인스턴스에 대한 다중 AZ 배포를 활성화합니다.
  • B. 하나의 가용 영역에서 DB 인스턴스에 대한 Auto Scaling을 활성화합니다.
  • C. 하나의 가용 영역에 DB 인스턴스를 구성하고 별도의 가용 영역에 여러 읽기 전용 복제본을 생성합니다.
  • D. 하나의 가용 영역에서 DB 인스턴스를 구성하고 AWS DMS(AWS Database Migration Service) 변경 데이터 캡처(CDC) 작업을 구성합니다.

#283



한 연구 회사에서는 시뮬레이션 애플리케이션과 시각화 애플리케이션을 기반으로 실험을 실행합니다. 시뮬레이션 애플리케이션은 Linux에서 실행되며 5분마다 NFS 공유에 중간 데이터를 출력합니다. 시각화 응용 프로그램은 시뮬레이션 출력을 표시하는 Windows 데스크톱 응용 프로그램이며 SMB 파일 시스템이 필요합니다.

회사는 두 개의 동기화된 파일 시스템을 유지 관리합니다. 이 전략은 데이터 중복과 비효율적인 리소스 사용을 초래합니다. 회사는 애플리케이션의 코드를 변경하지 않고 애플리케이션을 AWS로 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 두 애플리케이션을 모두 AWS Lambda로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하기 위해 Amazon S3 버킷을 생성합니다.
  • B. 두 애플리케이션을 모두 Amazon Elastic Container Service(Amazon ECS)로 마이그레이션합니다. 스토리지를 위해 Amazon FSx 파일 게이트웨이를 구성합니다.
  • C. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하도록 Amazon Simple Queue Service(Amazon SQS)를 구성합니다.
  • D. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 스토리지를 위해 NetApp ONTAP용 Amazon FSx를 구성합니다.
더보기
해설
  • A. 두 애플리케이션을 모두 AWS Lambda로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하기 위해 Amazon S3 버킷을 생성합니다.
  • B. 두 애플리케이션을 모두 Amazon Elastic Container Service(Amazon ECS)로 마이그레이션합니다. 스토리지를 위해 Amazon FSx 파일 게이트웨이를 구성합니다.
  • C. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 애플리케이션 간에 데이터를 교환하도록 Amazon Simple Queue Service(Amazon SQS)를 구성합니다.
  • D. 시뮬레이션 애플리케이션을 Linux Amazon EC2 인스턴스로 마이그레이션합니다. 시각화 애플리케이션을 Windows EC2 인스턴스로 마이그레이션합니다. 스토리지를 위해 NetApp ONTAP용 Amazon FSx를 구성합니다.

#285



회사는 Amazon S3를 사용하여 정적 웹 사이트를 호스팅합니다. 회사는 웹페이지에 문의 양식을 추가하려고 합니다. 문의 양식에는 사용자가 이름, 이메일 주소, 전화번호 및 사용자 메시지를 입력할 수 있는 동적 서버측 구성 요소가 있습니다. 회사에서는 매월 사이트 방문 횟수가 100회 미만이 될 것으로 예상하고 있습니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Amazon Elastic Container Service(Amazon ECS)에서 동적 문의 양식 페이지를 호스팅합니다. 타사 이메일 공급자에 연결하려면 Amazon Simple Email Service(Amazon SES)를 설정하세요.
  • B. Amazon Simple Email Service(Amazon SES)를 호출하는 AWS Lambda 백엔드로 Amazon API Gateway 엔드포인트를 생성합니다.
  • C. Amazon Lightsail을 배포하여 정적 웹 페이지를 동적으로 변환합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다.
  • D. t2.micro Amazon EC2 인스턴스를 생성합니다. LAMP(Linux, Apache, MySQL, PHP/Perl/Python) 스택을 배포하여 웹페이지를 호스팅합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다
더보기
해설
  • A. Amazon Elastic Container Service(Amazon ECS)에서 동적 문의 양식 페이지를 호스팅합니다. 타사 이메일 공급자에 연결하려면 Amazon Simple Email Service(Amazon SES)를 설정하세요.
  • B. Amazon Simple Email Service(Amazon SES)를 호출하는 AWS Lambda 백엔드로 Amazon API Gateway 엔드포인트를 생성합니다.
  • C. Amazon Lightsail을 배포하여 정적 웹 페이지를 동적으로 변환합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다.
  • D. t2.micro Amazon EC2 인스턴스를 생성합니다. LAMP(Linux, Apache, MySQL, PHP/Perl/Python) 스택을 배포하여 웹페이지를 호스팅합니다. 클라이언트측 스크립팅을 사용하여 문의 양식을 작성합니다. 양식을 Amazon WorkMail과 통합합니다

#286



회사에는 Amazon S3 앞의 Amazon CloudFront에 호스팅되는 정적 웹 사이트가 있습니다. 정적 웹사이트는 데이터베이스 백엔드를 사용합니다. 회사는 웹사이트의 Git 저장소에서 이루어진 업데이트가 웹사이트에 반영되지 않음을 확인했습니다. 회사는 Git 리포지토리와 Amazon S3 간의 지속적인 통합 및 지속적인 전달(CI/CD) 파이프라인을 확인합니다. 회사에서는 웹후크가 올바르게 구성되었는지, CI/CD 파이프라인이 성공적인 배포를 나타내는 메시지를 보내고 있는지 확인합니다.

솔루션 아키텍트는 웹 사이트에 업데이트를 표시하는 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Application Load Balancer를 추가합니다.
  • B. 웹 애플리케이션의 데이터베이스 계층에 Redis 또는 Memcached용 Amazon ElastiCache를 추가합니다.
  • C. CloudFront 캐시를 무효화합니다.
  • D. ACM(AWS Certificate Manager)을 사용하여 웹사이트의 SSL 인증서를 검증합니다.
더보기
해설
  • A. Application Load Balancer를 추가합니다.
  • B. 웹 애플리케이션의 데이터베이스 계층에 Redis 또는 Memcached용 Amazon ElastiCache를 추가합니다.
  • C. CloudFront 캐시를 무효화합니다.
  • D. ACM(AWS Certificate Manager)을 사용하여 웹사이트의 SSL 인증서를 검증합니다.

#287



회사는 Windows 기반 애플리케이션을 온프레미스에서 AWS 클라우드로 마이그레이션하려고 합니다. 애플리케이션에는 애플리케이션 계층, 비즈니스 계층, Microsoft SQL Server가 포함된 데이터베이스 계층이라는 세 가지 계층이 있습니다. 회사는 기본 백업 및 데이터 품질 서비스와 같은 SQL Server의 특정 기능을 사용하려고 합니다. 또한 회사는 계층 간 처리를 위해 파일을 공유해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 아키텍처를 어떻게 설계해야 합니까?

  • A. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx 파일 게이트웨이를 사용합니다.
  • B. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx for Windows File Server를 사용합니다.
  • C. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 Amazon Elastic File System(Amazon EFS)을 사용합니다.
  • D. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용합니다
더보기
해설
  • A. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx 파일 게이트웨이를 사용합니다.
  • B. Amazon EC2 인스턴스에서 세 계층을 모두 호스팅합니다. 계층 간 파일 공유를 위해 Amazon FSx for Windows File Server를 사용합니다.
  • C. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 Amazon Elastic File System(Amazon EFS)을 사용합니다.
  • D. Amazon EC2 인스턴스에서 애플리케이션 계층과 비즈니스 계층을 호스팅합니다. Amazon RDS에서 데이터베이스 계층을 호스팅합니다. 계층 간 파일 공유를 위해 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용합니다

#288



한 회사가 Linux 기반 웹 서버 그룹을 AWS로 마이그레이션하고 있습니다. 웹 서버는 일부 콘텐츠에 대해 공유 파일 저장소의 파일에 액세스해야 합니다. 회사는 신청서를 변경해서는 안 됩니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.
  • B. Amazon S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 모든 웹 서버에 EFS 파일 시스템을 탑재합니다.
  • D. 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 구성합니다. 모든 웹 서버에 EBS 볼륨을 마운트합니다.
더보기
해설
  • A. 웹 서버에 액세스할 수 있는 Amazon S3 Standard 버킷을 생성합니다.
  • B. Amazon S3 버킷을 원본으로 사용하여 Amazon CloudFront 배포를 구성합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성합니다. 모든 웹 서버에 EFS 파일 시스템을 탑재합니다.
  • D. 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨을 구성합니다. 모든 웹 서버에 EBS 볼륨을 마운트합니다.

#292



한 회사는 여러 소스에서 실시간 스트리밍 데이터를 수집할 새로운 데이터 플랫폼을 준비하고 있습니다. 회사는 Amazon S3에 데이터를 쓰기 전에 데이터를 변환해야 합니다. 회사에서는 SQL을 사용하여 변환된 데이터를 쿼리할 수 있는 능력이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍하십시오. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • D. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다
더보기
해설
  • A. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍하십시오. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • B. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다. Amazon EMR을 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon Athena를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • D. Amazon Managed Streaming for Apache Kafka(Amazon MSK)를 사용하여 데이터를 스트리밍합니다. Amazon Kinesis Data Analytics를 사용하여 데이터를 변환하고 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다.
  • E. Amazon Kinesis Data Streams를 사용하여 데이터를 스트리밍합니다. AWS Glue를 사용하여 데이터를 변환합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3에 데이터를 씁니다. Amazon RDS 쿼리 편집기를 사용하여 Amazon S3에서 변환된 데이터를 쿼리합니다

#293



회사에 수명이 다한 온프레미스 볼륨 백업 솔루션이 있습니다. 회사는 AWS를 새로운 백업 솔루션의 일부로 사용하고 AWS에 백업되는 동안 모든 데이터에 대한 로컬 액세스를 유지하려고 합니다. 회사는 AWS에 백업된 데이터가 자동으로 안전하게 전송되기를 원합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Snowball을 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션하십시오. 데이터에 대한 로컬 액세스를 제공하기 위해 Snowball S3 엔드포인트를 탑재하도록 온프레미스 시스템을 구성합니다.
  • B. AWS Snowball Edge를 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
  • C. AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. Storage Gateway 소프트웨어 어플라이언스를 온프레미스에서 실행하고 로컬로 캐시할 데이터 비율을 구성합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
  • D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
더보기
해설
  • A. AWS Snowball을 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션하십시오. 데이터에 대한 로컬 액세스를 제공하기 위해 Snowball S3 엔드포인트를 탑재하도록 온프레미스 시스템을 구성합니다.
  • B. AWS Snowball Edge를 사용하여 온프레미스 솔루션의 데이터를 Amazon S3로 마이그레이션합니다. Snowball Edge 파일 인터페이스를 사용하여 온프레미스 시스템에 데이터에 대한 로컬 액세스를 제공합니다.
  • C. AWS Storage Gateway를 사용하고 캐시된 볼륨 게이트웨이를 구성합니다. Storage Gateway 소프트웨어 어플라이언스를 온프레미스에서 실행하고 로컬로 캐시할 데이터 비율을 구성합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.
  • D. AWS Storage Gateway를 사용하고 저장된 볼륨 게이트웨이를 구성합니다. 온프레미스에서 Storage Gateway 소프트웨어 어플라이언스를 실행하고 게이트웨이 스토리지 볼륨을 온프레미스 스토리지에 매핑합니다. 데이터에 대한 로컬 액세스를 제공하기 위해 게이트웨이 스토리지 볼륨을 마운트합니다.

#295



전자 상거래 회사는 AWS 클라우드에 테라바이트 규모의 고객 데이터를 저장합니다. 데이터에는 개인 식별 정보(PII)가 포함되어 있습니다. 회사는 세 가지 애플리케이션에서 데이터를 사용하려고 합니다. 애플리케이션 중 하나만 PII를 처리해야 합니다. 다른 두 애플리케이션이 데이터를 처리하기 전에 PII를 제거해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리하는 프록시 애플리케이션 계층을 만듭니다.
  • B. Amazon S3 버킷에 데이터를 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.
  • C. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 S3 버킷을 가리키도록 합니다.
  • D. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 DynamoDB 테이블을 가리키도록 합니다.
더보기
해설
  • A. Amazon DynamoDB 테이블에 데이터를 저장합니다. 각 애플리케이션이 요청하는 데이터를 가로채서 처리하는 프록시 애플리케이션 계층을 만듭니다.
  • B. Amazon S3 버킷에 데이터를 저장합니다. 요청 애플리케이션에 데이터를 반환하기 전에 S3 객체 Lambda를 사용하여 데이터를 처리하고 변환합니다.
  • C. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon S3 버킷에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 S3 버킷을 가리키도록 합니다.
  • D. 데이터를 처리하고 변환된 데이터를 3개의 별도 Amazon DynamoDB 테이블에 저장하여 각 애플리케이션이 고유한 사용자 지정 데이터 세트를 갖도록 합니다. 각 애플리케이션이 해당 DynamoDB 테이블을 가리키도록 합니다.

#296



개발 팀은 개발 VPC 내부의 Amazon EC2 인스턴스에서 호스팅되는 새로운 애플리케이션을 출시했습니다. 솔루션 아키텍트는 동일한 계정에 새 VPC를 생성해야 합니다. 새 VPC는 ​​개발 VPC와 피어링됩니다. 개발 VPC의 VPC CIDR 블록은 192.168.0.0/24입니다. 솔루션 아키텍트는 새 VPC에 대한 CIDR 블록을 생성해야 합니다. CIDR 블록은 개발 VPC에 대한 VPC 피어링 연결에 유효해야 합니다.

이러한 요구 사항을 충족하는 가장 작은 CIDR 블록은 무엇입니까?

  • A.10.0.1.0 /32
  • B. 192.168.0.0/24
  • C.192.168.1.0 /32
  • D.10.0.1.0 /24
더보기
해설
  • A.10.0.1.0 /32
  • B. 192.168.0.0/24
  • C.192.168.1.0 /32
  • D.10.0.1.0 /24

#298



한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 중요한 비즈니스 애플리케이션을 실행하고 있습니다. EC2 인스턴스는 Auto Scaling 그룹에서 실행되며 Amazon RDS DB 인스턴스에 액세스합니다.

EC2 인스턴스와 DB 인스턴스가 모두 단일 가용 영역에 위치하므로 설계가 운영 검토를 통과하지 못했습니다. 솔루션 아키텍트는 두 번째 가용 영역을 사용하도록 설계를 업데이트해야 합니다.

애플리케이션의 가용성을 높이는 솔루션은 무엇입니까?

  • A. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • B. 두 가용 영역에 걸쳐 확장되는 두 개의 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • C. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
  • D. 두 가용 영역 모두에 걸쳐 확장되는 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
더보기
해설
  • A. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • B. 두 가용 영역에 걸쳐 확장되는 두 개의 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 각 네트워크에 대한 연결을 사용하여 DB 인스턴스를 구성합니다.
  • C. 각 가용 영역에 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.
  • D. 두 가용 영역 모두에 걸쳐 확장되는 서브넷을 프로비저닝합니다. 두 가용 영역에 걸쳐 EC2 인스턴스를 배포하도록 Auto Scaling 그룹을 구성합니다. 다중 AZ 배포를 위해 DB 인스턴스를 구성합니다.

#299



연구실에서는 약 8TB의 데이터를 처리해야 합니다. 실험실에서는 스토리지 하위 시스템에 대해 밀리초 미만의 대기 시간과 최소 6GBps의 처리량을 요구합니다. Amazon Linux를 실행하는 수백 개의 Amazon EC2 인스턴스가 데이터를 배포하고 처리합니다.

어떤 솔루션이 성능 요구 사항을 충족합니까?

  • A. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 ALL로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 탑재합니다.
  • B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Lustre용 Amazon FSx 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • C. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 HDD 스토리지를 사용하는 Lustre 파일 시스템용 Amazon FSx를 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • D. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 NONE으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
더보기
해설
  • A. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 ALL로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 fila 시스템을 탑재합니다.
  • B. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 SSD 스토리지를 사용하는 Lustre용 Amazon FSx 파일 시스템을 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • C. 원시 데이터를 저장할 Amazon S3 버킷을 생성합니다. 영구 HDD 스토리지를 사용하는 Lustre 파일 시스템용 Amazon FSx를 생성합니다. Amazon S3에서 데이터를 가져오고 Amazon S3로 내보내는 옵션을 선택합니다. EC2 인스턴스에 파일 시스템을 탑재합니다.
  • D. NetApp ONTAP 파일 시스템용 Amazon FSx를 생성합니다. 각 볼륨의 계층화 정책을 NONE으로 설정합니다. 원시 데이터를 파일 시스템으로 가져옵니다. EC2 인스턴스에 파일 시스템을 탑재합니다.

#300



회사는 하드웨어 용량 제약으로 인해 온프레미스 데이터 센터에서 AWS 클라우드로 레거시 애플리케이션을 마이그레이션해야 합니다. 애플리케이션은 하루 24시간, 일주일 내내 실행됩니다. 애플리케이션의 데이터베이스 스토리지는 시간이 지남에 따라 계속해서 증가합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 애플리케이션 계층을 Amazon EC2 스팟 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
  • B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
  • C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.
  • D. 애플리케이션 계층을 Amazon EC2 온디맨드 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 예약 인스턴스로 마이그레이션합니다.
더보기
해설
  • A. 애플리케이션 계층을 Amazon EC2 스팟 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon S3로 마이그레이션합니다.
  • B. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 온디맨드 인스턴스로 마이그레이션합니다.
  • C. 애플리케이션 계층을 Amazon EC2 예약 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon Aurora 예약 인스턴스로 마이그레이션합니다.
  • D. 애플리케이션 계층을 Amazon EC2 온디맨드 인스턴스로 마이그레이션합니다. 데이터 스토리지 계층을 Amazon RDS 예약 인스턴스로 마이그레이션합니다.

 

728x90
728x90

*틀린 문제 위주로 정리

#101

솔루션 아키텍트는 퍼블릭 및 프라이빗 서브넷이 있는 VPC를 설계하고 있습니다. VPC와 서브넷은 IPv4 CIDR 블록을 사용합니다. 고가용성을 위해 3개의 가용 영역(AZ) 각각에 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 있습니다. 인터넷 게이트웨이는 퍼블릭 서브넷에 대한 인터넷 액세스를 제공하는 데 사용됩니다. Amazon EC2 인스턴스가 소프트웨어 업데이트를 다운로드하려면 프라이빗 서브넷에 인터넷 액세스가 필요합니다.
프라이빗 서브넷에 대한 인터넷 액세스를 활성화하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. 각 AZ의 각 퍼블릭 서브넷마다 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
  • B. 각 AZ의 각 프라이빗 서브넷마다 하나씩 3개의 NAT 인스턴스를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
  • C. 프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 프라이빗 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
  • D. 퍼블릭 서브넷 중 하나에 외부 전용 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 외부 전용 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
더보기
해설
  • A. 각 AZ의 각 퍼블릭 서브넷마다 하나씩 3개의 NAT 게이트웨이를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 게이트웨이로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
  • B. 각 AZ의 각 프라이빗 서브넷마다 하나씩 3개의 NAT 인스턴스를 생성합니다. 비VPC 트래픽을 해당 AZ의 NAT 인스턴스로 전달하는 각 AZ에 대해 프라이빗 라우팅 테이블을 생성합니다.
  • C. 프라이빗 서브넷 중 하나에 두 번째 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 프라이빗 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.
  • D. 퍼블릭 서브넷 중 하나에 외부 전용 인터넷 게이트웨이를 생성합니다. 비VPC 트래픽을 외부 전용 인터넷 게이트웨이로 전달하는 프라이빗 서브넷의 라우팅 테이블을 업데이트합니다.

 


#102★


회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 데이터 센터는 NFS 기반 파일 시스템에 데이터를 저장하는 SFTP 서버를 호스팅합니다. 서버에는 전송해야 하는 200GB의 데이터가 저장되어 있습니다. 서버는 Amazon Elastic File System(Amazon EFS) 파일 시스템을 사용하는 Amazon EC2 인스턴스에서 호스팅되어야 합니다.
솔루션 설계자가 이 작업을 자동화하려면 어떤 단계 조합을 수행해야 합니까? (2개를 선택하세요.)

  • A. EFS 파일 시스템과 동일한 가용 영역에서 EC2 인스턴스를 시작합니다.
  • B. 온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
  • C. EC2 인스턴스에 데이터용 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
  • D. 운영 체제 복사 명령을 수동으로 사용하여 데이터를 EC2 인스턴스에 푸시합니다.
  • E. AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.
더보기
해설
  • A. EFS 파일 시스템과 동일한 가용 영역에서 EC2 인스턴스를 시작합니다.
  • B. 온프레미스 데이터 센터에 AWS DataSync 에이전트를 설치합니다.
  • C. EC2 인스턴스에 데이터용 보조 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다.
  • D. 운영 체제 복사 명령을 수동으로 사용하여 데이터를 EC2 인스턴스에 푸시합니다.
  • E. AWS DataSync를 사용하여 온프레미스 SFTP 서버에 적합한 위치 구성을 생성합니다.


EFS 파일 시스템을 사용하여

온프레미스 SFTP 서버에서 EC2 인스턴스로 데이터를 전송하는 프로세스를 자동화하는 것과 직접적인 관련이 없음

Datasync

https://aws.amazon.com/datasync/getting-started/?nc1=h_ls


#103

.
회사에는 매일 동시에 실행되는 AWS Glue ETL(추출, 변환 및 로드) 작업이 있습니다. 작업은 Amazon S3 버킷에 있는 XML 데이터를 처리합니다. 매일 S3 버킷에 새로운 데이터가 추가됩니다. 솔루션 아키텍트는 AWS Glue가 각 실행 중에 모든 데이터를 처리하고 있음을 확인합니다.
AWS Glue가 오래된 데이터를 재처리하는 것을 방지하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. 작업 북마크를 사용하도록 작업을 편집합니다.
  • B. 데이터 처리 후 데이터를 삭제하도록 작업을 편집합니다.
  • C. NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
  • D. FindMatches 기계 학습(ML) 변환을 사용합니다.
더보기
해설
  • A. 작업 북마크를 사용하도록 작업을 편집합니다.
  • B. 데이터 처리 후 데이터를 삭제하도록 작업을 편집합니다.
  • C. NumberOfWorkers 필드를 1로 설정하여 작업을 편집합니다.
  • D. FindMatches 기계 학습(ML) 변환을 사용합니다.

 


#104

.
솔루션 설계자는 웹사이트를 위한 고가용성 인프라를 설계해야 합니다. 이 웹 사이트는 Amazon EC2 인스턴스에서 실행되는 Windows 웹 서버로 구동됩니다. 솔루션 설계자는 수천 개의 IP 주소에서 발생하는 대규모 DDoS 공격을 완화할 수 있는 솔루션을 구현해야 합니다. 웹사이트의 다운타임은 허용되지 않습니다.
그러한 공격으로부터 웹사이트를 보호하기 위해 솔루션 설계자는 어떤 조치를 취해야 합니까? (2개를 선택하세요.)

  • A. DDoS 공격을 중지하려면 AWS Shield Advanced를 사용하십시오.
  • B. 공격자를 자동으로 차단하도록 Amazon GuardDuty를 구성합니다.
  • C. 정적 콘텐츠와 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹 사이트를 구성합니다.
  • D. AWS Lambda 함수를 사용하여 공격자 IP 주소를 VPC 네트워크 ACL에 자동으로 추가합니다.
  • E. 80% CPU 사용률로 설정된 대상 추적 조정 정책과 함께 Auto Scaling 그룹의 EC2 스팟 인스턴스를 사용합니다.
더보기
해설
  • A. DDoS 공격을 중지하려면 AWS Shield Advanced를 사용하십시오.
  • B. 공격자를 자동으로 차단하도록 Amazon GuardDuty를 구성합니다.
  • C. 정적 콘텐츠와 동적 콘텐츠 모두에 Amazon CloudFront를 사용하도록 웹 사이트를 구성합니다.
  • D. AWS Lambda 함수를 사용하여 공격자 IP 주소를 VPC 네트워크 ACL에 자동으로 추가합니다.
  • E. 80% CPU 사용률로 설정된 대상 추적 조정 정책과 함께 Auto Scaling 그룹의 EC2 스팟 인스턴스를 사용합니다.

 


#106★

.
한 회사가 Amazon S3에 기밀 데이터를 저장할 준비를 하고 있습니다. 규정 준수를 위해 저장 데이터는 암호화되어야 합니다. 암호화 키 사용은 감사 목적으로 기록되어야 합니다. 열쇠는 매년 교체해야 합니다.
이러한 요구 사항을 충족하고 운영상 가장 효율적인 솔루션은 무엇입니까?

  • A. 고객 제공 키를 사용한 서버 측 암호화(SSE-C)
  • B. Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
  • C. 수동 교체를 통한 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
  • D. 자동 교체 기능이 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
더보기
해설
  • A. 고객 제공 키를 사용한 서버 측 암호화(SSE-C)
  • B. Amazon S3 관리형 키(SSE-S3)를 사용한 서버 측 암호화
  • C. 수동 교체를 통한 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화
  • D. 자동 교체 기능이 있는 AWS KMS 키(SSE-KMS)를 사용한 서버 측 암호화

https://aws.amazon.com/kms/faqs/#:~:text=You%20can%20choose%20to%20have%

https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html

B => 키 교체 또는 키 사용 로깅을 허용하지 않음


#107★

.
자전거 공유 회사는 피크 운영 시간 동안 자전거 위치를 추적하기 위해 다계층 아키텍처를 개발하고 있습니다. 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 설계자는 이 아키텍처를 지원하기 위해 가장 실행 가능한 다중 계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.
위치 데이터를 저장하고 검색하기 위한 이러한 요구 사항을 충족하는 작업은 무엇입니까?


  • A. Amazon S3와 함께 Amazon Athena를 사용하세요.
  • B. AWS Lambda와 함께 Amazon API Gateway를 사용하십시오.
  • C. Amazon Redshift와 함께 Amazon QuickSight를 사용하십시오.
  • D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용하십시오.
더보기
해설
  • A. Amazon S3와 함께 Amazon Athena를 사용하세요.
  • B. AWS Lambda와 함께 Amazon API Gateway를 사용하십시오.
  • C. Amazon Redshift와 함께 Amazon QuickSight를 사용하십시오.
  • D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용하십시오.

B와D

AWS Lambda는 이벤트에 대한 응답으로 코드를 실행할 수 있는 서버리스 컴퓨팅 서비스이지만 데이터를 저장하거나 검색하는 방법을 제공하지 않음 => 스토리지 

Kinesis Data Analytics는 데이터를 암시적으로 저장하지만 "저장"용은 아님

A

Athena는 REST API 액세스지원 https://docs.aws.amazon.com/athena/latest/APIReference/Welcome.html


#108★

.
한 회사에 Amazon RDS의 데이터베이스에 목록을 저장하는 자동차 판매 웹사이트가 있습니다. 자동차가 판매되면 목록이 웹사이트에서 제거되어야 하며 데이터는 여러 대상 시스템으로 전송되어야 합니다.
솔루션 아키텍트는 어떤 디자인을 추천해야 할까요?

  • A. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) 대기열에 정보를 보냅니다.
  • B. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 정보를 보냅니다.
  • C. RDS 이벤트 알림을 구독하고 Amazon Simple Queue Service(Amazon SQS) 대기열을 여러 Amazon Simple Notification Service(Amazon SNS) 주제로 팬아웃하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
  • D. RDS 이벤트 알림을 구독하고 여러 Amazon Simple Queue Service(Amazon SQS) 대기열에 팬아웃된 Amazon Simple 알림 서비스(Amazon SNS) 주제를 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
더보기
해설
  • A. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) 대기열에 정보를 보냅니다.
  • B. Amazon RDS의 데이터베이스가 업데이트될 때 트리거되는 AWS Lambda 함수를 생성하여 대상이 사용할 Amazon Simple Queue Service(Amazon SQS) FIFO 대기열에 정보를 보냅니다.
  • C. RDS 이벤트 알림을 구독하고 Amazon Simple Queue Service(Amazon SQS) 대기열을 여러 Amazon Simple Notification Service(Amazon SNS) 주제로 팬아웃하여 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.
  • D. RDS 이벤트 알림을 구독하고 여러 Amazon Simple Queue Service(Amazon SQS) 대기열에 팬아웃된 Amazon Simple 알림 서비스(Amazon SNS) 주제를 보냅니다. AWS Lambda 함수를 사용하여 대상을 업데이트합니다.

https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_Events.overview.html

 


#109★

.
회사는 Amazon S3에 데이터를 저장해야 하며 데이터가 변경되는 것을 방지해야 합니다. 회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 불특정 시간 동안 변경 불가능한 상태로 유지되기를 원합니다. 회사 AWS 계정의 특정 사용자만 객체를 삭제할 수 있는 권한을 가질 수 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. S3 Glacier 볼트를 생성합니다. WORM(Write-Once, Read-Many) 저장소 잠금 정책을 객체에 적용합니다.
  • B. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 보존 기간을 100년으로 설정합니다. 새 객체에 대한 S3 버킷의 기본 보존 모드로 거버넌스 모드를 사용합니다.
  • C. S3 버킷을 생성합니다. AWS CloudTrail을 사용하여 객체를 수정하는 S3 API 이벤트를 추적합니다. 알림을 받으면 회사가 보유하고 있는 백업 버전에서 수정된 개체를 복원합니다.
  • D. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 객체에 법적 보존을 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.
더보기
해설
  • A. S3 Glacier 볼트를 생성합니다. WORM(Write-Once, Read-Many) 저장소 잠금 정책을 객체에 적용합니다.
  • B. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 보존 기간을 100년으로 설정합니다. 새 객체에 대한 S3 버킷의 기본 보존 모드로 거버넌스 모드를 사용합니다.
  • C. S3 버킷을 생성합니다. AWS CloudTrail을 사용하여 객체를 수정하는 S3 API 이벤트를 추적합니다. 알림을 받으면 회사가 보유하고 있는 백업 버전에서 수정된 개체를 복원합니다.
  • D. S3 객체 잠금이 활성화된 S3 버킷을 생성합니다. 버전 관리를 활성화합니다. 객체에 법적 보존을 추가합니다. 객체를 삭제해야 하는 사용자의 IAM 정책에 s3:PutObjectLegalHold 권한을 추가합니다.

"회사는 Amazon S3에 업로드된 새 객체가 회사가 객체를 수정하기로 결정할 때까지 불특정 기간 동안 변경 불가능한 상태로 유지되기를 원합니다." = 법적 보존은 객체 버전을 덮어쓰거나 삭제하는 것을 방지

법적 보존에는 관련 보존 기간이 없으며 제거될 때까지 유효

객체에서 법적 보존을 추가하거나 제거하려면 IAM 역할에 s3:PutObjectLegalHold 권한이 필요

https://docs.aws.amazon.com/AmazonS3/latest/userguide/batch-ops-legal-hold.html


#110⭐

.
한 소셜 미디어 회사에서는 사용자가 자사 웹사이트에 이미지를 업로드할 수 있도록 허용합니다. 웹사이트는 Amazon EC2 인스턴스에서 실행됩니다. 업로드 요청 중에 웹 사이트는 이미지 크기를 표준 크기로 조정하고 크기 조정된 이미지를 Amazon S3에 저장합니다. 사용자의 웹사이트 업로드 요청 속도가 느려지고 있습니다.
회사는 애플리케이션 내 결합을 줄이고 웹사이트 성능을 개선해야 합니다. 솔루션 설계자는 이미지 업로드를 위해 운영상 가장 효율적인 프로세스를 설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • B. 원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성합니다.
  • C. 미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 직접 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • D. 이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 이 기능을 사용하여 이미지 크기를 조정하세요.
  • E. 업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
더보기
해설
  • A. S3 Glacier에 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • B. 원본 이미지를 Amazon S3에 업로드하도록 웹 서버를 구성합니다.
  • C. 미리 서명된 URL을 사용하여 각 사용자의 브라우저에서 Amazon S3로 직접 이미지를 업로드하도록 애플리케이션을 구성합니다.
  • D. 이미지가 업로드될 때 AWS Lambda 함수를 호출하도록 S3 이벤트 알림을 구성합니다. 이 기능을 사용하여 이미지 크기를 조정하세요.
  • E. 업로드된 이미지의 크기를 조정하기 위해 일정에 따라 AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.

 B랑C중에 답이 계속갈림

https://docs.aws.amazon.com/AmazonS3/latest/userguide/PresignedUrlUploadObject.html

 

 


#112

.
회사는 들어오는 요청을 처리하는 온프레미스 서버 집합에서 컨테이너화된 웹 애플리케이션을 호스팅합니다. 요청 건수가 빠르게 증가하고 있습니다. 온프레미스 서버는 증가된 요청 수를 처리할 수 없습니다. 회사는 최소한의 코드 변경과 최소한의 개발 노력으로 애플리케이션을 AWS로 이전하기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon Elastic Container Service(Amazon ECS)에서 AWS Fargate를 사용하여 Service Auto Scaling으로 컨테이너화된 웹 애플리케이션을 실행하세요. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
  • B. 두 개의 Amazon EC2 인스턴스를 사용하여 컨테이너화된 웹 애플리케이션을 호스팅합니다. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
  • C. 지원되는 언어 중 하나를 사용하는 새 코드와 함께 AWS Lambda를 사용하십시오. 로드를 지원하는 여러 Lambda 함수를 생성합니다. Amazon API Gateway를 Lambda 함수의 진입점으로 사용합니다.
  • D. AWS ParallelCluster와 같은 고성능 컴퓨팅(HPC) 솔루션을 사용하여 적절한 규모로 들어오는 요청을 처리할 수 있는 HPC 클러스터를 구축합니다
더보기
해설
  • A. Amazon Elastic Container Service(Amazon ECS)에서 AWS Fargate를 사용하여 Service Auto Scaling으로 컨테이너화된 웹 애플리케이션을 실행하세요. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
  • B. 두 개의 Amazon EC2 인스턴스를 사용하여 컨테이너화된 웹 애플리케이션을 호스팅합니다. Application Load Balancer를 사용하여 수신 요청을 분산합니다.
  • C. 지원되는 언어 중 하나를 사용하는 새 코드와 함께 AWS Lambda를 사용하십시오. 로드를 지원하는 여러 Lambda 함수를 생성합니다. Amazon API Gateway를 Lambda 함수의 진입점으로 사용합니다.
  • D. AWS ParallelCluster와 같은 고성능 컴퓨팅(HPC) 솔루션을 사용하여 적절한 규모로 들어오는 요청을 처리할 수 있는 HPC 클러스터를 구축합니다

 


#114⭐

.
한 회사는 사용자가 사진을 업로드하고 이미지에 액자를 추가할 수 있는 이미지 분석 애플리케이션을 만들었습니다. 사용자는 이미지와 메타데이터를 업로드하여 이미지에 추가할 사진 프레임을 나타냅니다. 애플리케이션은 단일 Amazon EC2 인스턴스와 Amazon DynamoDB를 사용하여 메타데이터를 저장합니다.
애플리케이션이 점점 인기를 얻고 있으며 사용자 수가 증가하고 있습니다. 회사에서는 시간대와 요일에 따라 동시접속자 수가 크게 달라질 것으로 예상하고 있다. 회사는 늘어나는 사용자 기반의 요구 사항을 충족하도록 애플리케이션을 확장할 수 있는지 확인해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Lambda를 사용하여 사진을 처리하십시오. DynamoDB에 사진과 메타데이터를 저장합니다.
  • B. Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
  • C. AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. 메타데이터를 저장하기 위해 DynamoDB를 보관합니다.
  • D. EC2 인스턴스 수를 3개로 늘립니다. 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다
더보기
해설
  • A. AWS Lambda를 사용하여 사진을 처리하십시오. DynamoDB에 사진과 메타데이터를 저장합니다.
  • B. Amazon Kinesis Data Firehose를 사용하여 사진을 처리하고 사진과 메타데이터를 저장합니다.
  • C. AWS Lambda를 사용하여 사진을 처리합니다. Amazon S3에 사진을 저장합니다. 메타데이터를 저장하기 위해 DynamoDB를 보관합니다.
  • D. EC2 인스턴스 수를 3개로 늘립니다. 프로비저닝된 IOPS SSD(io2) Amazon Elastic Block Store(Amazon EBS) 볼륨을 사용하여 사진과 메타데이터를 저장합니다

이미지(객체)는 S3에 들어가고 메타데이터는 데이터베이스(DynamoDB)에 들어가야


#116⭐

.

한 회사는 회사 웹사이트에 널리 사용되는 콘텐츠 관리 시스템(CMS)을 사용합니다. 그러나 필요한 패치와 유지 관리가 부담스럽습니다. 회사는 웹사이트를 재설계하고 있으며 새로운 솔루션을 원합니다. 웹사이트는 1년에 4번 업데이트되며 동적 콘텐츠를 사용할 필요가 없습니다. 솔루션은 높은 확장성과 향상된 보안을 제공해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 변경 사항 조합은 무엇입니까? (2개를 선택하세요.)

  • A. HTTPS 기능을 사용하도록 웹 사이트 앞에 Amazon CloudFront를 구성합니다.
  • B. 웹 사이트 앞에 AWS WAF 웹 ACL을 배포하여 HTTPS 기능을 제공합니다.
  • C. 웹사이트 콘텐츠를 관리하고 제공하기 위한 AWS Lambda 함수를 생성하고 배포합니다.
  • D. 새 웹사이트와 Amazon S3 버킷을 생성합니다. 정적 웹 사이트 호스팅이 활성화된 S3 버킷에 웹 사이트를 배포합니다.
  • E. 새 웹사이트를 만듭니다. Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스의 Auto Scaling 그룹을 사용하여 웹 사이트를 배포합니다
더보기
해설
  • A. HTTPS 기능을 사용하도록 웹 사이트 앞에 Amazon CloudFront를 구성합니다.
  • B. 웹 사이트 앞에 AWS WAF 웹 ACL을 배포하여 HTTPS 기능을 제공합니다.
  • C. 웹사이트 콘텐츠를 관리하고 제공하기 위한 AWS Lambda 함수를 생성하고 배포합니다.
  • D. 새 웹사이트와 Amazon S3 버킷을 생성합니다. 정적 웹 사이트 호스팅이 활성화된 S3 버킷에 웹 사이트를 배포합니다.
  • E. 새 웹사이트를 만듭니다. Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스의 Auto Scaling 그룹을 사용하여 웹 사이트를 배포합니다

확장성, 보안 강화 및 운영 오버헤드 감소 = HTTPS

확장성을 갖춘 CloudFront 확장성 및 운영 오버헤드 감소 = 정적 웹 사이트 호스팅을 갖춘 S3 버킷

A. Amazon CloudFront는 보안 및 확장성 요구 사항을 충족하면서 HTTPS 기능을 통해 확장 가능한 콘텐츠 전송을 제공


#117⭐

.

회사는 애플리케이션 로그를 Amazon CloudWatch Logs 로그 그룹에 저장합니다. 새로운 정책에 따라 회사는 모든 애플리케이션 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 거의 실시간으로 저장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)로 스트리밍하도록 CloudWatch Logs 구독을 구성합니다.
  • B. AWS Lambda 함수를 생성합니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 쓰는 함수를 호출합니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. 로그 그룹을 전송 스트림 소스로 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
  • D. 각 애플리케이션 서버에 Amazon Kinesis 에이전트를 설치하고 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달하도록 Kinesis Data Streams를 구성합니다
더보기
해설
  • A. 로그를 Amazon OpenSearch Service(Amazon Elasticsearch Service)로 스트리밍하도록 CloudWatch Logs 구독을 구성합니다.
  • B. AWS Lambda 함수를 생성합니다. 로그 그룹을 사용하여 Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 쓰는 함수를 호출합니다.
  • C. Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. 로그 그룹을 전송 스트림 소스로 구성합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)를 전송 스트림의 대상으로 구성합니다.
  • D. 각 애플리케이션 서버에 Amazon Kinesis 에이전트를 설치하고 구성하여 Amazon Kinesis Data Streams에 로그를 전달합니다. Amazon OpenSearch Service(Amazon Elasticsearch Service)에 로그를 전달하도록 Kinesis Data Streams를 구성합니다

https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/CWL_OpenSearch_Stream.html >

다음을 통해 수신한 데이터를 Amazon OpenSearch Service 클러스터에 거의 실시간으로 스트리밍하도록 CloudWatch Logs 로그 그룹을 구성할 수 있습니다. Kinesis와 비교하여 CloudWatch Logs 구독의 오버헤드가 가장 적습


#120⭐

.

한 회사는 us-west-2 리전의 NLB(Network Load Balancer) 뒤에 있는 3개의 Amazon EC2 인스턴스에 자체 관리형 DNS 솔루션을 구현했습니다. 회사 사용자의 대부분은 미국과 유럽에 있습니다. 회사는 솔루션의 성능과 가용성을 개선하려고 합니다. 회사는 eu-west-1 지역에서 3개의 EC2 인스턴스를 시작 및 구성하고 EC2 인스턴스를 새 NLB의 대상으로 추가합니다.
회사는 트래픽을 모든 EC2 인스턴스로 라우팅하기 위해 어떤 솔루션을 사용할 수 있습니까?

  • A. 두 개의 NLB 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성하십시오. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
  • B. AWS Global Accelerator에서 표준 액셀러레이터를 생성합니다. us-west-2 및 eu-west-1에 엔드포인트 그룹을 생성합니다. 두 개의 NLB를 엔드포인트 그룹의 엔드포인트로 추가합니다.
  • C. 6개의 EC2 인스턴스에 탄력적 IP 주소를 연결합니다. 6개의 EC2 인스턴스 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
  • D. 두 개의 NLB를 두 개의 ALB(Application Load Balancer)로 교체합니다. 두 개의 ALB 중 하나로 요청을 라우팅하는 Amazon Route 53 지연 시간 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
더보기
해설
  • A. 두 개의 NLB 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성하십시오. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
  • B. AWS Global Accelerator에서 표준 액셀러레이터를 생성합니다. us-west-2 및 eu-west-1에 엔드포인트 그룹을 생성합니다. 두 개의 NLB를 엔드포인트 그룹의 엔드포인트로 추가합니다.
  • C. 6개의 EC2 인스턴스에 탄력적 IP 주소를 연결합니다. 6개의 EC2 인스턴스 중 하나로 요청을 라우팅하는 Amazon Route 53 지리적 위치 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.
  • D. 두 개의 NLB를 두 개의 ALB(Application Load Balancer)로 교체합니다. 두 개의 ALB 중 하나로 요청을 라우팅하는 Amazon Route 53 지연 시간 라우팅 정책을 생성합니다. Amazon CloudFront 배포를 생성합니다. Route 53 레코드를 배포 원본으로 사용합니다.

A 아님: CloudFront는 DNS용이 아님

C 아님: 필요하지 않은 CloudFront를 포함 그렇지 않으면 작동하지만 NLB를 무시

D 아님: ALB가 DNS 잎 B를 처리할 수 없


#121

.

한 회사가 AWS에서 온라인 트랜잭션 처리(OLTP) 워크로드를 실행하고 있습니다. 이 워크로드는 다중 AZ 배포에서 암호화되지 않은 Amazon RDS DB 인스턴스를 사용합니다. 이 인스턴스에서 일일 데이터베이스 스냅샷이 생성됩니다.
앞으로 데이터베이스와 스냅샷이 항상 암호화되도록 솔루션 설계자는 무엇을 해야 합니까?

  • A. 최신 DB 스냅샷의 복사본을 암호화합니다. 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다.
  • B. 새로운 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 여기에 스냅샷을 복사합니다. DB 인스턴스에서 암호화를 활성화합니다.
  • C. 스냅샷을 복사하고 AWS Key Management Service(AWS KMS)를 사용하여 암호화를 활성화합니다. 암호화된 스냅샷을 기존 DB 인스턴스로 복원합니다.
  • D. AWS Key Management Service(AWS KMS) 관리형 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하여 암호화된 Amazon S3 버킷에 스냅샷을 복사합니다
더보기
해설
  • A. 최신 DB 스냅샷의 복사본을 암호화합니다. 암호화된 스냅샷을 복원하여 기존 DB 인스턴스를 교체합니다.
  • B. 새로운 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성하고 여기에 스냅샷을 복사합니다. DB 인스턴스에서 암호화를 활성화합니다.
  • C. 스냅샷을 복사하고 AWS Key Management Service(AWS KMS)를 사용하여 암호화를 활성화합니다. 암호화된 스냅샷을 기존 DB 인스턴스로 복원합니다.
  • D. AWS Key Management Service(AWS KMS) 관리형 키(SSE-KMS)를 사용하여 서버 측 암호화를 사용하여 암호화된 Amazon S3 버킷에 스냅샷을 복사합니다

 


#122

.

한 회사는 애플리케이션에서 데이터를 암호화해야 하는 개발자를 지원하기 위해 확장 가능한 키 관리 인프라를 구축하려고 합니다.
운영 부담을 줄이기 위해 솔루션 아키텍트는 무엇을 해야 합니까?

  • A. MFA(다단계 인증)를 사용하여 암호화 키를 보호하세요.
  • B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
  • C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
  • D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자의 범위를 제한합니다
더보기
해설
  • A. MFA(다단계 인증)를 사용하여 암호화 키를 보호하세요.
  • B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
  • C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
  • D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자의 범위를 제한합니다

#125⭐

.

한 회사가 AWS에서 2계층 전자상거래 웹사이트를 운영하고 있습니다. 웹 계층은 트래픽을 Amazon EC2 인스턴스로 보내는 로드 밸런서로 구성됩니다. 데이터베이스 계층은 Amazon RDS DB 인스턴스를 사용합니다. EC2 인스턴스와 RDS DB 인스턴스는 공용 인터넷에 노출되어서는 안 됩니다. EC2 인스턴스에서는 타사 웹 서비스를 통해 주문 결제 처리를 완료하려면 인터넷 액세스가 필요합니다. 애플리케이션의 가용성이 높아야 합니다.
이러한 요구 사항을 충족하는 구성 옵션 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
  • B. 2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이로 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
  • C. Auto Scaling 그룹을 사용하여 두 가용 영역의 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
  • D. 2개의 가용 영역에 걸쳐 퍼블릭 서브넷 1개, 프라이빗 서브넷 1개, NAT 게이트웨이 2개로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
    D. 2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷, 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다
더보기
해설
  • A. Auto Scaling 그룹을 사용하여 프라이빗 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
  • B. 2개의 가용 영역에 걸쳐 2개의 프라이빗 서브넷과 2개의 NAT 게이트웨이로 VPC를 구성합니다. 프라이빗 서브넷에 Application Load Balancer를 배포합니다.
  • C. Auto Scaling 그룹을 사용하여 두 가용 영역의 퍼블릭 서브넷에서 EC2 인스턴스를 시작합니다. 프라이빗 서브넷에 RDS 다중 AZ DB 인스턴스를 배포합니다.
  • D. 2개의 가용 영역에 걸쳐 퍼블릭 서브넷 1개, 프라이빗 서브넷 1개, NAT 게이트웨이 2개로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다.
    D. 2개의 가용 영역에 걸쳐 2개의 퍼블릭 서브넷, 2개의 프라이빗 서브넷, 2개의 NAT 게이트웨이로 VPC를 구성합니다. 퍼블릭 서브넷에 Application Load Balancer를 배포합니다

A에 대한 답변: EC2 인스턴스와 RDS DB 인스턴스는 공용 인터넷에 노출되어서는 안 됩니다. D에 대한 답변: EC2 인스턴스는 타사 웹 서비스를 통해 주문 결제 처리를 완료하기 위해 인터넷 액세스가 필요합니다. A에 대한 답변: 애플리케이션은 가용성이 높아야 합

각 NAT 게이트웨이를 각 퍼블릭 서브넷에 배치해야 합


#127⭐

.

한 미디어 회사는 자사 시스템을 AWS 클라우드로 이전할 가능성을 평가하고 있습니다. 회사에는 비디오 처리를 위한 최대 I/O 성능을 갖춘 최소 10TB의 스토리지, 미디어 콘텐츠 저장을 위한 매우 내구성이 뛰어난 300TB의 스토리지, 더 이상 사용하지 않는 보관 미디어에 대한 요구 사항을 충족하려면 900TB의 스토리지가 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 서비스 세트를 권장해야 합니까?

  • A. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
  • B. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3 Glacier
  • C. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3
  • D. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
더보기
해설
  • A. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier
  • B. 최대 성능을 위한 Amazon EBS, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3 Glacier
  • C. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon EFS, 아카이브 스토리지를 위한 Amazon S3
  • D. 최대 성능을 위한 Amazon EC2 인스턴스 스토어, 내구성 있는 데이터 스토리지를 위한 Amazon S3, 아카이브 스토리지를 위한 Amazon S3 Glacier

비디오 처리에만 사용되기 때문에 인스턴스 스토어가 여기에서 가장 빠릅니다(처리 후 데이터를 S3으로 이동하기 때문에 일시적인 것은 문제가 되지 않

A는 좋은 것 같지만 저장소가 인스턴스에 물리적으로 연결되어 있으므로 D가 더 좋음


#128

.

한 회사가 AWS 클라우드의 컨테이너에서 애플리케이션을 실행하려고 합니다. 이러한 애플리케이션은 상태 비저장이며 기본 인프라 내의 중단을 허용할 수 있습니다. 회사에는 비용과 운영 오버헤드를 최소화하는 솔루션이 필요합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon EC2 Auto Scaling 그룹의 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행하십시오.
  • B. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
  • C. Amazon EC2 Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
  • D. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다
더보기
해설
  • A. Amazon EC2 Auto Scaling 그룹의 스팟 인스턴스를 사용하여 애플리케이션 컨테이너를 실행하십시오.
  • B. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 스팟 인스턴스를 사용합니다.
  • C. Amazon EC2 Auto Scaling 그룹의 온디맨드 인스턴스를 사용하여 애플리케이션 컨테이너를 실행합니다.
  • D. Amazon Elastic Kubernetes Service(Amazon EKS) 관리형 노드 그룹에서 온디맨드 인스턴스를 사용합니다

#129

.

회사는 온프레미스에서 다중 계층 웹 애플리케이션을 실행하고 있습니다. 웹 애플리케이션은 컨테이너화되어 사용자 레코드가 포함된 PostgreSQL 데이터베이스에 연결된 여러 Linux 호스트에서 실행됩니다. 인프라 유지 관리 및 용량 계획에 따른 운영 오버헤드가 회사의 성장을 제한하고 있습니다. 솔루션 설계자는 애플리케이션의 인프라를 개선해야 합니다.
이를 달성하기 위해 솔루션 아키텍트는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션하십시오.
  • B. Amazon EC2 인스턴스에서 호스팅되도록 웹 애플리케이션을 마이그레이션합니다.
  • C. 웹 애플리케이션 콘텐츠에 대한 Amazon CloudFront 배포를 설정합니다.
  • D. 웹 애플리케이션과 PostgreSQL 데이터베이스 간에 Amazon ElastiCache를 설정합니다.
  • E. Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에서 호스팅할 웹 애플리케이션을 마이그레이션합니다
더보기
해설
  • A. PostgreSQL 데이터베이스를 Amazon Aurora로 마이그레이션하십시오.
  • B. Amazon EC2 인스턴스에서 호스팅되도록 웹 애플리케이션을 마이그레이션합니다.
  • C. 웹 애플리케이션 콘텐츠에 대한 Amazon CloudFront 배포를 설정합니다.
  • D. 웹 애플리케이션과 PostgreSQL 데이터베이스 간에 Amazon ElastiCache를 설정합니다.
  • E. Amazon Elastic Container Service(Amazon ECS)를 사용하여 AWS Fargate에서 호스팅할 웹 애플리케이션을 마이그레이션합니다

#130

.

애플리케이션은 여러 가용 영역에 걸쳐 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 Application Load Balancer 뒤의 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. 애플리케이션은 EC2 인스턴스의 CPU 사용률이 40% 또는 40%에 가까울 때 가장 잘 수행됩니다.
그룹의 모든 인스턴스에서 원하는 성능을 유지하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 간단한 조정 정책을 사용하여 Auto Scaling 그룹을 동적으로 조정합니다.
  • B. 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
  • C. AWS Lambda 함수를 사용하여 원하는 Auto Scaling 그룹 용량을 업데이트합니다.
  • D. 예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.
더보기
해설
  • A. 간단한 조정 정책을 사용하여 Auto Scaling 그룹을 동적으로 조정합니다.
  • B. 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
  • C. AWS Lambda 함수를 사용하여 원하는 Auto Scaling 그룹 용량을 업데이트합니다.
  • D. 예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.

 


#132⭐

.

회사의 웹사이트에서는 사용자에게 다운로드 가능한 과거 실적 보고서를 제공합니다. 웹사이트에는 전 세계적으로 회사의 웹사이트 요구 사항을 충족할 수 있도록 확장할 수 있는 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하며, 인프라 리소스 프로비저닝을 제한하고, 가능한 가장 빠른 응답 시간을 제공해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 조합을 권장해야 합니까?

  • A. Amazon CloudFront 및 Amazon S3
  • B. AWS Lambda 및 Amazon DynamoDB
  • C. Amazon EC2 Auto Scaling을 갖춘 Application Load Balancer
  • D. 내부 Application Load Balancer를 갖춘 Amazon Route 53
더보기
해설
  • A. Amazon CloudFront 및 Amazon S3
  • B. AWS Lambda 및 Amazon DynamoDB
  • C. Amazon EC2 Auto Scaling을 갖춘 Application Load Balancer
  • D. 내부 Application Load Balancer를 갖춘 Amazon Route 53

내역 보고서 = 정적 콘텐츠 = S3


#133⭐

.
회사는 온프레미스에서 Oracle 데이터베이스를 실행합니다. 회사는 AWS로 마이그레이션하는 과정의 일환으로 데이터베이스를 사용 가능한 최신 버전으로 업그레이드하려고 합니다. 또한 회사는 데이터베이스에 대한 재해 복구(DR)를 설정하려고 합니다. 회사는 일반 운영 및 DR 설정을 위한 운영 오버헤드를 최소화해야 합니다. 또한 회사는 데이터베이스의 기본 운영 체제에 대한 액세스를 유지해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
  • B. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 스냅샷을 다른 AWS 리전에 복제하려면 교차 리전 자동 백업을 활성화하십시오.
  • C. Oracle 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다.
  • D. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 다른 가용 영역에 대기 데이터베이스를 생성합니다
더보기
해설
  • A. Oracle 데이터베이스를 Amazon EC2 인스턴스로 마이그레이션합니다. 다른 AWS 리전으로 데이터베이스 복제를 설정합니다.
  • B. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 스냅샷을 다른 AWS 리전에 복제하려면 교차 리전 자동 백업을 활성화하십시오.
  • C. Oracle 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다.
  • D. Oracle 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 다른 가용 영역에 대기 데이터베이스를 생성합니다

옵션 C는 RDS Custom이 기본 OS에 액세스할 수 있고 운영 오버헤드를 덜 제공하기 때문입니다. 또한 다른 리전의 읽기 전용 복제본을 DR 활동에 사용할 수 있습니다. https://aws.amazon.com/blogs/database/implementing-a-disaster-recovery-strategy-with-amazon-rds/
Oracle용 RDS Custom에서는 지역 간 복제본을 생성할 수 없습니다: https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/custom-rr.html#custom-rr.limitations

 


#134⭐



회사는 애플리케이션을 서버리스 솔루션으로 이동하려고 합니다. 서버리스 솔루션은 SL을 사용해 기존 데이터와 신규 데이터를 분석해야 합니다. 회사는 Amazon S3 버킷에 데이터를 저장합니다. 데이터는 암호화가 필요하며 다른 AWS 리전에 복제되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 시스템(SSE-KMS)과 함께 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • B. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
  • C. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • D. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다
더보기
해설
  • A. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 시스템(SSE-KMS)과 함께 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • B. 새 S3 버킷을 생성합니다. 새 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. AWS KMS 다중 리전 키(SSE-KMS)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다.
  • C. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
  • D. 기존 S3 버킷에 데이터를 로드합니다. S3 교차 리전 복제(CRR)를 사용하여 암호화된 객체를 다른 리전의 S3 버킷에 복제합니다. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. Amazon RDS를 사용하여 데이터를 쿼리합니다

S3의 데이터는 RDS가 아닌 Athena로 쿼리되므로 B와 D는 제외됩니다. A에는 새 버킷이 필요하고 거기에 데이터를 로드해야 합니다. 데이터가 이미 S3에 있는데 왜 그렇습니까? 데이터를 로드한 후에만 CRR을 활성화하라고 되어 있으므로 기존 데이터는 어쨌든 복제되지 않습니다. C는 기존 데이터(새 버킷에 데이터를 로드하는 것에 비해 운영 오버헤드가 적음)와 SSE-E3(SSE-KMS보다 운영 오버헤드가 적음)을 사용

C와 A가 51대49


#135




회사는 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사 보안팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 회사의 VPC와 공급자의 VPC 간에 VPC 피어링 연결을 생성합니다. 대상 서비스에 연결하려면 라우팅 테이블을 업데이트하세요.
  • B. 공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
  • C. 회사 VP의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하고 라우팅 테이블을 업데이트하여 대상 서비스에 연결합니다.
  • D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다
더보기

해설

  • A. 회사의 VPC와 공급자의 VPC 간에 VPC 피어링 연결을 생성합니다. 대상 서비스에 연결하려면 라우팅 테이블을 업데이트하세요.
  • B. 공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
  • C. 회사 VP의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하고 라우팅 테이블을 업데이트하여 대상 서비스에 연결합니다.
  • D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다

#136⭐




한 회사가 온프레미스 PostgreSQL 데이터베이스를 Amazon Aurora PostgreSQL로 마이그레이션하고 있습니다. 온프레미스 데이터베이스는 마이그레이션 중에 온라인 상태로 유지되고 액세스 가능해야 합니다. Aurora 데이터베이스는 온프레미스 데이터베이스와 동기화된 상태를 유지해야 합니다.
솔루션 설계자가 이러한 요구 사항을 충족하려면 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. 지속적인 복제 작업을 생성합니다.
  • B. 온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
  • C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
  • D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
  • E. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 데이터베이스 동기화를 모니터링합니다
더보기
해설
  • A. 지속적인 복제 작업을 생성합니다.
  • B. 온프레미스 데이터베이스의 데이터베이스 백업을 생성합니다.
  • C. AWS Database Migration Service(AWS DMS) 복제 서버를 생성합니다.
  • D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 데이터베이스 스키마를 변환합니다.
  • E. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 데이터베이스 동기화를 모니터링합니다

AWS Database Migration Service(AWS DMS)는 데이터베이스를 AWS로 빠르고 안전하게 마이그레이션하는 데 도움이 됩니다. 소스 데이터베이스는 마이그레이션 중에도 완벽하게 작동하므로 데이터베이스에 의존하는 애플리케이션의 가동 중지 시간이 최소화됩니다. ... AWS Database Migration Service를 사용하면 지원되는 모든 소스에서 지원되는 대상으로 짧은 지연 시간으로 데이터를 지속적으로 복제할 수도


#138




한 회사가 AWS에서 전자상거래 애플리케이션을 실행합니다. 모든 새로운 주문은 단일 가용 영역의 Amazon EC2 인스턴스에서 실행되는 RabbitMQ 대기열에 메시지로 게시됩니다. 이러한 메시지는 별도의 EC2 인스턴스에서 실행되는 다른 애플리케이션에 의해 처리됩니다. 이 애플리케이션은 다른 EC2 인스턴스의 PostgreSQL 데이터베이스에 세부 정보를 저장합니다. 모든 EC2 인스턴스는 동일한 가용 영역에 있습니다.
회사는 최소한의 운영 오버헤드로 최고의 가용성을 제공하기 위해 아키텍처를 재설계해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
  • B. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
  • C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
  • D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹 생성
더보기
해설
  • A. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다.
  • B. 대기열을 Amazon MQ에 있는 RabbitMQ 인스턴스의 중복 쌍(활성/대기)으로 마이그레이션합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
  • C. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL용 Amazon RDS의 다중 AZ 배포에서 실행되도록 데이터베이스를 마이그레이션합니다.
  • D. RabbitMQ 대기열을 호스팅하는 EC2 인스턴스에 대한 다중 AZ Auto Scaling 그룹을 생성합니다. 애플리케이션을 호스팅하는 EC2 인스턴스에 대한 또 다른 다중 AZ Auto Scaling 그룹을 생성합니다. PostgreSQL 데이터베이스를 호스팅하는 EC2 인스턴스에 대한 세 번째 다중 AZ Auto Scaling 그룹 생성

#141⭐



한 회사는 사용자에게 글로벌 속보, 지역 알림, 날씨 업데이트를 제공하는 웹 기반 포털을 운영하고 있습니다. 포털은 정적 콘텐츠와 동적 콘텐츠를 혼합하여 각 사용자에게 개인화된 보기를 제공합니다. 콘텐츠는 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 실행되는 API 서버를 통해 HTTPS를 통해 제공됩니다. 회사는 포털이 이 콘텐츠를 전 세계 사용자에게 가능한 한 빨리 제공하기를 원합니다.
솔루션 설계자는 모든 사용자의 대기 시간을 최소화하기 위해 애플리케이션을 어떻게 설계해야 합니까?

  • A. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하면 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공할 수 있습니다.
  • B. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지연 시간 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
  • C. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 정적 콘텐츠를 제공합니다. ALB에서 직접 동적 콘텐츠를 제공합니다.
  • D. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
더보기
해설
  • A. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하면 ALB를 오리진으로 지정하여 모든 정적 및 동적 콘텐츠를 제공할 수 있습니다.
  • B. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지연 시간 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.
  • C. 단일 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon CloudFront를 사용하여 정적 콘텐츠를 제공합니다. ALB에서 직접 동적 콘텐츠를 제공합니다.
  • D. 두 개의 AWS 지역에 애플리케이션 스택을 배포합니다. Amazon Route 53 지리적 위치 라우팅 정책을 사용하여 가장 가까운 지역의 ALB에서 모든 콘텐츠를 제공합니다.

Amazon CloudFront는 정적 및 동적 웹 콘텐츠의 배포 속도를 높이는 웹 서비스

"전 세계 모든 사용자에 대한 최소 지연 시간" = CloudFront이므로 B와 D는 제외됩니다. 또한 "두 지역"에 스택을 배포하면 해당 두 지역에 도움이 되지만 "전 세계" 사용자에게는 도움이 되지 않습니다. CloudFront는 동적 콘텐츠도 캐시할 수 있으므로 A


#144⭐



최근 한 회사에서 Amazon Aurora를 글로벌 전자 상거래 애플리케이션용 데이터 스토어로 사용하기 시작했습니다. 대규모 보고서가 실행되면 개발자는 전자 상거래 애플리케이션의 성능이 좋지 않다고 보고합니다. 솔루션 설계자는 Amazon CloudWatch에서 지표를 검토한 후 월별 보고서가 실행될 때 ReadIOPS 및 CPUUtilizalion 지표가 급증한다는 사실을 발견했습니다.
가장 비용 효율적인 솔루션은 무엇입니까?

  • A. 월별 보고를 Amazon Redshift로 마이그레이션하십시오.
  • B. 월별 보고를 Aurora 복제본으로 마이그레이션합니다.
  • C. Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하십시오.
  • D. Aurora 인스턴스에서 프로비저닝된 IOPS를 늘립니다
더보기
해설
  • A. 월별 보고를 Amazon Redshift로 마이그레이션하십시오.
  • B. 월별 보고를 Aurora 복제본으로 마이그레이션합니다.
  • C. Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하십시오.
  • D. Aurora 인스턴스에서 프로비저닝된 IOPS를 늘립니다

옵션 A: 월별 보고를 Amazon Redshift로 마이그레이션하는 것은 새로운 데이터 스토어 생성과 잠재적으로 상당한 데이터 마이그레이션 및 ETL 비용을 포함하므로 비용 효율적이지 않을 수 있습니다. 옵션 C: Aurora 데이터베이스를 더 큰 인스턴스 클래스로 마이그레이션하는 것은 데이터베이스의 기본 하드웨어 변경을 포함하고 더 큰 인스턴스에 대한 추가 비용이 발생할 수 있으므로 비용 효율적이지 않을 수 있습니다. 옵션 D: Aurora 인스턴스에서 프로비저닝된 IOPS를 늘리면 데이터베이스의 다른 워크로드에 필요하지 않을 수 있는 추가 I/O 용량에 대한 비용을 지불해야 하므로 비용 효율적이지 않을 수 있


#148




회사에는 다음 구성 요소를 포함하는 데이터 수집 워크플로가 있습니다.
새로운 데이터 전송에 대한 알림을 수신하는 Amazon Simple Notification Service(Amazon SNS) 주제 데이터를
처리하고 저장하는 AWS Lambda 함수
네트워크 연결 문제로 인해 수집 워크플로가 때때로 실패하는 경우가 있습니다. . 장애가 발생하면 회사에서 수동으로 작업을 다시 실행하지 않는 한 해당 데이터가 수집되지 않습니다.
모든 알림이 최종적으로 처리되도록 하려면 솔루션 설계자는 무엇을 해야 합니까?

  • A. 여러 가용 영역에 걸쳐 배포할 수 있도록 Lambda 함수를 구성합니다.
  • B. Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
  • C. 재시도 횟수와 재시도 간 대기 시간을 모두 늘리도록 SNS 주제의 재시도 전략을 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 오류 발생 대상으로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.
더보기
해설
  • A. 여러 가용 영역에 걸쳐 배포할 수 있도록 Lambda 함수를 구성합니다.
  • B. Lambda 함수의 구성을 수정하여 함수에 대한 CPU 및 메모리 할당을 늘립니다.
  • C. 재시도 횟수와 재시도 간 대기 시간을 모두 늘리도록 SNS 주제의 재시도 전략을 구성합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 오류 발생 대상으로 구성합니다. 대기열의 메시지를 처리하도록 Lambda 함수를 수정합니다.

#150⭐



회사는 온프레미스 서버에서 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션하고 있습니다. 마이그레이션 설계 요구 사항의 일부로 솔루션 설계자는 인프라 지표 경보를 구현해야 합니다. CPU 사용률이 짧은 시간 동안 50% 이상으로 증가하는 경우 회사에서는 조치를 취할 필요가 없습니다. 그러나 CPU 사용률이 50% 이상으로 증가하고 동시에 디스크의 읽기 IOPS가 높을 경우 회사는 가능한 한 빨리 조치를 취해야 합니다. 솔루션 설계자는 또한 허위 경보를 줄여야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성하십시오.
  • B. 지표를 시각화하고 문제에 신속하게 대응하기 위해 Amazon CloudWatch 대시보드를 생성합니다.
  • C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
  • D. 가능한 경우 여러 지표 임계값을 사용하여 단일 Amazon CloudWatch 지표 경보를 생성합니다
더보기
해설
  • A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성하십시오.
  • B. 지표를 시각화하고 문제에 신속하게 대응하기 위해 Amazon CloudWatch 대시보드를 생성합니다.
  • C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
  • D. 가능한 경우 여러 지표 임계값을 사용하여 단일 Amazon CloudWatch 지표 경보를 생성합니다

Amazon CloudWatch 복합 경보를 생성하는 옵션 A는 솔루션 설계자가 CPU 사용률이 50%를 초과하고 동시에 디스크의 읽기 IOPS가 높은 경우에만 트리거되는 경보를 생성할 수 있도록 허용하므로 정확합니다. 이는 두 조건이 모두 충족되는 경우 가능한 한 빨리 조치를 취해야 한다는 요구 사항을 충족하는 동시에 두 조건이 모두 충족되는 경우에만 경보가 트리거되도록 하여 잘못된 경보의 수를 줄입


#151⭐



회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 회사의 규정 준수 요구 사항에 따라 회사는 ap-northeast-3 리전만 사용할 수 있습니다. 회사 관리자는 VPC를 인터넷에 연결할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • B. AWS WAF의 규칙을 사용하여 인터넷 액세스를 방지합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 방지하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • D. 각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전 사용을 방지하려면 각 사용자에 대한 IAM 정책을 생성합니다.
  • E. AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 탐지 및 경고하고 ap-northeast-3 외부에 배포된 새로운 리소스를 탐지 및 경고합니다
더보기
해설
  • A. AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • B. AWS WAF의 규칙을 사용하여 인터넷 액세스를 방지합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 방지하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
  • D. 각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전 사용을 방지하려면 각 사용자에 대한 IAM 정책을 생성합니다.
  • E. AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 탐지 및 경고하고 ap-northeast-3 외부에 배포된 새로운 리소스를 탐지 및 경고합니다

A. Control Tower를 사용하면 회사는 데이터 상주 가드레일을 시행하고 VPC에 대한 인터넷 액세스를 제한하고 필수 ap-northeast-3 지역을 제외한 모든 지역에 대한 액세스를 거부할 수 있습니다. C. 조직을 통해 회사는 VPC가 인터넷에 액세스하지 못하도록 SCP를 구성할 수 있습니다. ap-northeast-3을 제외한 모든 지역에 대한 액세스를 거부함으로써 회사는 VPC가 지정된 지역에만 배포될 수 있도록 보장합니다. 옵션 B는 올바르지 않습니다. AWS WAF에서만 규칙을 사용하면 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스 거부 요구 사항이 해결되지 않기 때문입니다. 사용자에 대한 네트워크 ACL 및 IAM 정책의 아웃바운드 규칙을 구성하면 트래픽과 액세스를 제한하는 데 도움이 될 수 있지만 ap-northeast-3을 제외한 모든 리전에 대한 액세스를 거부해야 하는 회사의 요구 사항을 적용하지 않기 때문에 옵션 D는 올바르지 않습니다. AWS Config 및 관리형 규칙을 사용하면 특정 리소스 및 구성을 감지하고 경고하는 데 도움이 될 수 있지만 인터넷 액세스 제한을 직접 시행하거나 특정 리전에 대한 액세스를 거부하지 않기 때문에 옵션 E는 올바르지 않


#154⭐



회사는 의료 실험 결과를 Amazon S3 리포지토리에 저장해야 합니다. 저장소는 소수의 과학자가 새 파일을 추가할 수 있도록 허용해야 하며 다른 모든 사용자는 읽기 전용 액세스로 제한해야 합니다. 어떤 사용자도 저장소의 파일을 수정하거나 삭제할 수 없습니다. 회사는 모든 파일을 생성일로부터 최소 1년 동안 저장소에 보관해야 합니다.어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 법적 보유 기간이 1년인 거버넌스 모드에서 S3 객체 잠금을 사용하십시오.
  • B. 보존 기간이 365일인 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • C. IAM 역할을 사용하여 모든 사용자가 S3 버킷의 객체를 삭제하거나 변경하지 못하도록 제한합니다. IAM 역할만 허용하려면 S3 버킷 정책을 사용하세요.
  • D. 객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 수정된 객체가 그에 따라 표시될 수 있도록 저장된 객체의 해시를 추적하는 기능을 구성합니다.
더보기
해설
  • A. 법적 보유 기간이 1년인 거버넌스 모드에서 S3 객체 잠금을 사용하십시오.
  • B. 보존 기간이 365일인 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • C. IAM 역할을 사용하여 모든 사용자가 S3 버킷의 객체를 삭제하거나 변경하지 못하도록 제한합니다. IAM 역할만 허용하려면 S3 버킷 정책을 사용하세요.
  • D. 객체가 추가될 때마다 AWS Lambda 함수를 호출하도록 S3 버킷을 구성합니다. 수정된 객체가 그에 따라 표시될 수 있도록 저장된 객체의 해시를 추적하는 기능을 구성합니다.

규정 준수 모드. 규정 준수 모드와 거버넌스 모드의 주요 차이점은 설정된 보존 기간을 재정의하거나 객체를 삭제할 수 있는 사용자가 없으며 여기에는 가장 높은 권한을 가진 AWS 루트 계정도 포함된다는 것


#155



한 대형 미디어 회사가 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 회사는 전 세계 사용자가 파일에 안정적으로 액세스할 수 있도록 기밀 미디어 파일 캐싱을 시작하려고 합니다. 콘텐츠는 Amazon S3 버킷에 저장됩니다. 회사는 요청이 지리적으로 어디서 발생하는지에 관계없이 콘텐츠를 신속하게 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결하십시오.
  • B. AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다.
  • C. Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다
더보기
해설
  • A. AWS DataSync를 사용하여 S3 버킷을 웹 애플리케이션에 연결하십시오.
  • B. AWS Global Accelerator를 배포하여 S3 버킷을 웹 애플리케이션에 연결합니다.
  • C. Amazon CloudFront를 배포하여 S3 버킷을 CloudFront 엣지 서버에 연결합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 S3 버킷을 웹 애플리케이션에 연결합니다

#156⭐


회사는 다양한 데이터베이스에서 가져온 배치 데이터를 생성합니다. 또한 이 회사는 네트워크 센서 및 애플리케이션 API로부터 라이브 스트림 데이터를 생성합니다. 회사는 비즈니스 분석을 위해 모든 데이터를 한 곳에 통합해야 합니다. 회사는 수신 데이터를 처리한 다음 다른 Amazon S3 버킷에 데이터를 준비해야 합니다. 팀은 나중에 일회성 쿼리를 실행하고 데이터를 비즈니스 인텔리전스 도구로 가져와 핵심 성과 지표(KPI)를 표시합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 일회성 쿼리에는 Amazon Athena를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
  • B. 일회성 쿼리에는 Amazon Kinesis Data Analytics를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
  • C. 개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하는 사용자 지정 AWS Lambda 함수를 생성합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 데이터를 로드합니다.
  • E. AWS Lake Formation의 블루프린트를 사용하여 데이터 레이크에 수집될 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고, 데이터를 추출하고, 데이터를 Apache Parquet 형식으로 Amazon S3에 로드합니다
더보기
해설
  • A. 일회성 쿼리에는 Amazon Athena를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
  • B. 일회성 쿼리에는 Amazon Kinesis Data Analytics를 사용하십시오. Amazon QuickSight를 사용하여 KPI에 대한 대시보드를 생성하십시오.
  • C. 개별 레코드를 데이터베이스에서 Amazon Redshift 클러스터로 이동하는 사용자 지정 AWS Lambda 함수를 생성합니다.
  • D. AWS Glue ETL(추출, 변환 및 로드) 작업을 사용하여 데이터를 JSON 형식으로 변환합니다. 여러 Amazon OpenSearch Service(Amazon Elasticsearch Service) 클러스터에 데이터를 로드합니다.
  • E. AWS Lake Formation의 블루프린트를 사용하여 데이터 레이크에 수집될 수 있는 데이터를 식별합니다. AWS Glue를 사용하여 소스를 크롤링하고, 데이터를 추출하고, 데이터를 Apache Parquet 형식으로 Amazon S3에 로드합니다

A는 Athena 및 QuickSight 옵션으로 인해 제공됩니다. C와 E 사이에서 AWS Lake Formation은 더욱 관리되는 솔루션이므로 사용자 지정 AWS Lambda를 작성하는 것보다 운영 오버헤드가 적어야 합


#157⭐



회사는 Amazon Aurora PostgreSQL DB 클러스터에 데이터를 저장합니다. 회사는 모든 데이터를 5년 동안 보관해야 하며, 5년 후에는 모든 데이터를 삭제해야 합니다. 또한 회사는 데이터베이스 내에서 수행되는 작업에 대한 감사 로그를 무기한 보관해야 합니다. 현재 회사에서는 Aurora에 대해 자동 백업을 구성했습니다.

이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. DB 클러스터의 수동 스냅샷을 생성합니다.
  • B. 자동 백업에 대한 수명주기 정책을 만듭니다.
  • C. 5년 동안 자동 백업 보존을 구성합니다.
  • D. DB 클러스터에 대한 Amazon CloudWatch Logs 내보내기를 구성합니다.
  • E. AWS Backup을 사용하여 백업을 수행하고 백업을 5년 동안 보관합니다
더보기
해설
  • A. DB 클러스터의 수동 스냅샷을 생성합니다.
  • B. 자동 백업에 대한 수명주기 정책을 만듭니다.
  • C. 5년 동안 자동 백업 보존을 구성합니다.
  • D. DB 클러스터에 대한 Amazon CloudWatch Logs 내보내기를 구성합니다.
  • E. AWS Backup을 사용하여 백업을 수행하고 백업을 5년 동안 보관합니다

A - 자동화할 수 있는 수동 작업인데 왜 인생을 어렵게 만드는가?

B - 최대 보존 기간은 35일이므로 도움이 되지 않습니다.

C - 최대 보존 기간은 35일이므로 도움이 되지 않습니다


#158



솔루션 설계자가 다가오는 음악 이벤트를 위해 웹사이트를 최적화하고 있습니다. 공연 영상은 실시간으로 스트리밍되며, 요청 시 시청 가능합니다. 이번 행사는 전 세계 온라인 관객의 관심을 끌 것으로 예상된다.

실시간 스트리밍과 주문형 스트리밍 모두의 성능을 향상시키는 서비스는 무엇입니까?

  • A. 아마존 클라우드프론트
  • B. AWS 글로벌 액셀러레이터
  • C. 아마존 루트 53
  • D. Amazon S3 전송 가속화
더보기
해설
  • A. 아마존 클라우드프론트
  • B. AWS 글로벌 액셀러레이터
  • C. 아마존 루트 53
  • D. Amazon S3 전송 가속화

#161⭐



회사에는 JSON 문서를 처리하고 결과를 온프레미스 SQL 데이터베이스로 출력하는 작은 Python 애플리케이션이 있습니다. 이 애플리케이션은 매일 수천 번 실행됩니다. 회사는 애플리케이션을 AWS 클라우드로 이동하려고 합니다. 회사에는 확장성을 극대화하고 운영 오버헤드를 최소화하는 고가용성 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. JSON 문서를 Amazon S3 버킷에 배치합니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
  • B. JSON 문서를 Amazon S3 버킷에 넣습니다. 문서가 S3 버킷에 도착하면 문서를 처리하기 위해 Python 코드를 실행하는 AWS Lambda 함수를 생성합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
  • C. JSON 문서를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 배치합니다. EBS 다중 연결 기능을 사용하여 여러 Amazon EC2 인스턴스에 볼륨을 연결합니다. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다.
  • D. JSON 문서를 Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지로 배치합니다. Amazon EC2 시작 유형으로 구성된 Amazon Elastic Container Service(Amazon ECS) 클러스터에 Python 코드를 컨테이너로 배포합니다. 컨테이너를 사용하여 SQS 메시지를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다
더보기
해설
  • A. JSON 문서를 Amazon S3 버킷에 배치합니다. 여러 Amazon EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
  • B. JSON 문서를 Amazon S3 버킷에 넣습니다. 문서가 S3 버킷에 도착하면 문서를 처리하기 위해 Python 코드를 실행하는 AWS Lambda 함수를 생성합니다. Amazon Aurora DB 클러스터에 결과를 저장합니다.
  • C. JSON 문서를 Amazon Elastic Block Store(Amazon EBS) 볼륨에 배치합니다. EBS 다중 연결 기능을 사용하여 여러 Amazon EC2 인스턴스에 볼륨을 연결합니다. EC2 인스턴스에서 Python 코드를 실행하여 문서를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다.
  • D. JSON 문서를 Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지로 배치합니다. Amazon EC2 시작 유형으로 구성된 Amazon Elastic Container Service(Amazon ECS) 클러스터에 Python 코드를 컨테이너로 배포합니다. 컨테이너를 사용하여 SQS 메시지를 처리합니다. Amazon RDS DB 인스턴스에 결과를 저장합니다

"D"에는 각 부분이 그 자체로 관리형 서비스임에도 불구하고 움직이는 부분이 많고 운영 오버헤드가 더 많습니다. 또한 Lambda를 사용하여 작업을 수행할 수 있는 경우 EC2 인스턴스를 어떤 형태로든 사용하지 마십시오. EC2 인스턴스는 항상 운영 오버헤드를 증가시킵


#162



한 회사는 금융 위험 모델링을 위해 AWS의 고성능 컴퓨팅(HPC) 인프라를 사용하려고 합니다. 회사의 HPC 워크로드는 Linux에서 실행됩니다. 각 HPC 워크플로는 수백 개의 Amazon EC2 스팟 인스턴스에서 실행되고, 수명이 짧으며, 궁극적으로 분석 및 향후 장기적 사용을 위해 영구 스토리지에 저장되는 수천 개의 출력 파일을 생성합니다.

회사는 모든 EC2 인스턴스에서 데이터를 처리할 수 있도록 온프레미스 데이터를 장기 영구 스토리지로 복사할 수 있는 클라우드 스토리지 솔루션을 찾고 있습니다. 또한 솔루션은 데이터세트와 출력 파일을 읽고 쓰기 위해 영구 스토리지와 통합된 고성능 파일 시스템이어야 합니다.

이러한 요구 사항을 충족하는 AWS 서비스 조합은 무엇입니까?

  • A. Amazon S3와 통합된 Lustre용 Amazon FSx
  • B. Amazon S3와 통합된 Windows 파일 서버용 Amazon FSx
  • C. Amazon Elastic Block Store(Amazon EBS)와 통합된 Amazon S3 Glacier
  • D. Amazon Elastic Block Store(Amazon EBS) 범용 SSD(gp2) 볼륨과 통합된 VPC 엔드포인트가 있는 Amazon S3 버킷
더보기
해설
  • A. Amazon S3와 통합된 Lustre용 Amazon FSx
  • B. Amazon S3와 통합된 Windows 파일 서버용 Amazon FSx
  • C. Amazon Elastic Block Store(Amazon EBS)와 통합된 Amazon S3 Glacier
  • D. Amazon Elastic Block Store(Amazon EBS) 범용 SSD(gp2) 볼륨과 통합된 VPC 엔드포인트가 있는 Amazon S3 버킷

#167⭐


한 회사가 Amazon EC2 인스턴스 집합에서 프로덕션 애플리케이션을 실행합니다. 애플리케이션은 Amazon SQS 대기열에서 데이터를 읽고 메시지를 병렬로 처리합니다. 메시지 볼륨은 예측할 수 없으며 트래픽이 간헐적으로 발생하는 경우가 많습니다. 이 애플리케이션은 가동 중지 시간 없이 지속적으로 메시지를 처리해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 필요한 최대 용량을 처리하려면 스팟 인스턴스만 사용하십시오.
  • B. 필요한 최대 용량을 처리하기 위해 예약 인스턴스를 독점적으로 사용하십시오.
  • C. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 스팟 인스턴스를 사용합니다.
  • D. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 온디맨드 인스턴스를 사용합니다.
더보기
해설
  • A. 필요한 최대 용량을 처리하려면 스팟 인스턴스만 사용하십시오.
  • B. 필요한 최대 용량을 처리하기 위해 예약 인스턴스를 독점적으로 사용하십시오.
  • C. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 스팟 인스턴스를 사용합니다.
  • D. 기본 용량으로 예약 인스턴스를 사용하고 추가 용량을 처리하려면 온디맨드 인스턴스를 사용합니다.

기준선용 예약 + 추가 C에 대한 주문형은 작동하지만 스팟은 "다운타임 없이 지속적으로 메시지 처리"를 보장하지 않

가동 중지 시간 없이 예측할 수 없는 볼륨과 간헐적인 트래픽을 위한 기준 + 온디맨드용 예약 인스턴스입니다. 키워드: 1. 프로덕션 애플리케이션 2. 예측할 수 없는 볼륨 및 간헐적인 트래픽 3. 가동 중지 시간 없음 스팟 인스턴스는 더 저렴한 옵션이지만 가동 중지 시간을 보장할 수 없으며 가용성에도 영향을 받으므로 On을 선택하는 것이 최선의 선택입니다. - 수요 인스턴스.


#171⭐


한 회사는 품목 가격을 기준으로 세금 계산에 대한 조회를 자동화하는 API를 사용자에게 제공합니다. 회사에서는 연휴 기간에만 더 많은 문의가 발생하여 응답 시간이 느려집니다. 솔루션 아키텍트는 확장 가능하고 탄력적인 솔루션을 설계해야 합니다.

이를 달성하기 위해 솔루션 설계자는 무엇을 해야 합니까?

  • A. Amazon EC2 인스턴스에서 호스팅되는 API를 제공하십시오. EC2 인스턴스는 API 요청이 이루어질 때 필요한 계산을 수행합니다.
  • B. 항목 이름을 허용하는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 AWS Lambda에 전달합니다.
  • C. 뒤에 두 개의 Amazon EC2 인스턴스가 있는 Application Load Balancer를 생성합니다. EC2 인스턴스는 받은 항목 이름에 대한 세금을 계산합니다.
  • D. Amazon EC2 인스턴스에 호스팅된 API와 연결되는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 수락하고 EC2 인스턴스에 전달합니다.
더보기
해설
  • A. Amazon EC2 인스턴스에서 호스팅되는 API를 제공하십시오. EC2 인스턴스는 API 요청이 이루어질 때 필요한 계산을 수행합니다.
  • B. 항목 이름을 허용하는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 AWS Lambda에 전달합니다.
  • C. 뒤에 두 개의 Amazon EC2 인스턴스가 있는 Application Load Balancer를 생성합니다. EC2 인스턴스는 받은 항목 이름에 대한 세금을 계산합니다.
  • D. Amazon EC2 인스턴스에 호스팅된 API와 연결되는 Amazon API Gateway를 사용하여 REST API를 설계합니다. API Gateway는 세금 계산을 위해 항목 이름을 수락하고 EC2 인스턴스에 전달합니다.

EC2는 확장이 가능하지만(Lambda보다 유연성이 떨어지더라도) A, C, D 모두 확장을 포함하지 않습니다. 이러한 답변은 모두 단일 EC2 인스턴스 또는 EC2 인스턴스 쌍에 관한 것입니다. 확장성과 탄력성을 포함하는 유일한 대답은 B


#172⭐



솔루션 아키텍트가 애플리케이션을 위한 새로운 Amazon CloudFront 배포판을 생성하고 있습니다. 사용자가 제출한 정보 중 일부는 민감한 정보입니다. 애플리케이션은 HTTPS를 사용하지만 또 다른 보안 계층이 필요합니다. 민감한 정보는 전체 애플리케이션 스택에서 보호되어야 하며 정보에 대한 액세스는 특정 애플리케이션으로 제한되어야 합니다.

솔루션 아키텍트는 어떤 조치를 취해야 합니까?

  • A. CloudFront 서명된 URL을 구성합니다.
  • B. CloudFront 서명 쿠키를 구성합니다.
  • C. CloudFront 필드 수준 암호화 프로필을 구성합니다.
  • D. CloudFront를 구성하고 뷰어 프로토콜 정책에 대해 오리진 프로토콜 정책 설정을 HTTPS 전용으로 설정합니다.
더보기
해설
  • A. CloudFront 서명된 URL을 구성합니다.
  • B. CloudFront 서명 쿠키를 구성합니다.
  • C. CloudFront 필드 수준 암호화 프로필을 구성합니다.
  • D. CloudFront를 구성하고 뷰어 프로토콜 정책에 대해 오리진 프로토콜 정책 설정을 HTTPS 전용으로 설정합니다.

옵션 A 및 옵션 B는 서명된 URL 또는 쿠키를 기반으로 특정 리소스 또는 콘텐츠에 대한 액세스를 제어하는 ​​데 사용

옵션 D는 최종 사용자와 CloudFront 간의 통신이 HTTPS로 암호화되도록 보장


#175⭐



한 전자상거래 회사에는 Amazon API Gateway와 AWS Lambda 함수를 사용하는 주문 처리 애플리케이션이 있습니다. 애플리케이션은 Amazon Aurora PostgreSQL 데이터베이스에 데이터를 저장합니다. 최근 판매 이벤트 중에 고객 주문이 갑자기 급증했습니다. 일부 고객에게 시간 초과가 발생하여 애플리케이션이 해당 고객의 주문을 처리하지 못했습니다.

솔루션 설계자는 열려 있는 연결 수가 많아 데이터베이스에서 CPU 사용률과 메모리 사용률이 높다는 사실을 확인했습니다. 솔루션 설계자는 애플리케이션을 최소한으로 변경하면서 시간 초과 오류를 방지해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Lambda 함수에 대해 프로비저닝된 동시성을 구성합니다. 여러 AWS 리전의 글로벌 데이터베이스가 되도록 데이터베이스를 수정합니다.
  • B. Amazon RDS Proxy를 사용하여 데이터베이스용 프록시를 생성합니다. 데이터베이스 엔드포인트 대신 RDS Proxy 엔드포인트를 사용하도록 Lambda 함수를 수정합니다.
  • C. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. API 게이트웨이의 쿼리 문자열 매개변수를 사용하여 트래픽을 읽기 전용 복제본으로 라우팅합니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 Aurora PostgreSQL에서 Amazon DynamoDB로 데이터를 마이그레이션합니다. DynamoDB 테이블을 사용하도록 Lambda 함수를 수정합니다.
더보기
해설
  • A. Lambda 함수에 대해 프로비저닝된 동시성을 구성합니다. 여러 AWS 리전의 글로벌 데이터베이스가 되도록 데이터베이스를 수정합니다.
  • B. Amazon RDS Proxy를 사용하여 데이터베이스용 프록시를 생성합니다. 데이터베이스 엔드포인트 대신 RDS Proxy 엔드포인트를 사용하도록 Lambda 함수를 수정합니다.
  • C. 다른 AWS 리전에 있는 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. API 게이트웨이의 쿼리 문자열 매개변수를 사용하여 트래픽을 읽기 전용 복제본으로 라우팅합니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 Aurora PostgreSQL에서 Amazon DynamoDB로 데이터를 마이그레이션합니다. DynamoDB 테이블을 사용하도록 Lambda 함수를 수정합니다.

높은 CPU 및 메모리 사용량을 유발하는 연결 문제=> RDS 프록시

 

옵션 C(다른 AWS 리전에서 읽기 전용 복제본 생성)는 시간 초과 오류를 해결하는 데 필요하지 않을 수도 있는 추가 데이터 복제 및 관리 복잡성을 도입


#177⭐



한 엔터테인먼트 회사는 Amazon DynamoDB를 사용하여 미디어 메타데이터를 저장하고 있습니다. 애플리케이션이 읽기 집중적이어서 지연이 발생하고 있습니다. 회사에는 추가 운영 오버헤드를 처리할 직원이 없으며 애플리케이션을 재구성하지 않고 DynamoDB의 성능 효율성을 개선해야 합니다.

이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. Redis용 Amazon ElastiCache를 사용하세요.
  • B. Amazon DynamoDB Accelerator(DAX)를 사용합니다.
  • C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.
  • D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다
더보기
해설
  • A. Redis용 Amazon ElastiCache를 사용하세요.
  • B. Amazon DynamoDB Accelerator(DAX)를 사용합니다.
  • C. DynamoDB 전역 테이블을 사용하여 데이터를 복제합니다.
  • D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용합니다.

DAX는 DynamoDB Accelerator의 약자이며 DynamoDB 테이블의 터보 부스트와 같습니다. DynamoDB 테이블의 읽기 및 쓰기 성능을 가속화하는 완전 관리형 인메모리 캐시이므로 이전보다 더 빠르게 데이터를 얻을 수 있

 

A. Redis용 Amazon ElastiCache를 사용하려면 애플리케이션 코드를 수정해야 하며 DynamoDB 성능을 향상시키도록 특별히 설계된 것은 아닙

D. 자동 검색이 활성화된 Memcached용 Amazon ElastiCache를 사용하려면 애플리케이션 코드 수정이 필요하며 DynamoDB 성능 향상을 위해 특별히 설계되지 않았


#181⭐



회사에는 Amazon EC2 인스턴스에서 실행되는 레거시 데이터 처리 애플리케이션이 있습니다. 데이터는 순차적으로 처리되지만 결과의 순서는 중요하지 않습니다. 애플리케이션은 모놀리식 아키텍처를 사용합니다. 회사가 증가하는 수요를 충족하기 위해 애플리케이션을 확장할 수 있는 유일한 방법은 인스턴스 크기를 늘리는 것입니다.

이 회사의 개발자는 Amazon Elastic Container Service(Amazon ECS)에서 마이크로서비스 아키텍처를 사용하도록 애플리케이션을 다시 작성하기로 결정했습니다.

솔루션 설계자는 마이크로서비스 간 통신을 위해 무엇을 권장해야 합니까?

  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 데이터 생산자에 코드를 추가하고 데이터를 큐로 보냅니다. 큐의 데이터를 처리하기 위해 데이터 소비자에 코드를 추가합니다.
  • B. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 데이터 생산자에 코드를 추가하고 주제에 알림을 게시합니다. 주제를 구독하려면 데이터 소비자에 코드를 추가하세요.
  • C. 메시지를 전달하는 AWS Lambda 함수를 생성합니다. 데이터 객체로 Lambda 함수를 호출하려면 데이터 생산자에 코드를 추가하세요. Lambda 함수에서 전달된 데이터 객체를 수신하려면 데이터 소비자에 코드를 추가하세요.
  • D. Amazon DynamoDB 테이블을 생성합니다. DynamoDB 스트림을 활성화합니다. 데이터 생산자에 코드를 추가하여 테이블에 데이터를 삽입합니다. DynamoDB Streams API를 사용하여 새 테이블 항목을 감지하고 데이터를 검색하도록 데이터 소비자에 코드를 추가합니다.
더보기
해설
  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 데이터 생산자에 코드를 추가하고 데이터를 큐로 보냅니다. 큐의 데이터를 처리하기 위해 데이터 소비자에 코드를 추가합니다.
  • B. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 데이터 생산자에 코드를 추가하고 주제에 알림을 게시합니다. 주제를 구독하려면 데이터 소비자에 코드를 추가하세요.
  • C. 메시지를 전달하는 AWS Lambda 함수를 생성합니다. 데이터 객체로 Lambda 함수를 호출하려면 데이터 생산자에 코드를 추가하세요. Lambda 함수에서 전달된 데이터 객체를 수신하려면 데이터 소비자에 코드를 추가하세요.
  • D. Amazon DynamoDB 테이블을 생성합니다. DynamoDB 스트림을 활성화합니다. 데이터 생산자에 코드를 추가하여 테이블에 데이터를 삽입합니다. DynamoDB Streams API를 사용하여 새 테이블 항목을 감지하고 데이터를 검색하도록 데이터 소비자에 코드를 추가합니다.

Amazon Simple Notification Service(SNS)를 사용하는 옵션 B는 이 사용 사례에 적합하지 않습니다. SNS는 지점 간 통신이 아닌 일대다 통신을 위해 설계된 게시/구독 메시징 서비스이기 때문

 

데이터는 순차적으로 처리되지만 결과의 순서는 중요하지 않습니다 => SQS; 순서가 중요한 경우 => SQL FIFO


#182



한 회사에서 MySQL 데이터베이스를 온프레미스에서 AWS로 마이그레이션하려고 합니다. 이 회사는 최근 비즈니스에 큰 영향을 미치는 데이터베이스 중단을 경험했습니다. 이런 일이 다시 발생하지 않도록 회사는 데이터 손실을 최소화하고 모든 트랜잭션을 최소 두 개의 노드에 저장하는 안정적인 AWS 기반 데이터베이스 솔루션을 원합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 3개의 가용 영역에 있는 3개의 노드에 대한 동기식 복제를 통해 Amazon RDS DB 인스턴스를 생성합니다.
  • B. 데이터를 동기식으로 복제할 수 있는 다중 AZ 기능을 사용하여 Amazon RDS MySQL DB 인스턴스를 생성합니다.
  • C. Amazon RDS MySQL DB 인스턴스를 생성한 다음 데이터를 동기식으로 복제하는 별도의 AWS 리전에 읽기 전용 복제본을 생성합니다.
  • D. AWS Lambda 함수를 트리거하여 데이터를 Amazon RDS MySQL DB 인스턴스에 동기식으로 복제하는 MySQL 엔진이 설치된 Amazon EC2 인스턴스를 생성합니다.
더보기
해설
  • A. 3개의 가용 영역에 있는 3개의 노드에 대한 동기식 복제를 통해 Amazon RDS DB 인스턴스를 생성합니다.
  • B. 데이터를 동기식으로 복제할 수 있는 다중 AZ 기능을 사용하여 Amazon RDS MySQL DB 인스턴스를 생성합니다.
  • C. Amazon RDS MySQL DB 인스턴스를 생성한 다음 데이터를 동기식으로 복제하는 별도의 AWS 리전에 읽기 전용 복제본을 생성합니다.
  • D. AWS Lambda 함수를 트리거하여 데이터를 Amazon RDS MySQL DB 인스턴스에 동기식으로 복제하는 MySQL 엔진이 설치된 Amazon EC2 인스턴스를 생성합니다.

#183



한 회사에서 새로운 동적 주문 웹사이트를 구축하고 있습니다. 회사는 서버 유지 관리 및 패치를 최소화하려고 합니다. 웹 사이트는 가용성이 높아야 하며 사용자 수요 변화에 맞춰 읽기 및 쓰기 용량을 최대한 빨리 확장해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 대한 온디맨드 용량이 있는 Amazon DynamoDB를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • B. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • C. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에 대해 프로비저닝된 쓰기 용량이 있는 Amazon DynamoDB를 사용합니다.
  • D. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오.
더보기
해설
  • A. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에 대한 온디맨드 용량이 있는 Amazon DynamoDB를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • B. Amazon S3에서 정적 콘텐츠를 호스팅합니다. Amazon API Gateway 및 AWS Lambda를 사용하여 동적 콘텐츠를 호스팅합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오. 웹 사이트 콘텐츠를 제공하도록 Amazon CloudFront를 구성합니다.
  • C. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에 대해 프로비저닝된 쓰기 용량이 있는 Amazon DynamoDB를 사용합니다.
  • D. Amazon EC2 인스턴스에서 모든 웹사이트 콘텐츠를 호스팅합니다. EC2 인스턴스를 확장하려면 Auto Scaling 그룹을 생성하세요. Application Load Balancer를 사용하여 트래픽을 분산합니다. 데이터베이스에는 Aurora Auto Scaling과 함께 Amazon Aurora를 사용하십시오.

#184⭐


회사에는 소프트웨어 엔지니어링에 사용되는 AWS 계정이 있습니다. AWS 계정은 한 쌍의 AWS Direct Connect 연결을 통해 회사의 온프레미스 데이터 센터에 액세스할 수 있습니다. VPC가 아닌 모든 트래픽은 가상 프라이빗 게이트웨이로 라우팅됩니다.

개발 팀은 최근 콘솔을 통해 AWS Lambda 함수를 생성했습니다. 개발팀은 해당 기능이 회사 데이터 센터의 프라이빗 서브넷에서 실행되는 데이터베이스에 액세스할 수 있도록 허용해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 적절한 보안 그룹을 사용하여 VPC에서 실행되도록 Lambda 함수를 구성합니다.
  • B. AWS에서 데이터 센터로 VPN 연결을 설정합니다. VPN을 통해 Lambda 함수의 트래픽을 라우팅합니다.
  • C. Lambda 함수가 Direct Connect를 통해 온프레미스 데이터 센터에 액세스할 수 있도록 VPC의 라우팅 테이블을 업데이트합니다.
  • D. 탄력적 IP 주소를 생성합니다. 탄력적 네트워크 인터페이스 없이 탄력적 IP 주소를 통해 트래픽을 전송하도록 Lambda 함수를 구성합니다.
더보기
해설
  • A. 적절한 보안 그룹을 사용하여 VPC에서 실행되도록 Lambda 함수를 구성합니다.
  • B. AWS에서 데이터 센터로 VPN 연결을 설정합니다. VPN을 통해 Lambda 함수의 트래픽을 라우팅합니다.
  • C. Lambda 함수가 Direct Connect를 통해 온프레미스 데이터 센터에 액세스할 수 있도록 VPC의 라우팅 테이블을 업데이트합니다.
  • D. 탄력적 IP 주소를 생성합니다. 탄력적 네트워크 인터페이스 없이 탄력적 IP 주소를 통해 트래픽을 전송하도록 Lambda 함수를 구성합니다.

질문에서 VPC가 이미 온프레미스와 연결되어 있다고 언급한 C는 전혀 올바르지 않

Lambda 함수를 VPN에 연결하고 보안 그룹에서 트래픽을 허용

C가 아니라 이미 경로가 설정되어 있습


#187


한 회사는 로드 밸런싱된 프런트 엔드, 컨테이너 기반 애플리케이션 및 관계형 데이터베이스로 구성되는 전자 상거래 애플리케이션을 개발하고 있습니다. 솔루션 설계자는 수동 개입을 최대한 최소화하면서 작동하는 가용성이 뛰어난 솔루션을 만들어야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (2개를 선택하세요.)

  • A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.
  • B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 복제본을 생성합니다.
  • C. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.
  • D. 동적 애플리케이션 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
  • E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
더보기
해설
  • A. 다중 AZ 모드에서 Amazon RDS DB 인스턴스를 생성합니다.
  • B. 다른 가용 영역에 Amazon RDS DB 인스턴스와 하나 이상의 복제본을 생성합니다.
  • C. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 인스턴스 기반 Docker 클러스터를 생성합니다.
  • D. 동적 애플리케이션 로드를 처리하기 위해 Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.
  • E. 동적 애플리케이션 로드를 처리하기 위해 Amazon EC2 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다.

#188


회사는 Amazon S3를 데이터 레이크로 사용합니다. 회사에는 데이터 파일을 업로드하기 위해 SFTP를 사용해야 하는 새로운 파트너가 있습니다. 솔루션 설계자는 운영 오버헤드를 최소화하는 고가용성 SFTP 솔루션을 구현해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS Transfer Family를 사용하여 공개적으로 액세스 가능한 엔드포인트로 SFTP 지원 서버를 구성하십시오. S3 데이터 레이크를 대상으로 선택합니다.
  • B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용하십시오. S3 파일 게이트웨이 엔드포인트 URL을 새 파트너에 노출합니다. S3 파일 게이트웨이 엔드포인트를 새 파트너와 공유합니다.
  • C. VP의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. 새 파트너에게 VPN을 사용하여 EC2 인스턴스에 파일을 업로드하도록 지시합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
  • D. VPC의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 Network Load Balancer(NLB)를 배치합니다. NLB용 SFTP 수신기 포트를 만듭니다. NLB 호스트 이름을 새 파트너와 공유합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
더보기
해설
  • A. AWS Transfer Family를 사용하여 공개적으로 액세스 가능한 엔드포인트로 SFTP 지원 서버를 구성하십시오. S3 데이터 레이크를 대상으로 선택합니다.
  • B. Amazon S3 파일 게이트웨이를 SFTP 서버로 사용하십시오. S3 파일 게이트웨이 엔드포인트 URL을 새 파트너에 노출합니다. S3 파일 게이트웨이 엔드포인트를 새 파트너와 공유합니다.
  • C. VP의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. 새 파트너에게 VPN을 사용하여 EC2 인스턴스에 파일을 업로드하도록 지시합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.
  • D. VPC의 프라이빗 서브넷에서 Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스 앞에 Network Load Balancer(NLB)를 배치합니다. NLB용 SFTP 수신기 포트를 만듭니다. NLB 호스트 이름을 새 파트너와 공유합니다. EC2 인스턴스에서 cron 작업 스크립트를 실행하여 S3 데이터 레이크에 파일을 업로드합니다.

#189



회사는 계약 문서를 저장해야 합니다. 계약은 5년 동안 지속됩니다. 회사는 5년 동안 문서를 덮어쓰거나 삭제할 수 없도록 보장해야 합니다. 회사는 저장되어 있는 문서를 암호화하고 매년 자동으로 암호화 키를 순환시켜야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
  • A. Amazon S3에 문서를 저장합니다. 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
  • B. Amazon S3에 문서를 저장합니다. 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • C. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
  • D. AWS Key Management Service(AWS KMS) 고객 관리형 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
  • E. AWS KMS(AWS Key Management Service) 고객 제공(가져온) 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
더보기
해설
  • A. Amazon S3에 문서를 저장합니다. 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
  • B. Amazon S3에 문서를 저장합니다. 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • C. Amazon S3 관리형 암호화 키(SSE-S3)로 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
  • D. AWS Key Management Service(AWS KMS) 고객 관리형 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.
  • E. AWS KMS(AWS Key Management Service) 고객 제공(가져온) 키와 함께 서버 측 암호화를 사용합니다. 키 순환을 구성합니다.

A - 거버넌스 모드에서는 예외를 허용합니다. B - 예 C - SSE-S3는 고객이 원할 때가 아니라("매년") AWS가 옳다고 생각할 때 키를 순환합니다. D - 예 E - "고객 제공(가져온) 키"는 ' 자동으로 교체'되는 경우 고객은 새 키를 제공/가져와야 합


#190⭐



한 회사에 Java 및 PHP를 기반으로 하는 웹 애플리케이션이 있습니다. 회사는 애플리케이션을 온프레미스에서 AWS로 이동할 계획입니다. 회사는 새로운 사이트 기능을 자주 테스트할 수 있는 능력이 필요합니다. 또한 회사에는 최소한의 운영 오버헤드가 필요한 고가용성 관리형 솔루션이 필요합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon S3 버킷을 생성합니다. S3 버킷에서 정적 웹 호스팅을 활성화합니다. S3 버킷에 정적 콘텐츠를 업로드합니다. AWS Lambda를 사용하여 모든 동적 콘텐츠를 처리합니다.
  • B. 웹 애플리케이션을 AWS Elastic Beanstalk 환경에 배포합니다. 기능 테스트를 위해 URL 교환을 사용하여 여러 Elastic Beanstalk 환경 간에 전환합니다.
  • C. Java 및 PHP로 구성된 Amazon EC2 인스턴스에 웹 애플리케이션을 배포합니다. Auto Scaling 그룹과 Application Load Balancer를 사용하여 웹 사이트의 가용성을 관리합니다.
  • D. 웹 애플리케이션을 컨테이너화합니다. 웹 애플리케이션을 Amazon EC2 인스턴스에 배포합니다. AWS 로드 밸런서 컨트롤러를 사용하면 테스트용 새 사이트 기능이 포함된 컨테이너 간에 트래픽을 동적으로 라우팅할 수 있습니다.
더보기
해설
  • A. Amazon S3 버킷을 생성합니다. S3 버킷에서 정적 웹 호스팅을 활성화합니다. S3 버킷에 정적 콘텐츠를 업로드합니다. AWS Lambda를 사용하여 모든 동적 콘텐츠를 처리합니다.
  • B. 웹 애플리케이션을 AWS Elastic Beanstalk 환경에 배포합니다. 기능 테스트를 위해 URL 교환을 사용하여 여러 Elastic Beanstalk 환경 간에 전환합니다.
  • C. Java 및 PHP로 구성된 Amazon EC2 인스턴스에 웹 애플리케이션을 배포합니다. Auto Scaling 그룹과 Application Load Balancer를 사용하여 웹 사이트의 가용성을 관리합니다.
  • D. 웹 애플리케이션을 컨테이너화합니다. 웹 애플리케이션을 Amazon EC2 인스턴스에 배포합니다. AWS 로드 밸런서 컨트롤러를 사용하면 테스트용 새 사이트 기능이 포함된 컨테이너 간에 트래픽을 동적으로 라우팅할 수 있습니다.

A와 C는 기능 테스트를 허용하지 않

A. 정적 콘텐츠 호스팅에는 S3를 사용하고 동적 콘텐츠에는 Lambda를 사용하는 것이 좋

정적 컨텐츠에 대한 단순성을 제공하지만 Java 및 PHP 기반 웹 애플리케이션에 필요한 유연성과 동적 기능을 제공하지 않습

 

B. 최소한의 운영 오버헤드로 가용성이 높고 관리되는 솔루션을 제공합니다. 웹 애플리케이션을 EBS에 배포함으로써 인프라 및 플랫폼 관리가 추상화되어 배포와 확장이 용이해집니다. URL 교환을 사용하면 새로운 사이트 기능을 테스트하기 위한 다양한 환경을 생성할 수 있으며 가동 중지 시간 없이 이러한 환경 간에 트래픽을 라우팅할 수 있


#193⭐



한 회사가 Amazon EC2 인스턴스에서 배치 애플리케이션을 실행하고 있습니다. 애플리케이션은 여러 Amazon RDS 데이터베이스가 포함된 백엔드로 구성됩니다. 애플리케이션으로 인해 데이터베이스에서 많은 읽기가 발생하고 있습니다. 솔루션 설계자는 고가용성을 보장하면서 데이터베이스 읽기 수를 줄여야 합니다.

이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon RDS 읽기 전용 복제본을 추가하세요.
  • B. Redis용 Amazon ElastiCache를 사용합니다.
  • C. Amazon Route 53 DNS 캐싱 사용
  • D. Memcached용 Amazon ElastiCache를 사용하십시오
더보기
해설
  • A. Amazon RDS 읽기 전용 복제본을 추가하세요.
  • B. Redis용 Amazon ElastiCache를 사용합니다.
  • C. Amazon Route 53 DNS 캐싱 사용
  • D. Memcached용 Amazon ElastiCache를 사용하십시오

A는 기본 데이터베이스에서 "데이터베이스 읽기 수를 줄이지만" 일반적으로 "데이터베이스 읽기 수"를 줄이지는 않습니다. 복제본에서만 이전과 정확히 동일한 수의 "데이터베이스 읽기"를 수행합니다.

B - 애플리케이션 변경이 필요하지만 "고가용성을 보장하면서 데이터베이스 읽기 횟수를 줄입

 

ElastiCache 특성은 Redis가 HA를 제공하지만

Memcached는 HA를 제공하지 않는다는 점


#194⭐



회사는 AWS에서 중요한 애플리케이션을 실행해야 합니다. 회사는 애플리케이션 데이터베이스로 Amazon EC2를 사용해야 합니다. 데이터베이스는 가용성이 높아야 하며 중단 이벤트가 발생할 경우 자동으로 장애 조치되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 동일한 AWS 리전의 서로 다른 가용 영역에서 각각 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. EC2 인스턴스를 클러스터로 구성합니다. 데이터베이스 복제를 설정합니다.
  • B. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생할 경우 AWS CloudFormation을 사용하여 EC2 인스턴스 프로비저닝을 자동화합니다.
  • C. 각각 다른 AWS 리전에서 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. 데이터베이스 복제를 설정합니다. 데이터베이스를 두 번째 리전으로 장애 조치합니다.
  • D. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하는 경우 EC2 자동 복구를 사용하여 인스턴스를 복구합니다.
더보기
해설
  • A. 동일한 AWS 리전의 서로 다른 가용 영역에서 각각 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. EC2 인스턴스를 클러스터로 구성합니다. 데이터베이스 복제를 설정합니다.
  • B. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생할 경우 AWS CloudFormation을 사용하여 EC2 인스턴스 프로비저닝을 자동화합니다.
  • C. 각각 다른 AWS 리전에서 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스 모두에 데이터베이스를 설치합니다. 데이터베이스 복제를 설정합니다. 데이터베이스를 두 번째 리전으로 장애 조치합니다.
  • D. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하는 경우 EC2 자동 복구를 사용하여 인스턴스를 복구합니다.

A는 HA입니다. D는 DR

B와 D는 단일 인스턴스를 사용하고 오류가 발생할 경우 이전 AMI를 복원하는 것과 관련이 있습니다.

즉, HA A가 정확하고 서로 다른 AZ가 AWS의 HA 정의를 충족하며 "클러스터"가 자동 장애 조치를 처리해야 합니다. C에는 요구 사항을 충족하지 않는 수동 장애 조치가 포함


#195⭐



회사의 주문 시스템은 클라이언트의 요청을 Amazon EC2 인스턴스로 보냅니다. EC2 인스턴스는 주문을 처리한 다음 Amazon RDS의 데이터베이스에 주문을 저장합니다. 사용자들은 시스템에 오류가 발생하면 주문을 다시 처리해야 한다고 보고합니다. 회사는 시스템 중단이 발생할 경우 자동으로 주문을 처리할 수 있는 탄력적인 솔루션을 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Elastic Container Service(Amazon ECS) 작업을 대상으로 하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
  • B. EC2 인스턴스를 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹으로 이동합니다. ALB 엔드포인트에 메시지를 보내도록 주문 시스템을 업데이트합니다.
  • C. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지를 보내도록 주문 시스템을 구성합니다. 대기열의 메시지를 사용하도록 EC2 인스턴스를 구성합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. AWS Lambda 함수를 생성하고 함수를 SNS 주제에 구독합니다. SNS 주제에 메시지를 보내도록 주문 시스템을 구성합니다. AWS Systems Manager Run Command를 사용하여 메시지를 처리하도록 EC2 인스턴스에 명령을 보냅니다.
더보기
해설
  • A. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Elastic Container Service(Amazon ECS) 작업을 대상으로 하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다.
  • B. EC2 인스턴스를 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹으로 이동합니다. ALB 엔드포인트에 메시지를 보내도록 주문 시스템을 업데이트합니다.
  • C. EC2 인스턴스를 Auto Scaling 그룹으로 이동합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에 메시지를 보내도록 주문 시스템을 구성합니다. 대기열의 메시지를 사용하도록 EC2 인스턴스를 구성합니다.
  • D. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. AWS Lambda 함수를 생성하고 함수를 SNS 주제에 구독합니다. SNS 주제에 메시지를 보내도록 주문 시스템을 구성합니다. AWS Systems Manager Run Command를 사용하여 메시지를 처리하도록 EC2 인스턴스에 명령을 보냅니다.

D. SNS 및 Lambda를 사용하면 알림 및 오케스트레이션 기능을 제공할 수 있지만 중단 시 자동 주문 처리에 필요한 메시지 대기열 및 소비는 제공되지 않


#196⭐



한 회사가 대규모 Amazon EC2 인스턴스에서 애플리케이션을 실행하고 있습니다. 애플리케이션은 Amazon DynamoDB 테이블의 항목을 읽고 씁니다. DynamoDB 테이블의 크기는 지속적으로 증가하지만 애플리케이션에는 지난 30일 동안의 데이터만 필요합니다. 회사에는 비용과 개발 노력을 최소화하는 솔루션이 필요합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포하십시오. 30일마다 CloudFormation 스택을 재배포하고 원본 스택을 삭제합니다.
  • B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용하십시오. 테이블에 새 항목이 생성될 때 Amazon DynamoDB 스트림을 사용하여 타임스탬프를 저장하도록 모니터링 애플리케이션을 구성합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 30일보다 오래된 타임스탬프가 있는 항목을 삭제합니다.
  • C. 테이블에 새 항목이 생성될 때 AWS Lambda 함수를 호출하도록 Amazon DynamoDB 스트림을 구성합니다. 테이블에서 30일이 지난 항목을 삭제하도록 Lambda 함수를 구성합니다.
  • D. 테이블에 생성된 각 새 항목에 현재 타임스탬프에 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. 해당 속성을 TTL 속성으로 사용하도록 DynamoDB를 구성합니다.
더보기
해설
  • A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포하십시오. 30일마다 CloudFormation 스택을 재배포하고 원본 스택을 삭제합니다.
  • B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용하십시오. 테이블에 새 항목이 생성될 때 Amazon DynamoDB 스트림을 사용하여 타임스탬프를 저장하도록 모니터링 애플리케이션을 구성합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 30일보다 오래된 타임스탬프가 있는 항목을 삭제합니다.
  • C. 테이블에 새 항목이 생성될 때 AWS Lambda 함수를 호출하도록 Amazon DynamoDB 스트림을 구성합니다. 테이블에서 30일이 지난 항목을 삭제하도록 Lambda 함수를 구성합니다.
  • D. 테이블에 생성된 각 새 항목에 현재 타임스탬프에 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. 해당 속성을 TTL 속성으로 사용하도록 DynamoDB를 구성합니다.

A와 B는 아무것도 해결하지 못합니다.

C와 D 사이에서 C는 Lambda 실행으로 인해 더 많은 비용이 필요

 

옵션 A에는 AWS CloudFormation을 사용하여 30일마다 솔루션을 재배포하는 것이 포함되지만, 이를 위해서는 상당한 개발 노력이 필요하고 애플리케이션 가동 중지 시간이 발생할 수 있습

옵션 B에는 EC2 인스턴스와 모니터링 애플리케이션을 사용하여 30일이 지난 항목을 삭제하는 것이 포함되지만 이를 위해서는 추가 인프라 및 유지 관리 노력이 필요합니다. 옵션 C에는 DynamoDB Streams 및 Lambda 함수를 사용하여 30일이 지난 항목을 삭제하는 작업이 포함되지만 이를 위해서는 추가 인프라 및 유지 관리 노력이 필요


#199⭐



한 텔레마케팅 회사가 AWS에서 고객 콜 센터 기능을 설계하고 있습니다. 회사에는 다중 화자 인식 기능을 제공하고 스크립트 파일을 생성하는 솔루션이 필요합니다. 회사는 비즈니스 패턴을 분석하기 위해 기록 파일을 쿼리하려고 합니다. 녹취록 파일은 감사 목적으로 7년 동안 보관해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 대본 파일 분석을 위해 기계 학습 모델을 사용합니다.
  • B. 여러 화자를 인식하려면 Amazon Transcribe를 사용하십시오. 기록 파일 분석에는 Amazon Athena를 사용하십시오.
  • C. 여러 화자를 인식하려면 Amazon Translate를 사용하십시오. Amazon Redshift에 기록 파일을 저장합니다. 성적 파일 분석을 위해 SQL 쿼리를 사용합니다.
  • D. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 기록 파일 분석에는 Amazon Textract를 사용하십시오.
더보기
해설
  • A. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 대본 파일 분석을 위해 기계 학습 모델을 사용합니다.
  • B. 여러 화자를 인식하려면 Amazon Transcribe를 사용하십시오. 기록 파일 분석에는 Amazon Athena를 사용하십시오.
  • C. 여러 화자를 인식하려면 Amazon Translate를 사용하십시오. Amazon Redshift에 기록 파일을 저장합니다. 성적 파일 분석을 위해 SQL 쿼리를 사용합니다.
  • D. 여러 화자를 인식하려면 Amazon Rekognition을 사용하십시오. Amazon S3에 기록 파일을 저장합니다. 기록 파일 분석에는 Amazon Textract를 사용하십시오.

Rekognition 및 Translate는 음성을 텍스트로 변환할 수 없으므로 해당 옵션 A, C 및 D가 사라졌습

https://aws.amazon.com/de/blogs/machine-learning/automating-the-analytic-of-multi-speaker-audio-files-using-amazon-transcribe-and-amazon-athena/

Amazon Rekognition은 음성 언어를 텍스트로 변환하는 것이 아니라 이미지와 비디오를 분석하는 서비스

Amazon Translate는 음성 언어를 전사하는 것이 아니라 텍스트를 한 언어에서 다른 언어로 번역

Amazon Textract는 음성 언어를 전사하는 것이 아니라 문서와 이미지에서 텍스트와 데이터를 추출하는 서비스


#200


회사는 AWS에서 애플리케이션을 호스팅합니다. 회사는 Amazon Cognito를 사용하여 사용자를 관리합니다. 사용자가 애플리케이션에 로그인하면 애플리케이션은 Amazon API Gateway에서 호스팅되는 REST API를 사용하여 Amazon DynamoDB에서 필요한 데이터를 가져옵니다. 회사는 개발 노력을 줄이기 위해 REST API에 대한 액세스를 제어하는 ​​AWS 관리형 솔루션을 원합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 어떤 사용자가 요청했는지 확인하기 위해 API Gateway에서 권한 부여자가 되도록 AWS Lambda 함수를 구성합니다.
  • B. 각 사용자에 대해 각 요청과 함께 전송되어야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
  • C. 요청할 때마다 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자에게 적절한 액세스 권한이 있는지 확인하십시오.
  • D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.
더보기
해설
  • A. 어떤 사용자가 요청했는지 확인하기 위해 API Gateway에서 권한 부여자가 되도록 AWS Lambda 함수를 구성합니다.
  • B. 각 사용자에 대해 각 요청과 함께 전송되어야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
  • C. 요청할 때마다 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자에게 적절한 액세스 권한이 있는지 확인하십시오.
  • D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.

 

728x90
728x90

★*반복해서 틀렸던 것 위주

#01

한 회사는 여러 대륙에 걸쳐 도시의 온도, 습도, 기압에 대한 데이터를 수집합니다. 회사가 매일 각 사이트에서 수집하는 평균 데이터 양은 500GB입니다. 각 사이트에는 고속 인터넷 연결이 제공됩니다.

회사는 이러한 모든 글로벌 사이트의 데이터를 단일 Amazon S3 버킷에 가능한 한 빨리 집계하려고 합니다. 솔루션은 운영상의 복잡성을 최소화해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 지역의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
  • D. 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.
더보기
해설
  • A. 대상 S3 버킷에서 S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 S3 버킷에 직접 업로드합니다.
  • B. 각 사이트의 데이터를 가장 가까운 지역의 S3 버킷에 업로드합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다. 그런 다음 원본 S3 버킷에서 데이터를 제거합니다.
  • C. 매일 AWS Snowball Edge Storage Optimized 디바이스 작업을 예약하여 각 사이트에서 가장 가까운 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 S3 버킷에 객체를 복사합니다.
  • D. 각 사이트의 데이터를 가장 가까운 지역의 Amazon EC2 인스턴스에 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 정기적으로 EBS 스냅샷을 찍어 대상 S3 버킷이 포함된 리전에 복사합니다. 해당 리전에서 EBS 볼륨을 복원합니다.

고속 인터넷 연결, 글로벌 사이트, S3에 가능한 빨리 집계 => Acceleration

자매품으로 CDN과 Snowball

Snowball => 전송속도 제한, 업로드 기간 정해짐


#06

회사에서는 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 최소한의 네트워크 대역폭을 사용하면서 가능한 한 빨리 비디오 파일을 마이그레이션해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
  • B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
  • C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
  • D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
더보기
해설
  • A. S3 버킷을 생성합니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 생성합니다. AWS CLI를 사용하여 모든 파일을 S3 버킷에 로컬로 복사합니다.
  • B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
  • C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
  • D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.

최소한의 네트워크 대역폭, 대용량 비디오 파일 => Snowball


#12

한 글로벌 기업이 ALB(Application Load Balancer) 뒤의 Amazon EC2 인스턴스에서 웹 애플리케이션을 호스팅합니다. 웹 애플리케이션에는 정적 데이터와 동적 데이터가 있습니다. 회사는 정적 데이터를 Amazon S3 버킷에 저장합니다. 회사는 정적 데이터와 동적 데이터에 대한 성능을 향상하고 대기 시간을 줄이고 싶어합니다. 회사는 Amazon Route 53에 등록된 자체 도메인 이름을 사용하고 있습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • B. ALB를 원본으로 하는 Amazon CloudFront 배포판을 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • C. S3 버킷을 원본으로 하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
  • D. ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
더보기
해설
  • A. S3 버킷과 ALB를 오리진으로 포함하는 Amazon CloudFront 배포를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • B. ALB를 원본으로 하는 Amazon CloudFront 배포판을 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 트래픽을 CloudFront 배포로 라우팅하도록 Route 53을 구성합니다.
  • C. S3 버킷을 원본으로 하는 Amazon CloudFront 배포를 생성합니다. ALB 및 CloudFront 배포를 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 가속기 DNS 이름을 가리키는 사용자 지정 도메인 이름을 만듭니다. 사용자 지정 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.
  • D. ALB를 오리진으로 하는 Amazon CloudFront 배포를 생성합니다. S3 버킷을 엔드포인트로 포함하는 AWS Global Accelerator 표준 액셀러레이터를 생성합니다. 두 개의 도메인 이름을 만듭니다. 동적 콘텐츠의 CloudFront DNS 이름에 하나의 도메인 이름을 지정합니다. 다른 도메인 이름이 정적 콘텐츠의 가속기 DNS 이름을 가리키도록 합니다. 도메인 이름을 웹 애플리케이션의 엔드포인트로 사용합니다.

정적 + 동적, 성능향상 대기시간 줄이고 => CloudFront


#14 ★

한 회사가 Application Load Balancer 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 애플리케이션을 실행합니다. 인스턴스는 여러 가용 영역에 걸쳐 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. Auto Scaling 그룹은 CPU 사용률 지표를 기준으로 확장됩니다. 전자상거래 애플리케이션은 대규모 EC2 인스턴스에서 호스팅되는 MySQL 8.0 데이터베이스에 거래 데이터를 저장합니다.
애플리케이션 로드가 증가하면 데이터베이스 성능이 빠르게 저하됩니다. 애플리케이션은 쓰기 트랜잭션보다 더 많은 읽기 요청을 처리합니다. 회사는 고가용성을 유지하면서 예측할 수 없는 읽기 작업 부하의 수요를 충족하기 위해 데이터베이스를 자동으로 확장하는 솔루션을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
  • B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
  • C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
  • D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용하십시오.
더보기
해설
  • A. 리더 및 컴퓨팅 기능을 위해 단일 노드와 함께 Amazon Redshift를 사용하십시오.
  • B. 단일 AZ 배포와 함께 Amazon RDS 사용 다른 가용 영역에 리더 인스턴스를 추가하도록 Amazon RDS를 구성합니다.
  • C. 다중 AZ 배포와 함께 Amazon Aurora를 사용하십시오. Aurora 복제본으로 Aurora Auto Scaling을 구성합니다.
  • D. EC2 스팟 인스턴스와 함께 Memcached용 Amazon ElastiCache를 사용하십시오.

고가용성 => 다중 AZ배포


#15★

한 회사는 최근 AWS로 마이그레이션했으며 프로덕션 VPC에 들어오고 나가는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 갖고 있었습니다. 점검서버는 트래픽 흐름 점검, 트래픽 필터링 등의 특정 작업을 수행했다. 회사는 AWS 클라우드에서도 동일한 기능을 갖기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
  • B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
  • C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
  • D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
더보기
해설
  • A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
  • B. 트래픽 미러링을 사용하여 트래픽 검사 및 필터링을 위해 프로덕션 VPC의 트래픽을 미러링합니다.
  • C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
  • D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.

네트워크 방화벽


#16★


한 회사가 AWS에서 데이터 레이크를 호스팅하고 있습니다. 데이터 레이크는 Amazon S3 및 PostgreSQL용 Amazon RDS의 데이터로 구성됩니다. 회사에는 데이터 시각화를 제공하고 데이터 레이크 내의 모든 데이터 소스를 포함하는 보고 솔루션이 필요합니다. 회사의 관리팀만이 모든 시각화에 대한 전체 액세스 권한을 가져야 합니다. 회사의 나머지 부분은 제한된 액세스 권한만 가져야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

 

더보기
해설
  • A. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 IAM 역할과 대시보드를 공유합니다.
  • B. Amazon QuickSight에서 분석을 생성합니다. 모든 데이터 소스를 연결하고 새 데이터세트를 생성합니다. 데이터를 시각화하기 위해 대시보드를 게시합니다. 적절한 사용자 및 그룹과 대시보드를 공유합니다.
  • C. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. AWS Glue 추출, 변환 및 로드(ETL) 작업을 생성하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.
  • D. Amazon S3의 데이터에 대한 AWS Glue 테이블과 크롤러를 생성합니다. Amazon Athena Federated Query를 사용하여 PostgreSQL용 Amazon RDS 내의 데이터에 액세스합니다. Amazon Athena를 사용하여 보고서를 생성합니다. 보고서를 Amazon S3에 게시합니다. S3 버킷 정책을 사용하여 보고서에 대한 액세스를 제한합니다.

https://docs.aws.amazon.com/quicksight/latest/user/share-a-dashboard-grant-access-users.html

https://docs.aws.amazon.com/quicksight/latest/user/sharing-a-dashboard.html

QuickSight는 IAM을 지원하지 않음


#17


회사에서 새로운 비즈니스 애플리케이션을 구현하고 있습니다. 애플리케이션은 두 개의 Amazon EC2 인스턴스에서 실행되며 문서 저장을 위해 Amazon S3 버킷을 사용합니다. 솔루션 아키텍트는 EC2 인스턴스가 S3 버킷에 액세스할 수 있는지 확인해야 합니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
  • C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
  • D. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.
더보기
해설
  • A. S3 버킷에 대한 액세스 권한을 부여하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. S3 버킷에 대한 액세스 권한을 부여하는 IAM 정책을 생성합니다. EC2 인스턴스에 정책을 연결합니다.
  • C. S3 버킷에 대한 액세스 권한을 부여하는 IAM 그룹을 생성합니다. 그룹을 EC2 인스턴스에 연결합니다.
  • D. S3 버킷에 대한 액세스 권한을 부여하는 IAM 사용자를 생성합니다. 사용자 계정을 EC2 인스턴스에 연결합니다.

E


#18


애플리케이션 개발 팀은 큰 이미지를 더 작은 압축 이미지로 변환하는 마이크로서비스를 설계하고 있습니다. 사용자가 웹 인터페이스를 통해 이미지를 업로드하면 마이크로서비스는 이미지를 Amazon S3 버킷에 저장하고, AWS Lambda 함수를 사용하여 이미지를 처리 ​​및 압축한 다음, 다른 S3 버킷에 압축된 형식으로 이미지를 저장해야 합니다.
솔루션 아키텍트는 내구성이 뛰어난 상태 비저장 구성 요소를 사용하여 이미지를 자동으로 처리하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하는 작업 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C. S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E. S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.
더보기
해설
  • A. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 이미지가 S3 버킷에 업로드될 때 SQS 대기열에 알림을 보내도록 S3 버킷을 구성합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열을 호출 소스로 사용하도록 Lambda 함수를 구성합니다. SQS 메시지가 성공적으로 처리되면 대기열에서 메시지를 삭제합니다.
  • C. S3 버킷의 새 업로드를 모니터링하도록 Lambda 함수를 구성합니다. 업로드된 이미지가 감지되면 메모리의 텍스트 파일에 파일 이름을 쓰고 해당 텍스트 파일을 사용하여 처리된 이미지를 추적합니다.
  • D. Amazon EC2 인스턴스를 시작하여 Amazon Simple Queue Service(Amazon SQS) 대기열을 모니터링합니다. 항목이 대기열에 추가되면 EC2 인스턴스의 텍스트 파일에 파일 이름을 기록하고 Lambda 함수를 호출합니다.
  • E. S3 버킷을 모니터링하도록 Amazon EventBridge(Amazon CloudWatch Events) 이벤트를 구성합니다. 이미지가 업로드되면 추가 처리를 위해 애플리케이션 소유자의 이메일 주소와 함께 Amazon ample 알림 서비스(Amazon SNS) 주제에 알림을 보냅니다.

E


#19★


회사에는 AWS에 배포된 3티어 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 회사는 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 검사 VPC에 배포했습니다. 어플라이언스는 IP 패킷을 수락할 수 있는 IP 인터페이스로 구성됩니다.
솔루션 설계자는 웹 애플리케이션을 어플라이언스와 통합하여 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
  • D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.
더보기
해설
  • A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
  • C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
  • D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.

E


#21


한 전자 상거래 회사가 AWS에서 하루에 한 번 거래하는 웹 사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 하나의 제품이 판매됩니다. 회사는 피크 시간 동안 밀리초의 대기 시간으로 매시간 수백만 건의 요청을 처리할 수 있기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅하십시오. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
  • B. 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • D. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.
더보기
해설
  • A. Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅하십시오. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
  • B. 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
  • D. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.

E


#25


회사에서 애플리케이션을 설계하고 있습니다. 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 해당 정보를 Amazon Aurora PostgreSQL 데이터베이스에 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 대량의 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 설계자는 확장성을 향상하고 구성 노력을 최소화하기 위해 새로운 디자인을 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩터링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
  • B. 플랫폼을 Aurora에서 Amazon DynamoDProvision DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
  • C. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
  • D. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다
더보기
해설
  • A. Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩터링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
  • B. 플랫폼을 Aurora에서 Amazon DynamoDProvision DynamoDB Accelerator(DAX) 클러스터로 변경합니다. DAX 클라이언트 SDK를 사용하여 DAX 클러스터에서 기존 DynamoDB API 호출을 가리킵니다.
  • C. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
  • D. 두 개의 Lambda 함수를 설정합니다. 정보를 수신하는 하나의 기능을 구성하십시오. 정보를 데이터베이스에 로드하도록 다른 기능을 구성하십시오. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.

E


#27★


한 회사가 새로운 애플리케이션을 출시하고 있으며 Amazon CloudWatch 대시보드에 애플리케이션 지표를 표시합니다. 회사의 제품 관리자는 이 대시보드에 정기적으로 액세스해야 합니다. 제품 관리자에게는 AWS 계정이 없습니다. 솔루션 설계자는 최소 권한 원칙에 따라 제품 관리자에 대한 액세스를 제공해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료하세요. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공합니다.
  • B. 제품 관리자를 위해 특별히 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하세요.
  • C. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청하세요.
  • D. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유하세요. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명을 사용하여 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.
더보기
해설
  • A. CloudWatch 콘솔에서 대시보드를 공유합니다. 제품 관리자의 이메일 주소를 입력하고 공유 단계를 완료하세요. 대시보드에 대한 공유 가능한 링크를 제품 관리자에게 제공합니다.
  • B. 제품 관리자를 위해 특별히 IAM 사용자를 생성합니다. CloudWatchReadOnlyAccess AWS 관리형 정책을 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 올바른 대시보드의 브라우저 URL을 제품 관리자와 공유하세요.
  • C. 회사 직원을 위한 IAM 사용자를 생성합니다. ViewOnlyAccess AWS 관리형 정책을 IAM 사용자에게 연결합니다. 새 로그인 자격 증명을 제품 관리자와 공유하세요. 제품 관리자에게 CloudWatch 콘솔로 이동하여 대시보드 섹션에서 이름으로 대시보드를 찾으라고 요청하세요.
  • D. 퍼블릭 서브넷에 배스천 서버를 배포합니다. 제품 관리자가 대시보드에 액세스해야 하는 경우 서버를 시작하고 RDP 자격 증명을 공유하세요. 배스천 서버에서 대시보드를 볼 수 있는 적절한 권한이 있는 캐시된 AWS 자격 증명을 사용하여 대시보드 URL을 열도록 브라우저가 구성되어 있는지 확인합니다.

E


#29★


한 회사에서 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 이 회사는 여러 AWS 지역에 배포되어 있습니다.
회사는 사용자를 지연 시간이 가장 짧은 지역으로 라우팅해야 합니다. 회사에는 지역 간 자동화된 장애 조치도 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • B. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • C. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
  • D. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 기반 레코드를 생성합니다. 가중치 기반 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
더보기
해설
  • A. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • B. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
  • C. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
  • D. ALB(Application Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB의 별칭을 가리키는 Amazon Route 53 가중치 기반 레코드를 생성합니다. 가중치 기반 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.

https://aws.amazon.com/global-accelerator/faqs/

CloudFront는 엣지 로케이션을 사용하여 콘텐츠를 캐시하는 반면

Global Accelerator는 엣지 로케이션을 사용하여 가장 가까운 지역 엔드포인트에 대한 최적의 경로를 찾음

CloudFront는 HTTP 프로토콜을 처리

Global Accelerator는 TCP 및 UDP와 같은 HTTP 및 비 HTTP 프로토콜 모두에 가장 적합


#31


AWS에서 웹 애플리케이션을 호스팅하는 회사는 모든 Amazon EC2 인스턴스를 보장하려고 합니다. Amazon RDS DB 인스턴스. Amazon Redshift 클러스터는 태그로 구성됩니다. 회사는 이 검사를 구성하고 운영하는 노력을 최소화하려고 합니다.
이를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지하십시오.
  • B. 비용 탐색기를 사용하여 태그가 제대로 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정하십시오.
  • C. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 코드를 주기적으로 실행합니다.
  • D. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.
더보기
해설
  • A. AWS Config 규칙을 사용하여 적절하게 태그가 지정되지 않은 리소스를 정의하고 감지하십시오.
  • B. 비용 탐색기를 사용하여 태그가 제대로 지정되지 않은 리소스를 표시합니다. 해당 리소스에 수동으로 태그를 지정하십시오.
  • C. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. EC2 인스턴스에서 코드를 주기적으로 실행합니다.
  • D. 적절한 태그 할당을 위해 모든 리소스를 확인하는 API 호출을 작성합니다. Amazon CloudWatch를 통해 AWS Lambda 함수를 예약하여 코드를 주기적으로 실행합니다.

E


#33


한 회사가 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 피크 시간 동안 수십만 명의 사용자에게 서비스를 제공합니다. 회사에는 수백만 건의 금융 거래 세부 정보를 여러 다른 내부 애플리케이션과 공유하기 위해 확장 가능하고 실시간에 가까운 솔루션이 필요합니다. 또한 짧은 지연 시간의 검색을 위해 문서 데이터베이스에 저장되기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?

  • A. 거래 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 중요한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
  • B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
  • C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 중요한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 트랜잭션 데이터를 사용할 수 있습니다.
  • D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그런 다음 Lambda 함수는 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
더보기
해설
  • A. 거래 데이터를 Amazon DynamoDB에 저장합니다. 쓰기 시 모든 트랜잭션에서 중요한 데이터를 제거하도록 DynamoDB에서 규칙을 설정합니다. DynamoDB 스트림을 사용하여 다른 애플리케이션과 트랜잭션 데이터를 공유합니다.
  • B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
  • C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 중요한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 트랜잭션 데이터를 사용할 수 있습니다.
  • D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그런 다음 Lambda 함수는 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.

E


#35


한 회사가 AWS 클라우드에서 공개 웹 애플리케이션 출시를 준비하고 있습니다. 아키텍처는 Elastic Load Balancer(ELB) 뒤의 VPC 내의 Amazon EC2 인스턴스로 구성됩니다. DNS에는 타사 서비스가 사용됩니다. 회사의 솔루션 설계자는 대규모 DDoS 공격을 탐지하고 방어할 수 있는 솔루션을 권장해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 계정에서 Amazon GuardDuty를 활성화합니다.
  • B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
  • C. AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
  • D. AWS Shield Advanced를 활성화하고 여기에 ELB를 할당합니다.
더보기
해설
  • A. 계정에서 Amazon GuardDuty를 활성화합니다.
  • B. EC2 인스턴스에서 Amazon Inspector를 활성화합니다.
  • C. AWS Shield를 활성화하고 Amazon Route 53을 할당합니다.
  • D. AWS Shield Advanced를 활성화하고 여기에 ELB를 할당합니다.

Inspector는 OS 취약성

GuardDuty 계정 모니터링


#36


한 회사가 AWS 클라우드에 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 지역의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키를 사용하여 암호화 및 해독되어야 합니다. 데이터와 키는 두 리전에 각각 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 각 리전에 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • B. 고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
  • C. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • D. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
더보기
해설
  • A. 각 리전에 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • B. 고객 관리형 다중 리전 KMS 키를 생성합니다. 각 리전에 S3 버킷을 생성합니다. S3 버킷 간의 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
  • C. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
  • D. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.

E


#37★


한 회사는 최근 AWS 계정의 Amazon EC2 인스턴스에서 다양한 새로운 워크로드를 시작했습니다. 회사는 인스턴스에 원격으로 안전하게 액세스하고 관리하기 위한 전략을 수립해야 합니다. 회사는 기본 AWS 서비스와 작동하고 AWS Well-Architected 프레임워크를 따르는 반복 가능한 프로세스를 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스하려면 EC2 직렬 콘솔을 사용하세요.
  • B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS 시스템 관리자 세션 관리자를 사용하여 원격 SSH 세션을 설정합니다.
  • C. 관리 SSH 키 쌍을 생성합니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스 관리를 위한 터널을 제공합니다.
  • D. AWS Site-to-Site VPN 연결을 설정합니다. VPN 터널을 통해 SSH 키를 사용하여 로컬 온프레미스 머신을 사용하여 인스턴스에 직접 연결하도록 관리자에게 지시합니다.
더보기
해설
  • A. 관리를 위해 각 인스턴스의 터미널 인터페이스에 직접 액세스하려면 EC2 직렬 콘솔을 사용하세요.
  • B. 각 기존 인스턴스와 새 인스턴스에 적절한 IAM 역할을 연결합니다. AWS 시스템 관리자 세션 관리자를 사용하여 원격 SSH 세션을 설정합니다.
  • C. 관리 SSH 키 쌍을 생성합니다. 공개 키를 각 EC2 인스턴스에 로드합니다. 퍼블릭 서브넷에 배스천 호스트를 배포하여 각 인스턴스 관리를 위한 터널을 제공합니다.
  • D. AWS Site-to-Site VPN 연결을 설정합니다. VPN 터널을 통해 SSH 키를 사용하여 로컬 온프레미스 머신을 사용하여 인스턴스에 직접 연결하도록 관리자에게 지시합니다.

E


#38★


한 회사가 Amazon S3에서 정적 웹 사이트를 호스팅하고 있으며 DNS에 Amazon Route 53을 사용하고 있습니다. 이 웹사이트는 전 세계적으로 수요가 증가하고 있습니다. 회사는 웹사이트에 접속하는 사용자의 지연 시간을 줄여야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
  • B. AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
  • C. S3 버킷 앞에 Amazon CloudFront 배포판을 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
  • D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.
더보기
해설
  • A. 웹 사이트가 포함된 S3 버킷을 모든 AWS 리전에 복제합니다. Route 53 지리적 위치 라우팅 항목을 추가합니다.
  • B. AWS Global Accelerator에서 액셀러레이터를 프로비저닝합니다. 제공된 IP 주소를 S3 버킷과 연결합니다. 액셀러레이터의 IP 주소를 가리키도록 Route 53 항목을 편집합니다.
  • C. S3 버킷 앞에 Amazon CloudFront 배포판을 추가합니다. CloudFront 배포를 가리키도록 Route 53 항목을 편집합니다.
  • D. 버킷에서 S3 Transfer Acceleration을 활성화합니다. 새 엔드포인트를 가리키도록 Route 53 항목을 편집합니다.

Transfer Acc는 업로드 부스팅


#39


회사는 웹사이트에서 검색 가능한 항목 저장소를 유지 관리합니다. 데이터는 천만 개가 넘는 행이 포함된 MySQL용 Amazon RDS 데이터베이스 테이블에 저장됩니다. 데이터베이스에는 2TB의 범용 SSD 스토리지가 있습니다. 회사 웹사이트를 통해 매일 이 데이터에 대한 수백만 개의 업데이트가 있습니다.
회사에서는 일부 삽입 작업이 10초 이상 걸리는 것을 확인했습니다. 회사에서는 데이터베이스 스토리지 성능이 문제라고 판단했습니다.
이 성능 문제를 해결하는 솔루션은 무엇입니까?

  • A. 스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
  • B. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
  • C. DB 인스턴스를 성능 확장이 가능한 인스턴스 클래스로 변경합니다.
  • D. MySQL 기본 비동기식 복제를 통해 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.
더보기
해설
  • A. 스토리지 유형을 프로비저닝된 IOPS SSD로 변경합니다.
  • B. DB 인스턴스를 메모리 최적화 인스턴스 클래스로 변경합니다.
  • C. DB 인스턴스를 성능 확장이 가능한 인스턴스 클래스로 변경합니다.
  • D. MySQL 기본 비동기식 복제를 통해 다중 AZ RDS 읽기 전용 복제본을 활성화합니다.

E


#41


회사의 애플리케이션은 데이터 수집을 위해 여러 SaaS(Software-as-a-Service) 소스와 통합됩니다. 회사는 Amazon EC2 인스턴스를 실행하여 데이터를 수신하고 분석을 위해 Amazon S3 버킷에 데이터를 업로드합니다. 데이터를 수신하고 업로드하는 동일한 EC2 인스턴스는 업로드가 완료되면 사용자에게 알림도 보냅니다. 회사에서는 애플리케이션 성능이 느려지는 것을 확인하고 성능을 최대한 개선하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. EC2 인스턴스가 확장될 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • B. 각 SaaS 소스와 S3 버킷 간에 데이터를 전송하는 Amazon AppFlow 흐름을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • C. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 대한 업로드가 완료되면 이벤트를 보내는 두 번째 EventBridge(Cloud Watch 이벤트) 규칙을 생성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
  • D. EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.
더보기
해설
  • A. EC2 인스턴스가 확장될 수 있도록 Auto Scaling 그룹을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • B. 각 SaaS 소스와 S3 버킷 간에 데이터를 전송하는 Amazon AppFlow 흐름을 생성합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 S3 이벤트 알림을 구성합니다.
  • C. 각 SaaS 소스에 대해 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성하여 출력 데이터를 보냅니다. S3 버킷을 규칙의 대상으로 구성합니다. S3 버킷에 대한 업로드가 완료되면 이벤트를 보내는 두 번째 EventBridge(Cloud Watch 이벤트) 규칙을 생성합니다. Amazon Simple 알림 서비스(Amazon SNS) 주제를 두 번째 규칙의 대상으로 구성합니다.
  • D. EC2 인스턴스 대신 사용할 Docker 컨테이너를 생성합니다. Amazon Elastic Container Service(Amazon ECS)에서 컨테이너화된 애플리케이션을 호스팅합니다. S3 버킷에 대한 업로드가 완료되면 Amazon Simple 알림 서비스(Amazon SNS) 주제로 이벤트를 보내도록 Amazon CloudWatch Container Insights를 구성합니다.

E


#44


회사에는 중요한 데이터가 포함된 Amazon S3 버킷이 있습니다. 회사는 실수로 데이터가 삭제되지 않도록 보호해야 합니다.
이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. S3 버킷에서 버전 관리를 활성화합니다.
  • B. S3 버킷에서 MFA 삭제를 활성화합니다.
  • C. S3 버킷에 버킷 정책을 생성합니다.
  • D. S3 버킷에서 기본 암호화를 활성화합니다.
  • E. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.
더보기
해설
  • A. S3 버킷에서 버전 관리를 활성화합니다.
  • B. S3 버킷에서 MFA 삭제를 활성화합니다.
  • C. S3 버킷에 버킷 정책을 생성합니다.
  • D. S3 버킷에서 기본 암호화를 활성화합니다.
  • E. S3 버킷의 객체에 대한 수명 주기 정책을 생성합니다.

E


#46★


회사에는 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 이 서비스는 매장 고객의 이전 구매를 기반으로 합니다. 매장에서는 SFTP를 통해 거래 데이터를 회사에 업로드하고, 데이터를 처리하고 분석하여 새로운 마케팅 제안을 생성합니다. 일부 파일의 크기는 200GB를 초과할 수 있습니다.
최근 회사에서는 일부 매장에서 포함되어서는 안 되는 개인 식별 정보(PII)가 포함된 파일을 업로드한 사실을 발견했습니다. 회사에서는 PII가 다시 공유되면 관리자에게 알림을 보내기를 원합니다. 또한 회사에서는 문제 해결을 자동화하려고 합니다.
최소한의 개발 노력으로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. Amazon S3 버킷을 안전한 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
  • B. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • C. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • D. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 보내고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거하십시오.
더보기
해설
  • A. Amazon S3 버킷을 안전한 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
  • B. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • C. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
  • D. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 보내고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거하십시오.

Macie는 기계 학습(ML) 및 패턴 일치를 사용하여 민감한 데이터를 검색하고 보호하는 데이터 보안 및 데이터 개인 정보 보호 서비스

Macie는 PII 감지

https://aws.amazon.com/macie/#:~:text=Discover%20sensitive%20data%20across%20your,remediation%20of%20data%20security%20risks.

https://docs.aws.amazon.com/macie/latest/user/what-is-macie.html


#47★


회사는 1주일 동안 지속될 예정인 이벤트를 위해 특정 AWS 지역의 3개 특정 가용 영역에서 Amazon EC2 용량을 보장해야 합니다.
EC2 용량을 보장하려면 회사는 어떻게 해야 합니까?

  • A. 필요한 지역을 지정하는 예약 인스턴스를 구입하십시오.
  • B. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
  • C. 필요한 지역과 3개의 가용 영역을 지정하는 예약 인스턴스를 구입합니다.
  • D. 필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다.
더보기
해설
  • A. 필요한 지역을 지정하는 예약 인스턴스를 구입하십시오.
  • B. 필요한 지역을 지정하는 온디맨드 용량 예약을 생성합니다.
  • C. 필요한 지역과 3개의 가용 영역을 지정하는 예약 인스턴스를 구입합니다.
  • D. 필요한 지역과 3개의 가용 영역을 지정하는 온디맨드 용량 예약을 생성합니다.

예약인스턴스 => 장기간 (1년~3년) https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-capacity-reservations.html#capacity-reservations-differences

3개 AZ의 용량 보장 - 주문형 예약, 지역 및 가용 영역 지정


#49


회사에서는 매월 통화 내용 파일을 저장합니다. 호출 후 1년 이내에 사용자는 파일에 무작위로 액세스하지만 1년 후에는 파일에 드물게 액세스합니다. 회사는 사용자에게 1년 미만의 파일을 최대한 빨리 쿼리하고 검색할 수 있는 기능을 제공하여 솔루션을 최적화하려고 합니다. 오래된 파일 검색이 지연되는 것은 허용됩니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3 Glacier 즉시 검색에 태그와 함께 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
  • B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier 유연한 검색으로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
  • C. Amazon S3 Standard 스토리지에 태그와 함께 개별 파일을 저장합니다. Amazon S3 Standard 스토리지에 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
  • D. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.
더보기
해설
  • A. Amazon S3 Glacier 즉시 검색에 태그와 함께 개별 파일을 저장합니다. 태그를 쿼리하여 S3 Glacier Instant Retrieval에서 파일을 검색합니다.
  • B. Amazon S3 Intelligent-Tiering에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier 유연한 검색으로 이동합니다. Amazon Athena를 사용하여 Amazon S3에 있는 파일을 쿼리하고 검색합니다. S3 Glacier Select를 사용하여 S3 Glacier에 있는 파일을 쿼리하고 검색합니다.
  • C. Amazon S3 Standard 스토리지에 태그와 함께 개별 파일을 저장합니다. Amazon S3 Standard 스토리지에 각 아카이브에 대한 검색 메타데이터를 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Instant Retrieval로 이동합니다. Amazon S3에서 메타데이터를 검색하여 파일을 쿼리하고 검색합니다.
  • D. Amazon S3 Standard 스토리지에 개별 파일을 저장합니다. S3 수명 주기 정책을 사용하여 1년 후에 파일을 S3 Glacier Deep Archive로 이동합니다. Amazon RDS에 검색 메타데이터를 저장합니다. Amazon RDS에서 파일을 쿼리합니다. S3 Glacier Deep Archive에서 파일을 검색합니다.

E


#50★

회사에는 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어를 통해 구동됩니다. 회사는 중요한 보안 취약성을 해결하기 위해 가능한 한 빨리 모든 EC2 인스턴스에 타사 소프트웨어를 패치해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 모든 EC2 인스턴스에 패치를 적용하는 AWS Lambda 함수를 생성합니다.
  • B. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 패치 관리자를 구성합니다.
  • C. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 유지 관리 기간을 예약합니다.
  • D. AWS 시스템 관리자 Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.
더보기
해설
  • A. 모든 EC2 인스턴스에 패치를 적용하는 AWS Lambda 함수를 생성합니다.
  • B. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 패치 관리자를 구성합니다.
  • C. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 유지 관리 기간을 예약합니다.
  • D. AWS 시스템 관리자 Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.

Run Command를 사용하면 일반적인 관리 작업을 자동화하고 일회성 작업을 수행, 대규모로 구성이 변경

https://docs.aws.amazon.com/systems-manager/latest/userguide/execute-remote-commands.html

패치 관리자는 타사 애플리케이션이 아닌 OS 수준 패치용


#51★

한 회사에서 REST API를 통해 검색할 수 있도록 주문 배송 통계를 제공하는 애플리케이션을 개발 중입니다. 회사는 배송 통계를 추출하고, 읽기 쉬운 HTML 형식으로 데이터를 구성하고, 매일 아침 동시에 여러 이메일 주소로 보고서를 보내려고 합니다.
이러한 요구 사항을 충족하려면 솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon Kinesis Data Firehose로 데이터를 보내도록 애플리케이션을 구성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
  • C. AWS Glue 작업을 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • D. AWS Lambda 함수를 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • E. Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보내려면 Amazon Simple 알림 서비스(Amazon SNS) 주제를 S3 이벤트 대상으로 생성합니다.
더보기
해설
  • A. Amazon Kinesis Data Firehose로 데이터를 보내도록 애플리케이션을 구성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 사용하여 데이터 형식을 지정하고 보고서를 이메일로 보냅니다.
  • C. AWS Glue 작업을 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • D. AWS Lambda 함수를 호출하여 애플리케이션의 API에 데이터를 쿼리하는 Amazon EventBridge(Amazon CloudWatch Events) 예약 이벤트를 생성합니다.
  • E. Amazon S3에 애플리케이션 데이터를 저장합니다. 보고서를 이메일로 보내려면 Amazon Simple 알림 서비스(Amazon SNS) 주제를 S3 이벤트 대상으로 생성합니다.

SNS 주제가 있는 Amazon S3:  데이터를 HTML 형식으로 지정하고 이메일 보고서로 보내야 하는 필요성을 직접적으로 해결하지는 않음

https://aws.amazon.com/ses/

https://docs.aws.amazon.com/ses/latest/dg/send-email-concepts-email-format.html


#53

.회사는 회계 기록을 Amazon S3에 저장해야 합니다. 기록은 1년 동안 즉시 접근 가능해야 하며 이후 추가 9년 동안 보관되어야 합니다. 관리 사용자 및 루트 사용자를 포함하여 회사의 어느 누구도 전체 10년 동안 기록을 삭제할 수 없습니다. 기록은 최대 복원력으로 저장되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근 제어 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
  • B. S3 Intelligent-Tiering을 사용하여 기록을 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후에는 삭제를 허용하도록 IAM 정책을 변경합니다.
  • C. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • D. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 레코드를 전환합니다. 10년 동안 거버넌스 모드에서 S3 객체 잠금을 사용합니다.
더보기
해설
  • A. 전체 10년 동안 S3 Glacier에 기록을 저장합니다. 접근 제어 정책을 사용하여 10년 동안 기록 삭제를 거부합니다.
  • B. S3 Intelligent-Tiering을 사용하여 기록을 저장합니다. IAM 정책을 사용하여 레코드 삭제를 거부합니다. 10년 후에는 삭제를 허용하도록 IAM 정책을 변경합니다.
  • C. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 Glacier Deep Archive로 레코드를 전환합니다. 10년 동안 규정 준수 모드에서 S3 객체 잠금을 사용합니다.
  • D. S3 수명 주기 정책을 사용하여 1년 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 레코드를 전환합니다. 10년 동안 거버넌스 모드에서 S3 객체 잠금을 사용합니다.

 


#56

.
한 회사가 Amazon Route 53에 도메인 이름을 등록했습니다. 이 회사는 ca-central-1 지역의 Amazon API Gateway를 백엔드 마이크로서비스 API에 대한 공용 인터페이스로 사용합니다. 타사 서비스는 API를 안전하게 사용합니다. 회사는 타사 서비스가 HTTPS를 사용할 수 있도록 회사의 도메인 이름과 해당 인증서로 API 게이트웨이 URL을 설계하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. API Gateway에서 Name="Endpoint-URL" 및 Value="회사 도메인 이름"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
  • B. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 Regional API Gateway 단계 엔드포인트를 가리키도록 합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
  • C. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API 게이트웨이 엔드포인트에 인증서를 연결합니다. 트래픽을 API 게이트웨이 엔드포인트로 라우팅하도록 Route 53을 구성합니다.
  • D. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.
더보기
해설
  • A. API Gateway에서 Name="Endpoint-URL" 및 Value="회사 도메인 이름"으로 단계 변수를 생성하여 기본 URL을 덮어씁니다. 회사의 도메인 이름과 연결된 공인 인증서를 AWS Certificate Manager(ACM)로 가져옵니다.
  • B. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. 별칭 레코드가 Regional API Gateway 단계 엔드포인트를 가리키도록 합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다.
  • C. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사의 도메인 이름과 연결된 공인 인증서를 동일한 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API 게이트웨이 엔드포인트에 인증서를 연결합니다. 트래픽을 API 게이트웨이 엔드포인트로 라우팅하도록 Route 53을 구성합니다.
  • D. 지역 API 게이트웨이 엔드포인트를 생성합니다. API 게이트웨이 엔드포인트를 회사의 도메인 이름과 연결합니다. 회사 도메인 이름과 연결된 공인 인증서를 us-east-1 리전의 AWS Certificate Manager(ACM)로 가져옵니다. API Gateway API에 인증서를 연결합니다. 회사의 도메인 이름으로 Route 53 DNS 레코드를 생성합니다. A 레코드가 회사의 도메인 이름을 가리키도록 합니다.

 


#58

.
한 회사는 확장성 및 가용성에 대한 요구 사항을 충족하기 위해 컨테이너에서 중요한 애플리케이션을 실행하려고 합니다. 회사는 중요한 애플리케이션의 유지 관리에 집중하는 것을 선호합니다. 회사는 컨테이너화된 워크로드를 실행하는 기본 인프라를 프로비저닝하고 관리하는 일을 책임지기를 원하지 않습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치하십시오.
  • B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon Machine Image(AMI)에서 Amazon EC2 인스턴스를 사용합니다.
더보기
해설
  • A. Amazon EC2 인스턴스를 사용하고 인스턴스에 Docker를 설치하십시오.
  • B. Amazon EC2 작업자 노드에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • C. AWS Fargate에서 Amazon Elastic Container Service(Amazon ECS)를 사용하십시오.
  • D. Amazon Elastic Container Service(Amazon ECS)에 최적화된 Amazon Machine Image(AMI)에서 Amazon EC2 인스턴스를 사용합니다.

 


#61

.
한 회사가 AWS에서 2계층 웹 애플리케이션을 개발하고 있습니다. 회사의 개발자는 백엔드 Amazon RDS 데이터베이스에 직접 연결되는 Amazon EC2 인스턴스에 애플리케이션을 배포했습니다. 회사는 애플리케이션에 데이터베이스 자격 증명을 하드코딩해서는 안 됩니다. 또한 회사는 정기적으로 데이터베이스 자격 증명을 자동으로 교체하는 솔루션을 구현해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
  • B. 암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하면 이전 값으로 돌아갈 수 있습니다.
  • C. 데이터베이스 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. 보안 비밀에 대한 자동 순환을 켭니다. 암호에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
  • D. 데이터베이스 자격 증명을 AWS Systems Manager Parameter Store에 암호화된 매개변수로 저장합니다. 암호화된 매개변수에 대해 자동 교체를 켭니다. 암호화된 매개변수에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
더보기
해설
  • A. 인스턴스 메타데이터에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 인스턴스 메타데이터를 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다.
  • B. 암호화된 Amazon S3 버킷의 구성 파일에 데이터베이스 자격 증명을 저장합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙을 사용하여 RDS 자격 증명과 구성 파일의 자격 증명을 동시에 업데이트하는 예약된 AWS Lambda 함수를 실행합니다. S3 버전 관리를 사용하면 이전 값으로 돌아갈 수 있습니다.
  • C. 데이터베이스 자격 증명을 AWS Secrets Manager에 비밀로 저장합니다. 보안 비밀에 대한 자동 순환을 켭니다. 암호에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.
  • D. 데이터베이스 자격 증명을 AWS Systems Manager Parameter Store에 암호화된 매개변수로 저장합니다. 암호화된 매개변수에 대해 자동 교체를 켭니다. 암호화된 매개변수에 대한 액세스 권한을 부여하려면 EC2 역할에 필요한 권한을 연결하세요.

 


#62


한 회사가 AWS에 새로운 공개 웹 애플리케이션을 배포하고 있습니다. 애플리케이션은 ALB(Application Load Balancer) 뒤에서 실행됩니다. 애플리케이션은 외부 CA(인증 기관)에서 발급한 SSL/TLS 인증서를 사용하여 에지에서 암호화해야 합니다. 인증서는 매년 만료되기 전에 교체되어야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. ACM(AWS Certificate Manager)을 사용하여 SSL/TLS 인증서를 발급하세요. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • B. AWS Certificate Manager(ACM)을 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. AL에 인증서 적용 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
  • C. ACM(AWS Certificate Manager) 사설 인증 기관을 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • D. AWS 인증서 관리자(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. ALB에 인증서를 적용합니다. 인증서 만료가 가까워지면 Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 알림을 보냅니다. 인증서를 수동으로 순환합니다.
더보기
해설
  • A. ACM(AWS Certificate Manager)을 사용하여 SSL/TLS 인증서를 발급하세요. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • B. AWS Certificate Manager(ACM)을 사용하여 SSL/TLS 인증서를 발급합니다. 인증서에서 키 자료를 가져옵니다. AL에 인증서 적용 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체합니다.
  • C. ACM(AWS Certificate Manager) 사설 인증 기관을 사용하여 루트 CA에서 SSL/TLS 인증서를 발급합니다. ALB에 인증서를 적용합니다. 관리형 갱신 기능을 사용하여 인증서를 자동으로 교체하세요.
  • D. AWS 인증서 관리자(ACM)를 사용하여 SSL/TLS 인증서를 가져옵니다. ALB에 인증서를 적용합니다. 인증서 만료가 가까워지면 Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 알림을 보냅니다. 인증서를 수동으로 순환합니다.

 


#64★


회사는 온프레미스에서 실행되는 Windows 파일 서버에 5TB가 넘는 파일 데이터를 보유하고 있습니다. 사용자와 애플리케이션은 매일 데이터와 상호 작용합니다.
회사는 Windows 워크로드를 AWS로 이전하고 있습니다. 회사가 이 프로세스를 계속 진행함에 따라 회사는 최소한의 지연 시간으로 AWS 및 온프레미스 파일 스토리지에 액세스해야 합니다. 회사에는 운영 오버헤드를 최소화하고 기존 파일 액세스 패턴을 크게 변경할 필요가 없는 솔루션이 필요합니다. 회사는 AWS에 연결하기 위해 AWS Site-to-Site VPN 연결을 사용합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx for Windows File Server로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 워크로드를 재구성합니다.
  • B. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. S3 파일 게이트웨이를 사용하도록 온프레미스 워크로드와 클라우드 워크로드를 재구성합니다.
  • C. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다. 각 워크로드의 위치에 따라 다릅니다.
  • D. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. Amazon FSx 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx 파일 게이트웨이로 이동합니다. AWS에서 Windows 파일 서버용 FSx를 사용하도록 클라우드 워크로드를 구성합니다. FSx 파일 게이트웨이를 사용하도록 온프레미스 워크로드를 구성합니다.
더보기
해설
  • A. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx for Windows File Server로 이동합니다. AWS에서 FSx for Windows File Server를 사용하도록 워크로드를 재구성합니다.
  • B. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 S3 파일 게이트웨이로 이동합니다. S3 파일 게이트웨이를 사용하도록 온프레미스 워크로드와 클라우드 워크로드를 재구성합니다.
  • C. Amazon S3 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 Amazon S3로 이동합니다. Amazon S3를 직접 사용하거나 S3 파일 게이트웨이를 사용하도록 워크로드를 재구성합니다. 각 워크로드의 위치에 따라 다릅니다.
  • D. AWS에서 Windows 파일 서버용 Amazon FSx를 배포하고 구성합니다. Amazon FSx 파일 게이트웨이를 온프레미스에 배포하고 구성합니다. 온프레미스 파일 데이터를 FSx 파일 게이트웨이로 이동합니다. AWS에서 Windows 파일 서버용 FSx를 사용하도록 클라우드 워크로드를 구성합니다. FSx 파일 게이트웨이를 사용하도록 온프레미스 워크로드를 구성합니다.

 


#66★


한 회사에 각각 크기가 약 5MB인 많은 수의 파일을 생성하는 애플리케이션이 있습니다. 파일은 Amazon S3에 저장됩니다. 회사 정책에 따라 파일을 삭제하려면 4년 동안 보관해야 합니다. 파일에는 재생산이 쉽지 않은 중요한 비즈니스 데이터가 포함되어 있으므로 즉각적인 접근성이 항상 필요합니다. 파일은 객체 생성 후 처음 30일 동안 자주 액세스되지만 처음 30일 이후에는 거의 액세스되지 않습니다.
가장 비용 효율적인 스토리지 솔루션은 무엇입니까?

  • A. 객체 생성 후 30일이 지나면 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • B. 객체 생성 후 30일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • D. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 S3 Glacier로 이동합니다.
더보기
해설
  • A. 객체 생성 후 30일이 지나면 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • B. 객체 생성 후 30일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
  • D. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 S3 Glacier로 이동합니다.

https://www.examtopics.com/discussions/amazon/view/83281-exam-aws-certified-solutions-architect-associate-saa-c02/

 


#68


솔루션 아키텍트는 회사의 온프레미스 인프라를 AWS로 확장하기 위해 새로운 하이브리드 아키텍처를 설계하고 있습니다. 회사에서는 AWS 리전에 대한 지연 시간이 일관되게 낮고 가용성이 높은 연결이 필요합니다. 회사는 비용을 최소화해야 하며 기본 연결이 실패할 경우 느린 트래픽을 기꺼이 수용해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 VPN 연결을 백업으로 프로비저닝합니다.
  • B. 비공개 연결을 위해 지역에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 그리고 기본 VPN 연결이 실패할 경우 백업으로 두 번째 VPN 터널을 프로비저닝합니다.
  • C. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업과 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
  • D. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 AWS CLI의 Direct Connect 장애 조치 속성을 사용하여 백업 연결을 자동으로 생성합니다.
더보기
해설
  • A. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 VPN 연결을 백업으로 프로비저닝합니다.
  • B. 비공개 연결을 위해 지역에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 그리고 기본 VPN 연결이 실패할 경우 백업으로 두 번째 VPN 터널을 프로비저닝합니다.
  • C. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업과 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
  • D. 리전에 대한 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 AWS CLI의 Direct Connect 장애 조치 속성을 사용하여 백업 연결을 자동으로 생성합니다.

 


#71


한 회사에서 Amazon DynamoDB를 사용하여 고객 정보를 저장하는 쇼핑 애플리케이션을 실행하고 있습니다. 데이터가 손상되는 경우 솔루션 설계자는 15분의 복구 지점 목표(RPO)와 1시간의 복구 시간 목표(RTO)를 충족하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. DynamoDB 전역 테이블을 구성합니다. RPO 복구의 경우 애플리케이션이 다른 AWS 리전을 가리키도록 하십시오.
  • B. DynamoDB 특정 시점 복구를 구성합니다. RPO 복구를 위해서는 원하는 시점으로 복원하세요.
  • C. 매일 DynamoDB 데이터를 Amazon S3 Glacier로 내보냅니다. RPO 복구를 위해 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
  • D. 15분마다 DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 예약합니다. RPO 복구를 위해 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.
더보기
해설
  • A. DynamoDB 전역 테이블을 구성합니다. RPO 복구의 경우 애플리케이션이 다른 AWS 리전을 가리키도록 하십시오.
  • B. DynamoDB 특정 시점 복구를 구성합니다. RPO 복구를 위해서는 원하는 시점으로 복원하세요.
  • C. 매일 DynamoDB 데이터를 Amazon S3 Glacier로 내보냅니다. RPO 복구를 위해 S3 Glacier에서 DynamoDB로 데이터를 가져옵니다.
  • D. 15분마다 DynamoDB 테이블에 대한 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 예약합니다. RPO 복구를 위해 EBS 스냅샷을 사용하여 DynamoDB 테이블을 복원합니다.

 


#74★


솔루션 설계자가 2계층 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 퍼블릭 서브넷의 Amazon EC2에서 호스팅되는 퍼블릭 웹 계층으로 구성됩니다. 데이터베이스 계층은 프라이빗 서브넷의 Amazon EC2에서 실행되는 Microsoft SQL Server로 구성됩니다. 보안은 회사의 최우선 과제입니다.
이 상황에서는 보안 그룹을 어떻게 구성해야 합니까? (2개를 선택하세요.)

  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • B. 0.0.0.0/0에서 포트 443의 아웃바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • C. 웹 계층의 보안 그룹에서 포트 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • D. 포트 443 및 1433의 아웃바운드 트래픽을 웹 계층의 보안 그룹으로 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • E. 웹 계층의 보안 그룹에서 포트 443 및 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
더보기
해설
  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • B. 0.0.0.0/0에서 포트 443의 아웃바운드 트래픽을 허용하도록 웹 계층에 대한 보안 그룹을 구성합니다.
  • C. 웹 계층의 보안 그룹에서 포트 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • D. 포트 443 및 1433의 아웃바운드 트래픽을 웹 계층의 보안 그룹으로 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
  • E. 웹 계층의 보안 그룹에서 포트 443 및 1433의 인바운드 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.

 


#75★


한 회사는 애플리케이션의 성능을 향상시키기 위해 다중 계층 애플리케이션을 온프레미스에서 AWS 클라우드로 이동하려고 합니다. 애플리케이션은 RESTful 서비스를 통해 서로 통신하는 애플리케이션 계층으로 구성됩니다. 한 계층이 과부하되면 트랜잭션이 삭제됩니다. 솔루션 설계자는 이러한 문제를 해결하고 애플리케이션을 현대화하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하고 운영상 가장 효율적인 솔루션은 무엇입니까?

  • A. Amazon API Gateway를 사용하고 AWS Lambda 함수를 애플리케이션 계층으로 직접 트랜잭션을 수행하십시오. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
  • B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 내역을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
  • C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.
더보기
해설
  • A. Amazon API Gateway를 사용하고 AWS Lambda 함수를 애플리케이션 계층으로 직접 트랜잭션을 수행하십시오. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
  • B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 내역을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
  • C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
  • D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.

Lambda에 동의 = 서버리스 + 자동 확장(현대화), SQS= 분리


#78


회사는 Amazon DynamoDB 테이블에 사용자 트랜잭션 데이터를 보관해야 합니다. 회사는 해당 데이터를 7년간 보관해야 합니다.
이러한 요구 사항을 충족하는 가장 운영 효율적인 솔루션은 무엇입니까?

  • A. DynamoDB 특정 시점 복구를 사용하여 테이블을 지속적으로 백업하세요.
  • B. AWS Backup을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다.
  • C. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. Amazon S3 버킷에 백업을 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
  • D. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
더보기
해설
  • A. DynamoDB 특정 시점 복구를 사용하여 테이블을 지속적으로 백업하세요.
  • B. AWS Backup을 사용하여 테이블에 대한 백업 일정 및 보존 정책을 생성합니다.
  • C. DynamoDB 콘솔을 사용하여 테이블의 주문형 백업을 생성합니다. Amazon S3 버킷에 백업을 저장합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.
  • D. AWS Lambda 함수를 호출하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. 테이블을 백업하고 Amazon S3 버킷에 백업을 저장하도록 Lambda 함수를 구성합니다. S3 버킷에 대한 S3 수명 주기 구성을 설정합니다.

 


#79★

.한 회사에서 데이터 저장을 위해 Amazon DynamoDB 테이블을 사용할 계획입니다. 회사는 비용 최적화에 관심이 있습니다. 대부분의 아침에는 테이블을 사용하지 않습니다. 저녁에는 읽기 및 쓰기 트래픽을 예측할 수 없는 경우가 많습니다. 트래픽 급증이 발생하면 매우 빠르게 발생합니다.
솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다.
  • B. 글로벌 보조 인덱스를 사용하여 DynamoDB 테이블을 생성합니다.
  • C. 프로비저닝된 용량과 Auto Scaling 기능을 갖춘 DynamoDB 테이블을 생성합니다.
  • D. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 이를 글로벌 테이블로 구성합니다.
더보기
해설
  • A. 온디맨드 용량 모드에서 DynamoDB 테이블을 생성합니다.
  • B. 글로벌 보조 인덱스를 사용하여 DynamoDB 테이블을 생성합니다.
  • C. 프로비저닝된 용량과 Auto Scaling 기능을 갖춘 DynamoDB 테이블을 생성합니다.
  • D. 프로비저닝된 용량 모드에서 DynamoDB 테이블을 생성하고 이를 글로벌 테이블로 구성합니다.

온디맨드 모드는 다음 중 하나에 해당하는 경우 좋은 옵션

- 알 수 없는 작업 부하가 있는 새 테이블을 생성

- 예측할 수 없는 애플리케이션 트래픽

- 사용한 만큼만 비용을 지불하는 간편한 방식

https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/HowItWorks.ReadWriteCapacityMode.html#HowItWorks.OnDemand


#81


솔루션 아키텍트는 AWS에 배포되는 새로운 애플리케이션을 위한 클라우드 아키텍처를 설계하고 있습니다. 처리할 작업 수에 따라 필요에 따라 애플리케이션 노드를 추가 및 제거하는 동안 프로세스가 병렬로 실행되어야 합니다. 프로세서 애플리케이션은 상태 비저장입니다. 솔루션 설계자는 애플리케이션이 느슨하게 결합되어 있고 작업 항목이 지속적으로 저장되어 있는지 확인해야 합니다.
솔루션 설계자는 어떤 디자인을 사용해야 합니까?

  • A. 처리해야 하는 작업을 보내기 위해 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. 네트워크 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • D. Amazon SNS 주제를 생성하여 처리해야 하는 작업을 보냅니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
더보기
해설
  • A. 처리해야 하는 작업을 보내기 위해 Amazon SNS 주제를 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. CPU 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • B. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 구성을 생성합니다. 시작 구성을 사용하여 Auto Scaling 그룹을 생성합니다. 네트워크 사용량에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • C. 처리해야 하는 작업을 보관할 Amazon SQS 대기열을 생성합니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SQS 대기열의 항목 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.
  • D. Amazon SNS 주제를 생성하여 처리해야 하는 작업을 보냅니다. 프로세서 애플리케이션으로 구성된 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하는 시작 템플릿을 생성합니다. 시작 템플릿을 사용하여 Auto Scaling 그룹을 생성합니다. SNS 주제에 게시된 메시지 수에 따라 노드를 추가 및 제거하도록 Auto Scaling 그룹의 조정 정책을 설정합니다.

 


#82


회사는 AWS 클라우드에서 웹 애플리케이션을 호스팅합니다. 회사는 AWS Certificate Manager(ACM)로 가져온 인증서를 사용하도록 Elastic Load Balancer를 구성합니다. 각 인증서가 만료되기 30일 전에 회사 보안팀에 통보해야 합니다.
이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?

  • A. ACM에 규칙을 추가하여 인증서가 만료되기 30일 전부터 Amazon Simple 알림 서비스(Amazon SNS) 주제에 매일 사용자 지정 메시지를 게시합니다.
  • B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config가 규정을 준수하지 않는 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
  • C. AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인하십시오. 확인 상태 변경에 대한 Trusted Advisor 지표를 기반으로 Amazon CloudWatch 경보를 생성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 경보를 구성합니다.
  • D. 30일 이내에 만료되는 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.
더보기
해설
  • A. ACM에 규칙을 추가하여 인증서가 만료되기 30일 전부터 Amazon Simple 알림 서비스(Amazon SNS) 주제에 매일 사용자 지정 메시지를 게시합니다.
  • B. 30일 이내에 만료되는 인증서를 확인하는 AWS Config 규칙을 생성합니다. AWS Config가 규정을 준수하지 않는 리소스를 보고할 때 Amazon Simple Notification Service(Amazon SNS)를 통해 사용자 지정 알림을 호출하도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다.
  • C. AWS Trusted Advisor를 사용하여 30일 이내에 만료되는 인증서를 확인하십시오. 확인 상태 변경에 대한 Trusted Advisor 지표를 기반으로 Amazon CloudWatch 경보를 생성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 경보를 구성합니다.
  • D. 30일 이내에 만료되는 인증서를 감지하는 Amazon EventBridge(Amazon CloudWatch Events) 규칙을 생성합니다. AWS Lambda 함수를 호출하도록 규칙을 구성합니다. Amazon Simple 알림 서비스(Amazon SNS)를 통해 사용자 지정 알림을 보내도록 Lambda 함수를 구성합니다.

https://aws.amazon.com/premiumsupport/knowledge-center/acm-certificate-expiration/

https://docs.aws.amazon.com/config/latest/developerguide/acm-certificate-expiration-check.html


#84


한 회사는 기존 3계층 웹 아키텍처의 비용을 절감하려고 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위해 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스는 피크 시간 동안 평균 30% CPU 사용률을 보이고, 피크 시간이 아닌 동안에는 10% CPU 사용률을 나타냅니다.
프로덕션 EC2 인스턴스는 하루 24시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8시간 동안 실행됩니다. 회사는 EC2 인스턴스를 사용하지 않을 때 개발을 중단하고 테스트하는 자동화를 구현할 계획입니다.
어떤 EC2 인스턴스 구매 솔루션이 회사의 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A. 프로덕션 EC2 인스턴스에는 스팟 인스턴스를 사용하십시오. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 온디맨드 인스턴스를 사용합니다.
  • C. 프로덕션 EC2 인스턴스에는 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 스팟 블록을 사용하세요.
더보기
해설
  • A. 프로덕션 EC2 인스턴스에는 스팟 인스턴스를 사용하십시오. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 온디맨드 인스턴스를 사용합니다.
  • C. 프로덕션 EC2 인스턴스에는 스팟 블록을 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 예약 인스턴스를 사용하십시오.
  • D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 스팟 블록을 사용하세요.

 


#85★


회사에는 사용자가 웹 인터페이스나 모바일 앱을 통해 문서를 업로드하는 프로덕션 웹 애플리케이션이 있습니다. 새로운 규제 요구 사항에 따라. 새 문서를 저장한 후에는 수정하거나 삭제할 수 없습니다.
이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?
  • A. S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다.
  • B. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다.
  • C. S3 버전 관리가 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL을 구성합니다.
  • D. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드로 볼륨을 마운트하여 데이터에 액세스합니다.
더보기
해설
  • A. S3 버전 관리 및 S3 객체 잠금이 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다.
  • B. 업로드된 문서를 Amazon S3 버킷에 저장합니다. 문서를 주기적으로 보관하도록 S3 수명 주기 정책을 구성합니다.
  • C. S3 버전 관리가 활성화된 Amazon S3 버킷에 업로드된 문서를 저장합니다. 모든 액세스를 읽기 전용으로 제한하도록 ACL을 구성합니다.
  • D. 업로드된 문서를 Amazon Elastic File System(Amazon EFS) 볼륨에 저장합니다. 읽기 전용 모드로 볼륨을 마운트하여 데이터에 액세스합니다.

https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-lock-overview.html


#88


한 설문 조사 회사는 미국 내 여러 지역에서 수년 동안 데이터를 수집했습니다. 이 회사는 크기가 3TB이고 점점 늘어나고 있는 Amazon S3 버킷에 데이터를 호스팅합니다. 회사는 S3 버킷을 보유한 유럽 마케팅 회사와 데이터를 공유하기 시작했습니다. 회사는 데이터 전송 비용을 가능한 한 낮게 유지하기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
  • A. 회사의 S3 버킷에 요청자 지불 기능을 구성합니다.
  • B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다.
  • C. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다.
  • D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.
더보기
해설
  • A. 회사의 S3 버킷에 요청자 지불 기능을 구성합니다.
  • B. 회사의 S3 버킷에서 마케팅 회사의 S3 버킷 중 하나로 S3 교차 리전 복제를 구성합니다.
  • C. 마케팅 회사가 회사의 S3 버킷에 액세스할 수 있도록 마케팅 회사에 대한 교차 계정 액세스를 구성합니다.
  • D. S3 Intelligent-Tiering을 사용하도록 회사의 S3 버킷을 구성합니다. S3 버킷을 마케팅 회사의 S3 버킷 중 하나와 동기화합니다.

https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysBuckets.html

https://docs.aws.amazon.com/AmazonS3/latest/userguide/RequesterPaysBuckets.html#ChargeDetails

B인지 A인지 헷갈림

 


#90


회사에서는 공개적으로 액세스할 수 있는 영화 데이터를 저장하기 위해 SQL 데이터베이스를 사용하고 있습니다. 데이터베이스는 Amazon RDS 단일 AZ DB 인스턴스에서 실행됩니다. 스크립트는 매일 무작위 간격으로 쿼리를 실행하여 데이터베이스에 추가된 새 영화 수를 기록합니다. 스크립트는 업무 시간 동안 최종 합계를 보고해야 합니다.
회사의 개발팀은 스크립트가 실행 중일 때 데이터베이스 성능이 개발 작업에 적합하지 않다는 것을 발견했습니다. 솔루션 설계자는 이 문제를 해결하기 위한 솔루션을 권장해야 합니다.
최소한의 운영 오버헤드로 이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 다중 AZ 배포가 되도록 DB 인스턴스를 수정합니다.
  • B. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다.
  • C. 매일 업무가 끝날 때마다 데이터베이스의 항목을 수동으로 내보내도록 개발팀에 지시합니다.
  • D. Amazon ElastiCache를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반 쿼리를 캐시합니다.
더보기
해설
  • A. 다중 AZ 배포가 되도록 DB 인스턴스를 수정합니다.
  • B. 데이터베이스의 읽기 전용 복제본을 생성합니다. 읽기 전용 복제본만 쿼리하도록 스크립트를 구성합니다.
  • C. 매일 업무가 끝날 때마다 데이터베이스의 항목을 수동으로 내보내도록 개발팀에 지시합니다.
  • D. Amazon ElastiCache를 사용하여 스크립트가 데이터베이스에 대해 실행하는 일반 쿼리를 캐시합니다.

성능 => 읽기 복제본


#91★


회사에는 VPC의 Amazon EC2 인스턴스에서 실행되는 애플리케이션이 있습니다. 애플리케이션 중 하나는 Amazon S3 API를 호출하여 객체를 저장하고 읽어야 합니다. 회사의 보안 규정에 따라 애플리케이션의 트래픽은 인터넷을 통해 이동할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. S3 게이트웨이 엔드포인트를 구성합니다.
  • B. 프라이빗 서브넷에 S3 버킷을 생성합니다.
  • C. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다.
  • D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다.
더보기
해설
  • A. S3 게이트웨이 엔드포인트를 구성합니다.
  • B. 프라이빗 서브넷에 S3 버킷을 생성합니다.
  • C. EC2 인스턴스와 동일한 AWS 리전에 S3 버킷을 생성합니다.
  • D. EC2 인스턴스와 동일한 서브넷에 NAT 게이트웨이를 구성합니다.

https://docs.aws.amazon.com/vpc/latest/privatelink/gateway-endpoints.html


#93★


회사는 MySQL 데이터베이스를 기반으로 하는 온프레미스 애플리케이션을 실행합니다. 회사는 애플리케이션의 탄력성과 가용성을 높이기 위해 애플리케이션을 AWS로 마이그레이션하고 있습니다.
현재 아키텍처에서는 정상 작동 중에 데이터베이스에 대한 읽기 활동이 많이 발생합니다. 4시간마다 회사의 개발 팀은 프로덕션 데이터베이스의 전체 내보내기를 가져와서 준비 환경의 데이터베이스를 채웁니다. 이 기간 동안 사용자는 허용할 수 없는 애플리케이션 지연 시간을 경험합니다. 개발팀은 절차가 완료될 때까지 스테이징 환경을 사용할 수 없습니다.
솔루션 설계자는 애플리케이션 대기 시간 문제를 완화하는 대체 아키텍처를 권장해야 합니다. 또한 대체 아키텍처는 개발 팀이 지체 없이 스테이징 환경을 계속 사용할 수 있는 능력을 제공해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
  • B. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. 데이터베이스 복제를 사용하여 필요에 따라 준비 데이터베이스를 만듭니다.
  • C. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. 스테이징 데이터베이스에는 대기 인스턴스를 사용합니다.
  • D. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
더보기
해설
  • A. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
  • B. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. 데이터베이스 복제를 사용하여 필요에 따라 준비 데이터베이스를 만듭니다.
  • C. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. 스테이징 데이터베이스에는 대기 인스턴스를 사용합니다.
  • D. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/Aurora.Managing.Clone.html

https://aws.amazon.com/blogs/aws/amazon-aurora-fast-database-cloning/


#94


한 회사는 사용자가 Amazon S3에 작은 파일을 업로드하는 애플리케이션을 설계하고 있습니다. 사용자가 파일을 업로드한 후 파일은 데이터를 변환하고 나중에 분석할 수 있도록 데이터를 JSON 형식으로 저장하기 위해 일회성 간단한 처리가 필요합니다.
각 파일은 업로드된 후 최대한 빨리 처리되어야 합니다. 수요는 다양할 것입니다. 어떤 날에는 사용자가 많은 수의 파일을 업로드합니다. 다른 날에는 사용자가 파일 몇 개를 업로드하거나 파일을 전혀 업로드하지 않습니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • D. 새 파일이 업로드되면 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림의 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
더보기
해설
  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. Amazon Simple Queue Service(Amazon SQS) 대기열에 이벤트 알림을 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • D. 새 파일이 업로드되면 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림의 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.

SQS + LAMDA + JSON >>>>>> Dynamo DB


#95


애플리케이션을 사용하면 회사 본사의 사용자가 제품 데이터에 액세스할 수 있습니다. 제품 데이터는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 운영 팀은 애플리케이션 성능 저하를 파악하고 읽기 트래픽과 쓰기 트래픽을 분리하려고 합니다. 솔루션 아키텍트는 애플리케이션의 성능을 신속하게 최적화해야 합니다.
솔루션 설계자는 무엇을 추천해야 합니까?

  • A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 처리합니다.
  • B. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 처리합니다.
  • C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
  • D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스를 사용하여 읽기 전용 복제본을 구성합니다.
더보기
해설
  • A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 처리합니다.
  • B. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 보조 가용 영역에서 읽기 요청을 처리합니다.
  • C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
  • D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스를 사용하여 읽기 전용 복제본을 구성합니다.

성능 최적화 => 읽기전용복제본


#96

Amazon EC2 관리자는 여러 사용자가 포함된 IAM 그룹과 연결된 다음 정책을 생성했습니다.

이 정책의 효과는 무엇입니까?

  • A. 사용자는 us-east-1을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • B. 사용자는 us-east-1 리전에서 IP 주소 10.100.100.1을 사용하여 EC2 인스턴스를 종료할 수 있습니다.
  • C. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • D. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전의 EC2 인스턴스를 종료할 수 없습니다.
더보기
해설
  • A. 사용자는 us-east-1을 제외한 모든 AWS 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • B. 사용자는 us-east-1 리전에서 IP 주소 10.100.100.1을 사용하여 EC2 인스턴스를 종료할 수 있습니다.
  • C. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전에서 EC2 인스턴스를 종료할 수 있습니다.
  • D. 사용자의 소스 IP가 10.100.100.254인 경우 사용자는 us-east-1 리전의 EC2 인스턴스를 종료할 수 없습니다.

 


#98


이미지 처리 회사에는 사용자가 이미지를 업로드하는 데 사용하는 웹 애플리케이션이 있습니다. 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 회사는 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 객체 생성 이벤트를 게시하도록 S3 이벤트 알림을 설정했습니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다.
사용자들은 업로드된 모든 이미지에 대해 여러 개의 이메일 메시지를 받고 있다고 보고합니다. 솔루션 아키텍트는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지가 생성되었음을 확인합니다.
최소한의 운영 오버헤드로 이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. ReceiverMessage 대기 시간을 30초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다.
  • B. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 중복 메시지를 삭제하려면 메시지 중복 제거 ID를 사용하세요.
  • C. SQS 대기열의 표시 제한 시간을 함수 제한 시간과 일괄 창 제한 시간의 합계보다 큰 값으로 늘립니다.
  • D. 처리하기 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다.
더보기
해설
  • A. ReceiverMessage 대기 시간을 30초로 늘려 SQS 대기열에서 긴 폴링을 설정합니다.
  • B. SQS 표준 대기열을 SQS FIFO 대기열로 변경합니다. 중복 메시지를 삭제하려면 메시지 중복 제거 ID를 사용하세요.
  • C. SQS 대기열의 표시 제한 시간을 함수 제한 시간과 일괄 창 제한 시간의 합계보다 큰 값으로 늘립니다.
  • D. 처리하기 전에 메시지를 읽은 직후 SQS 대기열에서 각 메시지를 삭제하도록 Lambda 함수를 수정합니다.

긴폴링 VS FIFO VS 표시제한시간 늘리기

https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html#:~:text=SQS%20sets%20a-,visibility%20timeout,-%2C%20a%20period%20of

https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html


 

728x90
728x90

#391

https://www.examtopics.com/discussions/amazon/view/102212-exam-aws-certified-solutions-architect-associate-saa-c03/

회사에는 3계층 상태 비저장 웹 애플리케이션에 대한 백업 전략이 필요합니다. 웹 애플리케이션은 조정 이벤트에 응답하도록 구성된 동적 조정 정책을 사용하여 Auto Scaling 그룹의 Amazon EC2 인스턴스에서 실행됩니다. 데이터베이스 계층은 PostgreSQL용 Amazon RDS에서 실행됩니다. 웹 애플리케이션에는 EC2 인스턴스에 임시 로컬 스토리지가 필요하지 않습니다. 회사의 RPO(복구 지점 목표)는 2시간입니다.

백업 전략은 이 환경에 맞게 확장성을 극대화하고 리소스 활용도를 최적화해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. RPO를 충족하기 위해 2시간마다 EC2 인스턴스 및 데이터베이스의 Amazon Elastic Block Store(Amazon EBS) 볼륨 스냅샷을 찍습니다.
  • B. Amazon Elastic Block Store(Amazon EBS) 스냅샷을 생성하도록 스냅샷 수명 주기 정책을 구성합니다. RPO를 충족하려면 Amazon RDS에서 자동 백업을 활성화하세요.
  • C. 웹 및 애플리케이션 계층의 최신 Amazon 머신 이미지(AMI)를 유지합니다. Amazon RDS에서 자동 백업을 활성화하고 특정 시점 복구를 사용하여 RPO를 충족합니다.
  • D. 2시간마다 EC2 인스턴스의 Amazon Elastic Block Store(Amazon EBS) 볼륨 스냅샷을 찍습니다. Amazon RDS에서 자동 백업을 활성화하고 특정 시점 복구를 사용하여 RPO를 충족합니다.
더보기
해설
  • A. RPO를 충족하기 위해 2시간마다 EC2 인스턴스 및 데이터베이스의 Amazon Elastic Block Store(Amazon EBS) 볼륨 스냅샷을 찍습니다.
  • B. Amazon Elastic Block Store(Amazon EBS) 스냅샷을 생성하도록 스냅샷 수명 주기 정책을 구성합니다. RPO를 충족하려면 Amazon RDS에서 자동 백업을 활성화하세요.
  • C. 웹 및 애플리케이션 계층의 최신 Amazon 머신 이미지(AMI)를 유지합니다. Amazon RDS에서 자동 백업을 활성화하고 특정 시점 복구를 사용하여 RPO를 충족합니다.
  • D. 2시간마다 EC2 인스턴스의 Amazon Elastic Block Store(Amazon EBS) 볼륨 스냅샷을 찍습니다. Amazon RDS에서 자동 백업을 활성화하고 특정 시점 복구를 사용하여 RPO를 충족합니다.

EC2 인스턴스에 임시 스토리지가 필요하지 않은 경우 AMI를 사용


#392

https://www.examtopics.com/discussions/amazon/view/102160-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사가 AWS에 새로운 퍼블릭 웹 애플리케이션을 배포하려고 합니다. 애플리케이션에는 Amazon EC2 인스턴스를 사용하는 웹 서버 계층이 포함되어 있습니다. 애플리케이션에는 MySQL DB 인스턴스용 Amazon RDS를 사용하는 데이터베이스 계층도 포함되어 있습니다.

애플리케이션은 안전해야 하며 동적 IP 주소를 가진 글로벌 고객이 액세스할 수 있어야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하도록 보안 그룹을 어떻게 구성해야 합니까?

  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 웹 서버의 보안 그룹에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스의 보안 그룹을 구성합니다.
  • B. 고객의 IP 주소에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 웹 서버의 보안 그룹에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스의 보안 그룹을 구성합니다.
  • C. 고객의 IP 주소에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 고객의 IP 주소에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스에 대한 보안 그룹을 구성합니다.
  • D. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 0.0.0.0/0에서 포트 3306의 인바운드 트래픽을 허용하도록 DB 인스턴스에 대한 보안 그룹을 구성합니다.
더보기
해설
  • A. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 웹 서버의 보안 그룹에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스의 보안 그룹을 구성합니다.
  • B. 고객의 IP 주소에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 웹 서버의 보안 그룹에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스의 보안 그룹을 구성합니다.
  • C. 고객의 IP 주소에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 고객의 IP 주소에서 포트 3306으로 인바운드 트래픽을 허용하도록 DB 인스턴스에 대한 보안 그룹을 구성합니다.
  • D. 0.0.0.0/0에서 포트 443의 인바운드 트래픽을 허용하도록 웹 서버에 대한 보안 그룹을 구성합니다. 0.0.0.0/0에서 포트 3306의 인바운드 트래픽을 허용하도록 DB 인스턴스에 대한 보안 그룹을 구성합니다.

#393

https://www.examtopics.com/discussions/amazon/view/102322-exam-aws-certified-solutions-architect-associate-saa-c03/

결제 처리 회사는 고객과의 모든 음성 통신을 녹음하고 오디오 파일을 Amazon S3 버킷에 저장합니다. 회사는 오디오 파일에서 텍스트를 캡처해야 합니다. 회사는 고객에게 속한 모든 개인 식별 정보(PII)를 텍스트에서 제거해야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?


  • A. Amazon Kinesis Video Streams를 사용하여 오디오 파일을 처리합니다. AWS Lambda 함수를 사용하여 알려진 PII 패턴을 검색합니다.
  • B. 오디오 파일이 S3 버킷에 업로드되면 AWS Lambda 함수를 호출하여 Amazon Textract 작업을 시작하여 통화 녹음을 분석합니다.
  • C. PII 수정이 활성화된 상태에서 Amazon Transcribe 전사 작업을 구성합니다. 오디오 파일이 S3 버킷에 업로드되면 AWS Lambda 함수를 호출하여 녹음 작업을 시작합니다. 출력을 별도의 S3 버킷에 저장합니다.
  • D. 전사가 활성화된 오디오 파일을 수집하는 Amazon Connect 고객 응대 흐름을 생성합니다. AWS Lambda 함수를 내장하여 알려진 PII 패턴을 검색합니다. 오디오 파일이 S3 버킷에 업로드될 때 Amazon EventBridge를 사용하여 고객 응대 흐름을 시작합니다.
더보기
해설
  • A. Amazon Kinesis Video Streams를 사용하여 오디오 파일을 처리합니다. AWS Lambda 함수를 사용하여 알려진 PII 패턴을 검색합니다.
  • B. 오디오 파일이 S3 버킷에 업로드되면 AWS Lambda 함수를 호출하여 Amazon Textract 작업을 시작하여 통화 녹음을 분석합니다.
  • C. PII 수정이 활성화된 상태에서 Amazon Transcribe 전사 작업을 구성합니다. 오디오 파일이 S3 버킷에 업로드되면 AWS Lambda 함수를 호출하여 녹음 작업을 시작합니다. 출력을 별도의 S3 버킷에 저장합니다.
  • D. 전사가 활성화된 오디오 파일을 수집하는 Amazon Connect 고객 응대 흐름을 생성합니다. AWS Lambda 함수를 내장하여 알려진 PII 패턴을 검색합니다. 오디오 파일이 S3 버킷에 업로드될 때 Amazon EventBridge를 사용하여 고객 응대 흐름을 시작합니다.

 


#394

https://www.examtopics.com/discussions/amazon/view/102161-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사가 AWS 클라우드에서 다중 계층 전자상거래 웹 애플리케이션을 실행하고 있습니다. 애플리케이션은 MySQL 다중 AZ DB 인스턴스용 Amazon RDS가 있는 Amazon EC2 인스턴스에서 실행됩니다. Amazon RDS는 범용 SSD(gp3) Amazon Elastic Block Store(Amazon EBS) 볼륨에 2,000GB의 스토리지를 갖춘 최신 세대 DB 인스턴스로 구성됩니다. 데이터베이스 성능은 수요가 많은 기간 동안 애플리케이션에 영향을 미칩니다.

데이터베이스 관리자는 Amazon CloudWatch Logs의 로그를 분석하고 읽기 및 쓰기 IOPS 수가 20,000보다 높으면 애플리케이션 성능이 항상 저하된다는 사실을 발견했습니다.

애플리케이션 성능을 향상시키기 위해 솔루션 아키텍트는 무엇을 해야 합니까?


  • A. 볼륨을 마그네틱 볼륨으로 교체합니다.
  • B. gp3 볼륨의 IOPS 수를 늘립니다.
  • C. 볼륨을 프로비저닝된 IOPS SSD(io2) 볼륨으로 교체합니다.
  • D. 2,000GB gp3 볼륨을 1,000GB gp3 볼륨 2개로 교체합니다.

 

 

더보기
해설
  • A. 볼륨을 마그네틱 볼륨으로 교체합니다.
  • B. gp3 볼륨의 IOPS 수를 늘립니다.
  • C. 볼륨을 프로비저닝된 IOPS SSD(io2) 볼륨으로 교체합니다.
  • D. 2,000GB gp3 볼륨을 1,000GB gp3 볼륨 2개로 교체합니다.

IO2는 RDS에 대한 옵션이 아님
https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_Storage.html


#395

https://www.examtopics.com/discussions/amazon/view/102162-exam-aws-certified-solutions-architect-associate-saa-c03/

IAM 사용자가 지난주 프로덕션 배포 중에 회사 계정의 AWS 리소스에 대한 여러 구성을 변경했습니다. 솔루션 설계자는 몇 가지 보안 그룹 규칙이 원하는 대로 구성되지 않았다는 사실을 알게 되었습니다. 솔루션 설계자는 어떤 IAM 사용자가 변경 작업을 담당했는지 확인하려고 합니다.

솔루션 아키텍트는 원하는 정보를 찾기 위해 어떤 서비스를 사용해야 합니까?


  • A. 아마존 가드듀티
  • B. 아마존 인스펙터
  • C. AWS 클라우드트레일
  • D. AWS 구성
더보기
해설
  • A. 아마존 가드듀티
  • B. 아마존 인스펙터
  • C. AWS 클라우드트레일
  • D. AWS 구성

#396

https://www.examtopics.com/discussions/amazon/view/102164-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사가 AWS에서 자체 관리형 DNS 서비스를 구현했습니다. 솔루션은 다음으로 구성됩니다.

다양한 AWS 지역의 Amazon EC2 인스턴스
AWS Global Accelerator의 표준 액셀러레이터 엔드포인트

회사는 DDoS 공격으로부터 솔루션을 보호하려고 합니다.

이 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. AWS Shield Advanced를 구독하세요. 보호할 리소스로 가속기를 추가합니다.
  • B. AWS Shield Advanced를 구독하세요. 보호할 리소스로 EC2 인스턴스를 추가합니다.
  • C. 비율 기반 규칙을 포함하는 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 가속기와 연결합니다.
  • D. 비율 기반 규칙을 포함하는 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 EC2 인스턴스와 연결합니다.
더보기
해설
  • A. AWS Shield Advanced를 구독하세요. 보호할 리소스로 가속기를 추가합니다.
  • B. AWS Shield Advanced를 구독하세요. 보호할 리소스로 EC2 인스턴스를 추가합니다.
  • C. 비율 기반 규칙을 포함하는 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 가속기와 연결합니다.
  • D. 비율 기반 규칙을 포함하는 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 EC2 인스턴스와 연결합니다.

#397

https://www.examtopics.com/discussions/amazon/view/102165-exam-aws-certified-solutions-architect-associate-saa-c03/

전자상거래 회사는 분석을 위해 판매 기록을 집계하고 필터링하기 위해 예약된 일일 작업을 실행해야 합니다. 회사는 판매 기록을 Amazon S3 버킷에 저장합니다. 각 개체의 크기는 최대 10GB일 수 있습니다. 판매 이벤트 수에 따라 작업을 완료하는 데 최대 1시간이 걸릴 수 있습니다. 작업의 CPU 및 메모리 사용량은 일정하며 미리 알려져 있습니다.

솔루션 설계자는 작업을 실행하는 데 필요한 운영 노력을 최소화해야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. Amazon EventBridge 알림이 있는 AWS Lambda 함수를 생성합니다. EventBridge 이벤트가 하루에 한 번 실행되도록 예약합니다.
  • B. AWS Lambda 함수를 생성합니다. Amazon API Gateway HTTP API를 생성하고 API를 함수와 통합합니다. API를 호출하고 함수를 호출하는 Amazon EventBridge 예약 이벤트를 생성합니다.
  • C. AWS Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 작업을 실행하기 위해 클러스터에서 ECS 작업을 시작하는 Amazon EventBridge 예약 이벤트를 생성합니다.
  • D. Amazon EC2 시작 유형과 하나 이상의 EC2 인스턴스가 있는 Auto Scaling 그룹을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 작업을 실행하기 위해 클러스터에서 ECS 작업을 시작하는 Amazon EventBridge 예약 이벤트를 생성합니다.
더보기
해설
  • A. Amazon EventBridge 알림이 있는 AWS Lambda 함수를 생성합니다. EventBridge 이벤트가 하루에 한 번 실행되도록 예약합니다.
  • B. AWS Lambda 함수를 생성합니다. Amazon API Gateway HTTP API를 생성하고 API를 함수와 통합합니다. API를 호출하고 함수를 호출하는 Amazon EventBridge 예약 이벤트를 생성합니다.
  • C. AWS Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 작업을 실행하기 위해 클러스터에서 ECS 작업을 시작하는 Amazon EventBridge 예약 이벤트를 생성합니다.
  • D. Amazon EC2 시작 유형과 하나 이상의 EC2 인스턴스가 있는 Auto Scaling 그룹을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 작업을 실행하기 위해 클러스터에서 ECS 작업을 시작하는 Amazon EventBridge 예약 이벤트를 생성합니다.

C는 D보다 운영상 덜 복잡
Fargate는 관리형 ECS 클러스터인 반면, EC2 기반 ECS에는 더 많은 구성 오버헤드가 필요


#398

https://www.examtopics.com/discussions/amazon/view/102166-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 온프레미스 NAS(Network Attached Storage) 시스템에서 AWS 클라우드로 600TB의 데이터를 전송해야 합니다. 데이터 전송은 2주 이내에 완료되어야 합니다. 데이터는 중요하므로 전송 중에 암호화되어야 합니다. 회사의 인터넷 연결은 100Mbps의 업로드 속도를 지원할 수 있습니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. Amazon S3 멀티파트 업로드 기능을 사용하여 HTTPS를 통해 파일을 전송하십시오.
  • B. 온프레미스 NAS 시스템과 가장 가까운 AWS 지역 간에 VPN 연결을 생성합니다. VPN 연결을 통해 데이터를 전송합니다.
  • C. AWS Snow Family 콘솔을 사용하여 여러 AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. 장치를 사용하여 Amazon S3로 데이터를 전송합니다.
  • D. 회사 위치와 가장 가까운 AWS 지역 간에 10Gbps AWS Direct Connect 연결을 설정합니다. VPN 연결을 통해 데이터를 지역으로 전송하여 Amazon S3에 데이터를 저장합니다.
더보기
해설
  • A. Amazon S3 멀티파트 업로드 기능을 사용하여 HTTPS를 통해 파일을 전송하십시오.
  • B. 온프레미스 NAS 시스템과 가장 가까운 AWS 지역 간에 VPN 연결을 생성합니다. VPN 연결을 통해 데이터를 전송합니다.
  • C. AWS Snow Family 콘솔을 사용하여 여러 AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. 장치를 사용하여 Amazon S3로 데이터를 전송합니다.
  • D. 회사 위치와 가장 가까운 AWS 지역 간에 10Gbps AWS Direct Connect 연결을 설정합니다. VPN 연결을 통해 데이터를 지역으로 전송하여 Amazon S3에 데이터를 저장합니다.

#399

https://www.examtopics.com/discussions/amazon/view/102167-exam-aws-certified-solutions-architect-associate-saa-c03/

금융 회사는 AWS에서 웹 애플리케이션을 호스팅합니다. 애플리케이션은 Amazon API Gateway 지역 API 엔드포인트를 사용하여 사용자에게 현재 주가를 검색할 수 있는 기능을 제공합니다. 회사 보안팀에서는 API 요청 수가 증가하는 것을 확인했습니다. 보안 팀은 HTTP 플러드 공격으로 인해 애플리케이션이 오프라인 상태가 될 수 있다는 점을 우려하고 있습니다.

솔루션 설계자는 이러한 유형의 공격으로부터 애플리케이션을 보호하기 위한 솔루션을 설계해야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
  • A. 최대 TTL이 24시간인 API Gateway 지역 API 엔드포인트 앞에 Amazon CloudFront 배포를 생성합니다.
  • B. 비율 기반 규칙을 사용하여 지역 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 API 게이트웨이 단계와 연결합니다.
  • C. Amazon CloudWatch 지표를 사용하여 Count 지표를 모니터링하고 사전 정의된 비율에 도달하면 보안 팀에 알립니다.
  • D. API Gateway 지역 API 엔드포인트 앞에 Lambda@Edge를 사용하여 Amazon CloudFront 배포를 생성합니다. 사전 정의된 속도를 초과하는 IP 주소의 요청을 차단하는 AWS Lambda 함수를 생성합니다.
더보기
해설
  • A. 최대 TTL이 24시간인 API Gateway 지역 API 엔드포인트 앞에 Amazon CloudFront 배포를 생성합니다.
  • B. 비율 기반 규칙을 사용하여 지역 AWS WAF 웹 ACL을 생성합니다. 웹 ACL을 API 게이트웨이 단계와 연결합니다.
  • C. Amazon CloudWatch 지표를 사용하여 Count 지표를 모니터링하고 사전 정의된 비율에 도달하면 보안 팀에 알립니다.
  • D. API Gateway 지역 API 엔드포인트 앞에 Lambda@Edge를 사용하여 Amazon CloudFront 배포를 생성합니다. 사전 정의된 속도를 초과하는 IP 주소의 요청을 차단하는 AWS Lambda 함수를 생성합니다.

 


#400

https://www.examtopics.com/discussions/amazon/view/102169-exam-aws-certified-solutions-architect-associate-saa-c03/

더보기
한 기상 스타트업 회사는 사용자에게 온라인으로 날씨 데이터를 판매하는 맞춤형 웹 애플리케이션을 보유하고 있습니다. 이 회사는 Amazon DynamoDB를 사용하여 데이터를 저장하고 새로운 기상 현상이 기록될 때마다 내부 팀 4개 관리자에게 알림을 보내는 새로운 서비스를 구축하려고 합니다. 회사는 이 새로운 서비스가 현재 애플리케이션의 성능에 영향을 미치는 것을 원하지 않습니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. DynamoDB 트랜잭션을 사용하여 새 이벤트 데이터를 테이블에 씁니다. 내부 팀에 알리도록 트랜잭션을 구성합니다.
  • B. 현재 애플리케이션이 4개의 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시하도록 합니다. 각 팀이 하나의 주제를 구독하게 합니다.
  • C. 테이블에서 Amazon DynamoDB 스트림을 활성화합니다. 트리거를 사용하여 팀이 구독할 수 있는 단일 Amazon Simple Notification Service(Amazon SNS) 주제에 기록합니다.
  • D. 각 레코드에 사용자 정의 속성을 추가하여 새 항목에 플래그를 지정합니다. 매분마다 테이블에서 새로운 항목을 검색하고 팀이 구독할 수 있는 Amazon Simple Queue Service(Amazon SQS) 대기열에 알리는 크론 작업을 작성합니다.
더보기
해설
  • A. DynamoDB 트랜잭션을 사용하여 새 이벤트 데이터를 테이블에 씁니다. 내부 팀에 알리도록 트랜잭션을 구성합니다.
  • B. 현재 애플리케이션이 4개의 Amazon Simple 알림 서비스(Amazon SNS) 주제에 메시지를 게시하도록 합니다. 각 팀이 하나의 주제를 구독하게 합니다.
  • C. 테이블에서 Amazon DynamoDB 스트림을 활성화합니다. 트리거를 사용하여 팀이 구독할 수 있는 단일 Amazon Simple Notification Service(Amazon SNS) 주제에 기록합니다.
  • D. 각 레코드에 사용자 정의 속성을 추가하여 새 항목에 플래그를 지정합니다. 매분마다 테이블에서 새로운 항목을 검색하고 팀이 구독할 수 있는 Amazon Simple Queue Service(Amazon SQS) 대기열에 알리는 크론 작업을 작성합니다.

https://aws.amazon.com/ko/blogs/database/dynamodb-streams-use-cases-and-design-patterns/


 

728x90
728x90

*헷갈렸던 것 위주 정리

1. Storage 

- 확장가능, 다중 액세스, 파일시스템 ⇒ Amazon EFS
- 서버리스 SQL엔진을 사용한 Amazon S3 데이터 분석 ⇒ Athena
- S3, 원시데이터 가공 처리 ⇒ AWS Glue
- AWS Glue => RDS 쿼리편집기에서 편집불가
RDS 쿼리 편집기는 RDS용
- SMB + 완전관리형 ⇒ Windows용 FSx
- AWS Lake Formation
- S3 스토리지 클래스 비교
S3 Standard-Infrequent Access(S3 Standard-IA)
- POSIX 파일 시스템 액세스 지원 = Amazon EFS만 지원

- 네트워크 전송 속도가 제한되어있을때, 긴 기간이 정해져있을때 ⇒ Snowball
네트워크 전송 속도가 좋을때, 짧은 기간이 정해져있을때 ⇒ Data Sync

- 대역폭 제한 마이그레이션 => Snowball

- 정적 컨텐츠 웹사이트 배포 => S3 (vs PHP 동적 웹사이트 X)

- 예측 가능 => S3 intelligent-tiering
예측 불가 => EC2 Auto Scaling




2. DNS

 



3. Security

- SQL주입, 일반적인 애플리케이션 수준의 공격 ⇒ AWS WAF
- DDos공격 보안 ⇒ AWS Shield
- GuardDuty에서 지원하는 소스 데이터 ⇒ VPC Flow Logs, DNS로그, CloudTrail 이벤트
- IAM 역할을 EC2 인스턴스에 연결 (정책X)
- AWS WAF
- 데이터가 S3버킷에 업로드 되기 전에 암호화 => 클라이언트 측 암호화 사용
- 전송 중인 데이터 보안 = TLS
- AWS Inspector
- AWS Detective




4. CDN

- 콘텐츠전송네트워크(CDN) ⇒ CloudFront

- 정적 및 동적 콘텐츠 배포에 모두 사용 => CloudFront
- FIFO 대기열의 이름은 .fifo라는 접미사(어)로 끝나야 함
- 콘텐츠전송네트워크 웹사이트 = http = cloudfront (UDP인 경우 글로벌 가속기)
- 동적 웹 사이트 제공 => CloudFront
- CDN에서 일부 로직을 구현해야 하는 순간에는 Lambda@Edge를 생각

- CloudFront는 엣지 로케이션을 사용하여 콘텐츠를 캐시
Global Accelerator는 엣지 로케이션을 사용하여 가장 가까운 지역 엔드포인트에 대한 최적의 경로를 찾음

- Global Accelerator에는 CloudFront 배포를 엔드포인트로 만드는 옵션이 없음

- CloudFront => 컨텐츠 배포

- Global Accelerator => 트래픽 라우팅



5. Decoupling Application

- 애플리케이션 분리 ⇒ SQS
- SQS는 ASG랑 많이 나옴
- SQS 대기열에 대한 API 호출 수를 최적화, 지연시간 줄이는 법 ⇒ 롱폴링
- 프로비저닝은 기본적으로 돈이 많이 듦 → 비용 최적화 문제이면 답이 될 수 없음
- 각 요청을 한 번 이상 처리 ⇒ SQS 표준 대기열 / FIFO(X)
- Kinesis Data Stream과 SQS의 차이 구분
([Kinesis Data Stream과 SQS의 비교](https://aws.amazon.com/ko/kinesis/data-streams/faqs/))
- AWS Fargate
- AWS Step Functions
- Amazon SNS FIFO 주제 VS Amazon SQS FIFO 대기열




6. RDS & DB

- AWS aurora는 읽기전용복제본만 auto scaling됨 (가용성에서는 온디맨드 용량의 DB사용)
- RDS MySQL의 읽기전용복제본은 비동기식임
- DynamoDB ⇒ 특정시점복구 구성
- 그래프 데이터베이스 ⇒ Neptune
- 몽고DB ⇒ DocumentDB
- NoSql ⇒ DocumentDB, DynamoDB
- DAX는 SQL 쿼리 캐싱을 지원하지 않음
- Redshift은 실시간 쿼리 지원하지 않음
- RDS는 IO2 또는 IO2express를 지원하지 않음 
GP2는 필요한 IOPS를 수행함
- 데이터베이스 연결 거부 오류 = RDS Proxy

- SQS + LAMDA + JSON => Dynamo DB



7. Monitoring

- 하둡 클러스터가 있는 빅데이터 ⇒ EMR (Elastic MapReduce)


 



8. Network

- VPN 연결 ⇒ AWS VPN CloudHub
- IoT 장치 관리 ⇒ IoT Core
- AWS firewall manager
- NLB(TCP/UDP 4계층) VS ALB(HTTP/HTTPS 7계층)



9. DR

- 고가용성 => 다중AZ배포

- 성능향상 => 읽기전용복제본

 



10. ETC

- 운영 오버헤드 최소화 => EC2 부적절

- 트래픽 패턴이 다양 => Lambda 함수

- Apache Cassandra ⇒ Amazon Keyspaces
- 금융 트랜잭션이나 원장(Ledger) ⇒ QLDB
- NLP (Natural Language Processing,자연어처리) ⇒ Amazon Comprehend
- 예측 ⇒ Amazon Forecast
- 문서 검색 서비스 ⇒ Amazon Kendra
- 추천 및 맞춤화된 추천을 위한 머신러닝 서비스 ⇒ Amazon Personalize
- 인스턴스 패밀리 변경 = Compute Savings Plans

728x90

+ Recent posts