728x90

#401

https://www.examtopics.com/discussions/amazon/view/102170-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 AWS 클라우드를 사용하여 기존 애플리케이션의 가용성과 복원력을 높이고 싶어합니다. 현재 버전의 애플리케이션은 회사의 데이터 센터에 있습니다. 최근 예상치 못한 정전으로 인해 데이터베이스 서버가 중단된 후 애플리케이션에서 데이터 손실이 발생했습니다.

회사에는 단일 실패 지점을 방지하는 솔루션이 필요합니다. 솔루션은 사용자 요구에 맞게 확장할 수 있는 기능을 애플리케이션에 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 다중 AZ 구성에서 Amazon RDS DB 인스턴스를 사용합니다.
  • B. 단일 가용 영역의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. EC2 인스턴스에 데이터베이스를 배포합니다. EC2 자동 복구를 활성화합니다.
  • C. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 단일 가용 영역에서 읽기 전용 복제본과 함께 Amazon RDS DB 인스턴스를 사용합니다. 기본 DB 인스턴스가 실패하는 경우 읽기 전용 복제본을 승격하여 기본 DB 인스턴스를 교체합니다.
  • D. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 여러 가용 영역에 걸쳐 EC2 인스턴스에 기본 및 보조 데이터베이스 서버를 배포합니다. Amazon Elastic Block Store(Amazon EBS) 다중 연결을 사용하여 인스턴스 간에 공유 스토리지를 생성합니다.
더보기
해설
  • A. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 다중 AZ 구성에서 Amazon RDS DB 인스턴스를 사용합니다.
  • B. 단일 가용 영역의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. EC2 인스턴스에 데이터베이스를 배포합니다. EC2 자동 복구를 활성화합니다.
  • C. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 단일 가용 영역에서 읽기 전용 복제본과 함께 Amazon RDS DB 인스턴스를 사용합니다. 기본 DB 인스턴스가 실패하는 경우 읽기 전용 복제본을 승격하여 기본 DB 인스턴스를 교체합니다.
  • D. 여러 가용 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 인스턴스를 사용하여 애플리케이션 서버를 배포합니다. 여러 가용 영역에 걸쳐 EC2 인스턴스에 기본 및 보조 데이터베이스 서버를 배포합니다. Amazon Elastic Block Store(Amazon EBS) 다중 연결을 사용하여 인스턴스 간에 공유 스토리지를 생성합니다.

D는 작동하지 않음
(EBS 다중 연결에는 동일한 AZ에 EC2 인스턴스가 필요함)

작동한다면 EBS 볼륨 SPOF가 될 것


#402

https://www.examtopics.com/discussions/amazon/view/102175-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 애플리케이션에서 생성되는 대량의 스트리밍 데이터를 수집하고 처리해야 합니다. 애플리케이션은 Amazon EC2 인스턴스에서 실행되며 기본 설정으로 구성된 Amazon Kinesis Data Streams로 데이터를 보냅니다. 애플리케이션은 격일로 데이터를 소비하고 비즈니스 인텔리전스(BI) 처리를 위해 Amazon S3 버킷에 데이터를 씁니다. 회사는 애플리케이션이 Kinesis Data Streams로 전송하는 모든 데이터를 Amazon S3가 수신하지 못하는 것을 확인했습니다.

이 문제를 해결하려면 솔루션 설계자가 무엇을 해야 합니까?


  • A. 데이터 보존 기간을 수정하여 Kinesis Data Streams 기본 설정을 업데이트합니다.
  • B. KPL(Kinesis Producer Library)을 사용하여 데이터를 Kinesis Data Streams로 보내도록 애플리케이션을 업데이트합니다.
  • C. Kinesis Data Streams로 전송되는 데이터의 처리량을 처리하기 위해 Kinesis 샤드 수를 업데이트합니다.
  • D. S3 버킷 내에서 S3 버전 관리를 활성화하여 S3 버킷에 수집된 모든 객체의 모든 버전을 보존합니다.
더보기
해설
  • A. 데이터 보존 기간을 수정하여 Kinesis Data Streams 기본 설정을 업데이트합니다.
  • B. KPL(Kinesis Producer Library)을 사용하여 데이터를 Kinesis Data Streams로 보내도록 애플리케이션을 업데이트합니다.
  • C. Kinesis Data Streams로 전송되는 데이터의 처리량을 처리하기 위해 Kinesis 샤드 수를 업데이트합니다.
  • D. S3 버킷 내에서 S3 버전 관리를 활성화하여 S3 버킷에 수집된 모든 객체의 모든 버전을 보존합니다.

"Kinesis 데이터 스트림은 기본적으로 24시간부터 최대 8,760시간(365일)까지의 레코드를 저장합니다." https://docs.aws.amazon.com/streams/latest/dev/kinesis-extended-retention.html 질문에는 Kinesis 데이터 스트림 기본 설정과 "격일"이 언급되어 있습니다. 24시간 이상 데이터를 저장하도록 기본 설정을 수정하지 않으면 24시간 이후에는 데이터가 데이터 스트림에 없습니다.


#403

https://www.examtopics.com/discussions/amazon/view/102178-exam-aws-certified-solutions-architect-associate-saa-c03/


개발자는 AWS Lambda 함수를 사용하여 Amazon S3에 파일을 업로드하는 애플리케이션을 보유하고 있으며 작업을 수행하는 데 필요한 권한이 필요합니다. 개발자에게는 Amazon S3에 필요한 유효한 IAM 자격 증명을 가진 IAM 사용자가 이미 있습니다.

솔루션 설계자는 권한을 부여하기 위해 무엇을 해야 합니까?


  • A. Lambda 함수의 리소스 정책에 필요한 IAM 권한을 추가합니다.
  • B. Lambda 함수의 기존 IAM 자격 증명을 사용하여 서명된 요청을 생성합니다.
  • C. 새로운 IAM 사용자를 생성하고 Lambda 함수에서 기존 IAM 자격 증명을 사용합니다.
  • D. 필요한 권한이 있는 IAM 실행 역할을 생성하고 IAM 역할을 Lambda 함수에 연결합니다.
더보기
해설
  • A. Lambda 함수의 리소스 정책에 필요한 IAM 권한을 추가합니다.
  • B. Lambda 함수의 기존 IAM 자격 증명을 사용하여 서명된 요청을 생성합니다.
  • C. 새로운 IAM 사용자를 생성하고 Lambda 함수에서 기존 IAM 자격 증명을 사용합니다.
  • D. 필요한 권한이 있는 IAM 실행 역할을 생성하고 IAM 역할을 Lambda 함수에 연결합니다.

#404

https://www.examtopics.com/discussions/amazon/view/102180-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 새 문서가 Amazon S3 버킷에 업로드될 때 AWS Lambda 함수를 호출하는 서버리스 애플리케이션을 배포했습니다. 애플리케이션은 Lambda 함수를 사용하여 문서를 처리합니다. 최근 마케팅 캠페인 이후 회사는 애플리케이션이 많은 문서를 처리하지 않는다는 사실을 발견했습니다.

이 애플리케이션의 아키텍처를 개선하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. Lambda 함수의 런타임 제한 시간 값을 15분으로 설정합니다.
  • B. S3 버킷 복제 정책을 구성합니다. 나중에 처리하기 위해 S3 버킷에 문서를 준비합니다.
  • C. 추가 Lambda 함수를 배포합니다. 두 개의 Lambda 함수에 걸쳐 문서 처리의 로드 밸런싱을 수행합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 요청을 대기열로 보냅니다. 대기열을 Lambda의 이벤트 소스로 구성합니다.
더보기
해설
  • A. Lambda 함수의 런타임 제한 시간 값을 15분으로 설정합니다.
  • B. S3 버킷 복제 정책을 구성합니다. 나중에 처리하기 위해 S3 버킷에 문서를 준비합니다.
  • C. 추가 Lambda 함수를 배포합니다. 두 개의 Lambda 함수에 걸쳐 문서 처리의 로드 밸런싱을 수행합니다.
  • D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. 요청을 대기열로 보냅니다. 대기열을 Lambda의 이벤트 소스로 구성합니다.

#405

https://www.examtopics.com/discussions/amazon/view/102181-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 소프트웨어 데모 환경을 위한 아키텍처를 설계하고 있습니다. 환경은 ALB(Application Load Balancer) 뒤의 Auto Scaling 그룹에 있는 Amazon EC2 인스턴스에서 실행됩니다. 시스템은 업무 시간 동안 상당한 트래픽 증가를 경험하지만 주말에는 작동할 필요가 없습니다.

시스템이 수요에 맞게 확장될 수 있도록 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. AWS Auto Scaling을 사용하여 요청 속도에 따라 ALB 용량을 조정하십시오.
  • B. AWS Auto Scaling을 사용하여 VPC 인터넷 게이트웨이의 용량을 확장합니다.
  • C. 여러 AWS 지역에서 EC2 인스턴스를 시작하여 지역 전체에 로드를 분산합니다.
  • D. 대상 추적 조정 정책을 사용하여 인스턴스 CPU 사용률을 기준으로 Auto Scaling 그룹을 조정합니다.
  • E. 예약된 조정을 사용하여 주말 동안 Auto Scaling 그룹 최소, 최대 및 원하는 용량을 0으로 변경합니다. 한 주가 시작되면 기본값으로 되돌립니다.
더보기
해설
  • A. AWS Auto Scaling을 사용하여 요청 속도에 따라 ALB 용량을 조정하십시오.
  • B. AWS Auto Scaling을 사용하여 VPC 인터넷 게이트웨이의 용량을 확장합니다.
  • C. 여러 AWS 지역에서 EC2 인스턴스를 시작하여 지역 전체에 로드를 분산합니다.
  • D. 대상 추적 조정 정책을 사용하여 인스턴스 CPU 사용률을 기준으로 Auto Scaling 그룹을 조정합니다.
  • E. 예약된 조정을 사용하여 주말 동안 Auto Scaling 그룹 최소, 최대 및 원하는 용량을 0으로 변경합니다. 한 주가 시작되면 기본값으로 되돌립니다.

#406

https://www.examtopics.com/discussions/amazon/view/102183-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 공용 서브넷과 데이터베이스 서브넷을 포함하는 2계층 아키텍처를 설계하고 있습니다. 퍼블릭 서브넷의 웹 서버는 포트 443에서 인터넷에 열려 있어야 합니다. 데이터베이스 서브넷의 Amazon RDS for MySQL DB 인스턴스는 포트 3306의 웹 서버에만 액세스할 수 있어야 합니다.

솔루션 설계자가 수행해야 하는 단계 조합은 무엇입니까? 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)

  • A. 퍼블릭 서브넷에 대한 네트워크 ACL을 생성합니다. 포트 3306에서 0.0.0.0/0으로의 아웃바운드 트래픽을 거부하는 규칙을 추가합니다.
  • B. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 퍼블릭 서브넷 CIDR 블록의 트래픽을 허용하는 규칙을 추가합니다.
  • C. 퍼블릭 서브넷의 웹 서버에 대한 보안 그룹을 생성합니다. 포트 443에서 0.0.0.0/0의 트래픽을 허용하는 규칙을 추가합니다.
  • D. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 허용하는 규칙을 추가합니다.
  • E. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 제외한 모든 트래픽을 거부하는 규칙을 추가합니다.
더보기
해설
  • A. 퍼블릭 서브넷에 대한 네트워크 ACL을 생성합니다. 포트 3306에서 0.0.0.0/0으로의 아웃바운드 트래픽을 거부하는 규칙을 추가합니다.
  • B. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 퍼블릭 서브넷 CIDR 블록의 트래픽을 허용하는 규칙을 추가합니다.
  • C. 퍼블릭 서브넷의 웹 서버에 대한 보안 그룹을 생성합니다. 포트 443에서 0.0.0.0/0의 트래픽을 허용하는 규칙을 추가합니다.
  • D. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 허용하는 규칙을 추가합니다.
  • E. DB 인스턴스에 대한 보안 그룹을 생성합니다. 포트 3306에서 웹 서버 보안 그룹의 트래픽을 제외한 모든 트래픽을 거부하는 규칙을 추가합니다.

#407

https://www.examtopics.com/discussions/amazon/view/102184-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS 클라우드에서 호스팅되는 게임 애플리케이션용 공유 스토리지 솔루션을 구현하고 있습니다. 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있는 기능이 필요합니다. 솔루션은 완전히 관리되어야 합니다.

이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 데이터를 탑재 가능한 파일 시스템으로 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre를 지원하도록 구성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
더보기
해설
  • A. 데이터를 탑재 가능한 파일 시스템으로 공유하는 AWS DataSync 작업을 생성합니다. 파일 시스템을 애플리케이션 서버에 마운트합니다.
  • B. AWS Storage Gateway 파일 게이트웨이를 생성합니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
  • C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 생성하고 Lustre를 지원하도록 구성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
  • D. Lustre 파일 시스템용 Amazon FSx를 생성합니다. 원본 서버에 파일 시스템을 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.

#408

https://www.examtopics.com/discussions/amazon/view/102185-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 UDP를 사용하는 지리적으로 분산된 수천 개의 원격 장치로부터 데이터를 수신하는 애플리케이션을 실행합니다. 애플리케이션은 데이터를 즉시 처리하고 필요한 경우 장치에 다시 메시지를 보냅니다. 데이터가 저장되지 않습니다.

회사에는 장치에서 데이터 전송에 대한 대기 시간을 최소화하는 솔루션이 필요합니다. 또한 솔루션은 다른 AWS 리전에 대한 신속한 장애 조치도 제공해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon Route 53 장애 조치 라우팅 정책을 구성하십시오. 두 리전 각각에 Network Load Balancer(NLB)를 생성합니다. 데이터를 처리하기 위해 AWS Lambda 함수를 호출하도록 NLB를 구성합니다.
  • B. AWS Global Accelerator를 사용하십시오. 두 리전 각각에 NLB(Network Load Balancer)를 엔드포인트로 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 Amazon ECS의 데이터를 NLProcess의 대상으로 설정합니다.
  • C. AWS Global Accelerator를 사용하십시오. 두 지역 각각에 엔드포인트로 Application Load Balancer(ALB)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정하십시오. Amazon ECS에서 데이터를 처리합니다.
  • D. Amazon Route 53 장애 조치 라우팅 정책을 구성합니다. 두 리전 각각에 ALB(Application Load Balancer)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정합니다. Amazon ECS에서 데이터를 처리합니다.
더보기
해설
  • A. Amazon Route 53 장애 조치 라우팅 정책을 구성하십시오. 두 리전 각각에 Network Load Balancer(NLB)를 생성합니다. 데이터를 처리하기 위해 AWS Lambda 함수를 호출하도록 NLB를 구성합니다.
  • B. AWS Global Accelerator를 사용하십시오. 두 리전 각각에 NLB(Network Load Balancer)를 엔드포인트로 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 Amazon ECS의 데이터를 NLProcess의 대상으로 설정합니다.
  • C. AWS Global Accelerator를 사용하십시오. 두 지역 각각에 엔드포인트로 Application Load Balancer(ALB)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정하십시오. Amazon ECS에서 데이터를 처리합니다.
  • D. Amazon Route 53 장애 조치 라우팅 정책을 구성합니다. 두 리전 각각에 ALB(Application Load Balancer)를 생성합니다. Fargate 시작 유형을 사용하여 Amazon Elastic Container Service(Amazon ECS) 클러스터를 생성합니다. 클러스터에 ECS 서비스를 생성합니다. ECS 서비스를 ALB의 대상으로 설정합니다. Amazon ECS에서 데이터를 처리합니다.

#409

https://www.examtopics.com/discussions/amazon/view/102186-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 아키텍트는 Windows 인터넷 정보 서비스(IIS) 웹 애플리케이션을 AWS로 마이그레이션해야 합니다. 애플리케이션은 현재 사용자의 온프레미스 NAS(Network Attached Storage)에서 호스팅되는 파일 공유를 사용합니다. 솔루션 설계자는 IIS 웹 서버를 스토리지 솔루션에 연결된 여러 가용 영역의 Amazon EC2 인스턴스로 마이그레이션하고 인스턴스에 연결된 Elastic Load Balancer를 구성할 것을 제안했습니다.

온프레미스 파일 공유에 대한 복원력과 내구성이 가장 뛰어난 대체 제품은 무엇입니까?

  • A. 파일 공유를 Amazon RDS로 마이그레이션하십시오.
  • B. 파일 공유를 AWS Storage Gateway로 마이그레이션합니다.
  • C. 파일 공유를 Amazon FSx for Windows File Server로 마이그레이션합니다.
  • D. 파일 공유를 Amazon Elastic File System(Amazon EFS)으로 마이그레이션합니다.
더보기
해설
  • A. 파일 공유를 Amazon RDS로 마이그레이션하십시오.
  • B. 파일 공유를 AWS Storage Gateway로 마이그레이션합니다.
  • C. 파일 공유를 Amazon FSx for Windows File Server로 마이그레이션합니다.
  • D. 파일 공유를 Amazon Elastic File System(Amazon EFS)으로 마이그레이션합니다.

#410

https://www.examtopics.com/discussions/amazon/view/102187-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon EC2 인스턴스에 새 애플리케이션을 배포하고 있습니다. 애플리케이션은 Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 씁니다. 회사는 EBS 볼륨에 기록된 모든 데이터가 저장 시 암호화되었는지 확인해야 합니다.

이 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. EBS 암호화를 지정하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. EBS 볼륨을 암호화된 볼륨으로 생성합니다. EBS 볼륨을 EC2 인스턴스에 연결합니다.
  • C. 키가 Encrypt이고 값이 True인 EC2 인스턴스 태그를 생성합니다. EBS 수준에서 암호화가 필요한 모든 인스턴스에 태그를 지정합니다.
  • D. 계정에 EBS 암호화를 적용하는 AWS Key Management Service(AWS KMS) 키 정책을 생성합니다. 키 정책이 활성 상태인지 확인하세요.
더보기
해설
  • A. EBS 암호화를 지정하는 IAM 역할을 생성합니다. EC2 인스턴스에 역할을 연결합니다.
  • B. EBS 볼륨을 암호화된 볼륨으로 생성합니다. EBS 볼륨을 EC2 인스턴스에 연결합니다.
  • C. 키가 Encrypt이고 값이 True인 EC2 인스턴스 태그를 생성합니다. EBS 수준에서 암호화가 필요한 모든 인스턴스에 태그를 지정합니다.
  • D. 계정에 EBS 암호화를 적용하는 AWS Key Management Service(AWS KMS) 키 정책을 생성합니다. 키 정책이 활성 상태인지 확인하세요.

#411

https://www.examtopics.com/discussions/amazon/view/102188-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에 산발적인 사용 패턴이 있는 웹 애플리케이션이 있습니다. 매월 초에는 사용량이 많고, 매주 초에는 사용량이 적당하며, 주 중에는 사용량이 예측할 수 없습니다. 애플리케이션은 데이터 센터 내부에서 실행되는 웹 서버와 MySQL 데이터베이스 서버로 구성됩니다. 회사는 애플리케이션을 AWS 클라우드로 이동하려고 하며 데이터베이스 수정이 필요하지 않은 비용 효율적인 데이터베이스 플랫폼을 선택해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 아마존 다이나모DB
  • B. MySQL용 Amazon RDS
  • C. MySQL 호환 Amazon Aurora 서버리스
  • D. Auto Scaling 그룹의 Amazon EC2에 배포된 MySQL
더보기
해설
  • A. 아마존 다이나모DB
  • B. MySQL용 Amazon RDS
  • C. MySQL 호환 Amazon Aurora 서버리스
  • D. Auto Scaling 그룹의 Amazon EC2에 배포된 MySQL

#412

https://www.examtopics.com/discussions/amazon/view/102189-exam-aws-certified-solutions-architect-associate-saa-c03/


이미지 호스팅 회사는 객체를 Amazon S3 버킷에 저장합니다. 회사는 S3 버킷에 있는 객체가 실수로 대중에게 노출되는 것을 방지하려고 합니다. 전체 AWS 계정의 모든 S3 객체는 비공개로 유지되어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon GuardDuty를 사용하여 S3 버킷 정책을 모니터링하십시오. AWS Lambda 함수를 사용하여 객체를 공개하는 모든 변경 사항을 수정하는 자동 수정 작업 규칙을 생성합니다.
  • B. AWS Trusted Advisor를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Trusted Advisor에서 이메일 알림을 구성합니다. 공개 액세스를 허용하는 경우 S3 버킷 정책을 수동으로 변경합니다.
  • C. AWS Resource Access Manager를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 AWS Lambda 함수를 호출합니다. 프로그래밍 방식으로 변경 사항을 해결하는 Lambda 함수를 배포합니다.
  • D. 계정 수준에서 S3 공개 액세스 차단 기능을 사용하십시오. AWS Organizations를 사용하여 IAM 사용자가 설정을 변경하지 못하도록 하는 서비스 제어 정책(SCP)을 생성합니다. 계정에 SCP를 적용합니다.
더보기
해설
  • A. Amazon GuardDuty를 사용하여 S3 버킷 정책을 모니터링하십시오. AWS Lambda 함수를 사용하여 객체를 공개하는 모든 변경 사항을 수정하는 자동 수정 작업 규칙을 생성합니다.
  • B. AWS Trusted Advisor를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Trusted Advisor에서 이메일 알림을 구성합니다. 공개 액세스를 허용하는 경우 S3 버킷 정책을 수동으로 변경합니다.
  • C. AWS Resource Access Manager를 사용하여 공개적으로 액세스 가능한 S3 버킷을 찾으십시오. 변경 사항이 감지되면 Amazon Simple 알림 서비스(Amazon SNS)를 사용하여 AWS Lambda 함수를 호출합니다. 프로그래밍 방식으로 변경 사항을 해결하는 Lambda 함수를 배포합니다.
  • D. 계정 수준에서 S3 공개 액세스 차단 기능을 사용하십시오. AWS Organizations를 사용하여 IAM 사용자가 설정을 변경하지 못하도록 하는 서비스 제어 정책(SCP)을 생성합니다. 계정에 SCP를 적용합니다.

#413

https://www.examtopics.com/discussions/amazon/view/102190-exam-aws-certified-solutions-architect-associate-saa-c03/


한 전자상거래 회사에서 사용자 트래픽이 증가하고 있습니다. 회사의 스토어는 웹 계층과 별도의 데이터베이스 계층으로 구성된 2계층 웹 애플리케이션으로 Amazon EC2 인스턴스에 배포됩니다. 트래픽이 증가함에 따라 회사는 아키텍처로 인해 사용자에게 적시에 마케팅 및 주문 확인 이메일을 보내는 데 상당한 지연이 발생하고 있음을 발견했습니다. 회사는 복잡한 이메일 전달 문제를 해결하는 데 소요되는 시간을 줄이고 운영 오버헤드를 최소화하기를 원합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • D. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다. Auto Scaling 그룹에 인스턴스를 배치합니다.
더보기
해설
  • A. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다.
  • B. Amazon Simple Email Service(Amazon SES)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • C. Amazon Simple 알림 서비스(Amazon SNS)를 통해 이메일을 보내도록 웹 인스턴스를 구성합니다.
  • D. 이메일 처리 전용 EC2 인스턴스를 사용하여 별도의 애플리케이션 계층을 생성합니다. Auto Scaling 그룹에 인스턴스를 배치합니다.

#414

https://www.examtopics.com/discussions/amazon/view/103452-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에는 매일 수백 개의 보고서를 생성하는 비즈니스 시스템이 있습니다. 비즈니스 시스템은 보고서를 CSV 형식으로 네트워크 공유에 저장합니다. 회사는 분석을 위해 이 데이터를 거의 실시간으로 AWS 클라우드에 저장해야 합니다.

최소한의 관리 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS DataSync를 사용하여 파일을 Amazon S3로 전송하십시오. 매일 저녁에 실행되는 예약된 작업을 만듭니다.
  • B. Amazon S3 파일 게이트웨이를 생성합니다. S3 파일 게이트웨이의 새 네트워크 공유를 사용하도록 비즈니스 시스템을 업데이트합니다.
  • C. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 자동화 워크플로에서 DataSync API를 사용하는 애플리케이션을 생성합니다.
  • D. SFTP 엔드포인트를 위한 AWS 전송을 배포합니다. 네트워크 공유에서 새 파일을 확인하고 SFTP를 사용하여 새 파일을 업로드하는 스크립트를 만듭니다.
더보기
해설
  • A. AWS DataSync를 사용하여 파일을 Amazon S3로 전송하십시오. 매일 저녁에 실행되는 예약된 작업을 만듭니다.
  • B. Amazon S3 파일 게이트웨이를 생성합니다. S3 파일 게이트웨이의 새 네트워크 공유를 사용하도록 비즈니스 시스템을 업데이트합니다.
  • C. AWS DataSync를 사용하여 파일을 Amazon S3로 전송합니다. 자동화 워크플로에서 DataSync API를 사용하는 애플리케이션을 생성합니다.
  • D. SFTP 엔드포인트를 위한 AWS 전송을 배포합니다. 네트워크 공유에서 새 파일을 확인하고 SFTP를 사용하여 새 파일을 업로드하는 스크립트를 만듭니다.

'최소 관리 오버헤드'에 대한 요구 사항 => B


#415

https://www.examtopics.com/discussions/amazon/view/103404-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon S3 Standard에 페타바이트 규모의 데이터를 저장하고 있습니다. 데이터는 여러 S3 버킷에 저장되며 다양한 빈도로 액세스됩니다. 회사는 모든 데이터에 대한 접근 패턴을 알지 못합니다. 회사는 S3 사용 비용을 최적화하기 위해 각 S3 버킷에 대한 솔루션을 구현해야 합니다.

가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. S3 버킷의 객체를 S3 Intelligent-Tiering으로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • B. S3 스토리지 클래스 분석 도구를 사용하여 S3 버킷의 각 객체에 대한 올바른 계층을 결정합니다. 각 개체를 식별된 스토리지 계층으로 이동합니다.
  • C. S3 버킷의 객체를 S3 Glacier Instant Retrieval로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • D. S3 버킷의 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
더보기
해설
  • A. S3 버킷의 객체를 S3 Intelligent-Tiering으로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • B. S3 스토리지 클래스 분석 도구를 사용하여 S3 버킷의 각 객체에 대한 올바른 계층을 결정합니다. 각 개체를 식별된 스토리지 계층으로 이동합니다.
  • C. S3 버킷의 객체를 S3 Glacier Instant Retrieval로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.
  • D. S3 버킷의 객체를 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환하는 규칙을 사용하여 S3 수명 주기 구성을 생성합니다.

#416

https://www.examtopics.com/discussions/amazon/view/103423-exam-aws-certified-solutions-architect-associate-saa-c03/


빠르게 성장하는 글로벌 전자 상거래 회사가 AWS에서 웹 애플리케이션을 호스팅하고 있습니다. 웹 애플리케이션에는 정적 콘텐츠와 동적 콘텐츠가 포함됩니다. 웹 사이트는 온라인 트랜잭션 처리(OLTP) 데이터를 Amazon RDS 데이터베이스에 저장합니다. 웹 사이트 사용자의 페이지 로드 속도가 느려지고 있습니다.

이 문제를 해결하기 위해 솔루션 설계자는 어떤 조치 조합을 취해야 합니까? (2개를 선택하세요.)

  • A. Amazon Redshift 클러스터를 구성하십시오.
  • B. Amazon CloudFront 배포를 설정합니다.
  • C. Amazon S3에서 동적 웹 콘텐츠를 호스팅합니다.
  • D. RDS DB 인스턴스에 대한 읽기 전용 복제본을 생성합니다.
  • E. RDS DB 인스턴스에 대한 다중 AZ 배포를 구성합니다.
더보기
해설
  • A. Amazon Redshift 클러스터를 구성하십시오.
  • B. Amazon CloudFront 배포를 설정합니다.
  • C. Amazon S3에서 동적 웹 콘텐츠를 호스팅합니다.
  • D. RDS DB 인스턴스에 대한 읽기 전용 복제본을 생성합니다.
  • E. RDS DB 인스턴스에 대한 다중 AZ 배포를 구성합니다.

#417

https://www.examtopics.com/discussions/amazon/view/103598-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 Amazon EC2 인스턴스와 AWS Lambda 함수를 사용하여 애플리케이션을 실행합니다. 회사의 AWS 계정에는 퍼블릭 서브넷과 프라이빗 서브넷이 있는 VPC가 있습니다. EC2 인스턴스는 VPC 중 하나의 프라이빗 서브넷에서 실행됩니다. 애플리케이션이 작동하려면 Lambda 함수가 EC2 인스턴스에 대한 직접 네트워크 액세스가 필요합니다.

신청서는 최소 1년 동안 실행됩니다. 회사는 해당 기간 동안 애플리케이션이 사용하는 Lambda 함수 수가 증가할 것으로 예상합니다. 회사는 모든 애플리케이션 리소스에 대한 절감 효과를 극대화하고 서비스 간의 네트워크 대기 시간을 낮게 유지하기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. EC2 인스턴스 절약 플랜을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 횟수를 최적화하세요. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • B. EC2 인스턴스 절약 플랜 구매 Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 실행되는 동일한 VPC의 퍼블릭 서브넷에 Lambda 함수를 연결합니다.
  • C. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • D. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. Lambda 서비스 VPC에 Lambda 함수를 유지합니다.
더보기
해설
  • A. EC2 인스턴스 절약 플랜을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 횟수를 최적화하세요. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • B. EC2 인스턴스 절약 플랜 구매 Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 실행되는 동일한 VPC의 퍼블릭 서브넷에 Lambda 함수를 연결합니다.
  • C. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. EC2 인스턴스가 포함된 프라이빗 서브넷에 Lambda 함수를 연결합니다.
  • D. Compute Savings Plan을 구매하세요. Lambda 함수의 기간과 메모리 사용량, 호출 수, 전송되는 데이터 양을 최적화합니다. Lambda 서비스 VPC에 Lambda 함수를 유지합니다.

#418

https://www.examtopics.com/discussions/amazon/view/103585-exam-aws-certified-solutions-architect-associate-saa-c03/

솔루션 아키텍트는 팀 구성원이 개발 계정과 프로덕션 계정이라는 두 가지 AWS 계정에서 Amazon S3 버킷에 액세스할 수 있도록 허용해야 합니다. 팀은 현재 계정에서 적절한 권한이 있는 IAM 그룹에 할당된 고유한 IAM 사용자를 사용하여 개발 계정의 S3 버킷에 액세스할 수 있습니다.

솔루션스 아키텍트가 프로덕션 계정에 IAM 역할을 생성했습니다. 이 역할에는 프로덕션 계정의 S3 버킷에 대한 액세스 권한을 부여하는 정책이 있습니다.

최소 권한 원칙을 준수하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 개발 계정 사용자에게 관리자 액세스 정책을 연결합니다.
  • B. 프로덕션 계정의 역할에 대한 신뢰 정책에 개발 계정을 보안 주체로 추가합니다.
  • C. 프로덕션 계정의 S3 버킷에서 S3 퍼블릭 액세스 차단 기능을 끕니다.
  • D. 각 팀 구성원에 대한 고유한 자격 증명을 사용하여 프로덕션 계정에 사용자를 만듭니다.
더보기
해설
  • A. 개발 계정 사용자에게 관리자 액세스 정책을 연결합니다.
  • B. 프로덕션 계정의 역할에 대한 신뢰 정책에 개발 계정을 보안 주체로 추가합니다.
  • C. 프로덕션 계정의 S3 버킷에서 S3 퍼블릭 액세스 차단 기능을 끕니다.
  • D. 각 팀 구성원에 대한 고유한 자격 증명을 사용하여 프로덕션 계정에 사용자를 만듭니다.

#419

https://www.examtopics.com/discussions/amazon/view/109268-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 모든 기능이 활성화된 AWS Organizations를 사용하고 ap-southeast-2 지역에서 여러 Amazon EC2 워크로드를 실행합니다. 회사에는 다른 리전에서 리소스가 생성되지 않도록 하는 서비스 제어 정책(SCP)이 있습니다. 보안 정책에 따라 회사는 모든 저장 데이터를 암호화해야 합니다.

감사 결과 직원들이 볼륨을 암호화하지 않고 EC2 인스턴스용 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성한 것으로 나타났습니다. 회사는 암호화된 EBS 볼륨을 사용하기 위해 모든 IAM 사용자 또는 루트 사용자가 ap-southeast-2에서 시작하는 모든 새 EC2 인스턴스를 원합니다. 회사는 EBS 볼륨을 생성하는 직원에게 최소한의 영향을 미치는 솔루션을 원합니다.

이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. Amazon EC2 콘솔에서 EBS 암호화 계정 속성을 선택하고 기본 암호화 키를 정의하십시오.
  • B. IAM 권한 경계를 생성합니다. 루트 조직 단위(OU)에 권한 경계를 연결합니다. ec2:Encrypted 조건이 false일 때 ec2:CreateVolume 작업을 거부하도록 경계를 정의합니다.
  • C. SCP를 생성합니다. SCP를 루트 조직 단위(OU)에 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 SCP를 정의합니다.
  • D. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 각 계정의 IAM 정책을 업데이트합니다.
  • E. 조직 관리 계정에서 기본 EBS 볼륨 암호화 설정을 지정합니다.
더보기
해설
  • A. Amazon EC2 콘솔에서 EBS 암호화 계정 속성을 선택하고 기본 암호화 키를 정의하십시오.
  • B. IAM 권한 경계를 생성합니다. 루트 조직 단위(OU)에 권한 경계를 연결합니다. ec2:Encrypted 조건이 false일 때 ec2:CreateVolume 작업을 거부하도록 경계를 정의합니다.
  • C. SCP를 생성합니다. SCP를 루트 조직 단위(OU)에 연결합니다. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 SCP를 정의합니다.
  • D. ec2:Encrypted 조건이 false인 경우 ec2:CreateVolume 작업을 거부하도록 각 계정의 IAM 정책을 업데이트합니다.
  • E. 조직 관리 계정에서 기본 EBS 볼륨 암호화 설정을 지정합니다.

#420

https://www.examtopics.com/discussions/amazon/view/109269-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 PostgreSQL DB 클러스터용 Amazon RDS를 사용하여 프로덕션 데이터베이스 워크로드에 대한 시간 소모적인 데이터베이스 관리 작업을 단순화하려고 합니다. 회사는 데이터베이스의 가용성을 높이고 대부분의 시나리오에서 40초 이내에 자동 장애 조치 지원을 제공하기를 원합니다. 회사는 기본 인스턴스에서 읽기 작업을 오프로드하고 비용을 최대한 낮게 유지하려고 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용하십시오. 하나의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • B. Amazon RDS 다중 AZ DB Duster 배포 사용 두 개의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • C. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 다중 AZ 쌍의 보조 인스턴스에 읽기 워크로드를 지정합니다.
  • D. Amazon RDS 다중 AZ DB 클러스터 배포를 사용하십시오. 읽기 워크로드를 리더 엔드포인트로 지정하십시오.
더보기
해설
  • A. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용하십시오. 하나의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • B. Amazon RDS 다중 AZ DB Duster 배포 사용 두 개의 읽기 전용 복제본을 생성하고 읽기 워크로드를 읽기 전용 복제본으로 지정합니다.
  • C. Amazon RDS 다중 AZ DB 인스턴스 배포를 사용합니다. 다중 AZ 쌍의 보조 인스턴스에 읽기 워크로드를 지정합니다.
  • D. Amazon RDS 다중 AZ DB 클러스터 배포를 사용하십시오. 읽기 워크로드를 리더 엔드포인트로 지정하십시오.

#421

https://www.examtopics.com/discussions/amazon/view/109270-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 가용성이 높은 SFTP 서비스를 운영하고 있습니다. SFTP 서비스는 탄력적 IP 주소로 실행되는 두 개의 Amazon EC2 Linux 인스턴스를 사용하여 인터넷에서 신뢰할 수 있는 IP 소스의 트래픽을 허용합니다. SFTP 서비스는 인스턴스에 연결된 공유 스토리지를 통해 지원됩니다. 사용자 계정은 SFTP 서버에서 Linux 사용자로 생성 및 관리됩니다.

회사는 높은 IOPS 성능과 고도로 구성 가능한 보안을 제공하는 서버리스 옵션을 원합니다. 회사는 또한 사용자 권한에 대한 제어를 유지하기를 원합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. SFTP 서비스 엔드포인트에 EBS 볼륨을 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 탄력적 IP 주소와 인터넷 연결 액세스가 가능한 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 엔드포인트에 보안 그룹을 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • C. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • D. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 프라이빗 서브넷에서 내부 액세스 권한이 있는 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
더보기
해설
  • A. 암호화된 Amazon Elastic Block Store(Amazon EBS) 볼륨을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. SFTP 서비스 엔드포인트에 EBS 볼륨을 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • B. 암호화된 Amazon Elastic File System(Amazon EFS) 볼륨을 생성합니다. 탄력적 IP 주소와 인터넷 연결 액세스가 가능한 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 엔드포인트에 보안 그룹을 연결합니다. EFS 볼륨을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • C. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 퍼블릭 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.
  • D. 기본 암호화가 활성화된 Amazon S3 버킷을 생성합니다. 프라이빗 서브넷에서 내부 액세스 권한이 있는 VPC 엔드포인트를 사용하여 AWS Transfer Family SFTP 서비스를 생성합니다. 신뢰할 수 있는 IP 주소만 허용하는 보안 그룹을 연결합니다. S3 버킷을 SFTP 서비스 엔드포인트에 연결합니다. 사용자에게 SFTP 서비스에 대한 액세스 권한을 부여합니다.

A  - Transfer Family는 EBS를 사용할 수 없음

C - S3는 "높은 IOPS 성능"을 보장하지 않음

D - 엔드포인트가 프라이빗 서브넷에 있으므로 인터넷에서 전혀 액세스할 수 없음


#422

https://www.examtopics.com/discussions/amazon/view/109280-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS에서 새로운 기계 학습(ML) 모델 솔루션을 개발하고 있습니다. 모델은 시작 시 Amazon S3에서 약 1GB의 모델 데이터를 가져와 메모리에 로드하는 독립적인 마이크로서비스로 개발되었습니다. 사용자는 비동기 API를 통해 모델에 액세스합니다. 사용자는 요청 또는 요청 일괄 처리를 보내고 결과를 보낼 위치를 지정할 수 있습니다.

회사는 수백 명의 사용자에게 모델을 제공합니다. 모델의 사용 패턴은 불규칙합니다. 일부 모델은 며칠 또는 몇 주 동안 사용되지 않을 수 있습니다. 다른 모델은 한 번에 수천 개의 요청을 일괄적으로 받을 수 있습니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 디자인을 권장해야 합니까?

  • A. API의 요청을 NLB(Network Load Balancer)로 전달합니다. NLB에서 호출되는 AWS Lambda 함수로 모델을 배포합니다.
  • B. API의 요청을 ALB(Application Load Balancer)로 전달합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터의 인스턴스를 확장합니다.
  • C. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. SQS 이벤트에 의해 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수에 대한 vCPU 수를 늘립니다.
  • D. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기를 기준으로 클러스터와 서비스 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.
더보기
해설
  • A. API의 요청을 NLB(Network Load Balancer)로 전달합니다. NLB에서 호출되는 AWS Lambda 함수로 모델을 배포합니다.
  • B. API의 요청을 ALB(Application Load Balancer)로 전달합니다. Amazon Simple Queue Service(Amazon SQS) 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. AWS App Mesh를 사용하여 SQS 대기열 크기에 따라 ECS 클러스터의 인스턴스를 확장합니다.
  • C. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. SQS 이벤트에 의해 호출되는 AWS Lambda 함수로 모델을 배포합니다. AWS Auto Scaling을 사용하여 SQS 대기열 크기에 따라 Lambda 함수에 대한 vCPU 수를 늘립니다.
  • D. API의 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 전달합니다. 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 모델을 배포합니다. 대기열 크기를 기준으로 클러스터와 서비스 복사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling을 활성화합니다.

배치 요청/비동기 = Amazon SQS 마이크로서비스 = Amazon ECS 워크로드 변형 = Amazon ECS의 AWS Auto Scaling

비동기=SQS, 마이크로서비스=ECS. AWS Auto Scaling을 사용하여 ECS 서비스 수를 조정


#423

https://www.examtopics.com/discussions/amazon/view/109281-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 다음 JSON 텍스트를 자격 증명 기반 정책으로 사용하여 특정 권한을 부여하려고 합니다.

솔루션 설계자는 이 정책을 어떤 IAM 보안 주체에 연결할 수 있습니까? 
(2개를 선택하세요.)

  • 가. 역할
  • 나. 그룹
  • 다. 조직
  • D. Amazon Elastic Container Service(Amazon ECS) 리소스
  • E. Amazon EC2 리소스
더보기
해설
  • 가. 역할
  • 나. 그룹
  • 다. 조직
  • D. Amazon Elastic Container Service(Amazon ECS) 리소스
  • E. Amazon EC2 리소스

IAM 정책은 사용자, 그룹 또는 역할에 적용


#424

https://www.examtopics.com/discussions/amazon/view/109283-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 Amazon EC2 온디맨드 인스턴스에서 사용자 지정 애플리케이션을 실행하고 있습니다. 애플리케이션에는 하루 24시간, 일주일 내내 실행해야 하는 프런트엔드 노드와 워크로드에 따라 짧은 시간 동안만 실행해야 하는 백엔드 노드가 있습니다. 백엔드 노드 수는 하루 동안 다양합니다.

회사는 워크로드에 따라 더 많은 인스턴스를 확장하고 확장해야 합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
  • B. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에 스팟 인스턴스를 사용합니다.
  • C. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 예약 인스턴스를 사용합니다.
  • D. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
더보기
해설
  • A. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.
  • B. 프런트엔드 노드에 예약 인스턴스를 사용합니다. 백엔드 노드에 스팟 인스턴스를 사용합니다.
  • C. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에 예약 인스턴스를 사용합니다.
  • D. 프런트엔드 노드에 스팟 인스턴스를 사용합니다. 백엔드 노드에는 AWS Fargate를 사용합니다.

#425

https://www.examtopics.com/discussions/amazon/view/109282-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 온프레미스에서 워크로드를 실행하기 위해 높은 블록 스토리지 용량을 사용합니다. 회사의 일일 최대 초당 입출력 트랜잭션은 15,000 IOPS를 넘지 않습니다. 회사는 워크로드를 Amazon EC2로 마이그레이션하고 스토리지 용량과 관계없이 디스크 성능을 프로비저닝하려고 합니다.

어떤 Amazon Elastic Block Store(Amazon EBS) 볼륨 유형이 이러한 요구 사항을 가장 비용 효율적으로 충족합니까?

  • A. GP2 볼륨 유형
  • B. io2 볼륨 유형
  • C. GP3 볼륨 유형
  • D. io1 볼륨 유형
더보기
해설
  • A. GP2 볼륨 유형
  • B. io2 볼륨 유형
  • C. GP3 볼륨 유형
  • D. io1 볼륨 유형

GP2와 GP3 모두 최대 IOPS는 16000

GP3가 상대적 비용 효율적


#426

https://www.examtopics.com/discussions/amazon/view/109278-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 의료 애플리케이션의 데이터를 저장해야 합니다. 애플리케이션의 데이터는 자주 변경됩니다. 새로운 규정에서는 저장된 데이터의 모든 수준에 대한 감사 액세스를 요구합니다.

회사는 스토리지 용량이 부족한 온프레미스 인프라에서 애플리케이션을 호스팅합니다. 솔루션 아키텍트는 새로운 규정을 충족하면서 기존 데이터를 AWS로 안전하게 마이그레이션해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
  • C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
더보기
해설
  • A. AWS DataSync를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • B. AWS Snowcone을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.
  • C. Amazon S3 Transfer Acceleration을 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 데이터 이벤트를 기록합니다.
  • D. AWS Storage Gateway를 사용하여 기존 데이터를 Amazon S3로 이동합니다. AWS CloudTrail을 사용하여 관리 이벤트를 기록합니다.

#427

https://www.examtopics.com/discussions/amazon/view/109279-exam-aws-certified-solutions-architect-associate-saa-c03/

솔루션 설계자는 MySQL 데이터베이스를 사용하여 복잡한 Java 애플리케이션을 구현하고 있습니다. Java 애플리케이션은 Apache Tomcat에 배포되어야 하며 가용성이 높아야 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수와 연결하도록 Amazon API Gateway API를 구성합니다.
  • B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 부하 분산 환경과 롤링 배포 정책을 구성합니다.
  • C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션의 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
  • D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 생성합니다. AMI를 사용하여 Auto Scaling 그룹이 포함된 시작 템플릿을 생성합니다.
더보기
해설
  • A. AWS Lambda에 애플리케이션을 배포합니다. Lambda 함수와 연결하도록 Amazon API Gateway API를 구성합니다.
  • B. AWS Elastic Beanstalk를 사용하여 애플리케이션을 배포합니다. 부하 분산 환경과 롤링 배포 정책을 구성합니다.
  • C. 데이터베이스를 Amazon ElastiCache로 마이그레이션합니다. 애플리케이션의 액세스를 허용하도록 ElastiCache 보안 그룹을 구성합니다.
  • D. Amazon EC2 인스턴스를 시작합니다. EC2 인스턴스에 MySQL 서버를 설치합니다. 서버에서 애플리케이션을 구성합니다. AMI를 생성합니다. AMI를 사용하여 Auto Scaling 그룹이 포함된 시작 템플릿을 생성합니다.

#428

https://www.examtopics.com/discussions/amazon/view/109285-exam-aws-certified-solutions-architect-associate-saa-c03/


서버리스 애플리케이션은 Amazon API Gateway, AWS Lambda 및 Amazon DynamoDB를 사용합니다. Lambda 함수에는 DynamoDB 테이블을 읽고 쓸 수 있는 권한이 필요합니다.

DynamoDB 테이블에 대한 Lambda 함수 액세스를 가장 안전하게 제공하는 솔루션은 무엇입니까?

  • A. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 Lambda 환경 변수의 일부로 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인하십시오.
  • B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할을 실행 역할로 사용하도록 Lambda 함수 구성을 업데이트합니다.
  • C. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 AWS 시스템 관리자 매개변수 저장소에 보안 문자열 매개변수로 저장합니다. DynamoDB 테이블에 연결하기 전에 보안 문자열 파라미터를 검색하도록 Lambda 함수 코드를 업데이트합니다.
  • D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할에 실행 역할로 연결되도록 Lambda 함수의 코드를 업데이트합니다.
더보기
해설
  • A. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 Lambda 환경 변수의 일부로 저장합니다. 다른 AWS 사용자에게 Lambda 함수 구성에 대한 읽기 및 쓰기 액세스 권한이 없는지 확인하십시오.
  • B. Lambda를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할을 실행 역할로 사용하도록 Lambda 함수 구성을 업데이트합니다.
  • C. Lambda 함수에 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. DynamoDB 테이블에 대한 읽기 및 쓰기 액세스를 허용하는 정책을 사용자에게 연결합니다. access_key_id 및 secret_access_key 매개변수를 AWS 시스템 관리자 매개변수 저장소에 보안 문자열 매개변수로 저장합니다. DynamoDB 테이블에 연결하기 전에 보안 문자열 파라미터를 검색하도록 Lambda 함수 코드를 업데이트합니다.
  • D. DynamoDB를 신뢰할 수 있는 서비스로 포함하는 IAM 역할을 생성합니다. Lambda 함수에서 읽기 및 쓰기 액세스를 허용하는 역할에 정책을 연결합니다. 새 역할에 실행 역할로 연결되도록 Lambda 함수의 코드를 업데이트합니다.

DynamoDB는 Lambda를 신뢰해야 합니다. 그 반대는 아닙니다. 따라서 Lambda는 신뢰할 수 있는 서비스로 구성되어야 합니다


#429

https://www.examtopics.com/discussions/amazon/view/109286-exam-aws-certified-solutions-architect-associate-saa-c03/


다음 IAM 정책은 IAM 그룹에 연결됩니다. 이는 그룹에 적용되는 유일한 정책입니다.

그룹 구성원에 대한 이 정책의 유효한 IAM 권한은 무엇입니까?

  • A. 그룹 구성원은 us-east-1 지역 내에서 모든 Amazon EC2 작업이 허용됩니다. 허용 권한 이후의 문은 적용되지 않습니다.
  • B. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인하지 않는 한 us-east-1 지역에서 모든 Amazon EC2 권한이 거부됩니다.
  • C. 그룹 멤버는 멀티 팩터 인증(MFA)으로 로그인하면 모든 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원에게는 다른 Amazon EC2 작업이 허용됩니다.
  • D. 그룹 멤버에게는 MFA(다단계 인증)로 로그인한 경우에만 us-east-1 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.
더보기
해설
  • A. 그룹 구성원은 us-east-1 지역 내에서 모든 Amazon EC2 작업이 허용됩니다. 허용 권한 이후의 문은 적용되지 않습니다.
  • B. 그룹 구성원은 멀티 팩터 인증(MFA)으로 로그인하지 않는 한 us-east-1 지역에서 모든 Amazon EC2 권한이 거부됩니다.
  • C. 그룹 멤버는 멀티 팩터 인증(MFA)으로 로그인하면 모든 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원에게는 다른 Amazon EC2 작업이 허용됩니다.
  • D. 그룹 멤버에게는 MFA(다단계 인증)로 로그인한 경우에만 us-east-1 리전에 대한 ec2:StopInstances 및 ec2:TerminateInstances 권한이 허용됩니다. 그룹 구성원은 us-east-1 지역 내에서 다른 모든 Amazon EC2 작업이 허용됩니다.

#430

https://www.examtopics.com/discussions/amazon/view/109288-exam-aws-certified-solutions-architect-associate-saa-c03/


한 제조 회사에는 .csv 파일을 Amazon S3 버킷에 업로드하는 기계 센서가 있습니다. 이러한 .csv 파일은 이미지로 변환되어야 하며 그래픽 보고서의 자동 생성을 위해 가능한 한 빨리 사용할 수 있어야 합니다.

이미지는 1개월이 지나면 관련성이 없어지지만, 기계 학습(ML) 모델을 1년에 두 번 훈련하려면 .csv 파일을 보관해야 합니다. ML 교육 및 감사는 몇 주 전에 미리 계획됩니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)

  • A. 매시간 .csv 파일을 다운로드하고, 이미지 파일을 생성하고, S3 버킷에 이미지를 업로드하는 Amazon EC2 스팟 인스턴스를 시작합니다.
  • B. .csv 파일을 이미지로 변환하고 S3 버킷에 이미지를 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
  • C. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • D. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • E. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 지 1일 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. RRS(Reduced Redundancy Storage)에 이미지 파일을 보관합니다.
더보기
해설
  • A. 매시간 .csv 파일을 다운로드하고, 이미지 파일을 생성하고, S3 버킷에 이미지를 업로드하는 Amazon EC2 스팟 인스턴스를 시작합니다.
  • B. .csv 파일을 이미지로 변환하고 S3 버킷에 이미지를 저장하는 AWS Lambda 함수를 설계합니다. .csv 파일이 업로드되면 Lambda 함수를 호출합니다.
  • C. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 Glacier로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • D. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 후 1일 후에 S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 전환합니다. 30일 후에 이미지 파일을 만료합니다.
  • E. S3 버킷의 .csv 파일 및 이미지 파일에 대한 S3 수명 주기 규칙을 생성합니다. .csv 파일을 업로드한 지 1일 후에 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 전환합니다. RRS(Reduced Redundancy Storage)에 이미지 파일을 보관합니다.

"가능한 한 빨리" 이미지가 필요 => A는 매시간 실행

"ML 교육 및 감사는 몇 주 전에 미리 계획 => Glacier(C)는 괜찮음


#431

https://www.examtopics.com/discussions/amazon/view/109274-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사에서 웹 애플리케이션으로 새로운 비디오 게임을 개발했습니다. 애플리케이션은 데이터베이스 계층에 MySQL용 Amazon RDS가 있는 VPC의 3계층 아키텍처에 있습니다. 여러 플레이어가 온라인에서 동시에 경쟁하게 됩니다. 게임 개발자는 거의 실시간으로 상위 10위 점수판을 표시하고 현재 점수를 유지하면서 게임을 중지하고 복원할 수 있는 기능을 제공하려고 합니다.

솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?

  • A. 웹 애플리케이션이 표시할 점수를 캐시하도록 Memcached용 Amazon ElastiCache 클러스터를 설정합니다.
  • B. 웹 애플리케이션이 표시할 점수를 계산하고 캐시하도록 Redis용 Amazon ElastiCache 클러스터를 설정합니다.
  • C. 웹 애플리케이션 앞에 Amazon CloudFront 배포판을 배치하여 애플리케이션 섹션에 점수판을 캐시합니다.
  • D. MySQL용 Amazon RDS에서 읽기 전용 복제본을 생성하여 점수판을 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행합니다.
더보기
해설
  • A. 웹 애플리케이션이 표시할 점수를 캐시하도록 Memcached용 Amazon ElastiCache 클러스터를 설정합니다.
  • B. 웹 애플리케이션이 표시할 점수를 계산하고 캐시하도록 Redis용 Amazon ElastiCache 클러스터를 설정합니다.
  • C. 웹 애플리케이션 앞에 Amazon CloudFront 배포판을 배치하여 애플리케이션 섹션에 점수판을 캐시합니다.
  • D. MySQL용 Amazon RDS에서 읽기 전용 복제본을 생성하여 점수판을 계산하고 웹 애플리케이션에 읽기 트래픽을 제공하는 쿼리를 실행합니다.

Redis용 ElastiCache는 데이터 세트를 정렬하고 순위를 매깁


#432

https://www.examtopics.com/discussions/amazon/view/109291-exam-aws-certified-solutions-architect-associate-saa-c03/


전자상거래 회사는 기계 학습(ML) 알고리즘을 사용하여 모델을 구축하고 훈련하려고 합니다. 회사는 이 모델을 사용하여 복잡한 시나리오를 시각화하고 고객 데이터의 추세를 감지할 것입니다. 아키텍처 팀은 ML 모델을 보고 플랫폼과 통합하여 증강 데이터를 분석하고 비즈니스 인텔리전스 대시보드에서 직접 데이터를 사용하려고 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. AWS Glue를 사용하여 ML 변환을 생성하여 모델을 구축하고 교육하십시오. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • B. Amazon SageMaker를 사용하여 모델을 구축하고 훈련하십시오. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
  • C. AWS Marketplace에서 사전 구축된 ML Amazon 머신 이미지(AMI)를 사용하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
더보기
해설
  • A. AWS Glue를 사용하여 ML 변환을 생성하여 모델을 구축하고 교육하십시오. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • B. Amazon SageMaker를 사용하여 모델을 구축하고 훈련하십시오. Amazon QuickSight를 사용하여 데이터를 시각화합니다.
  • C. AWS Marketplace에서 사전 구축된 ML Amazon 머신 이미지(AMI)를 사용하여 모델을 구축하고 교육합니다. Amazon OpenSearch Service를 사용하여 데이터를 시각화합니다.
  • D. Amazon QuickSight를 사용하여 계산된 필드를 사용하여 모델을 구축하고 교육합니다. Amazon QuickSight를 사용하여 데이터를 시각화합니다.

#433

https://www.examtopics.com/discussions/amazon/view/109384-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 여러 AWS 계정에서 프로덕션 및 비프로덕션 환경 워크로드를 실행하고 있습니다. 계정은 AWS Organizations의 조직에 있습니다. 회사는 비용 사용량 태그의 수정을 방지하는 솔루션을 설계해야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 승인된 보안 주체를 제외한 태그 수정을 방지하기 위해 사용자 지정 AWS Config 규칙을 생성합니다.
  • B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 추적을 생성합니다.
  • C. 승인된 주체 이외의 태그 수정을 방지하기 위해 서비스 제어 정책(SCP)을 생성합니다.
  • D. 태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.
더보기
해설
  • A. 승인된 보안 주체를 제외한 태그 수정을 방지하기 위해 사용자 지정 AWS Config 규칙을 생성합니다.
  • B. 태그 수정을 방지하기 위해 AWS CloudTrail에서 사용자 지정 추적을 생성합니다.
  • C. 승인된 주체 이외의 태그 수정을 방지하기 위해 서비스 제어 정책(SCP)을 생성합니다.
  • D. 태그 수정을 방지하기 위해 사용자 지정 Amazon CloudWatch 로그를 생성합니다.

AWS 조직에서 무엇이든 제한해야 할 때마다 => SCP 정책

태그 정책이 아닌 기술적인 내용을 보려면 C. AWS Config

D "Amazon CloudWatch"는 로깅 전용이며 태그 수정 방지용이 아님

https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps.html 이 질문/사용 사례에 대한 AWS 예제: https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_scps_examples_tagged. html#example-require-restrict-tag-mods-to-admin


#434

https://www.examtopics.com/discussions/amazon/view/109294-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 AWS 클라우드에서 애플리케이션을 호스팅합니다. 애플리케이션은 Auto Scaling 그룹의 Elastic Load Balancer 뒤와 Amazon DynamoDB 테이블과 함께 Amazon EC2 인스턴스에서 실행됩니다. 회사는 가동 중지 시간을 최소화하면서 다른 AWS 리전에서 애플리케이션을 사용할 수 있기를 원합니다.

가동 중지 시간을 최소화하면서 이러한 요구 사항을 충족하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • B. AWS CloudFormation 템플릿을 생성하여 필요할 때 시작할 EC2 인스턴스, 로드 밸런서 및 DynamoDB 테이블을 생성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • C. AWS CloudFormation 템플릿을 생성하여 EC2 인스턴스와 필요할 때 실행할 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • D. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 경보를 생성합니다.
더보기
해설
  • A. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • B. AWS CloudFormation 템플릿을 생성하여 필요할 때 시작할 EC2 인스턴스, 로드 밸런서 및 DynamoDB 테이블을 생성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • C. AWS CloudFormation 템플릿을 생성하여 EC2 인스턴스와 필요할 때 실행할 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 새로운 재해 복구 지역의 로드 밸런서를 가리키도록 DNS 장애 조치를 구성합니다.
  • D. 재해 복구 지역에 Auto Scaling 그룹과 로드 밸런서를 생성합니다. DynamoDB 테이블을 전역 테이블로 구성합니다. 재해 복구 로드 밸런서를 가리키는 Amazon Route 53을 업데이트하는 AWS Lambda 함수를 트리거하는 Amazon CloudWatch 경보를 생성합니다.

그들은 자동 장애 조치를 요구하는 것이 아니라 "다운타임을 최소화하면서 다른 AWS 리전에서 애플리케이션을 사용할 수 있는지 확인"하고 싶어합니다. 이것은 C에서 작동합니다. 그들은 템플릿을 실행하기만 하면 짧은 시간 내에 사용할 수 있게 됩니다. A는 이미 사용 가능한 DR 환경을 만들 것입니다. 이는 질문에서 요구하는 것이 아닙니다.

가동 중지 시간이 가장 적음 = A 비용 효율적 = C, DR로 전환해야 할 때 당시 리전에서 사용할 수 없는 EC2 유형/용량 중 일부가 위험함


#435

https://www.examtopics.com/discussions/amazon/view/109377-exam-aws-certified-solutions-architect-associate-saa-c03/

회사는 2주 이내에 MySQL 데이터베이스를 온프레미스 데이터 센터에서 AWS로 마이그레이션해야 합니다. 데이터베이스 크기는 20TB입니다. 회사는 가동 중지 시간을 최소화하면서 마이그레이션을 완료하려고 합니다.

가장 비용 효율적으로 데이터베이스를 마이그레이션하는 솔루션은 무엇입니까?
  • A. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다. Snowball Edge 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • B. AWS Snowmobile 차량을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 AWS로 다시 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • C. GPU 디바이스가 포함된 AWS Snowball Edge Compute Optimized를 주문하세요. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • D. 데이터 센터와의 연결을 설정하려면 1GB 전용 AWS Direct Connect 연결을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다.
더보기
해설
  • A. AWS Snowball Edge Storage Optimized 디바이스를 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다. Snowball Edge 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • B. AWS Snowmobile 차량을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowmobile 차량을 AWS로 다시 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • C. GPU 디바이스가 포함된 AWS Snowball Edge Compute Optimized를 주문하세요. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항이 포함된 데이터베이스를 마이그레이션합니다. Snowball 디바이스를 AWS로 보내 마이그레이션을 완료하고 지속적인 복제를 계속합니다.
  • D. 데이터 센터와의 연결을 설정하려면 1GB 전용 AWS Direct Connect 연결을 주문하십시오. AWS SCT(AWS Schema Conversion Tool)와 함께 AWS Database Migration Service(AWS DMS)를 사용하여 지속적인 변경 사항을 복제하면서 데이터베이스를 마이그레이션합니다.

Direct Connect 설정에 최소 1개월 소요 - D는 유효하지 않음

AWS Snowmobile은 클라우드 연결이 불가능한 원격 위치에서 대량의 데이터(페타바이트)를 전송하는 데 사용 - B는 유효하지 않음

AWS Snowball Edge Compute Optimized는 더 높은 vCPU를 제공, Snowball 스토리지에 비해 성능이 뛰어나고 스토리지가 더 적음, 요구 사항은 데이터 전송뿐이므로 높은 vCPU 성능은 필요하지 않지만 높은 스토리지는 필요하지 않습니다. - C는 유효하지 않음


#436

https://www.examtopics.com/discussions/amazon/view/109277-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사에서 온프레미스 PostgreSQL 데이터베이스를 PostgreSQL DB 인스턴스용 Amazon RDS로 옮겼습니다. 회사는 성공적으로 신제품을 출시했습니다. 데이터베이스의 작업량이 증가했습니다. 회사는 인프라를 추가하지 않고도 더 큰 워크로드를 수용하기를 원합니다.

이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?

  • A. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 Amazon RDS를 더 크게 만듭니다.
  • B. PostgreSQL용 Amazon RDS DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
  • C. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 다른 Amazon RDS를 추가합니다.
  • D. PostgreSQL용 Amazon RDS DB 인스턴스를 온디맨드 DB 인스턴스로 만듭니다.
더보기
해설
  • A. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 Amazon RDS를 더 크게 만듭니다.
  • B. PostgreSQL용 Amazon RDS DB 인스턴스를 다중 AZ DB 인스턴스로 만듭니다.
  • C. 전체 워크로드에 맞게 예약 DB 인스턴스를 구매하세요. PostgreSQL DB 인스턴스용 다른 Amazon RDS를 추가합니다.
  • D. PostgreSQL용 Amazon RDS DB 인스턴스를 온디맨드 DB 인스턴스로 만듭니다.

#437

https://www.examtopics.com/discussions/amazon/view/109378-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 Auto Scaling 그룹의 ALB(Application Load Balancer) 뒤에 있는 Amazon EC2 인스턴스에서 전자상거래 웹 사이트를 운영하고 있습니다. IP 주소가 변경되는 불법 외부 시스템의 높은 요청률과 관련된 성능 문제가 사이트에 발생하고 있습니다. 보안팀은 웹사이트에 대한 잠재적인 DDoS 공격을 우려하고 있습니다. 회사는 합법적인 사용자에게 최소한의 영향을 미치는 방식으로 불법적으로 들어오는 요청을 차단해야 합니다.

솔루션 설계자는 무엇을 추천해야 합니까?

  • A. Amazon Inspector를 배포하고 이를 ALB와 연결합니다.
  • B. AWS WAF를 배포하고 이를 ALB와 연결하고 속도 제한 규칙을 구성합니다.
  • C. ALB와 연결된 네트워크 ACL에 규칙을 배포하여 들어오는 트래픽을 차단합니다.
  • D. GuardDuty를 구성할 때 Amazon GuardDuty를 배포하고 속도 제한 보호를 활성화합니다.
더보기
해설
  • A. Amazon Inspector를 배포하고 이를 ALB와 연결합니다.
  • B. AWS WAF를 배포하고 이를 ALB와 연결하고 속도 제한 규칙을 구성합니다.
  • C. ALB와 연결된 네트워크 ACL에 규칙을 배포하여 들어오는 트래픽을 차단합니다.
  • D. GuardDuty를 구성할 때 Amazon GuardDuty를 배포하고 속도 제한 보호를 활성화합니다.

최고의 솔루션인 Shield Advanced는 여기에 나열되지 않았으므로

두 번째로 좋은 솔루션인 속도 제한이 있는 WAF임

A. Amazon Inspector = OS 패치 등 소프트웨어 취약점. 목적에 맞지 않음

C. DDoS에서 IP를 변경하여 구성을 위한 수신 트래픽을 알 수 없음(가능하더라도)

D. GardDuty는 워크로드 및 AWS 계정 모니터링용이므로 DDoS에 도움이 될 수 없음

AWS WAF + ALB는 소스 IP가 변경되더라도 속도 제한을 구성할 수 있으므로 B


#438

https://www.examtopics.com/discussions/amazon/view/109398-exam-aws-certified-solutions-architect-associate-saa-c03/

회사에서 회계 데이터를 외부 감사자와 공유하려고 합니다. 데이터는 프라이빗 서브넷에 있는 Amazon RDS DB 인스턴스에 저장됩니다. 감사자는 자체 AWS 계정을 갖고 있으며 자체 데이터베이스 사본이 필요합니다.

회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 무엇입니까?

  • A. 데이터베이스의 읽기 전용 복제본을 생성합니다. 감사자 액세스 권한을 부여하도록 IAM 표준 데이터베이스 인증을 구성합니다.
  • B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. Amazon S3 버킷에 파일을 저장합니다. 감사자를 위한 새 IAM 사용자를 생성합니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
  • C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 생성합니다. 사용자의 키를 감사자와 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.
  • D. 데이터베이스의 암호화된 스냅샷을 생성합니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.
더보기
해설
  • A. 데이터베이스의 읽기 전용 복제본을 생성합니다. 감사자 액세스 권한을 부여하도록 IAM 표준 데이터베이스 인증을 구성합니다.
  • B. 데이터베이스 내용을 텍스트 파일로 내보냅니다. Amazon S3 버킷에 파일을 저장합니다. 감사자를 위한 새 IAM 사용자를 생성합니다. 사용자에게 S3 버킷에 대한 액세스 권한을 부여합니다.
  • C. 데이터베이스의 스냅샷을 Amazon S3 버킷에 복사합니다. IAM 사용자를 생성합니다. 사용자의 키를 감사자와 공유하여 S3 버킷의 객체에 대한 액세스 권한을 부여합니다.
  • D. 데이터베이스의 암호화된 스냅샷을 생성합니다. 감사자와 스냅샷을 공유합니다. AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다.

회사가 감사자와 데이터베이스를 공유하는 가장 안전한 방법은 옵션 D입니다. 데이터베이스의 암호화된 스냅샷을 생성하고, 해당 스냅샷을 감사자와 공유하고, AWS Key Management Service(AWS KMS) 암호화 키에 대한 액세스를 허용합니다. 암호화된 스냅샷을 생성함으로써 회사는 데이터베이스 데이터가 미사용 상태에서도 보호되도록 보장합니다. 암호화된 스냅샷을 감사자와 공유하면 감사자는 자신만의 데이터베이스 복사본을 안전하게 보유할 수 있습니다. 또한 AWS KMS 암호화 키에 대한 액세스 권한을 부여하면 감사자가 암호화된 스냅샷을 해독하고 액세스하는 데 필요한 권한을 갖게 됩니다. 이를 통해 감사자는 스냅샷을 복원하고 데이터에 안전하게 액세스할 수 있습니다. 이 접근 방식은 데이터 보호와 액세스 제어를 모두 제공하여 데이터의 기밀성과 무결성을 유지하면서 데이터베이스가 감사자와 안전하게 공유되도록 보장합니다.


#439

https://www.examtopics.com/discussions/amazon/view/109400-exam-aws-certified-solutions-architect-associate-saa-c03/


솔루션 설계자는 작은 범위의 IP 주소가 있는 VPC를 구성했습니다. VPC에 있는 Amazon EC2 인스턴스 수가 증가하고 있으며 향후 워크로드를 위한 IP 주소 수가 부족합니다.

최소한의 운영 오버헤드로 이 문제를 해결하는 솔루션은 무엇입니까?

  • A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 생성하십시오. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.
  • B. 추가 서브넷이 있는 두 번째 VPC를 생성합니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC와 연결합니다. 경로를 업데이트하고 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • C. AWS Transit Gateway를 사용하여 전송 게이트웨이를 추가하고 두 번째 VPC를 첫 번째 VP와 연결합니다. 전송 게이트웨이와 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • D. 두 번째 VPC를 생성합니다. Amazon EC2의 VPN 호스팅 솔루션과 가상 프라이빗 게이트웨이를 사용하여 첫 번째 VPC와 두 번째 VPC 사이에 사이트 간 VPN 연결을 생성합니다. VPN을 통한 트래픽에 대한 VPC 간의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다
더보기
해설
  • A. 추가 IPv4 CIDR 블록을 추가하여 IP 주소 수를 늘리고 VPC에 추가 서브넷을 생성하십시오. 새 CIDR을 사용하여 새 서브넷에 새 리소스를 만듭니다.
  • B. 추가 서브넷이 있는 두 번째 VPC를 생성합니다. 피어링 연결을 사용하여 두 번째 VPC를 첫 번째 VPC와 연결합니다. 경로를 업데이트하고 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • C. AWS Transit Gateway를 사용하여 전송 게이트웨이를 추가하고 두 번째 VPC를 첫 번째 VP와 연결합니다. 전송 게이트웨이와 VPC의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.
  • D. 두 번째 VPC를 생성합니다. Amazon EC2의 VPN 호스팅 솔루션과 가상 프라이빗 게이트웨이를 사용하여 첫 번째 VPC와 두 번째 VPC 사이에 사이트 간 VPN 연결을 생성합니다. VPN을 통한 트래픽에 대한 VPC 간의 경로를 업데이트합니다. 두 번째 VPC의 서브넷에 새 리소스를 생성합니다.

#440

https://www.examtopics.com/discussions/amazon/view/109297-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 애플리케이션 테스트 중에 MySQL DB 인스턴스용 Amazon RDS를 사용했습니다. 테스트 주기가 끝날 때 DB 인스턴스를 종료하기 전에 솔루션 아키텍트는 두 개의 백업을 생성했습니다. 솔루션 설계자는 mysqldump 유틸리티를 사용하여 데이터베이스 덤프를 생성함으로써 첫 번째 백업을 생성했습니다. 솔루션스 아키텍트는 RDS 종료 시 최종 DB 스냅샷 옵션을 활성화하여 두 번째 백업을 생성했습니다.

회사는 이제 새로운 테스트 주기를 계획하고 있으며 최신 백업에서 새 DB 인스턴스를 생성하려고 합니다. 이 회사는 DB 인스턴스를 호스팅하기 위해 Amazon Aurora의 MySQL 호환 버전을 선택했습니다.

새 DB 인스턴스를 생성하는 솔루션은 무엇입니까? (2개를 선택하세요.)

  • A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
  • B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
  • C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
  • E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.
더보기
해설
  • A. RDS 스냅샷을 Aurora로 직접 가져옵니다.
  • B. RDS 스냅샷을 Amazon S3에 업로드합니다. 그런 다음 RDS 스냅샷을 Aurora로 가져옵니다.
  • C. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 데이터베이스 덤프를 Aurora로 가져옵니다.
  • D. AWS Database Migration Service(AWS DMS)를 사용하여 RDS 스냅샷을 Aurora로 가져옵니다.
  • E. 데이터베이스 덤프를 Amazon S3에 업로드합니다. 그런 다음 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 덤프를 Aurora로 가져옵니다.

A는 스냅샷이 이미 AWS에 저장되어 있기 때문입니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL.Migating.RDSMySQL.Snapshot.html

C는 MySQL에서 MySQL로 이동하는 마이그레이션 도구가 필요하지 않기 때문입니다. MySQL 유틸리티를 사용합니다.

https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/AuroraMySQL


#441

https://www.examtopics.com/discussions/amazon/view/109423-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사는 Application Load Balancer 뒤의 Amazon Linux Amazon EC2 인스턴스에서 다중 계층 웹 애플리케이션을 호스팅합니다. 인스턴스는 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행됩니다. 회사에서는 애플리케이션의 최종 사용자가 대량의 정적 웹 콘텐츠에 액세스할 때 Auto Scaling 그룹이 더 많은 온디맨드 인스턴스를 시작한다는 사실을 관찰했습니다. 회사는 비용을 최적화하려고 합니다.

솔루션 설계자는 애플리케이션을 가장 비용 효율적으로 재설계하기 위해 무엇을 해야 합니까?

  • A. 온디맨드 인스턴스 대신 예약 인스턴스를 사용하도록 Auto Scaling 그룹을 업데이트합니다.
  • B. 온디맨드 인스턴스 대신 스팟 인스턴스를 시작하여 확장할 수 있도록 Auto Scaling 그룹을 업데이트합니다.
  • C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
  • D. Amazon API Gateway API 뒤에 AWS Lambda 함수를 생성하여 정적 웹 사이트 콘텐츠를 호스팅합니다.
더보기
해설
  • A. 온디맨드 인스턴스 대신 예약 인스턴스를 사용하도록 Auto Scaling 그룹을 업데이트합니다.
  • B. 온디맨드 인스턴스 대신 스팟 인스턴스를 시작하여 확장할 수 있도록 Auto Scaling 그룹을 업데이트합니다.
  • C. Amazon S3 버킷의 정적 웹 콘텐츠를 호스팅하기 위해 Amazon CloudFront 배포를 생성합니다.
  • D. Amazon API Gateway API 뒤에 AWS Lambda 함수를 생성하여 정적 웹 사이트 콘텐츠를 호스팅합니다.

정적 콘텐츠 -> CloudFront


#442

https://www.examtopics.com/discussions/amazon/view/109647-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 여러 AWS 계정에 걸쳐 수 페타바이트의 데이터를 저장합니다. 회사는 AWS Lake Formation을 사용하여 데이터 레이크를 관리합니다. 회사의 데이터 과학 팀은 분석 목적으로 회사 엔지니어링 팀과 계정의 선택적 데이터를 안전하게 공유하려고 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. 필요한 데이터를 공통 계정에 복사하십시오. 해당 계정에서 IAM 액세스 역할을 생성합니다. 엔지니어링 팀 계정의 사용자를 신뢰할 수 있는 엔터티로 포함하는 권한 정책을 지정하여 액세스 권한을 부여하세요.
  • B. 필요한 엔지니어링 팀 사용자가 데이터에 액세스할 수 있도록 데이터가 저장된 각 계정에서 Lake Formation 권한 부여 명령을 사용하십시오.
  • C. AWS Data Exchange를 사용하여 필요한 엔지니어링 팀 계정에 필요한 데이터를 비공개로 게시합니다.
  • D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 부여하고 부여합니다.
더보기
해설
  • A. 필요한 데이터를 공통 계정에 복사하십시오. 해당 계정에서 IAM 액세스 역할을 생성합니다. 엔지니어링 팀 계정의 사용자를 신뢰할 수 있는 엔터티로 포함하는 권한 정책을 지정하여 액세스 권한을 부여하세요.
  • B. 필요한 엔지니어링 팀 사용자가 데이터에 액세스할 수 있도록 데이터가 저장된 각 계정에서 Lake Formation 권한 부여 명령을 사용하십시오.
  • C. AWS Data Exchange를 사용하여 필요한 엔지니어링 팀 계정에 필요한 데이터를 비공개로 게시합니다.
  • D. Lake Formation 태그 기반 액세스 제어를 사용하여 엔지니어링 팀 계정에 필요한 데이터에 대한 교차 계정 권한을 부여하고 부여합니다.

#443

https://www.examtopics.com/discussions/amazon/view/109424-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 AWS에서 확장 가능한 웹 애플리케이션을 호스팅하려고 합니다. 이 애플리케이션은 전 세계 다양한 지역의 사용자가 액세스할 수 있습니다. 애플리케이션 사용자는 최대 기가바이트 크기의 고유한 데이터를 다운로드하고 업로드할 수 있습니다. 개발팀은 업로드 및 다운로드 대기 시간을 최소화하고 성능을 최대화할 수 있는 비용 효율적인 솔루션을 원합니다.

이를 달성하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. Transfer Acceleration과 함께 Amazon S3를 사용하여 애플리케이션을 호스팅하십시오.
  • B. CacheControl 헤더와 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
  • C. Auto Scaling 및 Amazon CloudFront와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
  • D. Auto Scaling 및 Amazon ElastiCache와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
더보기
해설
  • A. Transfer Acceleration과 함께 Amazon S3를 사용하여 애플리케이션을 호스팅하십시오.
  • B. CacheControl 헤더와 함께 Amazon S3를 사용하여 애플리케이션을 호스팅합니다.
  • C. Auto Scaling 및 Amazon CloudFront와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.
  • D. Auto Scaling 및 Amazon ElastiCache와 함께 Amazon EC2를 사용하여 애플리케이션을 호스팅합니다.

#444

https://www.examtopics.com/discussions/amazon/view/109426-exam-aws-certified-solutions-architect-associate-saa-c03/

한 회사는 애플리케이션에 대한 안정적인 아키텍처를 설계하기 위해 솔루션 설계자를 고용했습니다. 애플리케이션은 Amazon RDS DB 인스턴스 1개와 웹 서버를 실행하는 수동으로 프로비저닝된 Amazon EC2 인스턴스 2개로 구성됩니다. EC2 인스턴스는 단일 가용 영역에 위치합니다.

최근 한 직원이 DB 인스턴스를 삭제해 그 결과 24시간 동안 애플리케이션을 사용할 수 없게 되었습니다. 회사는 환경의 전반적인 신뢰성에 관심을 갖고 있습니다.

애플리케이션 인프라의 안정성을 극대화하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 하나의 EC2 인스턴스를 삭제하고 다른 EC2 인스턴스에서 종료 방지 기능을 활성화하십시오. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
  • B. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다. Application Load Balancer 뒤에 EC2 인스턴스를 배치하고 여러 가용 영역에 걸쳐 EC2 Auto Scaling 그룹에서 실행합니다.
  • C. Amazon API Gateway 및 AWS Lambda 함수와 함께 추가 DB 인스턴스를 생성합니다. API 게이트웨이를 통해 Lambda 함수를 호출하도록 애플리케이션을 구성합니다. Lambda 함수가 두 개의 DB 인스턴스에 데이터를 쓰도록 합니다.
  • D. 여러 가용 영역에 여러 서브넷이 있는 EC2 Auto Scaling 그룹에 EC2 인스턴스를 배치합니다. 온디맨드 인스턴스 대신 스팟 인스턴스를 사용하십시오. 인스턴스 상태를 모니터링하도록 Amazon CloudWatch 경보를 설정합니다. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
더보기
해설
  • A. 하나의 EC2 인스턴스를 삭제하고 다른 EC2 인스턴스에서 종료 방지 기능을 활성화하십시오. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.
  • B. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다. Application Load Balancer 뒤에 EC2 인스턴스를 배치하고 여러 가용 영역에 걸쳐 EC2 Auto Scaling 그룹에서 실행합니다.
  • C. Amazon API Gateway 및 AWS Lambda 함수와 함께 추가 DB 인스턴스를 생성합니다. API 게이트웨이를 통해 Lambda 함수를 호출하도록 애플리케이션을 구성합니다. Lambda 함수가 두 개의 DB 인스턴스에 데이터를 쓰도록 합니다.
  • D. 여러 가용 영역에 여러 서브넷이 있는 EC2 Auto Scaling 그룹에 EC2 인스턴스를 배치합니다. 온디맨드 인스턴스 대신 스팟 인스턴스를 사용하십시오. 인스턴스 상태를 모니터링하도록 Amazon CloudWatch 경보를 설정합니다. DB 인스턴스를 다중 AZ로 업데이트하고 삭제 보호를 활성화합니다.

#445

https://www.examtopics.com/discussions/amazon/view/109403-exam-aws-certified-solutions-architect-associate-saa-c03/


한 회사가 회사 데이터 센터의 대규모 NAS(Network Attached Storage) 시스템에 700테라바이트의 데이터를 저장하고 있습니다. 이 회사는 10Gbps AWS Direct Connect 연결을 갖춘 하이브리드 환경을 보유하고 있습니다.

규제 기관의 감사를 받은 후 회사는 90일 이내에 데이터를 클라우드로 이동할 수 있습니다. 회사는 데이터를 중단 없이 효율적으로 이동해야 합니다. 회사는 이전 기간 동안에도 데이터에 액세스하고 업데이트할 수 있어야 합니다.

어떤 솔루션이 이러한 요구 사항을 충족합니까?

  • A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
  • B. 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 백업합니다. 디바이스를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
  • C. rsync를 사용하여 Direct Connect 연결을 통해 로컬 스토리지에서 지정된 Amazon S3 버킷으로 데이터를 직접 복사합니다.
  • D. 데이터를 테이프에 백업합니다. 테이프를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
더보기
해설
  • A. 기업 데이터 센터에 AWS DataSync 에이전트를 생성합니다. 데이터 전송 작업 생성 Amazon S3 버킷으로의 전송을 시작합니다.
  • B. 데이터를 AWS Snowball Edge Storage Optimized 디바이스에 백업합니다. 디바이스를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.
  • C. rsync를 사용하여 Direct Connect 연결을 통해 로컬 스토리지에서 지정된 Amazon S3 버킷으로 데이터를 직접 복사합니다.
  • D. 데이터를 테이프에 백업합니다. 테이프를 AWS 데이터 센터로 배송합니다. 온프레미스 파일 시스템에 대상 Amazon S3 버킷을 탑재합니다.

전송 기간 중 접속 -> DataSync


#446

https://www.examtopics.com/discussions/amazon/view/109404-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 Amazon S3 버킷에 PDF 형식으로 데이터를 저장합니다. 회사는 Amazon S3에 모든 신규 데이터와 기존 데이터를 7년 동안 보관해야 하는 법적 요구 사항을 따라야 합니다.

최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?

  • A. S3 버킷에 대한 S3 버전 관리 기능을 활성화합니다. 7년 후에 데이터를 삭제하도록 S3 수명 주기를 구성합니다. 모든 S3 객체에 대해 다단계 인증(MFA) 삭제를 구성합니다.
  • B. S3 버킷에 대한 거버넌스 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • C. S3 버킷에 대해 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • D. S3 버킷에 대한 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. S3 배치 작업을 사용하여 기존 데이터를 규정에 맞게 가져옵니다.
더보기
해설
  • A. S3 버킷에 대한 S3 버전 관리 기능을 활성화합니다. 7년 후에 데이터를 삭제하도록 S3 수명 주기를 구성합니다. 모든 S3 객체에 대해 다단계 인증(MFA) 삭제를 구성합니다.
  • B. S3 버킷에 대한 거버넌스 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • C. S3 버킷에 대해 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. 기존 데이터를 준수하도록 모든 기존 개체를 다시 복사합니다.
  • D. S3 버킷에 대한 규정 준수 보존 모드로 S3 객체 잠금을 활성화합니다. 7년 후 만료되도록 보존 기간을 설정합니다. S3 배치 작업을 사용하여 기존 데이터를 규정에 맞게 가져옵니다.

A: 버전 관리, 관련 없음

B: 거버넌스, 객체 잠금을 적용하지 않음

C: 기존 객체를 다시 복사할 수 있지만 운영 오버헤드가 많음(링크 참조)

https:// repost.aws/questions/QUGKrl8XRLTEeuIzUHq0Ikew/s3-object-lock-on-existing-s3-objects


#447

https://www.examtopics.com/discussions/amazon/view/109405-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 Amazon API Gateway에서 호출되는 AWS Lambda 함수에서 실행되는 상태 비저장 웹 애플리케이션이 있습니다. 회사는 지역 장애 조치 기능을 제공하기 위해 여러 AWS 지역에 애플리케이션을 배포하려고 합니다.

트래픽을 여러 지역으로 라우팅하려면 솔루션 아키텍트가 무엇을 해야 합니까?

  • A. 각 지역에 대한 Amazon Route 53 상태 확인을 생성하십시오. 활성-활성 장애 조치 구성을 사용합니다.
  • B. 각 지역의 오리진을 사용하여 Amazon CloudFront 배포판을 생성합니다. CloudFront 상태 확인을 사용하여 트래픽을 라우팅합니다.
  • C. 전송 게이트웨이를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트에 전송 게이트웨이를 연결합니다. 요청을 라우팅하도록 전송 게이트웨이를 구성합니다.
  • D. 기본 지역에 Application Load Balancer를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트 호스트 이름을 가리키도록 대상 그룹을 설정합니다.
더보기
해설
  • A. 각 지역에 대한 Amazon Route 53 상태 확인을 생성하십시오. 활성-활성 장애 조치 구성을 사용합니다.
  • B. 각 지역의 오리진을 사용하여 Amazon CloudFront 배포판을 생성합니다. CloudFront 상태 확인을 사용하여 트래픽을 라우팅합니다.
  • C. 전송 게이트웨이를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트에 전송 게이트웨이를 연결합니다. 요청을 라우팅하도록 전송 게이트웨이를 구성합니다.
  • D. 기본 지역에 Application Load Balancer를 생성합니다. 각 리전의 API 게이트웨이 엔드포인트 호스트 이름을 가리키도록 대상 그룹을 설정합니다.

애플리케이션은 서버리스이므로 실행 위치가 중요하지 않으므로 활성-활성 설정이 가능하고 요청이 들어올 때마다 실행할 수 있습니다. 상태 확인이 포함된 Route 53은 정상적인 지역으로 라우팅됩니다. B도 작동할 수 있지만 CloudFront는 API에 도움이 되지 않는 캐싱용입니다. 여기서 목표는 캐싱/성능/지연 시간 등이 아닌 "장애 조치 기능"

B: 캐싱 솔루션. 장애 조치에는 적합하지 않지만 작동합니다. A가 옵션이 아니었다면 정답이었을 것


#448

https://www.examtopics.com/discussions/amazon/view/109499-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 관리 및 프로덕션이라는 두 개의 VPC가 있습니다. 관리 VPC는 ​​고객 게이트웨이를 통해 VPN을 사용하여 데이터 센터의 단일 디바이스에 연결합니다. 프로덕션 VPC는 ​​2개의 AWS Direct Connect 연결이 연결된 가상 프라이빗 게이트웨이를 사용합니다. 관리 및 프로덕션 VPC는 ​​모두 단일 VPC 피어링 연결을 사용하여 애플리케이션 간의 통신을 허용합니다.

이 아키텍처의 단일 실패 지점을 완화하려면 솔루션 설계자가 무엇을 해야 합니까?

  • A. 관리 및 프로덕션 VPC 사이에 VPN 세트를 추가하십시오.
  • B. 두 번째 가상 프라이빗 게이트웨이를 추가하고 이를 관리 VPC에 연결합니다.
  • C. 두 번째 고객 게이트웨이 디바이스에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
  • D. 관리 VPC와 프로덕션 VPC 사이에 두 번째 VPC 피어링 연결을 추가합니다.
더보기
해설
  • A. 관리 및 프로덕션 VPC 사이에 VPN 세트를 추가하십시오.
  • B. 두 번째 가상 프라이빗 게이트웨이를 추가하고 이를 관리 VPC에 연결합니다.
  • C. 두 번째 고객 게이트웨이 디바이스에서 관리 VPC에 두 번째 VPN 세트를 추가합니다.
  • D. 관리 VPC와 프로덕션 VPC 사이에 두 번째 VPC 피어링 연결을 추가합니다.

C는 단일 실패 지점을 완화하는 올바른 옵션입니다. 관리 VPC에는 현재 하나의 고객 게이트웨이 디바이스를 통한 단일 VPN 연결이 있습니다. 이는 단일 실패 지점입니다. 관리 VPC에서 두 번째 고객 게이트웨이 디바이스로 두 번째 VPN 연결 세트를 추가하면 중복성이 제공되고 이러한 단일 실패 지점이 제거


#449

https://www.examtopics.com/discussions/amazon/view/109432-exam-aws-certified-solutions-architect-associate-saa-c03/


회사는 Oracle 데이터베이스에서 애플리케이션을 실행합니다. 회사는 데이터베이스, 백업 관리 및 데이터 센터 유지 관리를 위한 리소스가 제한되어 있기 때문에 AWS로 신속하게 마이그레이션할 계획입니다. 애플리케이션은 권한 있는 액세스가 필요한 타사 데이터베이스 기능을 사용합니다.

회사가 가장 비용 효율적으로 데이터베이스를 AWS로 마이그레이션하는 데 도움이 되는 솔루션은 무엇입니까?

  • A. 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 타사 기능을 클라우드 서비스로 대체합니다.
  • B. 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • C. 데이터베이스를 Oracle용 Amazon EC2 Amazon 머신 이미지(AMI)로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • D. Oracle APEX에 대한 종속성을 제거하기 위해 애플리케이션 코드를 다시 작성하여 PostgreSQL용 Amazon RDS로 데이터베이스를 마이그레이션합니다.
더보기
해설
  • A. 데이터베이스를 Oracle용 Amazon RDS로 마이그레이션합니다. 타사 기능을 클라우드 서비스로 대체합니다.
  • B. 데이터베이스를 Oracle용 Amazon RDS Custom으로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • C. 데이터베이스를 Oracle용 Amazon EC2 Amazon 머신 이미지(AMI)로 마이그레이션합니다. 타사 기능을 지원하도록 데이터베이스 설정을 사용자 정의합니다.
  • D. Oracle APEX에 대한 종속성을 제거하기 위해 애플리케이션 코드를 다시 작성하여 PostgreSQL용 Amazon RDS로 데이터베이스를 마이그레이션합니다.

#450

https://www.examtopics.com/discussions/amazon/view/109406-exam-aws-certified-solutions-architect-associate-saa-c03/


회사에는 단일 서버에 3계층 웹 애플리케이션이 있습니다. 회사는 애플리케이션을 AWS 클라우드로 마이그레이션하려고 합니다. 또한 회사는 애플리케이션이 AWS Well-Architected 프레임워크와 일치하고 보안, 확장성 및 복원성에 대한 AWS 권장 모범 사례와 일관되기를 원합니다.

이러한 요구 사항을 충족하는 솔루션 조합은 무엇입니까? (3개를 선택하세요.)

  • A. 애플리케이션의 기존 아키텍처를 사용하여 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. EC2 Auto Scaling 그룹이 있는 각 가용 영역의 프라이빗 서브넷에 있는 Amazon EC2 인스턴스에서 기존 아키텍처로 애플리케이션을 호스팅합니다. 보안 그룹 및 네트워크 액세스 제어 목록(네트워크 ACL)을 사용하여 EC2 인스턴스를 보호합니다.
  • B. 보안 그룹과 네트워크 ACL(네트워크 액세스 제어 목록)을 설정하여 데이터베이스 계층에 대한 액세스를 제어합니다. 프라이빗 서브넷에 단일 Amazon RDS 데이터베이스를 설정합니다.
  • C. 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링합니다. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 사용하여 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
  • D. 단일 Amazon RDS 데이터베이스를 사용하십시오. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
  • E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조가 포함된 보안 그룹을 사용하여 액세스를 제어합니다.
  • F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 다중 AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
더보기
해설
  • A. 애플리케이션의 기존 아키텍처를 사용하여 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. EC2 Auto Scaling 그룹이 있는 각 가용 영역의 프라이빗 서브넷에 있는 Amazon EC2 인스턴스에서 기존 아키텍처로 애플리케이션을 호스팅합니다. 보안 그룹 및 네트워크 액세스 제어 목록(네트워크 ACL)을 사용하여 EC2 인스턴스를 보호합니다.
  • B. 보안 그룹과 네트워크 ACL(네트워크 액세스 제어 목록)을 설정하여 데이터베이스 계층에 대한 액세스를 제어합니다. 프라이빗 서브넷에 단일 Amazon RDS 데이터베이스를 설정합니다.
  • C. 두 개의 가용 영역에 걸쳐 VPC를 생성합니다. 웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링합니다. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 사용하여 자체 프라이빗 서브넷에서 각 계층을 호스팅합니다.
  • D. 단일 Amazon RDS 데이터베이스를 사용하십시오. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.
  • E. 웹 계층 앞에 Elastic Load Balancer를 사용합니다. 각 계층의 보안 그룹에 대한 참조가 포함된 보안 그룹을 사용하여 액세스를 제어합니다.
  • F. 프라이빗 서브넷에서 Amazon RDS 데이터베이스 다중 AZ 클러스터 배포를 사용합니다. 애플리케이션 계층 보안 그룹에서만 데이터베이스 액세스를 허용합니다.

이 질문에 대한 표현은 C의 경우 상황을 모호하게 만듭니다. 그러나 잘 설계된 것을 기억하십시오. A: 기존 아키텍처를 사용하지만 EC2 자동 확장을 사용하도록 제안하므로 이상적이지는 않습니다. 각 계층의 확장성이나 안정성을 개선할 여지가 없습니다. B: 단일 RDS, 잘 설계되지 않음 D: 다시 말하지만, 단일 RDS E,F는 좋은 옵션이고 C는 단지 좋은 옵션으로 남아 있습니다.

C는 "웹 계층, 애플리케이션 계층 및 데이터베이스 계층을 호스팅하도록 애플리케이션을 리팩터링"하는 부분 때문에 IMHO로 잘못 표현되었습니다. E와 F를 읽지 않으면 데이터베이스 계층 계층이 혼란스러워집니다.


 

728x90

+ Recent posts