SAA-C03 Examtopics 문제정리 (501~550)
#501⭐
회사는 고객 결제 데이터를 Amazon S3에 있는 회사 데이터 레이크로 수집하려고 합니다. 회사는 평균 1분마다 결제 데이터를 받습니다. 회사는 결제 데이터를 실시간으로 분석하고 싶어합니다. 그런 다음 회사는 데이터를 데이터 레이크에 수집하려고 합니다.
가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요.
- B. AWS Glue를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
- C. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
- D. Amazon API Gateway를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요
- A. Amazon Kinesis Data Streams를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요.
- B. AWS Glue를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
- C. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집합니다. Amazon Kinesis Data Analytics를 사용하여 실시간으로 데이터를 분석하세요.
- D. Amazon API Gateway를 사용하여 데이터를 수집합니다. AWS Lambda를 사용하여 실시간으로 데이터를 분석하세요
Amazon Kinesis Data Firehose와 Amazon Kinesis Data Analytics의 조합을 활용하면 수동 처리나 추가 인프라 관리 없이 결제 데이터를 실시간으로 효율적으로 수집하고 분석할 수 있습니다.
이 솔루션은 지속적인 데이터 수집 및 분석 요구 사항을 처리하기 위한 간소화되고 확장 가능한 접근 방식을 제공
데이터는 S3에 저장되므로 운영상 더 복잡하기 때문에 Lambda 솔루션(A 및 D)을 배제하는 Kinesis Data Analytics를 사용하여 실시간 데이터 분석을 수행할 수 있음
#502⭐
한 회사가 Amazon EC2에서 콘텐츠 관리 시스템(CMS)을 사용하는 웹 사이트를 운영하고 있습니다. CMS는 단일 EC2 인스턴스에서 실행되며 데이터 계층에 Amazon Aurora MySQL 다중 AZ DB 인스턴스를 사용합니다. 웹 사이트 이미지는 EC2 인스턴스 내부에 탑재된 Amazon Elastic Block Store(Amazon EBS) 볼륨에 저장됩니다.
웹사이트의 성능과 복원력을 향상시키기 위해 솔루션 아키텍트가 취해야 하는 조치의 조합은 무엇입니까? (2개를 선택하세요.)
- A. 웹 사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon S3 버킷으로 이동합니다.
- B. 기본 EC2 인스턴스의 NFS 공유를 사용하여 웹 사이트 이미지를 공유합니다. 다른 EC2 인스턴스에 이 공유를 탑재합니다.
- C. 웹사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
- D. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대해 AWS Global Accelerator에서 액셀러레이터 구성
- E. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대한 Amazon CloudFront 배포를 구성합니다.
- A. 웹 사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon S3 버킷으로 이동합니다.
- B. 기본 EC2 인스턴스의 NFS 공유를 사용하여 웹 사이트 이미지를 공유합니다. 다른 EC2 인스턴스에 이 공유를 탑재합니다.
- C. 웹사이트 이미지를 모든 EC2 인스턴스에 탑재된 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
- D. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대해 AWS Global Accelerator에서 액셀러레이터 구성
- E. 기존 EC2 인스턴스에서 Amazon 머신 이미지(AMI)를 생성합니다. AMI를 사용하여 Auto Scaling 그룹의 일부로 Application Load Balancer 뒤에 새 인스턴스를 프로비저닝합니다. 최소 2개의 인스턴스를 유지하도록 Auto Scaling 그룹을 구성합니다. 웹 사이트에 대한 Amazon CloudFront 배포를 구성합니다.
공유 파일 스토리지에 Amazon EFS를 사용하고 콘텐츠 전송에 Amazon CloudFront를 사용하면 웹 사이트의 성능과 복원력을 향상시킬 수 있음
EC2 인스턴스에 S3 버킷을 탑재할 수 없기 때문에 A가 아님
#503⭐
한 회사에서 인프라 모니터링 서비스를 운영하고 있습니다. 회사는 고객 AWS 계정의 데이터를 모니터링할 수 있는 서비스를 제공하는 새로운 기능을 구축하고 있습니다. 새로운 기능은 고객 계정에서 AWS API를 호출하여 Amazon EC2 인스턴스를 설명하고 Amazon CloudWatch 지표를 읽습니다.
가장 안전한 방법으로 고객 계정에 액세스하려면 회사는 무엇을 해야 합니까?
- A. 고객이 읽기 전용 EC2 및 CloudWatch 권한과 회사 계정에 대한 신뢰 정책을 사용하여 자신의 계정에 IAM 역할을 생성하는지 확인하십시오.
- B. 토큰 자동 판매기를 구현하는 서버리스 API를 생성하여 읽기 전용 EC2 및 CloudWatch 권한이 있는 역할에 대한 임시 AWS 자격 증명을 제공합니다.
- C. 고객이 자신의 계정에 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 사용자를 생성하는지 확인하십시오. 비밀 관리 시스템에서 고객 액세스 및 비밀 키를 암호화하고 저장합니다.
- D. 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 역할을 사용하려면 고객이 자신의 계정에 Amazon Cognito 사용자를 생성했는지 확인하십시오. Amazon Cognito 사용자 및 암호를 암호화하여 비밀 관리 시스템에 저장합니다
- A. 고객이 읽기 전용 EC2 및 CloudWatch 권한과 회사 계정에 대한 신뢰 정책을 사용하여 자신의 계정에 IAM 역할을 생성하는지 확인하십시오.
- B. 토큰 자동 판매기를 구현하는 서버리스 API를 생성하여 읽기 전용 EC2 및 CloudWatch 권한이 있는 역할에 대한 임시 AWS 자격 증명을 제공합니다.
- C. 고객이 자신의 계정에 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 사용자를 생성하는지 확인하십시오. 비밀 관리 시스템에서 고객 액세스 및 비밀 키를 암호화하고 저장합니다.
- D. 읽기 전용 EC2 및 CloudWatch 권한이 있는 IAM 역할을 사용하려면 고객이 자신의 계정에 Amazon Cognito 사용자를 생성했는지 확인하십시오. Amazon Cognito 사용자 및 암호를 암호화하여 비밀 관리 시스템에 저장합니다
고객이 자신의 계정에 필요한 권한이 있는 IAM 역할을 생성하도록 하면 회사는 AWS Identity and Access Management(IAM)를 사용하여 교차 계정 액세스를 설정할 수 있습니다. 신뢰 정책은 회사의 AWS 계정이 일시적으로 고객의 IAM 역할을 맡아 고객 계정 내의 지정된 리소스(EC2 인스턴스 및 CloudWatch 지표)에 대한 액세스 권한을 부여하도록 허용합니다. 이 접근 방식은 회사가 필요한 권한만 요청하고 고객에게 장기 액세스 키나 사용자 자격 증명을 요구하지 않으므로 최소 권한의 원칙을 따릅
A. 역할은 임시 자격 증명을 제공
B: 임시라도 자격 증명을 공유하는 것은 안전하지 않습니다. C: 액세스 및 비밀 키. 이는 작동하지 않으며 계정 외부에서 비밀을 공유하는 것은 이 사용 사례에서 안전하지 않습니다. A: 키워드 "신뢰 정책" D: 다시 말하지만, 사용자 이름과 비밀번호를 공유하고 어떤 방식으로든 공유하는 것은 안전하지 않습
#504
회사는 수백 개의 AWS 계정에 걸쳐 있는 us-east-1 지역의 여러 VPC를 연결해야 합니다. 회사의 네트워킹 팀에는 클라우드 네트워크를 관리하기 위한 자체 AWS 계정이 있습니다.
VPC를 연결하는 가장 운영 효율적인 솔루션은 무엇입니까?
- A. 각 VPC 간에 VPC 피어링 연결을 설정합니다. 연결된 각 서브넷의 라우팅 테이블 업데이트
- B. 각 VPC에 NAT 게이트웨이와 인터넷 게이트웨이를 구성하여 인터넷을 통해 각 VPC를 연결합니다.
- C. 네트워킹 팀의 AWS 계정에 AWS Transit Gateway를 생성합니다. 각 VPC에서 정적 경로를 구성합니다.
- D. 각 VPC에 VPN 게이트웨이를 배포합니다. 네트워킹 팀의 AWS 계정에 전송 VPC를 생성하여 각 VPC에 연결합니다.
- A. 각 VPC 간에 VPC 피어링 연결을 설정합니다. 연결된 각 서브넷의 라우팅 테이블 업데이트
- B. 각 VPC에 NAT 게이트웨이와 인터넷 게이트웨이를 구성하여 인터넷을 통해 각 VPC를 연결합니다.
- C. 네트워킹 팀의 AWS 계정에 AWS Transit Gateway를 생성합니다. 각 VPC에서 정적 경로를 구성합니다.
- D. 각 VPC에 VPN 게이트웨이를 배포합니다. 네트워킹 팀의 AWS 계정에 전송 VPC를 생성하여 각 VPC에 연결합니다.
#505
한 회사에 야간 배치 작업을 실행하여 데이터를 처리하는 Amazon EC2 인스턴스가 있습니다. EC2 인스턴스는 온디맨드 결제를 사용하는 Auto Scaling 그룹에서 실행됩니다. 한 인스턴스에서 작업이 실패하면 다른 인스턴스가 작업을 다시 처리합니다. 일괄 작업은 매일 현지 시간 오전 12시부터 오전 6시 사이에 실행됩니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 EC2 인스턴스를 제공하는 솔루션은 무엇입니까?
- A. 배치 작업에 사용되는 Auto Scaling 그룹의 인스턴스 제품군을 포함하는 Amazon EC2용 1년 Savings Plan을 구매하세요.
- B. 배치 작업이 사용하는 Auto Scaling 그룹의 인스턴스 운영 체제 및 특정 인스턴스 유형에 대해 1년 예약 인스턴스를 구입합니다.
- C. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스를 스팟 인스턴스로 설정합니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
- D. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스 크기를 늘립니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
- A. 배치 작업에 사용되는 Auto Scaling 그룹의 인스턴스 제품군을 포함하는 Amazon EC2용 1년 Savings Plan을 구매하세요.
- B. 배치 작업이 사용하는 Auto Scaling 그룹의 인스턴스 운영 체제 및 특정 인스턴스 유형에 대해 1년 예약 인스턴스를 구입합니다.
- C. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스를 스팟 인스턴스로 설정합니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
- D. Auto Scaling 그룹에 대한 새 시작 템플릿을 생성합니다. 인스턴스 크기를 늘립니다. CPU 사용량에 따라 확장하도록 정책을 설정합니다.
#506
한 소셜 미디어 회사에서 웹사이트용 기능을 구축하고 있습니다. 이 기능을 통해 사용자는 사진을 업로드할 수 있습니다. 회사는 대규모 이벤트 기간 동안 수요가 크게 증가할 것으로 예상하고 웹사이트가 사용자의 업로드 트래픽을 처리할 수 있는지 확인해야 합니다.
가장 뛰어난 확장성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. 사용자의 브라우저에서 응용 프로그램 서버로 파일을 업로드합니다. 파일을 Amazon S3 버킷으로 전송합니다.
- B. AWS Storage Gateway 파일 게이트웨이를 프로비저닝합니다. 사용자 브라우저에서 파일 게이트웨이로 직접 파일을 업로드합니다.
- C. 애플리케이션에서 Amazon S3의 미리 서명된 URL을 생성합니다. 사용자 브라우저에서 S3 버킷으로 직접 파일을 업로드합니다.
- D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 프로비저닝합니다. 사용자 브라우저에서 파일 시스템으로 직접 파일을 업로드합니다.
- A. 사용자의 브라우저에서 응용 프로그램 서버로 파일을 업로드합니다. 파일을 Amazon S3 버킷으로 전송합니다.
- B. AWS Storage Gateway 파일 게이트웨이를 프로비저닝합니다. 사용자 브라우저에서 파일 게이트웨이로 직접 파일을 업로드합니다.
- C. 애플리케이션에서 Amazon S3의 미리 서명된 URL을 생성합니다. 사용자 브라우저에서 S3 버킷으로 직접 파일을 업로드합니다.
- D. Amazon Elastic File System(Amazon EFS) 파일 시스템을 프로비저닝합니다. 사용자 브라우저에서 파일 시스템으로 직접 파일을 업로드합니다.
#507⭐
한 회사에 여행 발권을 위한 웹 애플리케이션이 있습니다. 이 애플리케이션은 북미 지역의 단일 데이터 센터에서 실행되는 데이터베이스를 기반으로 합니다. 회사는 글로벌 사용자 기반에 서비스를 제공하기 위해 애플리케이션을 확장하려고 합니다. 회사는 여러 AWS 지역에 애플리케이션을 배포해야 합니다. 예약 데이터베이스 업데이트 시 평균 대기 시간은 1초 미만이어야 합니다.
회사는 여러 지역에 걸쳐 웹 플랫폼을 별도로 배포하려고 합니다. 그러나 회사는 전 세계적으로 일관된 단일 기본 예약 데이터베이스를 유지해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 솔루션을 권장해야 합니까?
- A. Amazon DynamoDB를 사용하도록 애플리케이션을 변환합니다. 센터 예약 테이블은 글로벌 테이블을 사용합니다. 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- B. 데이터베이스를 Amazon Aurora MySQL 데이터베이스로 마이그레이션합니다. 각 지역에 Aurora 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- C. 데이터베이스를 MySQL용 Amazon RDS 데이터베이스로 마이그레이션합니다. 각 리전에 MySQL 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- D. 애플리케이션을 Amazon Aurora Serverless 데이터베이스로 마이그레이션합니다. 각 지역에 데이터베이스 인스턴스를 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요. AWS Lambda 함수를 사용하여 각 리전의 이벤트 스트림을 처리하여 데이터베이스를 동기화합니다.
- A. Amazon DynamoDB를 사용하도록 애플리케이션을 변환합니다. 센터 예약 테이블은 글로벌 테이블을 사용합니다. 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- B. 데이터베이스를 Amazon Aurora MySQL 데이터베이스로 마이그레이션합니다. 각 지역에 Aurora 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- C. 데이터베이스를 MySQL용 Amazon RDS 데이터베이스로 마이그레이션합니다. 각 리전에 MySQL 읽기 전용 복제본을 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요.
- D. 애플리케이션을 Amazon Aurora Serverless 데이터베이스로 마이그레이션합니다. 각 지역에 데이터베이스 인스턴스를 배포합니다. 데이터베이스에 액세스하려면 각 지역 배포에서 올바른 지역 엔드포인트를 사용하세요. AWS Lambda 함수를 사용하여 각 리전의 이벤트 스트림을 처리하여 데이터베이스를 동기화합니다.
DynamoDB의 글로벌 테이블 기능을 사용하면 업데이트 시 지연 시간이 짧은 전역적으로 일관된 예약 데이터베이스를 얻을 수 있어 글로벌 사용자 기반에 서비스를 제공하는 데 적합합니다. DynamoDB가 제공하는 자동 복제를 사용하면 리전 간 수동 동기화가 필요하지 않습니다.
#508
한 회사는 여러 Microsoft Windows Server 워크로드를 us-west-1 리전에서 실행되는 Amazon EC2 인스턴스로 마이그레이션했습니다. 회사에서는 필요에 따라 워크로드를 수동으로 백업하여 이미지를 생성합니다.
us-west-1 리전에서 자연재해가 발생할 경우 회사는 us-west-2 리전에서 워크로드를 신속하게 복구하려고 합니다. 회사는 EC2 인스턴스에서 24시간 이상 데이터 손실이 발생하지 않기를 원합니다. 또한 회사는 EC2 인스턴스의 모든 백업을 자동화하려고 합니다.
최소한의 관리 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까? (2개를 선택하세요.)
- A. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. 요청 시 이미지를 복사합니다.
- B. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. us-west-2 리전으로 복사본을 구성합니다.
- C. AWS Backup을 사용하여 us-west-1 및 us-west-2에 백업 볼트를 생성합니다. 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 백업 데이터를 us-west-2에 복사하기 위해 예약된 작업으로 실행할 AWS Lambda 함수를 생성합니다.
- D. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 복사본의 대상을 us-west-2로 정의합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다.
- E. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다. 요청 시 us-west-2에 복사합니다.
- A. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. 요청 시 이미지를 복사합니다.
- B. Amazon EC2 지원 Amazon 머신 이미지(AMI) 수명 주기 정책을 생성하여 태그 기반 백업을 생성합니다. 하루에 두 번 백업이 실행되도록 예약합니다. us-west-2 리전으로 복사본을 구성합니다.
- C. AWS Backup을 사용하여 us-west-1 및 us-west-2에 백업 볼트를 생성합니다. 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 백업 데이터를 us-west-2에 복사하기 위해 예약된 작업으로 실행할 AWS Lambda 함수를 생성합니다.
- D. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 복사본의 대상을 us-west-2로 정의합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다.
- E. AWS Backup을 사용하여 백업 볼트를 생성합니다. AWS Backup을 사용하여 태그 값을 기반으로 EC2 인스턴스에 대한 백업 계획을 생성합니다. 하루에 두 번 실행되도록 백업 일정을 지정합니다. 요청 시 us-west-2에 복사합니다.
#509⭐
한 회사에서는 이미지 처리를 위해 2계층 애플리케이션을 운영하고 있습니다. 애플리케이션은 각각 퍼블릭 서브넷 1개와 프라이빗 서브넷 1개가 있는 2개의 가용 영역을 사용합니다. 웹 계층용 ALB(Application Load Balancer)는 퍼블릭 서브넷을 사용합니다. 애플리케이션 계층의 Amazon EC2 인스턴스는 프라이빗 서브넷을 사용합니다.
사용자들은 애플리케이션이 예상보다 느리게 실행되고 있다고 보고합니다. 웹 서버 로그 파일의 보안 감사에 따르면 애플리케이션이 소수의 IP 주소로부터 수백만 건의 불법적인 요청을 받고 있는 것으로 나타났습니다. 솔루션 설계자는 즉각적인 성능 문제를 해결해야 하며 회사는 보다 영구적인 솔루션을 조사해야 합니다.
이 요구 사항을 충족하기 위해 솔루션 설계자는 무엇을 권장해야 합니까?
- A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
- B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
- C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
- D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
- A. 웹 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
- B. 웹 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
- C. 애플리케이션 계층에 대한 인바운드 보안 그룹을 수정합니다. 리소스를 소비하는 IP 주소에 대한 거부 규칙을 추가합니다.
- D. 애플리케이션 계층 서브넷에 대한 네트워크 ACL을 수정합니다. 리소스를 소비하는 IP 주소에 대한 인바운드 거부 규칙을 추가합니다.
이 시나리오에서 보안 감사는 애플리케이션이 소수의 IP 주소로부터 수백만 건의 불법적인 요청을 받고 있음을 보여줍니다. 이 문제를 해결하려면 웹 계층 서브넷에 대한 네트워크 ACL(액세스 제어 목록)을 수정하는 것이 좋습니다. 리소스를 소비하는 IP 주소를 구체적으로 대상으로 하는 인바운드 거부 규칙을 추가함으로써 네트워크 ACL은 불법 트래픽이 웹 서버에 도달하기 전에 서브넷 수준에서 차단할 수 있습니다. 이는 웹 계층의 과도한 로드를 완화하고 애플리케이션 성능을 향상시키는 데 도움이 됩니다.
보안그룹에서는 거부할 수 없기 때문에 잘못된 것입니다(허용만 가능
CD: 앱 계층은 공격을 받지 않으므로 관련 없는 옵션입니다. B: NACL은 CIDR 또는 IP 주소에 대한 규칙을 정의하는 이 액세스 제어 목록에 정확히 적합하므로 정확
#510
글로벌 마케팅 회사에는 ap-southeast-2 리전 및 eu-west-1 리전에서 실행되는 애플리케이션이 있습니다. eu-west-1의 VPC에서 실행되는 애플리케이션은 ap-southeast-2의 VPC에서 실행되는 데이터베이스와 안전하게 통신해야 합니다.
이러한 요구 사항을 충족하는 네트워크 디자인은 무엇입니까?
- A. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 VPC 피어링 연결을 생성합니다. ap-southeast-2 보안 그룹의 데이터베이스 서버 IP 주소로부터의 트래픽을 허용하는 eu-west-1 애플리케이션 보안 그룹에 인바운드 규칙을 생성합니다.
- B. ap-southeast-2 VPC와 eu-west-1 VPC 사이에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1에 있는 애플리케이션 서버의 보안 그룹 ID를 참조하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
- C. ap-southeast-2 VPC와 eu-west-1 VP 간에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1 애플리케이션 서버 IP 주소의 트래픽을 허용하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
- D. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 피어링 연결을 사용하여 전송 게이트웨이를 생성합니다. 전송 게이트웨이가 올바르게 피어링되고 라우팅이 구성된 후 eu-west-1에서 애플리케이션 서버의 보안 그룹 ID를 참조하는 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
- A. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 VPC 피어링 연결을 생성합니다. ap-southeast-2 보안 그룹의 데이터베이스 서버 IP 주소로부터의 트래픽을 허용하는 eu-west-1 애플리케이션 보안 그룹에 인바운드 규칙을 생성합니다.
- B. ap-southeast-2 VPC와 eu-west-1 VPC 사이에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1에 있는 애플리케이션 서버의 보안 그룹 ID를 참조하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
- C. ap-southeast-2 VPC와 eu-west-1 VP 간에 VPC 피어링 연결을 구성합니다. 서브넷 라우팅 테이블을 업데이트합니다. eu-west-1 애플리케이션 서버 IP 주소의 트래픽을 허용하는 ap-southeast-2 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
- D. eu-west-1 VPC와 ap-southeast-2 VPC 사이에 피어링 연결을 사용하여 전송 게이트웨이를 생성합니다. 전송 게이트웨이가 올바르게 피어링되고 라우팅이 구성된 후 eu-west-1에서 애플리케이션 서버의 보안 그룹 ID를 참조하는 데이터베이스 보안 그룹에 인바운드 규칙을 생성합니다.
#511⭐
한 회사에서 PostgreSQL 데이터베이스 스키마를 사용하는 소프트웨어를 개발하고 있습니다. 회사는 회사 개발자를 위해 여러 개발 환경과 데이터베이스를 구성해야 합니다. 평균적으로 각 개발 환경은 하루 8시간의 절반 동안 사용됩니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
- A. 자체 Amazon Aurora PostgreSQL 데이터베이스로 각 개발 환경을 구성합니다.
- B. PostgreSQL 단일 AZ DB 인스턴스용 자체 Amazon RDS로 각 개발 환경을 구성합니다.
- C. 자체 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스로 각 개발 환경을 구성합니다.
- D. Amazon S3 Object Select를 사용하여 자체 Amazon S3 버킷으로 각 개발 환경을 구성합니다.
- A. 자체 Amazon Aurora PostgreSQL 데이터베이스로 각 개발 환경을 구성합니다.
- B. PostgreSQL 단일 AZ DB 인스턴스용 자체 Amazon RDS로 각 개발 환경을 구성합니다.
- C. 자체 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스로 각 개발 환경을 구성합니다.
- D. Amazon S3 Object Select를 사용하여 자체 Amazon S3 버킷으로 각 개발 환경을 구성합니다.
옵션 C는 각 개발 환경에 대해 Amazon Aurora 온디맨드 PostgreSQL 호환 데이터베이스를 사용할 것을 제안합니다. 이 옵션은 확장 가능한 고성능 데이터베이스 엔진인 Amazon Aurora의 이점을 제공하는 동시에 온디맨드 방식으로 사용량에 대한 비용을 지불할 수 있도록 해줍니다. Amazon Aurora On-Demand 인스턴스는 일반적으로 프로비저닝된 용량 옵션에 비해 개별 개발 환경에서 더 비용 효율적입니다.
#512
회사는 계정별로 태그가 지정된 리소스와 함께 AWS Organizations를 사용합니다. 또한 이 회사는 AWS Backup을 사용하여 AWS 인프라 리소스를 백업합니다. 회사는 모든 AWS 리소스를 백업해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. AWS Config를 사용하여 태그가 지정되지 않은 모든 리소스를 식별하십시오. 프로그래밍 방식으로 식별된 리소스에 태그를 지정합니다. 백업 계획에 태그를 사용합니다.
- B. AWS Config를 사용하여 실행되지 않는 모든 리소스를 식별합니다. 해당 리소스를 백업 볼트에 추가합니다.
- C. 모든 AWS 계정 소유자에게 리소스를 검토하여 백업해야 하는 리소스를 식별하도록 요구합니다.
- D. Amazon Inspector를 사용하여 모든 비준수 리소스를 식별합니다.
- A. AWS Config를 사용하여 태그가 지정되지 않은 모든 리소스를 식별하십시오. 프로그래밍 방식으로 식별된 리소스에 태그를 지정합니다. 백업 계획에 태그를 사용합니다.
- B. AWS Config를 사용하여 실행되지 않는 모든 리소스를 식별합니다. 해당 리소스를 백업 볼트에 추가합니다.
- C. 모든 AWS 계정 소유자에게 리소스를 검토하여 백업해야 하는 리소스를 식별하도록 요구합니다.
- D. Amazon Inspector를 사용하여 모든 비준수 리소스를 식별합니다.
#513⭐
한 소셜 미디어 회사는 사용자가 AWS 클라우드에 호스팅된 애플리케이션에 이미지를 업로드할 수 있도록 허용하려고 합니다. 회사에는 이미지가 여러 장치 유형에 표시될 수 있도록 이미지 크기를 자동으로 조정하는 솔루션이 필요합니다. 애플리케이션은 하루 종일 예측할 수 없는 트래픽 패턴을 경험합니다. 회사는 확장성을 극대화하는 가용성이 뛰어난 솔루션을 찾고 있습니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. AWS Lambda 함수를 호출하여 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하는 Amazon S3에서 호스팅되는 정적 웹 사이트를 생성합니다.
- B. AWS Step Functions를 호출하여 이미지 크기를 조정하고 Amazon RDS 데이터베이스에 이미지를 저장하는 Amazon CloudFront에서 호스팅되는 정적 웹 사이트를 생성합니다.
- C. Amazon EC2 인스턴스에서 실행되는 웹 서버에서 호스팅되는 동적 웹 사이트를 생성합니다. 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하도록 EC2 인스턴스에서 실행되는 프로세스를 구성합니다.
- D. Amazon Simple Queue Service(Amazon SQS)에서 크기 조정 작업을 생성하는 자동 확장 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 호스팅되는 동적 웹 사이트를 생성합니다. 크기 조정 작업을 처리하기 위해 Amazon EC2 인스턴스에서 실행되는 이미지 크기 조정 프로그램을 설정합니다.
- A. AWS Lambda 함수를 호출하여 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하는 Amazon S3에서 호스팅되는 정적 웹 사이트를 생성합니다.
- B. AWS Step Functions를 호출하여 이미지 크기를 조정하고 Amazon RDS 데이터베이스에 이미지를 저장하는 Amazon CloudFront에서 호스팅되는 정적 웹 사이트를 생성합니다.
- C. Amazon EC2 인스턴스에서 실행되는 웹 서버에서 호스팅되는 동적 웹 사이트를 생성합니다. 이미지 크기를 조정하고 Amazon S3 버킷에 이미지를 저장하도록 EC2 인스턴스에서 실행되는 프로세스를 구성합니다.
- D. Amazon Simple Queue Service(Amazon SQS)에서 크기 조정 작업을 생성하는 자동 확장 Amazon Elastic Container Service(Amazon ECS) 클러스터에서 호스팅되는 동적 웹 사이트를 생성합니다. 크기 조정 작업을 처리하기 위해 Amazon EC2 인스턴스에서 실행되는 이미지 크기 조정 프로그램을 설정합니다.
Amazon S3와 AWS Lambda를 함께 사용하면 확장성과 가용성이 뛰어난 이미지 크기 조정 기능을 제공하는 서버리스 아키텍처를 생성할 수 있습니다.
image = static = S3 또는 cloudfront이지만 이미지는 구조화되지 않은 데이터이므로 RDS와 같은 관계형 데이터베이스에 저장하지 않으며 Step Function은 처리용이 아닙
#514⭐
한 회사가 Amazon EC2 인스턴스에서 마이크로서비스 애플리케이션을 실행하고 있습니다. 회사는 확장성을 위해 애플리케이션을 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터로 마이그레이션하려고 합니다. 회사는 보안 규정 준수를 유지하기 위해 엔드포인트 프라이빗 액세스가 true로 설정되고 엔드포인트 퍼블릭 액세스가 false로 설정된 Amazon EKS 제어 플레인을 구성해야 합니다. 회사는 또한 데이터 플레인을 프라이빗 서브넷에 배치해야 합니다. 그러나 노드가 클러스터에 참여할 수 없기 때문에 회사는 오류 알림을 받았습니다.
노드가 클러스터에 합류하도록 허용하는 솔루션은 무엇입니까?
- A. AWS Identity and Access Management(IAM)에서 필요한 권한을 AmazonEKSNodeRole IAM 역할에 부여합니다.
- B. 노드가 제어 플레인에 액세스할 수 있도록 인터페이스 VPC 엔드포인트를 생성합니다.
- C. 퍼블릭 서브넷에서 노드를 다시 생성합니다. EC2 노드에 대한 보안 그룹을 제한합니다.
- D. 노드의 보안 그룹에서 아웃바운드 트래픽을 허용합니다.
- A. AWS Identity and Access Management(IAM)에서 필요한 권한을 AmazonEKSNodeRole IAM 역할에 부여합니다.
- B. 노드가 제어 플레인에 액세스할 수 있도록 인터페이스 VPC 엔드포인트를 생성합니다.
- C. 퍼블릭 서브넷에서 노드를 다시 생성합니다. EC2 노드에 대한 보안 그룹을 제한합니다.
- D. 노드의 보안 그룹에서 아웃바운드 트래픽을 허용합니다.
A => https://docs.aws.amazon.com/eks/latest/userguide/create-node-role.html 또한 EKS에는 VPC 엔드포인트가 필요하지 않습니다. 이는 EKS의 올바른 사용 사례가 아닙
B => 인터페이스 VPC 엔드포인트를 생성하면 Amazon EKS 제어 플레인과 프라이빗 서브넷의 노드 간에 필요한 통신을 활성화할 수 있습니다. 이 솔루션은 컨트롤 플레인이 보안 규정 준수를 위해 엔드포인트 프라이빗 액세스(true로 설정)와 엔드포인트 퍼블릭 액세스(false로 설정)를 유지하도록 보장
#515⭐
회사에서 온프레미스 애플리케이션을 AWS로 마이그레이션하고 있습니다. 회사는 Amazon Redshift를 솔루션으로 사용하려고 합니다.
이 시나리오에서 Amazon Redshift에 적합한 사용 사례는 무엇입니까? (3개를 선택하세요.)
- A. 기존의 컨테이너화된 이벤트 기반 애플리케이션을 통해 데이터에 액세스할 수 있는 데이터 API 지원
- B. 클라이언트 측 및 서버 측 암호화 지원
- C. 지정된 시간 동안 및 애플리케이션이 활성화되지 않은 동안 분석 워크로드 구축
- D. 백엔드 데이터베이스에 대한 부담을 줄이기 위한 데이터 캐싱
- E. 페타바이트 규모의 데이터와 분당 수천만 건의 요청을 지원하기 위해 전 세계적으로 확장
- F. AWS Management Console을 사용하여 클러스터의 보조 복제본 생성
- A. 기존의 컨테이너화된 이벤트 기반 애플리케이션을 통해 데이터에 액세스할 수 있는 데이터 API 지원
- B. 클라이언트 측 및 서버 측 암호화 지원
- C. 지정된 시간 동안 및 애플리케이션이 활성화되지 않은 동안 분석 워크로드 구축
- D. 백엔드 데이터베이스에 대한 부담을 줄이기 위한 데이터 캐싱
- E. 페타바이트 규모의 데이터와 분당 수천만 건의 요청을 지원하기 위해 전 세계적으로 확장
- F. AWS Management Console을 사용하여 클러스터의 보조 복제본 생성
A, C, E는 데이터용이고 Redshift는 데이터 웨어하우스입니다. B는 너무 일반적인 선택입니다. D 캐싱은 Redshift의 주요 목적이 아닙니다. F 복제는 Redshift의 주요 용도가 아닙니다. CE는 쉽습니다. AB 사이에서는 Redshift가 데이터 API를 지원하고 클라이언트 측 암호화가 Redshift에만 국한되지 않기 때문에 A를 선택
"데이터 API는 일반적으로 Redshift와 함께 사용되지 않음
A냐 B냐 의견 엇갈림...
Amazon Redshift는 데이터 웨어하우스 솔루션이므로 다음에 적합합니다. -암호화 지원(클라이언트 측 및 서버 측) -특히 애플리케이션 활동이 적은 사용량이 적은 시간 동안 분석 워크로드 처리 -대량 데이터로 확장 분석 목적을 위한 높은 쿼리 볼륨 다음 옵션은 올바르지 않습니다. A) 데이터 API는 일반적으로 Redshift와 함께 사용되지 않습니다. SQL 쿼리 및 분석을 실행하는 데 더 적합합니다. D) Redshift는 일반적으로 데이터 캐싱에 사용되지 않습니다. 이는 분석 및 데이터 웨어하우스 목적으로 사용됩니다. F) Redshift 클러스터는 관리 콘솔에서 복제본을 생성하지 않습니다. 이들은 독립형 클러스터입니다. 스냅샷에서 DR 클러스터를 생성하고 다른 지역으로 복원(자동 또는 수동)할 수 있
#516⭐
회사는 고객이 금융 정보를 검색할 수 있도록 고객에게 API 인터페이스를 제공합니다. 회사에서는 연중 사용량이 가장 많은 시간대에 더 많은 요청이 발생할 것으로 예상합니다.
회사에서는 고객 만족을 보장하기 위해 API가 짧은 대기 시간으로 일관되게 응답하도록 요구합니다. 회사는 API에 대한 컴퓨팅 호스트를 제공해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Application Load Balancer와 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
- B. 프로비저닝된 동시성을 갖춘 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오.
- C. Application Load Balancer와 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 사용합니다.
- D. 예약된 동시성을 통해 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다.
- A. Application Load Balancer와 Amazon Elastic Container Service(Amazon ECS)를 사용하세요.
- B. 프로비저닝된 동시성을 갖춘 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오.
- C. Application Load Balancer와 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 사용합니다.
- D. 예약된 동시성을 통해 Amazon API Gateway 및 AWS Lambda 함수를 사용합니다.
회사가 피크 사용 시간 동안 API에 대한 짧은 대기 시간과 일관된 성능을 원하는 특정 시나리오의 맥락에서는 프로비저닝된 동시성을 사용하는 것이 더 적합할 것
#517⭐
회사에서는 보관 목적으로 모든 AWS Systems Manager Session Manager 로그를 Amazon S3 버킷으로 보내려고 합니다.
가장 효율적인 운영 효율성으로 이 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Systems Manager 콘솔에서 S3 로깅을 활성화합니다. 세션 데이터를 보낼 S3 버킷을 선택합니다.
- B. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 보관 목적으로 그룹에서 S3 버킷으로 로그를 내보냅니다.
- C. 시스템 관리자 문서를 생성하여 모든 서버 로그를 중앙 S3 버킷에 업로드합니다. Amazon EventBridge를 사용하여 매일 계정에 있는 모든 서버에 대해 Systems Manager 문서를 실행하십시오.
- D. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 수신 로그 이벤트를 Amazon Kinesis Data Firehose 전송 스트림으로 푸시하는 CloudWatch 로그 구독을 생성합니다. Amazon S3를 대상으로 설정합니다.
- A. Systems Manager 콘솔에서 S3 로깅을 활성화합니다. 세션 데이터를 보낼 S3 버킷을 선택합니다.
- B. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 보관 목적으로 그룹에서 S3 버킷으로 로그를 내보냅니다.
- C. 시스템 관리자 문서를 생성하여 모든 서버 로그를 중앙 S3 버킷에 업로드합니다. Amazon EventBridge를 사용하여 매일 계정에 있는 모든 서버에 대해 Systems Manager 문서를 실행하십시오.
- D. Amazon CloudWatch 에이전트를 설치합니다. 모든 로그를 CloudWatch 로그 그룹에 푸시합니다. 수신 로그 이벤트를 Amazon Kinesis Data Firehose 전송 스트림으로 푸시하는 CloudWatch 로그 구독을 생성합니다. Amazon S3를 대상으로 설정합니다.
세션 관리자 -> 기본 설정 탭에서 S3에 보관된 로그를 구성할 수 있
A는 SM 로깅의 직접 옵션이므로 가장 효율적입니다.
B는 작동할 수 있지만 CloudWatch를 사용하게 되면서 운영 오버헤드가 더 커집
#518
애플리케이션은 Amazon RDS MySQL DB 인스턴스를 사용합니다. RDS 데이터베이스의 디스크 공간이 부족해지고 있습니다. 솔루션 설계자는 가동 중지 시간 없이 디스크 공간을 늘리기를 원합니다.
최소한의 노력으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. RDS에서 스토리지 자동 확장 활성화
- B. RDS 데이터베이스 인스턴스 크기 늘리기
- C. RDS 데이터베이스 인스턴스 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.
- D. RDS 데이터베이스 백업, 스토리지 용량 늘리기, 데이터베이스 복원 및 이전 인스턴스 중지
- A. RDS에서 스토리지 자동 확장 활성화
- B. RDS 데이터베이스 인스턴스 크기 늘리기
- C. RDS 데이터베이스 인스턴스 스토리지 유형을 프로비저닝된 IOPS로 변경합니다.
- D. RDS 데이터베이스 백업, 스토리지 용량 늘리기, 데이터베이스 복원 및 이전 인스턴스 중지
#519⭐
컨설팅 회사는 전 세계 고객에게 전문적인 서비스를 제공합니다. 이 회사는 고객이 AWS에서 데이터를 신속하게 수집하고 분석할 수 있는 솔루션과 도구를 제공합니다. 회사는 고객이 셀프 서비스 목적으로 사용할 수 있는 공통 솔루션 및 도구 세트를 중앙에서 관리하고 배포해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 고객을 위한 AWS CloudFormation 템플릿을 생성합니다.
- B. 고객을 위한 AWS Service Catalog 제품을 생성합니다.
- C. 고객을 위한 AWS 시스템 관리자 템플릿을 생성합니다.
- D. 고객을 위한 AWS Config 항목을 생성합니다.
- A. 고객을 위한 AWS CloudFormation 템플릿을 생성합니다.
- B. 고객을 위한 AWS Service Catalog 제품을 생성합니다.
- C. 고객을 위한 AWS 시스템 관리자 템플릿을 생성합니다.
- D. 고객을 위한 AWS Config 항목을 생성합니다.
CloudFormation: 인프라 서비스로서의 코드
Systems Manager: 리소스 관리 솔루션
구성: 구성 평가, 감사 및 평가
다른 옵션은 이 시나리오에 적합하지 않
#520⭐
한 회사가 Amazon EC2 인스턴스에서 실행될 새로운 웹 애플리케이션을 설계하고 있습니다. 애플리케이션은 백엔드 데이터 저장을 위해 Amazon DynamoDB를 사용합니다. 애플리케이션 트래픽은 예측할 수 없습니다. 회사에서는 데이터베이스에 대한 애플리케이션 읽기 및 쓰기 처리량이 보통에서 높을 것으로 예상합니다. 회사는 애플리케이션 트래픽에 대응하여 확장해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 DynamoDB 테이블 구성은 무엇입니까?
- A. DynamoDB 표준 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
- B. DynamoDB 표준 테이블 클래스를 사용하여 온디맨드 모드로 DynamoDB를 구성합니다.
- C. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
- D. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 온디맨드 모드에서 DynamoDB를 구성합니다.
- A. DynamoDB 표준 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
- B. DynamoDB 표준 테이블 클래스를 사용하여 온디맨드 모드로 DynamoDB를 구성합니다.
- C. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 프로비저닝된 읽기 및 쓰기로 DynamoDB를 구성합니다. DynamoDB Auto Scaling을 정의된 최대 용량으로 설정합니다.
- D. DynamoDB Standard Infrequent Access(DynamoDB Standard-IA) 테이블 클래스를 사용하여 온디맨드 모드에서 DynamoDB를 구성합니다.
"예측할 수 없는" 트래픽으로 인해 A가 아님
보통에서 높은" 트래픽이 예상되므로 C 및 D가 아님
#521
소매 회사에는 여러 사업체가 있습니다. 각 비즈니스의 IT 팀은 자체 AWS 계정을 관리합니다. 각 팀 계정은 AWS Organizations 조직의 일부입니다. 각 팀은 팀 자체 AWS 계정의 Amazon DynamoDB 테이블에서 제품 재고 수준을 모니터링합니다.
회사는 중앙 재고 보고 애플리케이션을 공유 AWS 계정에 배포하고 있습니다. 애플리케이션은 모든 팀의 DynamoDB 테이블에서 항목을 읽을 수 있어야 합니다.
어떤 인증 옵션이 이러한 요구 사항을 가장 안전하게 충족합니까?
- A. 인벤토리 애플리케이션 계정에서 DynamoDB를 AWS Secrets Manager와 통합합니다. Secrets Manager의 올바른 암호를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. 30일마다 비밀 교체를 예약합니다.
- B. 모든 비즈니스 계정에서 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. 올바른 IAM 사용자 액세스 키 ID와 보안 액세스 키를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. IAM 액세스 키를 30일마다 수동으로 교체합니다.
- C. 모든 비즈니스 계정에서 DynamoDB 테이블에 대한 액세스 권한을 역할에 부여하는 정책과 인벤토리 애플리케이션 계정의 특정 역할을 신뢰하는 신뢰 정책을 사용하여 BU_ROLE이라는 IAM 역할을 생성합니다. 인벤토리 계정에서 STS AssumeRole API 작업에 대한 액세스를 허용하는 APP_ROLE이라는 역할을 생성합니다. APP_ROLE을 사용하도록 애플리케이션을 구성하고 교차 계정 역할 BU_ROLE을 가정하여 DynamoDB 테이블을 읽습니다.
- D. DynamoDB를 AWS Certificate Manager(ACM)와 통합합니다. DynamoDB를 인증하기 위해 ID 인증서를 생성합니다. 올바른 인증서를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다.
- A. 인벤토리 애플리케이션 계정에서 DynamoDB를 AWS Secrets Manager와 통합합니다. Secrets Manager의 올바른 암호를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. 30일마다 비밀 교체를 예약합니다.
- B. 모든 비즈니스 계정에서 프로그래밍 방식으로 액세스할 수 있는 IAM 사용자를 생성합니다. 올바른 IAM 사용자 액세스 키 ID와 보안 액세스 키를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다. IAM 액세스 키를 30일마다 수동으로 교체합니다.
- C. 모든 비즈니스 계정에서 DynamoDB 테이블에 대한 액세스 권한을 역할에 부여하는 정책과 인벤토리 애플리케이션 계정의 특정 역할을 신뢰하는 신뢰 정책을 사용하여 BU_ROLE이라는 IAM 역할을 생성합니다. 인벤토리 계정에서 STS AssumeRole API 작업에 대한 액세스를 허용하는 APP_ROLE이라는 역할을 생성합니다. APP_ROLE을 사용하도록 애플리케이션을 구성하고 교차 계정 역할 BU_ROLE을 가정하여 DynamoDB 테이블을 읽습니다.
- D. DynamoDB를 AWS Certificate Manager(ACM)와 통합합니다. DynamoDB를 인증하기 위해 ID 인증서를 생성합니다. 올바른 인증서를 사용하여 DynamoDB 테이블을 인증하고 읽도록 애플리케이션을 구성합니다.
#522
한 회사는 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용하여 컨테이너 애플리케이션을 실행합니다. 회사의 업무량은 하루 종일 일정하지 않습니다. 회사는 Amazon EKS가 워크로드에 따라 확장 및 축소되기를 원합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
- A. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 조정하십시오.
- B. Kubernetes Metrics Server를 사용하여 수평형 포드 자동 크기 조정을 활성화합니다.
- C. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
- D. Amazon API Gateway를 사용하여 Amazon EKS에 연결합니다.
- E. AWS App Mesh를 사용하여 네트워크 활동을 관찰합니다.
- A. AWS Lambda 함수를 사용하여 EKS 클러스터의 크기를 조정하십시오.
- B. Kubernetes Metrics Server를 사용하여 수평형 포드 자동 크기 조정을 활성화합니다.
- C. Kubernetes Cluster Autoscaler를 사용하여 클러스터의 노드 수를 관리합니다.
- D. Amazon API Gateway를 사용하여 Amazon EKS에 연결합니다.
- E. AWS App Mesh를 사용하여 네트워크 활동을 관찰합니다.
#523⭐
한 회사에서 마이크로서비스 기반 서버리스 웹 애플리케이션을 실행하고 있습니다. 애플리케이션은 여러 Amazon DynamoDB 테이블에서 데이터를 검색할 수 있어야 합니다. 솔루션 아키텍트는 애플리케이션의 기본 성능에 영향을 주지 않고 데이터를 검색할 수 있는 기능을 애플리케이션에 제공해야 합니다.
어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?
- A. AWS AppSync 파이프라인 해석기
- B. Lambda@Edge 기능을 갖춘 Amazon CloudFront
- C. AWS Lambda 기능을 갖춘 엣지 최적화 Amazon API Gateway
- D. DynamoDB 커넥터를 사용한 Amazon Athena 통합 쿼리
- A. AWS AppSync 파이프라인 해석기
- B. Lambda@Edge 기능을 갖춘 Amazon CloudFront
- C. AWS Lambda 기능을 갖춘 엣지 최적화 Amazon API Gateway
- D. DynamoDB 커넥터를 사용한 Amazon Athena 통합 쿼리
A 아님 - 파이프 해석기에는 코딩이 필요하며 '운영 효율성'을 고려하지 않습니다. B 아님 - CloudFront는 앱에 대한 DynamoDB 쿼리 결과가 아닌 엣지에서 웹 콘텐츠를 캐시합니다. C 아님 - API Gateway나 Lambda 모두 DynamoDB 성능과 관련이 없습니다. D - 바로 그럴 수 있지
#524⭐
회사에서는 IAM 권한과 관련된 액세스 거부 오류 및 무단 오류를 분석하고 문제를 해결하려고 합니다. 회사에서는 AWS CloudTrail을 활성화했습니다.
최소한의 노력으로 이러한 요구 사항을 충족할 수 있는 솔루션은 무엇입니까?
- A. AWS Glue를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
- B. AWS Batch를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
- C. Amazon Athena 쿼리로 CloudTrail 로그를 검색하여 오류를 식별합니다.
- D. Amazon QuickSight로 CloudTrail 로그를 검색합니다. 오류를 식별하기 위해 대시보드를 만듭니다
- A. AWS Glue를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
- B. AWS Batch를 사용하고 사용자 지정 스크립트를 작성하여 CloudTrail 로그에서 오류를 쿼리합니다.
- C. Amazon Athena 쿼리로 CloudTrail 로그를 검색하여 오류를 식별합니다.
- D. Amazon QuickSight로 CloudTrail 로그를 검색합니다. 오류를 식별하기 위해 대시보드를 만듭니다.
"Amazon QuickSight로 CloudTrail 로그 검색"이 작동하지 않습니다. QuickSight는 Athena 쿼리 결과를 시각화할 수 있으므로 "Amazon Athena로 CloudTrail 로그를 검색한 다음 Amazon QuickSight로 대시보드를 생성"하는 것이 합리적입니다. 그러나 Athena가 없으면 QuickSight는 작동하지 않
#525⭐
회사에서는 운영 비용 대시보드에 기존 AWS 사용 비용을 추가하려고 합니다.
솔루션 설계자는 회사가 프로그래밍 방식으로 사용 비용에 액세스할 수 있도록 하는 솔루션을 추천해야 합니다.
회사는 올해의 비용 데이터에 액세스하고 향후 12개월 동안의 비용을 예측할 수 있어야 합니다.
- A. 페이지 매김 기능이 있는 AWS Cost Explorer API를 사용하여 사용량 비용 관련 데이터에 액세스합니다.
- B. 다운로드 가능한 AWS Cost Explorer 보고서 .csv 파일을 사용하여 사용 비용 관련 데이터에 액세스합니다.
- C. FTP를 통해 회사에 사용 비용 데이터를 전송하도록 AWS Budgets 작업을 구성합니다.
- D. 사용 비용 데이터에 대한 AWS 예산 보고서를 생성합니다. SMTP를 통해 회사에 데이터를 보냅니다.
- A. 페이지 매김 기능이 있는 AWS Cost Explorer API를 사용하여 사용량 비용 관련 데이터에 액세스합니다.
- B. 다운로드 가능한 AWS Cost Explorer 보고서 .csv 파일을 사용하여 사용 비용 관련 데이터에 액세스합니다.
- C. FTP를 통해 회사에 사용 비용 데이터를 전송하도록 AWS Budgets 작업을 구성합니다.
- D. 사용 비용 데이터에 대한 AWS 예산 보고서를 생성합니다. SMTP를 통해 회사에 데이터를 보냅니다.
프로그래밍 방식 + 최소 오버헤드 = API
프로그래밍 방식으로 사용 비용에 액세스 = AWS Cost Explorer API
#526⭐
솔루션 설계자가 애플리케이션의 복원력을 검토하고 있습니다. 솔루션 설계자는 최근 데이터베이스 관리자가 확장 연습의 일환으로 애플리케이션의 Amazon Aurora PostgreSQL 데이터베이스 기록기 인스턴스를 장애 조치했다는 사실을 알아냈습니다. 장애 조치로 인해 애플리케이션 가동 중지 시간이 3분 발생했습니다.
최소한의 운영 오버헤드로 확장 연습의 가동 중지 시간을 줄이는 솔루션은 무엇입니까?
- A. 장애 조치 중 로드를 처리하기 위해 클러스터에 더 많은 Aurora PostgreSQL 읽기 전용 복제본을 생성합니다.
- B. 동일한 AWS 리전에 보조 Aurora PostgreSQL 클러스터를 설정합니다. 장애 조치 중에 보조 클러스터의 작성자 엔드포인트를 사용하도록 애플리케이션을 업데이트합니다.
- C. 장애 조치 중 로드를 처리하기 위해 Memcached용 Amazon ElastiCache 클러스터를 생성합니다.
- D. 데이터베이스에 대한 Amazon RDS 프록시를 설정합니다. 프록시 끝점을 사용하도록 애플리케이션을 업데이트합니다.
- A. 장애 조치 중 로드를 처리하기 위해 클러스터에 더 많은 Aurora PostgreSQL 읽기 전용 복제본을 생성합니다.
- B. 동일한 AWS 리전에 보조 Aurora PostgreSQL 클러스터를 설정합니다. 장애 조치 중에 보조 클러스터의 작성자 엔드포인트를 사용하도록 애플리케이션을 업데이트합니다.
- C. 장애 조치 중 로드를 처리하기 위해 Memcached용 Amazon ElastiCache 클러스터를 생성합니다.
- D. 데이터베이스에 대한 Amazon RDS 프록시를 설정합니다. 프록시 끝점을 사용하도록 애플리케이션을 업데이트합니다.
RDS 프록시는 Amazon Aurora MySQL의 장애 조치 후 클라이언트 복구 시간을 최대 79% 단축
#527
회사에는 단일 AWS 지역에서 실행되는 지역 구독 기반 스트리밍 서비스가 있습니다. 아키텍처는 Amazon EC2 인스턴스의 웹 서버와 애플리케이션 서버로 구성됩니다. EC2 인스턴스는 Elastic Load Balancer 뒤의 Auto Scaling 그룹에 있습니다. 아키텍처에는 여러 가용 영역에 걸쳐 확장되는 Amazon Aurora 글로벌 데이터베이스 클러스터가 포함되어 있습니다.
회사는 전 세계적으로 확장하고 애플리케이션 가동 중지 시간을 최소화하기를 원합니다.
가장 뛰어난 내결함성을 제공하는 솔루션은 무엇입니까?
- A. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 확장하여 두 번째 지역의 가용 영역에 인스턴스를 배포합니다. Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
- B. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 리전 간 Aurora 복제본을 추가합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
- C. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 데이터베이스를 생성합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기본 데이터베이스를 두 번째 리전에 복제합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
- D. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. Amazon Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
- A. 웹 계층 및 애플리케이션 계층에 대한 Auto Scaling 그룹을 확장하여 두 번째 지역의 가용 영역에 인스턴스를 배포합니다. Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
- B. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 리전 간 Aurora 복제본을 추가합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
- C. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. 두 번째 리전에 Aurora PostgreSQL 데이터베이스를 생성합니다. AWS Database Migration Service(AWS DMS)를 사용하여 기본 데이터베이스를 두 번째 리전에 복제합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오.
- D. 웹 계층과 애플리케이션 계층을 두 번째 지역에 배포합니다. Amazon Aurora 글로벌 데이터베이스를 사용하여 기본 지역과 두 번째 지역에 데이터베이스를 배포합니다. 두 번째 리전에 대한 장애 조치 라우팅 정책과 함께 Amazon Route 53 상태 확인을 사용하십시오. 필요에 따라 보조를 기본으로 승격합니다.
#528⭐
한 데이터 분석 회사가 배치 처리 시스템을 AWS로 마이그레이션하려고 합니다. 회사는 FTP를 통해 하루 동안 정기적으로 수천 개의 작은 데이터 파일을 받습니다. 온프레미스 일괄 작업은 밤새 데이터 파일을 처리합니다. 그러나 일괄 작업 실행을 완료하는 데 몇 시간이 걸립니다.
회사는 파일을 보내는 FTP 클라이언트에 대한 변경을 최소화하면서 AWS 솔루션이 수신 데이터 파일을 최대한 빨리 처리하기를 원합니다. 솔루션은 파일이 성공적으로 처리된 후 들어오는 데이터 파일을 삭제해야 합니다. 각 파일을 처리하는 데는 3~8분이 소요됩니다.
어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?
- A. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 수신 파일을 Amazon S3 Glacier 유연한 검색의 객체로 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 S3 Glacier 유연한 검색에서 야간에 객체를 처리하는 작업을 호출합니다. 작업에서 개체를 처리한 후 개체를 삭제합니다.
- B. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 EBS 볼륨에서 매일 밤 파일을 처리하는 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
- C. AWS Transfer Family를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장하기 위한 FTP 서버를 생성합니다. AWS Batch에서 작업 대기열을 구성합니다. 각 파일이 도착하면 Amazon S3 이벤트 알림을 사용하여 AWS Batch에서 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
- D. AWS Transfer Family를 사용하여 Amazon S3 Standard에 수신 파일을 저장할 FTP 서버를 생성합니다. 파일을 처리하고 처리된 후 파일을 삭제하는 AWS Lambda 함수를 생성합니다. 파일이 도착하면 S3 이벤트 알림을 사용하여 Lambda 함수를 호출합니다.
- A. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 수신 파일을 Amazon S3 Glacier 유연한 검색의 객체로 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 S3 Glacier 유연한 검색에서 야간에 객체를 처리하는 작업을 호출합니다. 작업에서 개체를 처리한 후 개체를 삭제합니다.
- B. FTP 서버를 실행하는 Amazon EC2 인스턴스를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장합니다. AWS Batch에서 작업 대기열을 구성합니다. Amazon EventBridge 규칙을 사용하여 EBS 볼륨에서 매일 밤 파일을 처리하는 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
- C. AWS Transfer Family를 사용하여 Amazon Elastic Block Store(Amazon EBS) 볼륨에 수신 파일을 저장하기 위한 FTP 서버를 생성합니다. AWS Batch에서 작업 대기열을 구성합니다. 각 파일이 도착하면 Amazon S3 이벤트 알림을 사용하여 AWS Batch에서 작업을 호출합니다. 작업에서 파일을 처리한 후 파일을 삭제합니다.
- D. AWS Transfer Family를 사용하여 Amazon S3 Standard에 수신 파일을 저장할 FTP 서버를 생성합니다. 파일을 처리하고 처리된 후 파일을 삭제하는 AWS Lambda 함수를 생성합니다. 파일이 도착하면 S3 이벤트 알림을 사용하여 Lambda 함수를 호출합니다.
FTP => AWS Transfer Family, => C 또는 D,
그러나 C에서는 EC2가 필요한 S3가 아닌 EBS가 사용되며 일반적으로 더 복잡
#529
한 회사가 워크로드를 AWS로 마이그레이션하고 있습니다. 회사는 데이터베이스에 거래 및 민감한 데이터를 보유하고 있습니다. 회사는 AWS 클라우드 솔루션을 사용하여 보안을 강화하고 데이터베이스의 운영 오버헤드를 줄이고 싶어합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 데이터베이스를 Amazon EC2로 마이그레이션합니다. 암호화를 위해 AWS Key Management Service(AWS KMS) AWS 관리형 키를 사용합니다.
- B. 데이터베이스를 Amazon RDS로 마이그레이션하여 저장 암호화를 구성합니다.
- C. 데이터를 Amazon S3로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon Macie를 사용합니다.
- D. 데이터베이스를 Amazon RDS로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon CloudWatch Logs를 사용하십시오.
- A. 데이터베이스를 Amazon EC2로 마이그레이션합니다. 암호화를 위해 AWS Key Management Service(AWS KMS) AWS 관리형 키를 사용합니다.
- B. 데이터베이스를 Amazon RDS로 마이그레이션하여 저장 암호화를 구성합니다.
- C. 데이터를 Amazon S3로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon Macie를 사용합니다.
- D. 데이터베이스를 Amazon RDS로 마이그레이션합니다. 데이터 보안 및 보호를 위해 Amazon CloudWatch Logs를 사용하십시오.
#530⭐
회사에는 TCP 및 UDP 멀티플레이어 게임 기능을 갖춘 온라인 게임 애플리케이션이 있습니다. 이 회사는 Amazon Route 53을 사용하여 애플리케이션 트래픽을 다양한 AWS 지역의 여러 Network Load Balancer(NLB)로 지정합니다. 회사는 사용자 성장에 대비하여 온라인 게임의 애플리케이션 성능을 개선하고 대기 시간을 줄여야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. NLB 앞에 Amazon CloudFront 배포판을 추가합니다. Cache-Control max-age 매개변수를 늘립니다.
- B. NLB를 ALB(Application Load Balancer)로 교체합니다. 지연 시간 기반 라우팅을 사용하도록 Route 53을 구성합니다.
- C. NLB 앞에 AWS Global Accelerator를 추가합니다. 올바른 수신기 포트를 사용하도록 Global Accelerator 끝점을 구성합니다.
- D. NLB 뒤에 Amazon API Gateway 엔드포인트를 추가합니다. API 캐싱을 활성화합니다. 다양한 단계에 대한 메서드 캐싱을 재정의합니다.
- A. NLB 앞에 Amazon CloudFront 배포판을 추가합니다. Cache-Control max-age 매개변수를 늘립니다.
- B. NLB를 ALB(Application Load Balancer)로 교체합니다. 지연 시간 기반 라우팅을 사용하도록 Route 53을 구성합니다.
- C. NLB 앞에 AWS Global Accelerator를 추가합니다. 올바른 수신기 포트를 사용하도록 Global Accelerator 끝점을 구성합니다.
- D. NLB 뒤에 Amazon API Gateway 엔드포인트를 추가합니다. API 캐싱을 활성화합니다. 다양한 단계에 대한 메서드 캐싱을 재정의합니다.
A: CloudFront는 캐싱용입니다. 필요하지 않음 B: ALB는 HTTP 레이어용이며 TCP UDP 문제에 도움이 되지 않습니다. D: API 게이트웨이, API 캐싱 전체 쓰레기, 이 옵션을 무시합니다. C: Global Accelerator가 대기 시간을 전체적으로 줄이기 위해 유니캐스트를 사용
#531
회사는 제3자 데이터 피드와 통합해야 합니다. 데이터 피드는 새 데이터를 사용할 준비가 되면 외부 서비스에 알리기 위해 웹후크를 보냅니다. 개발자는 회사가 웹훅 콜백을 수신할 때 데이터를 검색하는 AWS Lambda 함수를 작성했습니다. 개발자는 타사가 호출할 수 있도록 Lambda 함수를 제공해야 합니다.
가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Lambda 함수에 대한 함수 URL을 생성합니다. Webhook에 대한 Lambda 함수 URL을 타사에 제공합니다.
- B. Lambda 함수 앞에 Application Load Balancer(ALB)를 배포합니다. 웹훅에 대한 ALB URL을 제3자에게 제공합니다.
- C. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 주제를 Lambda 함수에 연결합니다. 웹훅을 위해 SNS 주제의 공개 호스트 이름을 제3자에게 제공합니다.
- D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. Lambda 함수에 대기열을 연결합니다. 웹후크에 대해 SQS 대기열의 공개 호스트 이름을 제3자에게 제공합니다.
- A. Lambda 함수에 대한 함수 URL을 생성합니다. Webhook에 대한 Lambda 함수 URL을 타사에 제공합니다.
- B. Lambda 함수 앞에 Application Load Balancer(ALB)를 배포합니다. 웹훅에 대한 ALB URL을 제3자에게 제공합니다.
- C. Amazon Simple 알림 서비스(Amazon SNS) 주제를 생성합니다. 주제를 Lambda 함수에 연결합니다. 웹훅을 위해 SNS 주제의 공개 호스트 이름을 제3자에게 제공합니다.
- D. Amazon Simple Queue Service(Amazon SQS) 대기열을 생성합니다. Lambda 함수에 대기열을 연결합니다. 웹후크에 대해 SQS 대기열의 공개 호스트 이름을 제3자에게 제공합니다.
#532⭐
회사에는 AWS 리전에 워크로드가 있습니다. 고객은 Amazon API Gateway REST API를 사용하여 워크로드에 연결하고 액세스합니다. 이 회사는 Amazon Route 53을 DNS 공급자로 사용합니다. 회사는 모든 고객에게 개별적이고 안전한 URL을 제공하려고 합니다.
가장 효율적인 운영 효율성으로 이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.)
- A. 등록기관에 필요한 도메인을 등록하세요. Route 53 호스팅 영역에 와일드카드 사용자 지정 도메인 이름을 생성하고 API Gateway 엔드포인트를 가리키는 영역에 기록합니다.
- B. 다른 지역의 AWS Certificate Manager(ACM) 도메인과 일치하는 와일드카드 인증서를 요청합니다.
- C. Route 53에서 필요에 따라 각 고객에 대한 호스팅 영역을 생성합니다. API 게이트웨이 엔드포인트를 가리키는 영역 레코드를 생성합니다.
- D. 동일한 리전에 있는 AWS Certificate Manager(ACM)의 사용자 지정 도메인 이름과 일치하는 와일드카드 인증서를 요청합니다.
- E. API Gateway에서 각 고객에 대해 여러 API 엔드포인트를 생성합니다.
- F. API 게이트웨이에서 REST API용 사용자 지정 도메인 이름을 생성합니다. AWS Certificate Manager(ACM)에서 인증서를 가져옵니다.
- A. 등록기관에 필요한 도메인을 등록하세요. Route 53 호스팅 영역에 와일드카드 사용자 지정 도메인 이름을 생성하고 API Gateway 엔드포인트를 가리키는 영역에 기록합니다.
- B. 다른 지역의 AWS Certificate Manager(ACM) 도메인과 일치하는 와일드카드 인증서를 요청합니다.
- C. Route 53에서 필요에 따라 각 고객에 대한 호스팅 영역을 생성합니다. API 게이트웨이 엔드포인트를 가리키는 영역 레코드를 생성합니다.
- D. 동일한 리전에 있는 AWS Certificate Manager(ACM)의 사용자 지정 도메인 이름과 일치하는 와일드카드 인증서를 요청합니다.
- E. API Gateway에서 각 고객에 대해 여러 API 엔드포인트를 생성합니다.
- F. API 게이트웨이에서 REST API용 사용자 지정 도메인 이름을 생성합니다. AWS Certificate Manager(ACM)에서 인증서를 가져옵니다.
핵심 사항: 와일드카드 도메인 및 인증서를 사용하면 고객별로 개별 도메인/인증서를 관리할 필요가 없습니다. 이것이 더 효율적입니다. 단순화를 위해 도메인, 호스팅 영역 및 인증서는 모두 API Gateway REST API와 동일한 지역에 있어야 합니다. 고객별로 여러 API 엔드포인트를 생성하면(옵션 E) 복잡성이 추가되며 필수는 아닙니다. 옵션 B와 C는 도메인, 인증서 및 호스팅 영역을 분리하여 불필요한 복잡성을 추가합니
#533
회사는 Amazon S3에 데이터를 저장합니다. 규정에 따르면 데이터에는 개인 식별 정보(PII)가 포함되어서는 안 됩니다. 회사는 최근 S3 버킷에 PII가 포함된 일부 객체가 있다는 사실을 발견했습니다. 회사는 S3 버킷에서 PII를 자동으로 감지하고 회사 보안 팀에 알려야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- B. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- C. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData:S3Object/Personal 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- D. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- A. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- B. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon SNS(Amazon SNS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- C. Amazon Macie를 사용하세요. Macie 결과에서 SensitiveData:S3Object/Personal 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
- D. Amazon GuardDuty를 사용하십시오. GuardDuty 결과에서 CRITICAL 이벤트 유형을 필터링하고 Amazon Simple Queue Service(Amazon SQS) 알림을 보안 팀에 보내는 Amazon EventBridge 규칙을 생성합니다.
#534⭐
한 회사에서 여러 AWS 계정에 대한 로깅 솔루션을 구축하려고 합니다. 회사는 현재 모든 계정의 로그를 중앙 집중식 계정에 저장합니다. 회사는 VPC 흐름 로그와 AWS CloudTrail 로그를 저장하기 위해 중앙 집중식 계정에 Amazon S3 버킷을 생성했습니다. 모든 로그는 빈번한 분석을 위해 30일 동안 가용성이 높아야 하고, 백업 목적으로 추가 60일 동안 보관되어야 하며, 생성 후 90일 후에 삭제되어야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
- A. 생성 후 30일이 지나면 객체를 S3 Standard 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- B. 생성 후 30일이 지나면 객체를 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- C. 생성 후 30일이 지나면 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- D. 생성 후 30일이 지나면 객체를 S3 One Zone-IA(S3 One Zone-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- A. 생성 후 30일이 지나면 객체를 S3 Standard 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- B. 생성 후 30일이 지나면 객체를 S3 Standard-Infrequent Access(S3 Standard-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- C. 생성 후 30일이 지나면 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 전환합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
- D. 생성 후 30일이 지나면 객체를 S3 One Zone-IA(S3 One Zone-IA) 스토리지 클래스로 전환합니다. 90일 후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동합니다. 90일 후에 객체를 삭제하도록 Amazon S3에 지시하는 만료 작업을 작성합니다.
C가 가장 적합한 것 같습니다. 최저가입니다. 30일 이후는 백업만 되며, 자주 접속하도록 지정하지 않습니다. 따라서 30일 후에 항목을 Glacier 유연한 검색으로 전환해야 합니다. 또한 90일 후 삭제라고 되어 있으므로 90일 후 전환을 지정하는 모든 답변은 의미가 없
A가 아님: 객체가 S3 Standard에서 생성되므로 "생성 후 30일"에서 객체를 '전환'하는 것은 의미가 없습니다. B 또는 C가 아님: S3 Standard 이후에 모든 객체를 S3 Glacier 유연한 검색 스토리지 클래스로 이동할 필요가 없습니다. 90일"을 의미합니다. 왜냐하면 보관이 아닌 삭제를 원하기 때문입니다. 이사 후 바로 삭제하더라도 최소 보관 기간인 90일을 지불하겠습니다. 게다가 여기서는 "Infrequent Access" 클래스를 사용하고 있지만 전혀 액세스할 수 없습
#535
한 회사가 워크로드를 위해 Amazon Elastic Kubernetes Service(Amazon EKS) 클러스터를 구축하고 있습니다. Amazon EKS에 저장된 모든 비밀은 Kubernetes etcd 키-값 저장소에서 암호화되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. AWS Secrets Manager를 사용하여 Amazon EKS의 모든 비밀을 관리, 교체 및 저장합니다.
- B. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. Amazon EKS 클러스터에서 Amazon EKS KMS 암호 암호화를 활성화합니다.
- C. 기본 옵션을 사용하여 Amazon EKS 클러스터를 생성합니다. Amazon Elastic Block Store(Amazon EBS) CSI(컨테이너 스토리지 인터페이스) 드라이버를 추가 기능으로 사용합니다.
- D. 별칭/aws/ebs 별칭을 사용하여 새 AWS Key Management Service(AWS KMS) 키를 생성합니다. 계정에 대해 기본 Amazon Elastic Block Store(Amazon EBS) 볼륨 암호화를 활성화합니다.
- A. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. AWS Secrets Manager를 사용하여 Amazon EKS의 모든 비밀을 관리, 교체 및 저장합니다.
- B. 새로운 AWS Key Management Service(AWS KMS) 키를 생성합니다. Amazon EKS 클러스터에서 Amazon EKS KMS 암호 암호화를 활성화합니다.
- C. 기본 옵션을 사용하여 Amazon EKS 클러스터를 생성합니다. Amazon Elastic Block Store(Amazon EBS) CSI(컨테이너 스토리지 인터페이스) 드라이버를 추가 기능으로 사용합니다.
- D. 별칭/aws/ebs 별칭을 사용하여 새 AWS Key Management Service(AWS KMS) 키를 생성합니다. 계정에 대해 기본 Amazon Elastic Block Store(Amazon EBS) 볼륨 암호화를 활성화합니다.
#536⭐
한 회사는 데이터 과학자에게 회사의 프로덕션 PostgreSQL용 Amazon RDS 데이터베이스에 대한 거의 실시간 읽기 전용 액세스를 제공하려고 합니다. 데이터베이스는 현재 단일 AZ 데이터베이스로 구성되어 있습니다. 데이터 과학자는 프로덕션 데이터베이스에 영향을 주지 않는 복잡한 쿼리를 사용합니다. 회사에는 가용성이 뛰어난 솔루션이 필요합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
- A. 유지 관리 기간에 기존 프로덕션 데이터베이스를 확장하여 데이터 과학자에게 충분한 성능을 제공합니다.
- B. 단일 AZ에서 더 큰 보조 대기 인스턴스가 있는 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자에게 보조 인스턴스에 대한 액세스 권한을 제공합니다.
- C. 단일 AZ에서 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자를 위해 두 개의 추가 읽기 복제본을 제공합니다.
- D. 단일 AZ에서 읽기 가능한 대기 인스턴스 2개가 있는 다중 AZ 클러스터 배포로 설정을 변경합니다. 데이터 과학자에게 읽기 엔드포인트를 제공합니다.
- A. 유지 관리 기간에 기존 프로덕션 데이터베이스를 확장하여 데이터 과학자에게 충분한 성능을 제공합니다.
- B. 단일 AZ에서 더 큰 보조 대기 인스턴스가 있는 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자에게 보조 인스턴스에 대한 액세스 권한을 제공합니다.
- C. 단일 AZ에서 다중 AZ 인스턴스 배포로 설정을 변경합니다. 데이터 과학자를 위해 두 개의 추가 읽기 복제본을 제공합니다.
- D. 단일 AZ에서 읽기 가능한 대기 인스턴스 2개가 있는 다중 AZ 클러스터 배포로 설정을 변경합니다. 데이터 과학자에게 읽기 엔드포인트를 제공합니다.
A 아님 - "고가용성" 아님 B 아님 - 다중 AZ에서는 "보조 인스턴스에 대한 액세스"가 불가능함 C 아님 - 다중 AZ + 2개(!) 읽기 전용 복제본이 클러스터 D보다 비쌈 - "읽기 가능한 대기 인스턴스 제공" "
#537⭐
한 회사는 3개의 가용 영역에서 작동하는 AWS 클라우드에서 3계층 웹 애플리케이션을 실행합니다. 애플리케이션 아키텍처에는 Application Load Balancer, 사용자 세션 상태를 호스팅하는 Amazon EC2 웹 서버, EC2 인스턴스에서 실행되는 MySQL 데이터베이스가 있습니다. 회사에서는 애플리케이션 트래픽이 갑자기 증가할 것으로 예상하고 있습니다. 회사는 향후 애플리케이션 용량 요구 사항을 충족하고 3개 가용 영역 모두에서 고가용성을 보장하기 위해 확장할 수 있기를 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- B. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Amazon ElastiCache for Memcached를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- C. MySQL 데이터베이스를 Amazon DynamoDB로 마이그레이션 DynamoDB Accelerator(DAX)를 사용하여 읽기를 캐시합니다. DynamoDB에 세션 데이터를 저장합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- D. 단일 가용 영역에서 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- A. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- B. 다중 AZ DB 클러스터 배포를 통해 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Amazon ElastiCache for Memcached를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- C. MySQL 데이터베이스를 Amazon DynamoDB로 마이그레이션 DynamoDB Accelerator(DAX)를 사용하여 읽기를 캐시합니다. DynamoDB에 세션 데이터를 저장합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
- D. 단일 가용 영역에서 MySQL 데이터베이스를 MySQL용 Amazon RDS로 마이그레이션합니다. 고가용성을 갖춘 Redis용 Amazon ElastiCache를 사용하여 세션 데이터를 저장하고 읽기를 캐시합니다. 3개의 가용 영역에 있는 Auto Scaling 그룹으로 웹 서버를 마이그레이션합니다.
Memcached는 데이터 캐싱에 가장 적합한 반면 Redis는 지속되어야 하는 데이터를 저장하는 데 더 적합
#538⭐
한 글로벌 비디오 스트리밍 회사는 Amazon CloudFront를 CDN(콘텐츠 배포 네트워크)으로 사용합니다. 회사는 여러 국가에 걸쳐 단계적으로 콘텐츠를 출시하려고 합니다. 회사는 회사가 콘텐츠를 출시하는 국가 외부에 있는 시청자가 콘텐츠를 볼 수 없도록 해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 허용 목록을 사용하여 CloudFront의 콘텐츠에 지리적 제한을 추가합니다. 사용자 정의 오류 메시지를 설정합니다.
- B. 제한된 콘텐츠를 위해 새로운 URL을 설정합니다. 서명된 URL과 쿠키를 사용하여 액세스를 승인합니다. 사용자 정의 오류 메시지를 설정합니다.
- 다. 회사가 배포하는 콘텐츠에 대한 데이터를 암호화합니다. 사용자 정의 오류 메시지를 설정합니다.
- D. 제한된 콘텐츠에 대한 새 URL을 만듭니다. 서명된 URL에 대해 시간 제한 액세스 정책을 설정합니다.
- A. 허용 목록을 사용하여 CloudFront의 콘텐츠에 지리적 제한을 추가합니다. 사용자 정의 오류 메시지를 설정합니다.
- B. 제한된 콘텐츠를 위해 새로운 URL을 설정합니다. 서명된 URL과 쿠키를 사용하여 액세스를 승인합니다. 사용자 정의 오류 메시지를 설정합니다.
- 다. 회사가 배포하는 콘텐츠에 대한 데이터를 암호화합니다. 사용자 정의 오류 메시지를 설정합니다.
- D. 제한된 콘텐츠에 대한 새 URL을 만듭니다. 서명된 URL에 대해 시간 제한 액세스 정책을 설정합니다.
BCD는 지역별로 URL을 제한할 수 없고 지역(국가 등)별로 암호화할 수 없으므로 지역 제한에는 실용적이지 않
#539⭐
회사에서는 AWS 클라우드를 사용하여 온프레미스 재해 복구(DR) 구성을 개선하려고 합니다. 회사의 핵심 프로덕션 비즈니스 애플리케이션은 가상 머신(VM)에서 실행되는 Microsoft SQL Server Standard를 사용합니다. 애플리케이션의 RPO(복구 지점 목표)는 30초 이하이고 RTO(복구 시간 목표)는 60분입니다. DR 솔루션은 가능한 한 비용을 최소화해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. Always On 가용성 그룹이 포함된 Microsoft SQL Server Enterprise를 사용하여 온프레미스 서버와 AWS 간에 다중 사이트 활성/활성 설정을 구성합니다.
- B. AWS의 SQL Server 데이터베이스에 대한 웜 대기 Amazon RDS를 구성합니다. 변경 데이터 캡처(CDC)를 사용하도록 AWS Database Migration Service(AWS DMS)를 구성합니다.
- C. 디스크 변경 사항을 AWS에 복제하도록 구성된 AWS Elastic Disaster Recovery를 파일럿 라이트로 사용합니다.
- D. 타사 백업 소프트웨어를 사용하여 매일 밤 백업을 캡처합니다. Amazon S3에 보조 백업 세트를 저장합니다.
- A. Always On 가용성 그룹이 포함된 Microsoft SQL Server Enterprise를 사용하여 온프레미스 서버와 AWS 간에 다중 사이트 활성/활성 설정을 구성합니다.
- B. AWS의 SQL Server 데이터베이스에 대한 웜 대기 Amazon RDS를 구성합니다. 변경 데이터 캡처(CDC)를 사용하도록 AWS Database Migration Service(AWS DMS)를 구성합니다.
- C. 디스크 변경 사항을 AWS에 복제하도록 구성된 AWS Elastic Disaster Recovery를 파일럿 라이트로 사용합니다.
- D. 타사 백업 소프트웨어를 사용하여 매일 밤 백업을 캡처합니다. Amazon S3에 보조 백업 세트를 저장합니다.
백업 및 복원(시간 단위 RPO, 24시간 이하 RTO) 지시등(분 단위 RPO, 시간 단위 RTO) 웜 대기(초 단위 RPO, 분 단위 RTO) *** 정답 *** 활성-활성(RPO) 없음 또는 초(초 단위의 RTO)
#540⭐
회사에는 Oracle 데이터베이스를 사용하여 고객 정보를 처리하고 저장하는 온프레미스 서버가 있습니다. 회사는 더 높은 가용성을 달성하고 애플리케이션 성능을 향상시키기 위해 AWS 데이터베이스 서비스를 사용하려고 합니다. 또한 회사는 기본 데이터베이스 시스템에서 보고 작업을 오프로드하려고 합니다.
어떤 솔루션이 운영상 가장 효율적인 방식으로 이러한 요구 사항을 충족합니까?
- A. AWS Database Migration Service(AWS DMS)를 사용하여 여러 AWS 리전에 Amazon RDS DB 인스턴스를 생성하십시오. 보고 기능이 기본 DB 인스턴스와 별도의 DB 인스턴스를 가리키도록 합니다.
- B. 단일 AZ 배포에서 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 기본 DB 인스턴스와 동일한 영역에 읽기 전용 복제본을 생성합니다. 보고 기능을 읽기 전용 복제본으로 보냅니다.
- C. 다중 AZ 클러스터 배포에 배포된 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 클러스터 배포에서 리더 인스턴스를 사용하도록 보고 기능에 지시합니다.
- D. 다중 AZ 인스턴스 배포에 배포된 Amazon RDS를 사용하여 Amazon Aurora 데이터베이스를 생성합니다. 보고 기능을 리더 인스턴스에 지시합니다.
- A. AWS Database Migration Service(AWS DMS)를 사용하여 여러 AWS 리전에 Amazon RDS DB 인스턴스를 생성하십시오. 보고 기능이 기본 DB 인스턴스와 별도의 DB 인스턴스를 가리키도록 합니다.
- B. 단일 AZ 배포에서 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 기본 DB 인스턴스와 동일한 영역에 읽기 전용 복제본을 생성합니다. 보고 기능을 읽기 전용 복제본으로 보냅니다.
- C. 다중 AZ 클러스터 배포에 배포된 Amazon RDS를 사용하여 Oracle 데이터베이스를 생성합니다. 클러스터 배포에서 리더 인스턴스를 사용하도록 보고 기능에 지시합니다.
- D. 다중 AZ 인스턴스 배포에 배포된 Amazon RDS를 사용하여 Amazon Aurora 데이터베이스를 생성합니다. 보고 기능을 리더 인스턴스에 지시합니다.
D 다중 AZ DB 클러스터는 다음 엔진에서 사용할 수 없습니다. MariaDB용 RDS Oracle용 RDS SQL Server용 RDS
#541⭐
한 회사가 AWS에서 웹 애플리케이션을 구축하려고 합니다. 웹 사이트에 대한 클라이언트 액세스 요청은 예측할 수 없으며 오랫동안 유휴 상태일 수 있습니다. 가입비를 지불한 고객만이 웹 애플리케이션에 로그인하고 사용할 수 있습니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 단계 조합은 무엇입니까? (3개를 선택하세요.)
- A. Amazon DynamoDB에서 사용자 정보를 검색하는 AWS Lambda 함수를 생성합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
- B. Application Load Balancer 뒤에 Amazon Elastic Container Service(Amazon ECS) 서비스를 생성하여 Amazon RDS에서 사용자 정보를 검색합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
- C. 사용자를 인증하기 위해 Amazon Cognito 사용자 풀을 생성합니다.
- D. 사용자를 인증하기 위해 Amazon Cognito 자격 증명 풀을 생성합니다.
- E. AWS Amplify를 사용하여 HTML, CSS 및 JS로 프런트엔드 웹 콘텐츠를 제공합니다. 통합 Amazon CloudFront 구성을 사용합니다.
- F. PHP, CSS 및 JS와 함께 Amazon S3 정적 웹 호스팅을 사용하십시오. Amazon CloudFront를 사용하여 프런트엔드 웹 콘텐츠를 제공합니다.
- A. Amazon DynamoDB에서 사용자 정보를 검색하는 AWS Lambda 함수를 생성합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
- B. Application Load Balancer 뒤에 Amazon Elastic Container Service(Amazon ECS) 서비스를 생성하여 Amazon RDS에서 사용자 정보를 검색합니다. RESTful API를 허용하는 Amazon API Gateway 엔드포인트를 생성합니다. API 호출을 Lambda 함수로 보냅니다.
- C. 사용자를 인증하기 위해 Amazon Cognito 사용자 풀을 생성합니다.
- D. 사용자를 인증하기 위해 Amazon Cognito 자격 증명 풀을 생성합니다.
- E. AWS Amplify를 사용하여 HTML, CSS 및 JS로 프런트엔드 웹 콘텐츠를 제공합니다. 통합 Amazon CloudFront 구성을 사용합니다.
- F. PHP, CSS 및 JS와 함께 Amazon S3 정적 웹 호스팅을 사용하십시오. Amazon CloudFront를 사용하여 프런트엔드 웹 콘텐츠를 제공합니다.
옵션 B(Amazon ECS)는 웹 사이트가 "오랜 시간 동안 유휴 상태일 수 있으므로" 최선의 옵션이 아니므로 Lambda(옵션 A)가 더 비용 효율적인 선택입니다. 사용자 풀은 인증(ID 확인)용이고 자격 증명 풀은 승인(액세스 제어)용이므로 옵션 D는 올바르지 않습니다. 옵션 F는 잘못된 것입니다. S3 웹 호스팅은 HTML/CSS와 같은 정적 웹 파일만 지원하고 PHP 또는 JavaScript는 지원하지 않기 때문
A: 앱이 오랫동안 유휴 상태일 수 있으므로 Lambda가 완벽합니다(호출당 요금 부과) C: 사용자 인증을 위한 Cognito 사용자 풀 E: Amplify는 로우 코드 웹 개발 도구입니다 B: 잘못되었습니다. 유휴 시 비용이 너무 많이 듭니다 D: 자격 증명 풀은 세션입니다. 관리/식별. 인증에 도움이 되지 않습니다. F: S3 + PHP는 보안 없이도 작동하지 않
#542 ⭐
미디어 회사는 Amazon CloudFront 배포를 사용하여 인터넷을 통해 콘텐츠를 제공합니다. 회사는 프리미엄 고객만 미디어 스트림과 파일 콘텐츠에 액세스할 수 있기를 원합니다. 회사는 모든 콘텐츠를 Amazon S3 버킷에 저장합니다. 또한 회사는 영화 대여나 음악 다운로드와 같은 특정 목적을 위해 고객에게 주문형 콘텐츠를 제공합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. S3 서명 쿠키를 생성하여 프리미엄 고객에게 제공합니다.
- B. CloudFront 서명 URL을 생성하여 프리미엄 고객에게 제공합니다.
- C. OAC(오리진 액세스 제어)를 사용하여 프리미엄이 아닌 고객의 액세스를 제한합니다.
- D. 프리미엄이 아닌 고객을 차단하기 위해 필드 수준 암호화를 생성하고 활성화합니다.
- A. S3 서명 쿠키를 생성하여 프리미엄 고객에게 제공합니다.
- B. CloudFront 서명 URL을 생성하여 프리미엄 고객에게 제공합니다.
- C. OAC(오리진 액세스 제어)를 사용하여 프리미엄이 아닌 고객의 액세스를 제한합니다.
- D. 프리미엄이 아닌 고객을 차단하기 위해 필드 수준 암호화를 생성하고 활성화합니다.
사용자 지정 정책이 포함된 CloudFront 서명된 URL이 바로 이에 대한 것입니다. A: 아니요, 쿠키는 URL을 제한하지 않으므로 도움이 되지 않
#543 ★
회사는 개별적으로 삭제된 여러 AWS 계정에서 Amazon EC2 인스턴스를 실행합니다. 회사는 최근 Savings Pian을 구입했습니다. 회사의 비즈니스 요구 사항 변경으로 인해 회사에서는 다수의 EC2 인스턴스를 폐기했습니다. 회사는 다른 AWS 계정에서 Savings Plan 할인을 사용하려고 합니다.
이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (2개를 선택하세요.)
- A. 마스터 계정의 AWS 계정 관리 콘솔에서 청구 기본 설정 섹션에서 할인 공유를 활성화하십시오.
- B. 기존 Savings Plan을 구매한 계정의 AWS 계정 관리 콘솔의 결제 기본 설정 섹션에서 할인 공유를 활성화합니다. 모든 계정을 포함합니다.
- C. AWS Organizations 마스터 계정에서 AWS Resource Access Manager(AWS RAM)를 사용하여 Savings Plan을 다른 계정과 공유합니다.
- D. 새로운 지불자 계정으로 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
- E. 기존 EC2 인스턴스 및 Savings Plan을 사용하여 기존 AWS 계정의 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
- A. 마스터 계정의 AWS 계정 관리 콘솔에서 청구 기본 설정 섹션에서 할인 공유를 활성화하십시오.
- B. 기존 Savings Plan을 구매한 계정의 AWS 계정 관리 콘솔의 결제 기본 설정 섹션에서 할인 공유를 활성화합니다. 모든 계정을 포함합니다.
- C. AWS Organizations 마스터 계정에서 AWS Resource Access Manager(AWS RAM)를 사용하여 Savings Plan을 다른 계정과 공유합니다.
- D. 새로운 지불자 계정으로 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
- E. 기존 EC2 인스턴스 및 Savings Plan을 사용하여 기존 AWS 계정의 AWS Organizations에 조직을 생성합니다. 마스터 계정에서 조직에 가입하도록 다른 AWS 계정을 초대합니다.
나에게 E는 할인이 새로운 지불인에게 적용되고 고객 서비스가 포함되지 않는 한 기존 계정으로 이전될 수 없기 때문에 의미가 없
조직은 관리용으로 예약된 새 계정으로 생성되어야 합니다. 따라서 D 다음에 A가 옵니다(할인 공유는 마스터 계정에서 활성화되어야 함
E가 아님 - 기존 EC2가 있는 계정을 마스터 계정으로 사용한다고 언급합니다. 이는 마스터 계정
마스터 계정에 워크로드를 두는 것은 권장되지 않
D에는 "새 지불자 계정의 AWS 조직에 조직 생성"이 있으므로 잘못되었습니다. D를 제거하십시오
#544
소매 회사는 공개 REST API에 지역 Amazon API Gateway API를 사용합니다. API 게이트웨이 엔드포인트는 Amazon Route 53 별칭 레코드를 가리키는 사용자 지정 도메인 이름입니다. 솔루션 설계자는 새 버전의 API를 출시하기 위해 고객에게 미치는 영향과 데이터 손실을 최소화하는 솔루션을 만들어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. API Gateway용 카나리아 릴리스 배포 단계를 생성합니다. 최신 API 버전을 배포합니다. 적절한 비율의 트래픽을 카나리아 단계로 지정합니다. API 검증 후 카나리아 단계를 프로덕션 단계로 승격합니다.
- B. OpenAPI YAML 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. API Gateway의 API에 병합 모드에서 가져오기-업데이트 작업을 사용합니다. 새 버전의 API를 프로덕션 단계에 배포합니다.
- C. OpenAPI JSON 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 덮어쓰기 모드에서 가져오기-업데이트 작업을 API Gateway의 API에 사용하세요. 새 버전의 API를 프로덕션 단계에 배포합니다.
- D. 새 버전의 API 정의를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 새 API Gateway API에 대한 사용자 지정 도메인 이름을 생성합니다. Route 53 별칭 레코드가 새 API Gateway API 사용자 지정 도메인 이름을 가리키도록 합니다.
- A. API Gateway용 카나리아 릴리스 배포 단계를 생성합니다. 최신 API 버전을 배포합니다. 적절한 비율의 트래픽을 카나리아 단계로 지정합니다. API 검증 후 카나리아 단계를 프로덕션 단계로 승격합니다.
- B. OpenAPI YAML 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. API Gateway의 API에 병합 모드에서 가져오기-업데이트 작업을 사용합니다. 새 버전의 API를 프로덕션 단계에 배포합니다.
- C. OpenAPI JSON 파일 형식의 새 버전의 API를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 덮어쓰기 모드에서 가져오기-업데이트 작업을 API Gateway의 API에 사용하세요. 새 버전의 API를 프로덕션 단계에 배포합니다.
- D. 새 버전의 API 정의를 사용하여 새 API 게이트웨이 엔드포인트를 생성합니다. 새 API Gateway API에 대한 사용자 지정 도메인 이름을 생성합니다. Route 53 별칭 레코드가 새 API Gateway API 사용자 지정 도메인 이름을 가리키도록 합니다.
#545★
회사에서는 회사의 기본 웹사이트를 사용할 수 없는 경우 사용자에게 백업 정적 오류 페이지를 표시하려고 합니다. 기본 웹 사이트의 DNS 레코드는 Amazon Route 53에서 호스팅됩니다. 도메인은 ALB(Application Load Balancer)를 가리키고 있습니다. 회사에는 변경 사항과 인프라 오버헤드를 최소화하는 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
- A. 지연 시간 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트하십시오. 트래픽이 가장 반응이 빠른 엔드포인트로 전송되도록 Amazon S3 버킷에서 호스팅되는 정적 오류 페이지를 레코드에 추가합니다.
- B. Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
- C. 정적 오류 페이지를 엔드포인트로 호스팅하는 Amazon EC2 인스턴스와 ALB를 사용하여 Route 53 활성-활성 구성을 설정합니다. ALB에 대한 상태 확인이 실패한 경우에만 인스턴스에 요청을 보내도록 Route 53을 구성합니다.
- D. 다중 응답 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트합니다. 상태 확인을 만듭니다. 상태 확인을 통과하면 웹사이트로 트래픽을 보냅니다. 상태 확인을 통과하지 못한 경우 Amazon S3에서 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
- A. 지연 시간 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트하십시오. 트래픽이 가장 반응이 빠른 엔드포인트로 전송되도록 Amazon S3 버킷에서 호스팅되는 정적 오류 페이지를 레코드에 추가합니다.
- B. Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
- C. 정적 오류 페이지를 엔드포인트로 호스팅하는 Amazon EC2 인스턴스와 ALB를 사용하여 Route 53 활성-활성 구성을 설정합니다. ALB에 대한 상태 확인이 실패한 경우에만 인스턴스에 요청을 보내도록 Route 53을 구성합니다.
- D. 다중 응답 라우팅 정책을 사용하도록 Route 53 레코드를 업데이트합니다. 상태 확인을 만듭니다. 상태 확인을 통과하면 웹사이트로 트래픽을 보냅니다. 상태 확인을 통과하지 못한 경우 Amazon S3에서 호스팅되는 정적 오류 페이지로 트래픽을 보냅니다.
Route 53 액티브-패시브 장애 조치 구성을 설정합니다. Route 53 상태 확인에서 ALB 엔드포인트가 비정상이라고 판단되면 Amazon S3 버킷에 호스팅되는 정적 오류 페이지로 트래픽을 보냅
#546 ★
최근 회사의 IT 비용을 분석한 결과 백업 비용을 줄여야 할 필요성이 강조되었습니다. 회사의 최고 정보 책임자(CIO)는 온프레미스 백업 인프라를 단순화하고 물리적 백업 테이프의 사용을 제거하여 비용을 절감하려고 합니다. 회사는 온프레미스 백업 애플리케이션 및 워크플로우에 대한 기존 투자를 보존해야 합니다.
솔루션 설계자는 무엇을 추천해야 합니까?
- A. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
- B. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하는 Amazon EFS 파일 시스템을 설정합니다.
- C. iSCSI 인터페이스를 사용하여 백업 애플리케이션과 연결되는 Amazon EFS 파일 시스템을 설정합니다.
- D. iSCSI-VTL(가상 테이프 라이브러리) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
- A. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
- B. NFS 인터페이스를 사용하여 백업 애플리케이션과 연결하는 Amazon EFS 파일 시스템을 설정합니다.
- C. iSCSI 인터페이스를 사용하여 백업 애플리케이션과 연결되는 Amazon EFS 파일 시스템을 설정합니다.
- D. iSCSI-VTL(가상 테이프 라이브러리) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정합니다.
iSCSI-가상 테이프 라이브러리(VTL) 인터페이스를 사용하여 백업 애플리케이션과 연결하도록 AWS Storage Gateway를 설정
#547★
회사에는 여러 위치에 데이터 수집 센서가 있습니다. 데이터 수집 센서는 대량의 데이터를 회사에 스트리밍합니다. 회사는 대용량 스트리밍 데이터를 수집하고 처리하기 위해 AWS에서 플랫폼을 설계하려고 합니다. 솔루션은 확장 가능해야 하며 거의 실시간으로 데이터 수집을 지원해야 합니다. 회사는 향후 보고를 위해 Amazon S3에 데이터를 저장해야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. Amazon Kinesis Data Firehose를 사용하여 스트리밍 데이터를 Amazon S3에 전달하십시오.
- B. AWS Glue를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
- C. AWS Lambda를 사용하여 스트리밍 데이터를 전달하고 Amazon S3에 데이터를 저장합니다.
- D. AWS Database Migration Service(AWS DMS)를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
- A. Amazon Kinesis Data Firehose를 사용하여 스트리밍 데이터를 Amazon S3에 전달하십시오.
- B. AWS Glue를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
- C. AWS Lambda를 사용하여 스트리밍 데이터를 전달하고 Amazon S3에 데이터를 저장합니다.
- D. AWS Database Migration Service(AWS DMS)를 사용하여 스트리밍 데이터를 Amazon S3에 전달합니다.
센서 데이터 = Kinesis
대용량 스트리밍 데이터 = Kinesis B: Glue는 ETL용이지만(S3로 이동해도 괜찮음) 스트리밍용은 아님 C: Lambda에 더 많은 오버헤드 D: 스트리밍 != 데이터 마이그레이션
#548
회사에는 재무, 데이터 분석 및 개발 부서에 대한 별도의 AWS 계정이 있습니다. 비용과 보안 문제로 인해 회사는 각 AWS 계정이 사용할 수 있는 서비스를 제어하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
- A. AWS Systems Manager 템플릿을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스를 제어하십시오.
- B. AWS Organizations의 각 부서에 대한 조직 단위(OU)를 생성합니다. SCP(서비스 제어 정책)를 OU에 연결합니다.
- C. AWS CloudFormation을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스만 자동으로 프로비저닝합니다.
- D. 특정 AWS 서비스의 사용을 관리하고 제어하려면 AWS 계정의 AWS Service Catalog에 제품 목록을 설정합니다
- A. AWS Systems Manager 템플릿을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스를 제어하십시오.
- B. AWS Organizations의 각 부서에 대한 조직 단위(OU)를 생성합니다. SCP(서비스 제어 정책)를 OU에 연결합니다.
- C. AWS CloudFormation을 사용하여 각 부서에서 사용할 수 있는 AWS 서비스만 자동으로 프로비저닝합니다.
- D. 특정 AWS 서비스의 사용을 관리하고 제어하려면 AWS 계정의 AWS Service Catalog에 제품 목록을 설정합니다
#549
한 회사에서 전자상거래 웹사이트를 위한 다중 계층 애플리케이션을 만들었습니다. 웹 사이트는 퍼블릭 서브넷에 있는 Application Load Balancer, 퍼블릭 서브넷의 웹 계층, 프라이빗 서브넷의 Amazon EC2 인스턴스에서 호스팅되는 MySQL 클러스터를 사용합니다. MySQL 데이터베이스는 타사 제공업체가 인터넷에서 호스팅하는 제품 카탈로그 및 가격 정보를 검색해야 합니다. 솔루션 설계자는 운영 오버헤드를 늘리지 않고 보안을 극대화하는 전략을 고안해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
- A. VPC에 NAT 인스턴스를 배포합니다. NAT 인스턴스를 통해 모든 인터넷 기반 트래픽을 라우팅합니다.
- B. 퍼블릭 서브넷에 NAT 게이트웨이를 배포합니다. 모든 인터넷 바인딩 트래픽이 NAT 게이트웨이로 향하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
- C. 인터넷 게이트웨이를 구성하고 이를 프라이빗 서브넷 라우팅 테이블의 VPModify에 연결하여 인터넷 바인딩 트래픽을 인터넷 게이트웨이로 보냅니다.
- D. 가상 프라이빗 게이트웨이를 구성하고 이를 VPC에 연결합니다. 인터넷 바인딩 트래픽을 가상 프라이빗 게이트웨이로 전달하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
- A. VPC에 NAT 인스턴스를 배포합니다. NAT 인스턴스를 통해 모든 인터넷 기반 트래픽을 라우팅합니다.
- B. 퍼블릭 서브넷에 NAT 게이트웨이를 배포합니다. 모든 인터넷 바인딩 트래픽이 NAT 게이트웨이로 향하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
- C. 인터넷 게이트웨이를 구성하고 이를 프라이빗 서브넷 라우팅 테이블의 VPModify에 연결하여 인터넷 바인딩 트래픽을 인터넷 게이트웨이로 보냅니다.
- D. 가상 프라이빗 게이트웨이를 구성하고 이를 VPC에 연결합니다. 인터넷 바인딩 트래픽을 가상 프라이빗 게이트웨이로 전달하도록 프라이빗 서브넷 라우팅 테이블을 수정합니다.
#550★
한 회사는 AWS Key Management Service(AWS KMS) 키를 사용하여 AWS Lambda 환경 변수를 암호화하고 있습니다. 솔루션 설계자는 환경 변수를 해독하고 사용하는 데 필요한 권한이 있는지 확인해야 합니다.
솔루션 설계자는 올바른 권한을 구현하기 위해 어떤 단계를 수행해야 합니까? (2개를 선택하세요.)
- A. Lambda 리소스 정책에 AWS KMS 권한을 추가합니다.
- B. Lambda 실행 역할에 AWS KMS 권한을 추가합니다.
- C. Lambda 함수 정책에 AWS KMS 권한을 추가합니다.
- D. AWS KMS 키 정책에서 Lambda 실행 역할을 허용합니다.
- E. AWS KMS 키 정책에서 Lambda 리소스 정책을 허용합니다.
- A. Lambda 리소스 정책에 AWS KMS 권한을 추가합니다.
- B. Lambda 실행 역할에 AWS KMS 권한을 추가합니다.
- C. Lambda 함수 정책에 AWS KMS 권한을 추가합니다.
- D. AWS KMS 키 정책에서 Lambda 실행 역할을 허용합니다.
- E. AWS KMS 키 정책에서 Lambda 리소스 정책을 허용합니다.
AWS KMS 키 정책에서 Lambda 실행 역할을 허용한 다음 해당 역할에 AWS KMS 권한을 추가합
AWS KMS로 암호화된 환경 변수를 해독하려면 Lambda에 KMS API를 호출할 수 있는 권한을 부여받아야 합니다. 이 작업은 두 곳에서 수행됩니다. Lambda 실행 역할에는 kms:Decrypt 및 kms:GenerateDataKey 권한이 추가되어야 합니다. 실행 역할은 함수 코드가 액세스할 수 있는 AWS 서비스를 제어합니다. KMS 키 정책은 Lambda 실행 역할이 해당 특정 키에 대해 kms:Decrypt 및 kms:GenerateDataKey 권한을 갖도록 허용해야 합니다. 이를 통해 실행 역할이 해당 특정 키를 사용할 수 있습니