일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 프로그래머스
- Python
- PHP8
- Nest
- 파이썬문자열함수
- 파이썬 sorted
- 파이썬 최소공배수
- swagger 데코레이터
- 파이썬 math 라이브러리
- SAA-C03
- 파이썬 정렬
- itertools
- aws자격증가이드
- 파이썬 문자열 함수
- Nest.js
- 프로그래머스 파이썬
- nest swagger 데코레이터
- 파이썬조합
- python sorted
- 파이썬
- 파이썬 프로그래머스
- SAA자격증
- 프로그래머스파이썬
- 프로그래머스파이썬연습문제
- SAA
- nest swagger
- examtopics
- EC2란
- aws
- 프로그래머스 파이썬 문제풀이
- Today
- Total
사진찍는 개발자📸👩💻
[SAA] Examtopics 오답 문제 정리(1-200) 본문
https://www.examtopics.com/exams/amazon/aws-certified-solutions-architect-associate-saa-c03/view/20/
ExamTopics - Biggest Actual IT Exams Database - Validation
Want to Unlock All Questions for this Exam? Full Exam Access, Discussions, No Robots Checks
www.examtopics.com
#6. 한 회사가 NFS를 사용하여 온프레미스 네트워크 연결 스토리지에 대용량 비디오 파일을 저장합니다. 각 비디오 파일의 크기는 1MB에서 500GB까지입니다. 총 스토리지는 70TB이며 더 이상 증가하지 않습니다. 회사는 비디오 파일을 Amazon S3로 마이그레이션하기로 결정했습니다. 회사는 가능한 한 빨리 비디오 파일을 마이그레이션해야 하며 가능한 한 최소한의 네트워크 대역폭을 사용해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. S3 버킷을 만듭니다. S3 버킷에 쓸 수 있는 권한이 있는 IAM 역할을 만듭니다. AWS CLI를 사용하여 모든 파일을 로컬로 S3 버킷에 복사합니다.
B. AWS Snowball Edge 작업을 생성합니다. 온프레미스에서 Snowball Edge 디바이스를 받습니다. Snowball Edge 클라이언트를 사용하여 데이터를 디바이스로 전송합니다. AWS가 데이터를 Amazon S3으로 가져올 수 있도록 디바이스를 반환합니다.
C. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 공용 서비스 엔드포인트를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
D. 온프레미스 네트워크와 AWS 간에 AWS Direct Connect 연결을 설정합니다. 온프레미스에 S3 파일 게이트웨이를 배포합니다. S3 파일 게이트웨이에 연결하기 위한 퍼블릭 가상 인터페이스(VIF)를 생성합니다. S3 버킷을 생성합니다. S3 파일 게이트웨이에 새 NFS 파일 공유를 생성합니다. 새 파일 공유가 S3 버킷을 가리키도록 합니다. 기존 NFS 파일 공유의 데이터를 S3 파일 게이트웨이로 전송합니다.
정답 B
B. Snowball Edge 디바이스에서는 최대 100Gbps의 속도로 파일을 복사할 수 있습니다. 70TB는 약 5600초가 소요되므로 매우 빠른 속도로 2시간도 채 걸리지 않습니다. 단점은 장치를 받는 데 영업일 기준 4~6일이 걸리고 기기를 다시 보내는 데 영업일 기준 2~3일이 더 걸리고 AWS가 데이터가 도착하면 S3로 데이터를 이동한다는 것입니다. 총 시간: 영업일 기준 6-9일. 사용 대역폭 : 0. 다. 파일 게이트웨이는 인터넷을 사용하므로 최대 속도는 최대 1Gbps이므로 최소 6.5일이 소요되며 인터넷 대역폭은 70TB를 사용하게 됩니다.
D. Direct Connect를 사용하면 최대 10Gbps의 속도를 얻을 수 있습니다. 총 시간은 15.5시간이며 70TB의 대역폭을 사용하게 됩니다. 그러나 흥미로운 점은 질문이 어떤 유형의 대역폭을 구체적으로 지정하지 않는다는 것입니다. Direct Connect는 온프레미스와 AWS 클라우드 간에 전용 피어 투 피어 연결을 갖게 되므로 인터넷 대역폭을 사용하지 않으므로 기술적으로는 "공용" 대역폭을 사용하지 않습니다. 요구 사항이 너무 모호하지만 B가 가장 적절한 대답이라고 생각합니다. 하지만 대역폭 사용량이 공용 연결을 엄격하게 참조하는 경우 D도 정확할 수도 있습니다.
#8. 한 회사가 분산 애플리케이션을 AWS로 마이그레이션하고 있습니다. 이 애플리케이션은 가변적인 워크로드를 처리합니다. 레거시 플랫폼은 여러 컴퓨팅 노드에서 작업을 조정하는 기본 서버로 구성됩니다. 이 회사는 복원성과 확장성을 극대화하는 솔루션으로 애플리케이션을 현대화하려고 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떻게 아키텍처를 설계해야 할까요?
A. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업의 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 예약된 스케일링을 사용하도록 EC2 Auto Scaling을 구성합니다.
B. Amazon Simple Queue Service(Amazon SQS) 대기열을 작업의 대상으로 구성합니다. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 컴퓨팅 노드를 구현합니다. 대기열의 크기에 따라 EC2 Auto Scaling을 구성합니다.
C. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스를 사용하여 기본 서버와 컴퓨팅 노드를 구현합니다. AWS CloudTrail을 작업 대상으로 구성합니다. 기본 서버의 로드를 기반으로 EC2 Auto Scaling을 구성합니다.
D. Auto Scaling 그룹에서 관리되는 Amazon EC2 인스턴스로 기본 서버와 컴퓨트 노드를 구현합니다. 작업의 대상으로 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. 컴퓨트 노드의 부하에 따라 EC2 Auto Scaling을 구성합니다.
정답 B
https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-using-sqs-queue.html
Scaling policy based on Amazon SQS - Amazon EC2 Auto Scaling
Scaling policy based on Amazon SQS The following information and steps shows you how to calculate the Amazon SQS queue backlog per instance using the ApproximateNumberOfMessages queue attribute before publishing it as a custom metric to CloudWatch. However
docs.aws.amazon.com
A - 잘못된 답변: 스케줄 스케일링 정책이 의미가 없습니다.
C, D - 잘못된 답변: 기본 서버는 컴퓨트 노드와 동일한 자동 스케일링 그룹에 있어서는 안 됩니다.
B는 정답입니다.
#15. 한 회사가 최근 AWS로 마이그레이션했고 프로덕션 VPC에서 유입되고 유출되는 트래픽을 보호하는 솔루션을 구현하려고 합니다. 이 회사는 온프레미스 데이터 센터에 검사 서버를 두었습니다. 검사 서버는 트래픽 흐름 검사 및 트래픽 필터링과 같은 특정 작업을 수행했습니다. 이 회사는 AWS 클라우드에서 동일한 기능을 원합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 프로덕션 VPC에서 트래픽 검사 및 트래픽 필터링을 위해 Amazon GuardDuty를 사용하십시오.
B. 트래픽 미러링을 사용하여 프로덕션 VPC의 트래픽을 미러링하여 트래픽 검사 및 필터링을 수행합니다.
C. AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
D. AWS Firewall Manager를 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 생성합니다.
정답 C
옵션 C: AWS 네트워크 방화벽을 사용하여 프로덕션 VPC에 대한 트래픽 검사 및 트래픽 필터링에 필요한 규칙을 만드는 것을 권장합니다. AWS 네트워크 방화벽은 인바운드 및 아웃바운드 네트워크 트래픽에 대한 필터링을 제공하는 관리형 방화벽 서비스입니다.
트래픽 검사 및 필터링에 대한 규칙을 만들 수 있어 프로덕션 VPC를 보호하는 데 도움이 될 수 있습니다.
옵션 A: Amazon GuardDuty는 트래픽 검사 또는 필터링 서비스가 아닌 위협 탐지 서비스입니다.
옵션 B: 트래픽 미러링은 VPC에서 다른 VPC 또는 온프레미스 위치로 네트워크 트래픽 사본을 복제하여 보낼 수 있는 기능입니다.트래픽 검사 또는 필터링을 수행하는 서비스가 아닙니다.
옵션 D: AWS Firewall Manager는 계정 전체에서 방화벽을 중앙에서 구성하고 관리하는 데 도움이 되는 보안 관리 서비스입니다.트래픽 검사 또는 필터링을 수행하는 서비스가 아닙니다.
#19. 한 회사에 AWS에 배포된 3계층 웹 애플리케이션이 있습니다. 웹 서버는 VPC의 퍼블릭 서브넷에 배포됩니다. 애플리케이션 서버와 데이터베이스 서버는 동일한 VPC의 프라이빗 서브넷에 배포됩니다. 이 회사는 검사 VPC에 AWS Marketplace의 타사 가상 방화벽 어플라이언스를 배포했습니다. 이 어플라이언스는 IP 패킷을 허용할 수 있는 IP 인터페이스로 구성되어 있습니다.
솔루션 아키텍트는 트래픽이 웹 서버에 도달하기 전에 애플리케이션에 대한 모든 트래픽을 검사하기 위해 웹 애플리케이션을 어플라이언스와 통합해야 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 애플리케이션 VPC의 퍼블릭 서브넷에 Network Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
B. 애플리케이션 VPC의 퍼블릭 서브넷에 Application Load Balancer를 생성하여 패킷 검사를 위해 트래픽을 어플라이언스로 라우팅합니다.
C. 검사 VPC구성 라우팅 테이블에 전송 게이트웨이를 배포하여 전송 게이트웨이를 통해 수신 패킷을 라우팅합니다.
D. 검사 VPC에 게이트웨이 로드 밸런서를 배포합니다. 들어오는 패킷을 수신하고 패킷을 어플라이언스에 전달하기 위한 게이트웨이 로드 밸런서 엔드포인트를 생성합니다.
정답 D
게이트웨이 로드 밸런서를 사용하면 보안 어플라이언스 등의 타사 가상 어플라이언스를 쉽게 배포, 확장 및 관리할 수 있습니다.
#21. 전자상거래 회사가 AWS에서 하루 한 건의 거래 웹사이트를 시작하려고 합니다. 매일 24시간 동안 정확히 한 가지 상품만 판매합니다. 이 회사는 피크 시간대에 밀리초 지연 시간으로 매시간 수백만 건의 요청을 처리할 수 있기를 원합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. Amazon S3를 사용하여 다양한 S3 버킷에서 전체 웹 사이트를 호스팅하십시오. Amazon CloudFront 배포를 추가합니다. S3 버킷을 배포 원본으로 설정합니다. Amazon S3에 주문 데이터를 저장합니다.
B. 여러 가용 영역에 걸쳐 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스에 전체 웹 사이트를 배포합니다. 웹 사이트 트래픽을 분산하려면 ALB(Application Load Balancer)를 추가하세요. 백엔드 API를 위한 또 다른 ALB를 추가합니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
C. 컨테이너에서 실행되도록 전체 애플리케이션을 마이그레이션합니다. Amazon Elastic Kubernetes Service(Amazon EKS)에서 컨테이너를 호스팅합니다. Kubernetes Cluster Autoscaler를 사용하여 트래픽 버스트를 처리할 Pod 수를 늘리거나 줄입니다. MySQL용 Amazon RDS에 데이터를 저장합니다.
D. Amazon S3 버킷을 사용하여 웹 사이트의 정적 콘텐츠를 호스팅합니다. Amazon CloudFront 배포를 배포합니다. S3 버킷을 원본으로 설정합니다. 백엔드 API에는 Amazon API Gateway 및 AWS Lambda 함수를 사용하십시오. Amazon DynamoDB에 데이터를 저장합니다.
정답 D
Option D: 왜냐하면 모든 구성 요소는 무한 확장 가능한 dynamoDB, API Gateway, Lambda 및 물론 s3+cloudfront이기 때문입니다.
#25. 한 회사가 애플리케이션을 설계하고 있습니다. 이 애플리케이션은 AWS Lambda 함수를 사용하여 Amazon API Gateway를 통해 정보를 수신하고 Amazon Aurora PostgreSQL 데이터베이스에 정보를 저장합니다.
개념 증명 단계에서 회사는 데이터베이스에 로드해야 하는 방대한 양의 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다. 솔루션 아키텍트는 확장성을 개선하고 구성 노력을 최소화하기 위해 새로운 디자인을 권장해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon EC2 인스턴스에서 실행되는 Apache Tomcat 코드로 Lambda 함수 코드를 리팩터링합니다. 기본 JDBC(Java Database Connectivity) 드라이버를 사용하여 데이터베이스를 연결합니다.
B. Aurora에서 Amazon DynamoD로 플랫폼을 변경DynamoDB Accelerator(DAX) 클러스터를 프로비저닝합니다. DAX 클라이언트 SDK를 사용하여 기존 DynamoDB API 호출을 DAX 클러스터로 가리킵니다.
C. 두 개의 Lambda 함수를 설정합니다. 한 함수는 정보를 수신하도록 구성합니다. 다른 함수는 정보를 데이터베이스에 로드하도록 구성합니다. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Lambda 함수를 통합합니다.
D. 두 개의 Lambda 함수를 설정합니다. 한 함수는 정보를 수신하도록 구성합니다. 다른 함수는 정보를 데이터베이스에 로드하도록 구성합니다. Amazon Simple Queue Service(Amazon SQS) 대기열을 사용하여 Lambda 함수를 통합합니다.
정답 D
키워드: - 회사는 데이터베이스에 로드해야 하는 방대한 양의 데이터를 처리하기 위해 Lambda 할당량을 크게 늘려야 합니다.
- 확장성을 개선하고 구성 작업을 최소화합니다.
A: 오답 - Lambda는 서버리스이며 자동으로 확장됩니다.- EC2 인스턴스에서 로드 밸런서, 자동 확장 그룹을 만들어야 합니다.. 많은 것들이 있습니다.기본 Java Database Connectivity(JDBC) 드라이버를 사용해도 성능이 향상되지 않습니다.
B: 오답 - 많은 것들이 변경되고 DynamoDB Accelerator는 쓰기가 아닌 캐시(읽기)에 사용됩니다.
C: 오답 - SNS는 알림(이메일, SMS)을 보내는 데 사용됩니다.
D: 정답 - SQS를 사용하면 데이터를 대기열에 넣어 애플리케이션을 잘 확장할 수 있습니다.
#28. 한 회사가 AWS로 애플리케이션을 마이그레이션하고 있습니다. 애플리케이션은 여러 계정에 배포되어 있습니다. 회사는 AWS Organizations를 사용하여 계정을 중앙에서 관리합니다. 회사의 보안 팀은 모든 회사 계정에 걸쳐 Single Sign-On(SSO) 솔루션이 필요합니다. 회사는 온프레미스 자체 관리 Microsoft Active Directory에서 사용자와 그룹을 계속 관리해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory용 AWS Directory Service를 사용하여 단방향 포리스트 트러스트 또는 단방향 도메인 트러스트를 생성하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결합니다.
B. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다. Microsoft Active Directory용 AWS Directory Service를 사용하여 회사의 자체 관리형 Microsoft Active Directory를 AWS SSO와 연결하기 위한 양방향 포리스트 신뢰를 생성합니다.
C. AWS Directory Service를 사용합니다. 회사의 자체 관리 Microsoft Active Directory와 양방향 신뢰 관계를 만듭니다.
D. 온프레미스에 ID 공급자(IdP)를 배포합니다. AWS SSO 콘솔에서 AWS Single Sign-On(AWS SSO)을 활성화합니다.
정답 B
B:정답 - AWS SSO는 양방향 신뢰가 필요합니다.
설명서에 따르면 Amazon Chime, Amazon Connect, Amazon QuickSight, AWS IAM Identity Center(AWS Single Sign-On의 후속 버전), Amazon WorkDocs, Amazon WorkMail, Amazon WorkSpaces, AWS Management Console과 같은 AWS Enterprise Apps에는 양방향 신뢰가 필요합니다.
AWS Managed Microsoft AD는 자체 관리 AD의 사용자와 그룹을 쿼리할 수 있어야 합니다. Amazon EC2, Amazon RDS, Amazon FSx는 단방향 또는 양방향 신뢰로 작동합니다.
#29. 한 회사에서 UDP 연결을 사용하는 VoIP(Voice over Internet Protocol) 서비스를 제공합니다. 이 서비스는 Auto Scaling 그룹에서 실행되는 Amazon EC2 인스턴스로 구성됩니다. 이 회사는 여러 AWS 지역에 배포되어 있습니다.
회사는 사용자를 지연 시간이 가장 짧은 지역으로 라우팅해야 합니다. 회사에는 지역 간 자동화된 장애 조치도 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. 네트워크 로드 밸런서(NLB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 NLB를 AWS Global Accelerator 엔드포인트로 사용합니다.
B. Application Load Balancer(ALB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 리전에서 ALB를 AWS Global Accelerator 엔드포인트로 사용합니다.
C. NLB(Network Load Balancer) 및 관련 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 NLB의 별칭을 가리키는 Amazon Route 53 지연 시간 레코드를 생성합니다. 지연 시간 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 생성합니다.
D. Application Load Balancer(ALB)와 연관된 대상 그룹을 배포합니다. 대상 그룹을 Auto Scaling 그룹과 연결합니다. 각 ALB에 대한 별칭을 가리키는 Amazon Route 53 가중 레코드를 만듭니다. 가중 레코드를 오리진으로 사용하는 Amazon CloudFront 배포를 배포합니다.
정답 A
A:정답 - Global Accelerator는 게임(UDP), IoT(MQTT) 또는 VoIP(Voice over IP)와 같은 HTTP가 아닌 사용 사례뿐만 아니라 특별히 고정 IP 주소나 결정적이고 빠른 지역적 지역이 필요한 HTTP 사용 사례에도 적합합니다. 장애 조치. 두 서비스 모두 DDoS 보호를 위해 AWS Shield와 통합됩니다.
#33. 한 회사가 AWS에서 온라인 마켓플레이스 웹 애플리케이션을 실행하고 있습니다. 이 애플리케이션은 피크 시간 동안 수십만 명의 사용자에게 서비스를 제공합니다. 회사에는 수백만 건의 금융 거래 세부 정보를 여러 다른 내부 애플리케이션과 공유하기 위해 확장 가능하고 실시간에 가까운 솔루션이 필요합니다. 또한 짧은 지연 시간의 검색을 위해 문서 데이터베이스에 저장되기 전에 민감한 데이터를 제거하기 위해 트랜잭션을 처리해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 무엇을 권장해야 합니까?
A. 거래 데이터를 Amazon DynamoDB에 저장합니다. DynamoDB에 규칙을 설정하여 쓰기 시 모든 거래에서 민감한 데이터를 제거합니다. DynamoDB Streams를 사용하여 거래 데이터를 다른 애플리케이션과 공유합니다.
B. 트랜잭션 데이터를 Amazon Kinesis Data Firehose로 스트리밍하여 Amazon DynamoDB 및 Amazon S3에 데이터를 저장합니다. Kinesis Data Firehose와 AWS Lambda 통합을 사용하여 민감한 데이터를 제거하십시오. 다른 애플리케이션은 Amazon S3에 저장된 데이터를 사용할 수 있습니다.
C. 트랜잭션 데이터를 Amazon Kinesis Data Streams로 스트리밍합니다. AWS Lambda 통합을 사용하여 모든 트랜잭션에서 중요한 데이터를 제거한 다음 Amazon DynamoDB에 트랜잭션 데이터를 저장합니다. 다른 애플리케이션은 Kinesis 데이터 스트림에서 트랜잭션 데이터를 사용할 수 있습니다.
D. 일괄 처리된 트랜잭션 데이터를 Amazon S3에 파일로 저장합니다. Amazon S3에서 파일을 업데이트하기 전에 AWS Lambda를 사용하여 모든 파일을 처리하고 민감한 데이터를 제거하십시오. 그런 다음 Lambda 함수는 Amazon DynamoDB에 데이터를 저장합니다. 다른 애플리케이션은 Amazon S3에 저장된 트랜잭션 파일을 사용할 수 있습니다.
정답 C
C: 정답 - 까다로운 문구는 "거의 실시간 솔루션"으로, Firehouse를 가리키지만 DynamoDB로 데이터를 전송할 수 없으므로 최상의 옵션으로 C가 남습니다. Kinesis Data Firehose는 현재 Amazon S3, Amazon Redshift, Amazon OpenSearch Service, Splunk, Datadog, NewRelic, Dynatrace, Sumologic, LogicMonitor, MongoDB, HTTP End Point를 대상으로 지원합니다. https://aws.amazon.com/kinesis/data-firehose/faqs/#:~:text=Kinesis%20Data%20Firehose%20currently%20supports,HTTP%20End%20Point%20as%20destinations.
Amazon Data Firehose FAQ - 스트리밍 데이터 파이프라인 - Amazon Web Services
aws.amazon.com
#36. 한 회사가 AWS 클라우드에 애플리케이션을 구축하고 있습니다. 애플리케이션은 두 AWS 지역의 Amazon S3 버킷에 데이터를 저장합니다. 회사는 AWS Key Management Service(AWS KMS) 고객 관리형 키를 사용하여 S3 버킷에 저장된 모든 데이터를 암호화해야 합니다. 두 S3 버킷의 데이터는 동일한 KMS 키를 사용하여 암호화 및 해독되어야 합니다. 데이터와 키는 두 리전에 각각 저장되어야 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 각 리전에 S3 버킷을 생성합니다. Amazon S3 관리형 암호화 키(SSE-S3)와 함께 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
B. 고객 관리형 다중 지역 KMS 키를 만듭니다. 각 지역에 S3 버킷을 만듭니다. S3 버킷 간 복제를 구성합니다. 클라이언트 측 암호화와 함께 KMS 키를 사용하도록 애플리케이션을 구성합니다.
C. 각 리전에서 고객 관리 KMS 키와 S3 버킷을 만듭니다. Amazon S3 관리 암호화 키(SSE-S3)를 사용하여 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간 복제를 구성합니다.
D. 각 리전에 고객 관리형 KMS 키와 S3 버킷을 생성합니다. AWS KMS 키(SSE-KMS)로 서버 측 암호화를 사용하도록 S3 버킷을 구성합니다. S3 버킷 간의 복제를 구성합니다.
정답 B
B: 정답 - KMS 다중 지역 키가 필요합니다.
https://docs.aws.amazon.com/kms/latest/developerguide/multi-region-keys-overview.html
#42. 한 회사가 단일 VPC의 Amazon EC2 인스턴스에서 고가용성 이미지 처리 애플리케이션을 실행합니다. EC2 인스턴스는 여러 가용성 영역에 걸쳐 여러 서브넷 내에서 실행됩니다. EC2 인스턴스는 서로 통신하지 않습니다. 그러나 EC2 인스턴스는 Amazon S3에서 이미지를 다운로드하고 단일 NAT 게이트웨이를 통해 Amazon S3에 이미지를 업로드합니다. 이 회사는 데이터 전송 요금에 대해 우려하고 있습니다.
이 회사가 지역 데이터전송 요금을 피하는 가장 비용 효율적인 방법은 무엇입니까?
A. 각 가용성 영역에서 NAT 게이트웨이를 시작합니다.
B. NAT 게이트웨이를 NAT 인스턴스로 교체합니다.
C. Amazon S3용 게이트웨이 VPC 엔드포인트를 배포합니다.
D. EC2 인스턴스를 실행하기 위해 EC2 전용 호스트를 프로비저닝합니다.
정답 C
C: 정답 - Amazon S3용 게이트웨이 VPC 엔드포인트를 배포하는 것은 회사가 지역 데이터 전송 요금을 피할 수 있는 가장 비용 효율적인 방법입니다.
게이트웨이 VPC를 사용하면 공용 인터넷을 통하지 않고 S3에 직접 액세스할 수 있습니다.
게이트웨이 VPC 엔드포인트를 통한 VPC와 서비스 간의 데이터 전송은 무료이지만, 인터넷 게이트웨이 또는 NAT 장치를 통한 VPC와 인터넷 간의 데이터 전송에는 데이터 전송 요금이 부과됩니다.
게이트웨이 VPC 엔드포인트를 사용하면 회사는 Amazon S3에 액세스하기 위해 NAT 게이트웨이를 통해 데이터를 전송할 필요가 없으므로 데이터 전송 비용을 줄일 수 있습니다.
이 옵션은 Amazon S3에 필요한 연결을 제공하고 데이터 전송 비용을 최소화합니다.
#46. 한 회사에 매장에 마케팅 서비스를 제공하는 애플리케이션이 있습니다. 이 서비스는 매장 고객의 이전 구매 내역을 기반으로 합니다. 매장은 SFTP를 통해 거래 데이터를 회사에 업로드하고, 이 데이터는 처리 및 분석되어 새로운 마케팅 제안을 생성합니다. 일부 파일은 크기가 200GB를 초과할 수 있습니다.
최근 이 회사는 일부 매장에서 개인 식별 정보(PII)가 포함된 파일을 업로드했다는 사실을 발견했습니다. 이 회사는 PII가 다시 공유되면 관리자에게 알림을 보내고 싶어합니다. 이 회사는 또한 수정을 자동화하려고 합니다.
솔루션 아키텍트는 최소한의 개발 노력으로 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?
A. Amazon S3 버킷을 안전한 전송 지점으로 사용하십시오. Amazon Inspector를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함된 경우 S3 수명 주기 정책을 트리거하여 PII가 포함된 객체를 제거합니다.
B. Amazon S3 버킷을 보안 전송 지점으로 사용하십시오. Amazon Macie를 사용하여 버킷의 객체를 스캔합니다. 객체에 PII가 포함되어 있는 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 보냅니다.
C. AWS Lambda 함수에서 사용자 지정 스캐닝 알고리즘을 구현합니다. 객체가 버킷에 로드될 때 함수를 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Notification Service(Amazon SNS)를 사용하여 관리자에게 PII가 포함된 객체를 제거하라는 알림을 트리거합니다.
D. AWS Lambda 함수에서 사용자 지정 검색 알고리즘을 구현합니다. 객체가 버킷에 로드되면 기능을 트리거합니다. 객체에 PII가 포함된 경우 Amazon Simple Email Service(Amazon SES)를 사용하여 관리자에게 알림을 보내고 S3 수명 주기 정책을 트리거하여 PII가 포함된 고기를 제거하십시오.
정답 B
B: 정답 - Amazon Macie는 머신 러닝(ML)과 패턴 매칭을 사용하여 민감한 데이터를 발견하고 보호하는 데이터 보안 및 데이터 개인 정보 보호 서비스입니다.
#48. 한 회사의 웹사이트는 항목 카탈로그에 Amazon EC2 인스턴스 스토어를 사용합니다. 이 회사는 카탈로그가 고가용성이고 내구성 있는 위치에 저장되도록 하려고 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 할까요?
A. 카탈로그를 Redis용 Amazon ElastiCache로 이동합니다.
B. 더 큰 인스턴스 스토어를 갖춘 더 큰 EC2 인스턴스를 배포합니다.
C. 인스턴스 스토어에서 Amazon S3 Glacier Deep Archive로 카탈로그를 이동합니다.
D. 카탈로그를 Amazon Elastic File System(Amazon EFS) 파일 시스템으로 이동합니다.
정답 D
D: 정답 - 키워드는 "내구성" 위치 A이고 B는 임시 스토리지입니다. C는 영원히 소요되므로 HA가 아니므로 D가 남습니다.
#50. 한 회사에 1,000개의 Amazon EC2 Linux 인스턴스에서 실행되는 프로덕션 워크로드가 있습니다. 워크로드는 타사 소프트웨어로 구동됩니다. 이 회사는 중요한 보안 취약성을 해결하기 위해 가능한 한 빨리 모든 EC2 인스턴스에서 타사 소프트웨어를 패치해야 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 모든 EC2 인스턴스에 패치를 적용하기 위해 AWS Lambda 함수를 생성합니다.
B. AWS Systems Manager Patch Manager를 구성하여 모든 EC2 인스턴스에 패치를 적용합니다.
C. 모든 EC2 인스턴스에 패치를 적용하도록 AWS 시스템 관리자 유지 관리 기간을 예약합니다.
D. AWS 시스템 관리자 Run Command를 사용하여 모든 EC2 인스턴스에 패치를 적용하는 사용자 지정 명령을 실행합니다.
정답 D
키워드 - 가능한 한 빨리
B: 오답 - 효율적이고 신뢰할 수 있는 옵션
D: 정답 - 속도와 즉각적인 실행
#54. 한 회사가 AWS에서 여러 Windows 워크로드를 실행합니다. 이 회사의 직원은 두 개의 Amazon EC2 인스턴스에 호스팅된 Windows 파일 공유를 사용합니다. 이 파일 공유는 서로 간에 데이터를 동기화하고 중복된 사본을 유지합니다. 이 회사는 사용자가 현재 파일에 액세스하는 방식을 보존하는 고가용성 및 내구성 있는 스토리지 솔루션을 원합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 모든 데이터를 Amazon S3로 마이그레이션합니다. 사용자가 파일에 액세스할 수 있도록 IAM 인증을 설정합니다.
B. Amazon S3 파일 게이트웨이를 설정합니다. 기존 EC2 인스턴스에 S3 파일 게이트웨이를 탑재합니다.
C. Multi-AZ 구성을 사용하여 Amazon FSx for Windows File Server로 파일 공유 환경을 확장합니다. 모든 데이터를 FSx for Windows File Server로 마이그레이션합니다.
D. 다중 AZ 구성을 사용하여 파일 공유 환경을 Amazon Elastic File System(Amazon EFS)으로 확장합니다. 모든 데이터를 Amazon EFS로 마이그레이션합니다.
정답 C
C - 정답: EFS는 Windows 인스턴스에서 지원되지 않습니다. https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/AmazonEFS.html Amazon FSx for Windows File Server는 완전한 네이티브 Windows 파일 시스템에 의해 지원되는 완벽하게 관리되는 Microsoft Windows 파일 서버를 제공합니다. https://docs.aws.amazon.com/fsx/latest/WindowsGuide/what-is.html
#63. 한 회사가 AWS에서 인프라를 운영하고 있으며 문서 관리 애플리케이션에 등록된 사용자 수가 700,000명입니다. 이 회사는 대용량 .pdf 파일을 .jpg 이미지 파일로 변환하는 제품을 만들려고 합니다. .pdf 파일의 평균 크기는 5MB입니다. 이 회사는 원본 파일과 변환된 파일을 저장해야 합니다. 솔루션 아키텍트는 시간이 지남에 따라 빠르게 증가할 수요를 수용할 수 있는 확장 가능한 솔루션을 설계해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. .pdf 파일을 Amazon S3에 저장합니다. 파일을 .jpg 형식으로 변환하고 Amazon S3에 다시 저장하는 AWS Lambda 함수를 호출하도록 S3 PUT 이벤트를 구성합니다.
B. .pdf 파일을 Amazon DynamoD에 저장합니다. DynamoDB Streams 기능을 사용하여 AWS Lambda 함수를 호출하여 파일을 .jpg 형식으로 변환하고 다시 DynamoDB에 저장합니다.
C. Amazon EC2 인스턴스, Amazon Elastic Block Store(Amazon EBS) 스토리지 및 Auto Scaling 그룹을 포함하는 AWS Elastic Beanstalk 애플리케이션에 .pdf 파일을 업로드합니다. EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. .pdf 파일과 .jpg 파일을 EBS 스토어에 저장합니다.
D. Amazon EC2 인스턴스, Amazon Elastic File System(Amazon EFS) 스토리지, Auto Scaling 그룹이 포함된 AWS Elastic Beanstalk 애플리케이션에 .pdf 파일을 업로드합니다. EC2 인스턴스의 프로그램을 사용하여 파일을 .jpg 형식으로 변환합니다. EBS 스토어에 .pdf 파일과 .jpg 파일을 저장합니다.
정답 A
A - 정답. Lambda와 S3의 확장 가능하고 비용 효율적인 저장소를 활용합니다.Lambda를 사용하면 파일 변환 중에 사용된 실제 컴퓨팅 시간에 대해서만 비용을 지불하고 S3는 .pdf 파일과 .jpg 파일 모두에 대해 내구성 있고 확장 가능한 저장소를 제공합니다.S3 PUT 이벤트는 Lambda가 변환을 수행하도록 트리거하여 인프라와 확장을 관리할 필요성을 없애므로 이 시나리오에 가장 비용 효율적인 솔루션입니다.
B - 오답. DynamoDB를 사용하여 대용량 .pdf 파일을 저장하고 처리하는 것은 DynamoDB와 관련된 저장 및 처리량 비용으로 인해 비용 효율적이지 않습니다.
C - 오답. EC2 및 EBS 저장소와 함께 Elastic Beanstalk를 사용하는 것은 효과적일 수 있지만 가장 비용 효율적인 솔루션은 아닐 수 있습니다.기본 인프라를 관리하고 수동으로 확장해야 합니다.
D - 오답. C와 유사하게 EC2 및 EFS 저장소와 함께 Elastic Beanstalk를 사용하는 것은 효과적일 수 있지만 가장 비용 효율적인 솔루션은 아닐 수 있습니다.EFS는 공유 파일 저장소 서비스이며 특히 수요와 파일 크기가 증가함에 따라 변환 프로세스에 최적의 성능을 제공하지 못할 수 있습니다.
#66. 한 회사에 각각 크기가 약 5MB인 많은 수의 파일을 생성하는 애플리케이션이 있습니다. 파일은 Amazon S3에 저장됩니다. 회사 정책에 따라 파일은 삭제되기 전에 4년 동안 저장되어야 합니다. 파일에는 재생산이 쉽지 않은 중요한 비즈니스 데이터가 포함되어 있으므로 즉각적인 접근성이 항상 필요합니다. 파일은 객체 생성 후 처음 30일 동안 자주 액세스되지만 처음 30일 이후에는 거의 액세스되지 않습니다.
가장 비용 효율적인 스토리지 솔루션은 무엇입니까?
A. 객체 생성 후 30일이 지나면 S3 Standard에서 S3 Glacier로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다. 가장 많이 투표된
B. S3 Standard에서 S3 One Zone-Infrequent Access(S3 One Zone-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 객체 생성 후 30일 동안 만듭니다. 객체 생성 후 4년 후에 파일을 삭제합니다.
C. 객체 생성 후 30일 동안 S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 이동하는 S3 버킷 수명 주기 정책을 생성합니다. 객체 생성 후 4년이 지나면 파일을 삭제합니다.
D. S3 Standard에서 S3 Standard-Infrequent Access(S3 Standard-IA)로 파일을 객체 생성 후 30일 후에 이동하는 S3 버킷 수명 주기 정책을 만듭니다. 객체 생성 후 4년 후에 파일을 S3 Glacier로 이동합니다.
정답 C
C- 정답. 파일에 재현하기 쉽지 않은 중요한 비즈니스 데이터가 포함되어 있으므로 즉각적인 접근성이 항상 필요합니다. 그들이 Glacier Instant Retrieval을 사용하고 있다고 명시적으로 언급하지 않으면 Glacier -> 다음을 사용한다고 가정해야 합니다. 검색하는 데 더 많은 시간이 걸리고 요구 사항을 충족하지 못할 수 있습니다.
#68. 솔루션 아키텍트가 회사의 온프레미스 인프라를 AWS로 확장하기 위해 새로운 하이브리드 아키텍처를 설계하고 있습니다. 이 회사는 AWS 리전에 대한 일관된 낮은 지연 시간을 가진 고가용성 연결이 필요합니다. 이 회사는 비용을 최소화해야 하며 기본 연결이 실패할 경우 더 느린 트래픽을 허용할 의향이 있습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 리전에 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업으로 VPN 연결을 프로비저닝합니다.
B. 개인 연결을 위해 리전에 VPN 터널 연결을 프로비저닝합니다. 개인 연결을 위해 두 번째 VPN 터널을 프로비저닝하고 기본 VPN 연결이 실패할 경우 백업으로 사용합니다.
C. 리전에 AWS Direct Connect 연결을 프로비저닝합니다. 기본 Direct Connect 연결이 실패할 경우 백업으로 동일한 리전에 두 번째 Direct Connect 연결을 프로비저닝합니다.
D. 리전에 AWS Direct Connect 연결을 프로비저닝합니다. AWS CLI에서 Direct Connect 장애 조치 속성을 사용하여 기본 Direct Connect 연결이 실패할 경우 자동으로 백업 연결을 만듭니다.
정답 A
낮은 지연 시간 + 비용 최소화 + 기본이 실패할 경우 허용 가능한 느린 트래픽
A - 정답: 직접 연결 + 백업
B - 오답: VPN 터널이 느릴 것입니다
C - 오답: 2개의 직접 연결은 비쌀 것입니다
D - 오답: 백업 연결은 무엇을 위한 것입니까?
#73. 한 회사는 최근 프라이빗 서브넷의 Amazon EC2에서 Linux 기반 애플리케이션 인스턴스를 시작하고 VPC의 퍼블릭 서브넷에 있는 Amazon EC2 인스턴스에서 Linux 기반 배스천 호스트를 시작했습니다. 솔루션 설계자는 회사의 인터넷 연결을 통해 온프레미스 네트워크에서 배스천 호스트 및 애플리케이션 서버에 연결해야 합니다. 솔루션 아키텍트는 모든 EC2 인스턴스의 보안 그룹이 해당 액세스를 허용하는지 확인해야 합니다.
솔루션 설계자는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 수행해야 합니까? (2개를 선택하세요.)
A. 배스천 호스트의 현재 보안 그룹을 애플리케이션 인스턴스의 인바운드 액세스만 허용하는 보안 그룹으로 교체합니다.
B. 요새 호스트의 현재 보안 그룹을 회사의 내부 IP 범위에서만 인바운드 액세스를 허용하는 보안 그룹으로 바꿉니다.
C. 배스천 호스트의 현재 보안 그룹을 회사 외부 IP 범위의 인바운드 액세스만 허용하는 보안 그룹으로 교체합니다.
D. 애플리케이션 인스턴스의 현재 보안 그룹을 배스천 호스트의 개인 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 교체합니다.
E. 애플리케이션 인스턴스의 현재 보안 그룹을 배스천 호스트의 공용 IP 주소에서만 인바운드 SSH 액세스를 허용하는 보안 그룹으로 바꿉니다.
정답 C, D
C: 온프레미스 네트워크에서 인터넷을 통해 배스천으로(온프레미스 리소스의 공개 IP 사용)
D: 배스천과 EC2가 동일한 VPC에 있으므로 배스천이 개인 IP 주소를 통해 EC2와 통신할 수 있기 때문입니다.
#75. 한 회사는 애플리케이션의 성능을 향상시키기 위해 다중 계층 애플리케이션을 온프레미스에서 AWS 클라우드로 이동하려고 합니다. 애플리케이션은 RESTful 서비스를 통해 서로 통신하는 애플리케이션 계층으로 구성됩니다. 한 계층이 과부하되면 트랜잭션이 삭제됩니다. 솔루션 설계자는 이러한 문제를 해결하고 애플리케이션을 현대화하는 솔루션을 설계해야 합니다.
이러한 요구 사항을 충족하고 운영상 가장 효율적인 솔루션은 무엇입니까?
A. Amazon API Gateway를 사용하고 AWS Lambda 함수를 애플리케이션 계층으로 직접 트랜잭션을 수행하십시오. Amazon Simple Queue Service(Amazon SQS)를 애플리케이션 서비스 간의 통신 계층으로 사용합니다.
B. Amazon CloudWatch 지표를 사용하여 애플리케이션 성능 내역을 분석하여 성능 실패 중 서버의 최대 사용률을 확인합니다. 최대 요구 사항을 충족하도록 애플리케이션 서버의 Amazon EC2 인스턴스 크기를 늘립니다.
C. Amazon Simple Notification Service(Amazon SNS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SNS 대기열 길이를 모니터링하고 필요에 따라 확장 및 축소합니다.
D. Amazon Simple Queue Service(Amazon SQS)를 사용하여 Auto Scaling 그룹의 Amazon EC2에서 실행되는 애플리케이션 서버 간의 메시징을 처리합니다. Amazon CloudWatch를 사용하여 SQS 대기열 길이를 모니터링하고 통신 오류가 감지되면 확장합니다.
정답 A
A - 정답: 최소 운영 오버헤드 = API 게이트웨이 + Lambda + SQS
B, C - 잘못된 애플리케이션
D - 오답: 작동하지만 장애에 대한 복원력이 낮고 A보다 운영 오버헤드가 더 많습니다.
#77. 회사는 해당 애플리케이션에 대한 실시간 데이터 수집 아키텍처를 구성해야 합니다. 회사에는 데이터가 스트리밍됨에 따라 데이터를 변환하는 프로세스인 API와 데이터를 위한 스토리지 솔루션이 필요합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon Kinesis 데이터 스트림으로 데이터를 전송하는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 Amazon S3로 데이터를 보냅니다.
B. AWS Glue로 데이터를 보내는 API를 호스팅하기 위해 Amazon EC2 인스턴스를 배포합니다. EC2 인스턴스에 대한 소스/대상 확인을 중지합니다. AWS Glue를 사용하여 데이터를 변환하고 Amazon S3로 데이터를 보냅니다.
C. Amazon Kinesis 데이터 스트림으로 데이터를 보내도록 Amazon API Gateway API를 구성합니다. Kinesis 데이터 스트림을 데이터 소스로 사용하는 Amazon Kinesis Data Firehose 전송 스트림을 생성합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. Kinesis Data Firehose 전송 스트림을 사용하여 데이터를 Amazon S3로 보냅니다.
D. Amazon API Gateway API를 구성하여 AWS Glue로 데이터를 전송합니다. AWS Lambda 함수를 사용하여 데이터를 변환합니다. AWS Glue를 사용하여 데이터를 Amazon S3로 전송합니다.
정답 C
A - 오답. API를 호스팅하기 위해 EC2 인스턴스를 배포할 필요가 없습니다. - 운영 오버헤드
B - 오답. A와 동일합니다
C - 정답.
D - 오답. AWS Glue는 S3에서 데이터를 가져옵니다. API GW가 아닙니다. AWS Glue는 자체적으로 ETL을 수행할 수 있으므로 람다가 필요하지 않습니다. 말이 안 돼요. https://aws.amazon.com/glue/
서버리스 데이터 통합 - AWS Glue - Amazon Web Services
공급업체 종속 없이 ETL, ELT, 배치, 스트리밍 등을 유연하게 지원합니다.
aws.amazon.com
#80. 한 회사가 최근 애플리케이션 마이그레이션 이니셔티브에 대한 지원을 위해 AWS 관리 서비스 공급자(MSP) 파트너와 계약을 체결했습니다. 솔루션 아키텍트는 기존 AWS 계정의 Amazon Machine Image(AMI)를 MSP 파트너의 AWS 계정과 공유해야 합니다. AMI는 Amazon Elastic Block Store(Amazon EBS)에서 지원하며 AWS Key Management Service(AWS KMS) 고객 관리 키를 사용하여 EBS 볼륨 스냅샷을 암호화합니다.
솔루션 아키텍트가 MSP 파트너의 AWS 계정과 AMI를 공유하는 가장 안전한 방법은 무엇입니까?
A. 암호화된 AMI와 스냅샷을 공개적으로 사용할 수 있도록 하십시오. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다.
B. AMI의 launchPermission 속성을 수정합니다. AMI를 MSP 파트너의 AWS 계정과만 공유하십시오. MSP 파트너의 AWS 계정이 키를 사용할 수 있도록 키 정책을 수정합니다.
C. AMI의 launchPermission 속성을 수정합니다. AMI를 MSP 파트너의 AWS 계정과만 공유합니다. 암호화를 위해 MSP 파트너가 소유한 새 KMS 키를 신뢰하도록 키 정책을 수정합니다.
D. 원본 계정의 AMI를 MSP 파트너 AWS 계정의 Amazon S3 버킷으로 내보내고 MSP 파트너가 소유한 새 KMS 키로 S3 버킷을 암호화합니다. MSP 파트너의 AWS 계정에서 AMI를 복사하고 시작합니다.
정답 B
B - 정답. AMI의 launchPermission 속성을 수정합니다. 솔루션 아키텍트가 AMI를 MSP 파트너의 AWS 계정과 공유하는 가장 안전한 방법은 AMI의 launchPermission 속성을 수정하여 MSP 파트너의 AWS 계정과만 공유하는 것입니다.
키 정책도 수정하여 MSP 파트너의 AWS 계정에서 키를 사용할 수 있도록 해야 합니다. 이렇게 하면 AMI가 MSP 파트너와만 공유되고 사용 권한이 있는 키로 암호화됩니다.
#84. 한 회사는 기존 3계층 웹 아키텍처의 비용을 절감하려고 합니다. 웹, 애플리케이션 및 데이터베이스 서버는 개발, 테스트 및 프로덕션 환경을 위해 Amazon EC2 인스턴스에서 실행됩니다. EC2 인스턴스는 피크 시간 동안 평균 30% CPU 사용률을 보이고, 피크 시간이 아닌 동안에는 10% CPU 사용률을 나타냅니다.
프로덕션 EC2 인스턴스는 하루 24시간 실행됩니다. 개발 및 테스트 EC2 인스턴스는 매일 최소 8시간 동안 실행됩니다. 회사는 EC2 인스턴스를 사용하지 않을 때 개발을 중단하고 테스트하는 자동화를 구현할 계획입니다.
어떤 EC2 인스턴스 구매 솔루션이 회사의 요구 사항을 가장 비용 효율적으로 충족합니까?
A. 프로덕션 EC2 인스턴스에는 Spot Instances를 사용합니다. 개발 및 테스트 EC2 인스턴스에는 Reserved Instances를 사용합니다.
B. 프로덕션 EC2 인스턴스에는 예약 인스턴스를 사용합니다. 개발 및 테스트 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다.
C. 프로덕션 EC2 인스턴스에는 Spot 블록을 사용합니다. 개발 및 테스트 EC2 인스턴스에는 Reserved Instances를 사용합니다.
D. 프로덕션 EC2 인스턴스에는 온디맨드 인스턴스를 사용합니다. EC2 인스턴스 개발 및 테스트를 위해 스팟 블록을 사용합니다.
정답 B
옵션 A, C: 프로덕션 워크로드는 스팟 인스턴스에서 실행되어서는 안 됩니다.
옵션 D: 프로덕션의 경우 온디맨드 스팟 블록을 더 이상 사용할 수 없으므로 예약 인스턴스와 비교하여 절감할 수 없습니다.
따라서 정답은 B입니다.
#92. 한 회사가 Amazon S3 버킷에 민감한 사용자 정보를 저장하고 있습니다. 이 회사는 VPC 내부의 Amazon EC2 인스턴스에서 실행되는 애플리케이션 계층에서 이 버킷에 대한 보안 액세스를 제공하려고 합니다.
솔루션 아키텍트는 이를 달성하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)
A. VPC 내에서 Amazon S3에 대한 VPC 게이트웨이 엔드포인트를 구성합니다.
B. S3 버킷의 객체를 공개하는 버킷 정책을 생성합니다.
C. VPC에서 실행되는 애플리케이션 계층에만 액세스를 제한하는 버킷 정책을 만듭니다.
D. S3 액세스 정책을 사용하여 IAM 사용자를 생성하고 IAM 자격 증명을 EC2 인스턴스에 복사합니다.
E. NAT 인스턴스를 생성하고 EC2 인스턴스가 NAT 인스턴스를 사용하여 S3 버킷에 액세스하도록 합니다.
정답 A, C
A: S3에 액세스하기 위한 직접 연결(공개 인터넷 없음)을 위한 VPC S3 게이트웨이
B: 대중에게 개방
C: 액세스를 보호하고 VPC 애플리케이션 계층만 액세스하도록 허용하는 버킷 정책
D: 자격 증명을 복사하는 데 안전하지 않음
E: NAT 인스턴스(현재는 사용되지 않음)는 리소스 액세스를 제한하는 데 유용하지 않으며 서브넷 연결에 사용됨
#93. 회사는 MySQL 데이터베이스를 기반으로 하는 온프레미스 애플리케이션을 실행합니다. 회사는 애플리케이션의 탄력성과 가용성을 높이기 위해 애플리케이션을 AWS로 마이그레이션하고 있습니다.
현재 아키텍처에서는 정상 작동 중에 데이터베이스에 대한 읽기 활동이 많이 발생합니다. 4시간마다 회사의 개발 팀은 프로덕션 데이터베이스의 전체 내보내기를 가져와서 준비 환경의 데이터베이스를 채웁니다. 이 기간 동안 사용자는 허용할 수 없는 애플리케이션 지연 시간을 경험합니다. 개발팀은 절차가 완료될 때까지 스테이징 환경을 사용할 수 없습니다.
솔루션 설계자는 애플리케이션 대기 시간 문제를 완화하는 대체 아키텍처를 권장해야 합니다. 또한 대체 아키텍처는 개발 팀이 지체 없이 스테이징 환경을 계속 사용할 수 있는 능력을 제공해야 합니다.
이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
B. 프로덕션에는 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용하십시오. 데이터베이스 복제를 사용하여 필요에 따라 준비 데이터베이스를 만듭니다.
C. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. 스테이징 데이터베이스에는 대기 인스턴스를 사용합니다.
D. 다중 AZ 배포와 함께 MySQL용 Amazon RDS를 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 준비 데이터베이스를 채웁니다.
정답 B
A - 오답: 프로덕션을 위해 다중 AZ Aurora 복제본과 함께 Amazon Aurora MySQL을 사용합니다. mysqldump 유틸리티를 사용하여 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채우는 것은 프로덕션 데이터베이스의 전체 내보내기를 포함하기 때문에 권장되는 솔루션이 아니며, 이는 허용할 수 없는 애플리케이션 지연을 초래할 수 있습니다.
B - 정답. 프로덕션에 Amazon Aurora MySQL을 Multi-AZ Aurora Replicas와 함께 사용합니다.
데이터베이스 복제를 사용하여 필요에 따라 스테이징 데이터베이스를 만듭니다.
애플리케이션 지연 문제를 완화하기 위해 권장되는 솔루션은 프로덕션에 Amazon Aurora MySQL을 Multi-AZ Aurora Replicas와 함께 사용하고 데이터베이스 복제를 사용하여 필요에 따라 스테이징 데이터베이스를 만드는 것입니다.
이를 통해 개발팀은 지연 없이 스테이징 환경을 계속 사용할 수 있으며 프로덕션 애플리케이션에 대한 탄력성과 가용성도 제공합니다.
C - 오답: 프로덕션을 위해 다중 AZ 배포 및 읽기 복제본과 함께 Amazon RDS for MySQL을 사용합니다. 스테이징 데이터베이스에 대기 인스턴스를 사용하는 것은 개발팀이 지연 없이 스테이징 환경을 계속 사용할 수 있는 기능을 제공하지 않기 때문에 권장되는 솔루션이 아닙니다. 대기 인스턴스는 프로덕션 인스턴스 장애 발생 시 장애 조치에 사용되며 스테이징 환경으로 사용하도록 의도되지 않았습니다.
D - 오답: 다중 AZ 배포와 함께 Amazon RDS for MySQL을 사용하고 프로덕션용 읽기 복제본을 사용합니다. mysqldump 유틸리티를 사용하는 백업 및 복원 프로세스를 구현하여 스테이징 데이터베이스를 채우는 것은 권장되는 솔루션이 아닙니다. 프로덕션 데이터베이스를 완전히 내보내는 작업이 포함되어 허용할 수 없는 애플리케이션 대기 시간이 발생할 수 있기 때문입니다.
#95. 애플리케이션은 회사 본사의 사용자가 제품 데이터에 액세스할 수 있도록 합니다. 제품 데이터는 Amazon RDS MySQL DB 인스턴스에 저장됩니다. 운영 팀은 애플리케이션 성능 저하를 분리하고 읽기 트래픽과 쓰기 트래픽을 분리하려고 합니다. 솔루션 아키텍트는 애플리케이션의 성능을 빠르게 최적화해야 합니다. 솔루션 아키텍트는
무엇을 권장해야 합니까?
A. 기존 데이터베이스를 다중 AZ 배포로 변경합니다. 기본 가용 영역에서 읽기 요청을 처리합니다.
B. 기존 데이터베이스를 Multi-AZ 배포로 변경합니다. 보조 가용성 영역에서 읽기 요청을 처리합니다.
C. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 컴퓨팅 및 스토리지 리소스의 절반을 원본 데이터베이스로 사용하여 읽기 전용 복제본을 구성합니다.
D. 데이터베이스에 대한 읽기 전용 복제본을 생성합니다. 원본 데이터베이스와 동일한 컴퓨팅 및 스토리지 리소스를 사용하여 읽기 전용 복제본을 구성합니다.
정답 D
키워드: "읽기 트래픽과 쓰기 트래픽 분리" = 읽기 복제본 = 옵션 A와 B는 정답이 아닙니다.
C - 오답: 읽기 복제본에 절반의 리소스를 할당하려는 이유는 무엇입니까? 읽기 부하를 일관되게 처리하려면 동일한 리소스여야 합니다.
D - 정답. 소스 데이터베이스 인스턴스와 동일한 컴퓨팅 파워를 가진 읽기 복제본입니다.
#98. 이미지 처리 회사에 사용자가 이미지를 업로드하는 데 사용하는 웹 애플리케이션이 있습니다. 이 애플리케이션은 이미지를 Amazon S3 버킷에 업로드합니다. 이 회사는 S3 이벤트 알림을 설정하여 Amazon Simple Queue Service(Amazon SQS) 표준 대기열에 객체 생성 이벤트를 게시합니다. SQS 대기열은 이미지를 처리하고 결과를 이메일을 통해 사용자에게 보내는 AWS Lambda 함수의 이벤트 소스 역할을 합니다.
사용자는 업로드된 모든 이미지에 대해 여러 이메일 메시지를 받는다고 보고합니다. 솔루션 아키텍트는 SQS 메시지가 Lambda 함수를 두 번 이상 호출하여 여러 이메일 메시지를 생성한다는 것을 확인합니다. 솔루션
아키텍트는 최소한의 운영 오버헤드로 이 문제를 해결하기 위해 무엇을 해야 할까요?
A. ReceiveMessage 대기 시간을 30초로 늘려 SQS 대기열에 롱 폴링을 설정합니다.
B. SQS 표준 큐를 SQS FIFO 큐로 변경합니다. 메시지 중복 제거 ID를 사용하여 중복 메시지를 삭제합니다.
C. SQS 대기열의 가시성 시간 초과를 함수 시간 초과와 일괄 처리 창 시간 초과의 합계보다 큰 값으로 늘립니다.
D. 메시지를 읽은 후 처리하기 전에 SQS 대기열에서 각 메시지를 즉시 삭제하도록 Lambda 함수를 수정합니다.
정답 C
C - 정답. 람다가 메시지를 폴링하고 메시지 처리를 시작하기 때문에 사용자는 중복된 메시지를 받습니다. 그러나 첫 번째 람다가 메시지 처리를 완료하기 전에 SQS에서 가시성 제한 시간이 초과되고 SQS가 메시지를 폴링에 반환하여 다른 Lambda 노드가 동일한 메시지를 처리하게 됩니다. 가시성 제한 시간을 늘림으로써 Lambda가 메시지 처리를 완료하기 전에 SQS가 메시지를 폴링으로 다시 반환하는 것을 방지해야 합니다.
#99. 한 회사가 온프레미스 데이터 센터에 호스팅된 게임 애플리케이션에 대한 공유 스토리지 솔루션을 구현하고 있습니다. 이 회사는 Lustre 클라이언트를 사용하여 데이터에 액세스할 수 있어야 합니다. 솔루션은 완전히 관리되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS Storage Gateway 파일 게이트웨이를 만듭니다. 필요한 클라이언트 프로토콜을 사용하는 파일 공유를 만듭니다. 애플리케이션 서버를 파일 공유에 연결합니다.
B. Amazon EC2 Windows 인스턴스를 만듭니다. 인스턴스에 Windows 파일 공유 역할을 설치하고 구성합니다. 애플리케이션 서버를 파일 공유에 연결합니다.
C. Amazon Elastic File System(Amazon EFS) 파일 시스템을 만들고 Lustre를 지원하도록 구성합니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
D. Amazon FSx for Lustre 파일 시스템을 만듭니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다.
정답 D
D - 정답. Amazon FSx for Lustre 파일 시스템을 만듭니다. 파일 시스템을 원본 서버에 연결합니다. 애플리케이션 서버를 파일 시스템에 연결합니다. Amazon FSx for Lustre는 게임 애플리케이션과 같은 고성능 워크로드를 위해 설계된 완전 관리형 파일 시스템입니다. Lustre 클라이언트에 최적화된 고성능, 확장 가능, 완전 관리형 파일 시스템을 제공하며 Amazon EC2와 완벽하게 통합됩니다. 완전 관리형이고 Lustre 클라이언트를 지원할 수 있는 요구 사항을 충족하는 유일한 옵션입니다.
#105. 한 회사가 새로운 서버리스 워크로드를 배포할 준비를 하고 있습니다. 솔루션 아키텍트는 AWS Lambda 함수를 실행하는 데 사용될 권한을 구성하기 위해 최소 권한의 원칙을 사용해야 합니다. Amazon EventBridge(Amazon CloudWatch Events) 규칙은 함수를 호출합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. lambda:InvokeFunction을 작업으로, *를 주체로 하여 함수에 실행 역할을 추가합니다.
B. Lambda:InvokeFunction을 작업으로, Service: lambda.amazonaws.com을 주체로 하여 함수에 실행 역할을 추가합니다.
C. 작업으로 Lambda:*를 사용하고 보안 주체로 Service: events.amazonaws.com을 사용하여 함수에 리소스 기반 정책을 추가합니다.
D. lambda:InvokeFunction을 작업으로, Service: events.amazonaws.com을 주체로 하여 함수에 리소스 기반 정책을 추가합니다.
정답 D
A - 오답: 모든 보안 주체(*)에 Lambda:InvokeFunction 작업을 부여하므로 모든 엔터티에서 함수를 호출할 수 있고 필요한 최소 권한을 초과하므로 옵션 A는 올바르지 않습니다.
B - 오답: 서비스:lambda.amazonaws.com 주체에 Lambda:InvokeFunction 작업을 부여하므로 모든 Lambda 함수가 함수를 호출하고 필요한 최소 권한을 초과할 수 있으므로 올바르지 않습니다.
C - 오답: 서비스: events.amazonaws.com 주체에 Lambda:* 작업을 부여하기 때문에 올바르지 않습니다. 이를 통해 Amazon EventBridge가 함수에 대한 작업을 수행하고 필요한 최소 권한을 초과할 수 있습니다.
D - 정답: Lambda:InvokeFunction을 작업으로, Service: events.amazonaws.com을 주체로 하여 함수에 리소스 기반 정책을 추가합니다. 최소 권한의 원칙은 작업을 수행하는 데 필요한 최소한의 권한만 부여해야 한다는 것을 요구합니다. 이 경우 Lambda 함수는 Amazon EventBridge(Amazon CloudWatch Events)에서 호출할 수 있어야 합니다. 이러한 요구 사항을 충족하기 위해 Service: events.amazonaws.com 주체가 InvokeFunction 작업을 수행할 수 있도록 허용하는 리소스 기반 정책을 함수에 추가할 수 있습니다. 이렇게 하면 Amazon EventBridge에서 함수를 호출할 수 있지만 함수에 추가 권한이 부여되지 않습니다.
#107. 자전거 공유 회사가 피크 운영 시간 동안 자전거 위치를 추적하기 위한 다계층 아키텍처를 개발하고 있습니다. 이 회사는 기존 분석 플랫폼에서 이러한 데이터 포인트를 사용하려고 합니다. 솔루션 아키텍트는 이 아키텍처를 지원하기 위한 가장 실행 가능한 다계층 옵션을 결정해야 합니다. 데이터 포인트는 REST API에서 액세스할 수 있어야 합니다.
위치 데이터를 저장하고 검색하기 위한 이러한 요구 사항을 충족하는 작업은 무엇입니까?
A. Amazon S3와 함께 Amazon Athena를 사용하십시오.
B. AWS Lambda와 함께 Amazon API Gateway를 사용하십시오.
C. Amazon Redshift와 함께 Amazon QuickSight를 사용하십시오.
D. Amazon Kinesis Data Analytics와 함께 Amazon API Gateway를 사용합니다.
정답 D
B는 데이터 입력 및 출력을 위해 API 게이트웨이 + 람다가 필요한 반면,
Kinesis Data Analytics API는 API 게이트웨이 + 람다보다 데이터를 더 잘 추출하고 처리하는 데 사용할 수 있으므로 D는 더 광범위한 솔루션입니다. 또한 질문 시나리오인 원격 측정 데이터에는 Kinesis를 적극 권장합니다. @Kinesys 유연한 API 참조(https://aws.amazon.com/documentation-overview/kinesis-data-analytics/)
#111. 한 회사는 최근 메시지 처리 시스템을 AWS로 마이그레이션했습니다. 시스템은 Amazon EC2 인스턴스에서 실행되는 ActiveMQ 대기열로 메시지를 수신합니다. 메시지는 Amazon EC2에서 실행되는 소비자 애플리케이션에 의해 처리됩니다. 소비자 애플리케이션은 메시지를 처리하고 Amazon EC2에서 실행되는 MySQL 데이터베이스에 결과를 씁니다. 회사는 이 애플리케이션이 운영 복잡성을 낮추고 가용성을 높이기를 원합니다.
가장 높은 가용성을 제공하는 아키텍처는 무엇입니까?
A. 다른 가용성 영역에 두 번째 ActiveMQ 서버를 추가합니다. 다른 가용성 영역에 추가 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용성 영역에 복제합니다.
B. 두 개의 가용성 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용성 영역에 추가 소비자 EC2 인스턴스를 추가합니다. MySQL 데이터베이스를 다른 가용성 영역에 복제합니다.
C. 두 개의 가용 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용합니다. 다른 가용 영역에 추가 소비자 EC2 인스턴스를 추가합니다. 다중 AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다.
D. 두 개의 가용 영역에 걸쳐 구성된 활성/대기 브로커와 함께 Amazon MQ를 사용하십시오. 두 개의 가용 영역에 걸쳐 소비자 EC2 인스턴스에 대한 Auto Scaling 그룹을 추가합니다. 다중 AZ가 활성화된 MySQL용 Amazon RDS를 사용합니다
정답 D
"가장 높은 가용성"과 "운영 복잡성"이 덜한 D입니다. "Multi-AZ가 활성화된 MySQL용 Amazon RDS" 옵션은 A와 B를 제외합니다. "자동 확장 그룹"은 가용성이 더 높고 사고 발생 시 운영 복잡성을 줄입니다(수정이 자동화됨). 인스턴스를 하나 더 추가하는 것보다 더 많습니다. 여기에는 C가 제외됩니다. D가 C보다 높은지 여부를 기준으로 C와 D를 선택해야 하므로 구성됨
#122. 한 회사는 애플리케이션에서 데이터를 암호화해야 하는 개발자를 지원하기 위해 확장 가능한 키 관리 인프라를 구축하려고 합니다.
운영 부담을 줄이기 위해 솔루션 아키텍트는 무엇을 해야 합니까?
A. 다중 인증 요소(MFA)를 사용하여 암호화 키를 보호합니다.
B. AWS Key Management Service(AWS KMS)를 사용하여 암호화 키를 보호합니다.
C. AWS Certificate Manager(ACM)를 사용하여 암호화 키를 생성, 저장 및 할당합니다.
D. IAM 정책을 사용하여 암호화 키를 보호하기 위한 액세스 권한이 있는 사용자 범위를 제한합니다.
정답 B
비대칭 키를 사용하여 데이터를 디지털 서명하거나 확인해야 하는 개발자라면 이 서비스를 사용하여 필요한 개인 키를 만들고 관리해야 합니다. 개발자와 증가하는 수의 애플리케이션을 지원하는 확장 가능한 키 관리 인프라를 찾고 있다면 라이선스 비용과 운영 부담을 줄이는 데 사용해야 합니다...
FAQ | AWS Key Management Service(KMS) | Amazon Web Services(AWS)
aws.amazon.com
#123. 회사에는 두 개의 Amazon EC2 인스턴스에서 호스팅되는 동적 웹 애플리케이션이 있습니다. 회사에는 SSL 종료를 수행하기 위해 각 인스턴스에 자체 SSL 인증서가 있습니다.
최근 트래픽이 증가했으며, 운영팀에서는 SSL 암호화 및 복호화로 인해 웹 서버의 컴퓨팅 용량이 최대 한도에 도달했다고 판단했습니다.
애플리케이션 성능을 높이려면 솔루션 아키텍트가 무엇을 해야 합니까?
A. ACM(AWS Certificate Manager)을 사용하여 새 SSL 인증서를 생성합니다. 각 인스턴스에 ACM 인증서를 설치합니다.
B. Amazon S3 버킷 만들기 SSL 인증서를 S3 버킷으로 마이그레이션합니다. EC2 인스턴스가 SSL 종료를 위해 버킷을 참조하도록 구성합니다.
C. 다른 EC2 인스턴스를 프록시 서버로 생성합니다. SSL 인증서를 새 인스턴스로 마이그레이션하고 기존 EC2 인스턴스에 직접 연결하도록 구성합니다.
D. SSL 인증서를 AWS Certificate Manager(ACM)로 가져옵니다. ACM의 SSL 인증서를 사용하는 HTTPS 리스너가 있는 Application Load Balancer를 만듭니다
정답 D
이 문제는 SSL 오프로딩, 즉 SSL 종료 작업을 ALB로 옮기면 해결됩니다. https://aws.amazon.com/blogs/aws/elastic-load-balancer-support-for-ssl-termination/
AWS Elastic Load Balancing: Support for SSL Termination | Amazon Web Services
You can now create a highly scalable, load-balanced web site using multiple Amazon EC2 instances, and you can easily arrange for the entire HTTPS encryption and decryption process (generally known as SSL termination) to be handled by an Elastic Load Balanc
aws.amazon.com
#124. 한 회사에서는 많은 Amazon EC2 인스턴스를 사용하여 완료하는 매우 동적인 일괄 처리 작업을 합니다. 이 작업은 본질적으로 상태 비저장이며, 부정적인 영향 없이 언제든지 시작 및 중지할 수 있으며, 일반적으로 완료하는 데 총 60분 이상이 걸립니다. 이 회사는 솔루션 아키텍트에게 작업 요구 사항을 충족하는 확장 가능하고 비용 효율적인 솔루션을 설계해 달라고 요청했습니다.
솔루션 아키텍트는 무엇을 추천해야 합니까?
A. EC2 스팟 인스턴스를 구현합니다.
B. EC2 예약 인스턴스를 구매합니다.
C. EC2 온디맨드 인스턴스를 구현합니다.
D. AWS Lambda에서 처리를 구현합니다.
정답 A
스팟 인스턴스는 유연한 시작 및 중지 배치 작업에 상당한 비용 절감을 제공합니다. 예약 인스턴스(B)를 구매하는 것은 동적 작업 부하가 아닌 안정적인 작업 부하에 더 좋습니다. 온디맨드 인스턴스(C)는 비용이 많이 들고 스팟 인스턴스와 같은 잠재적인 비용 절감이 부족합니다. AWS Lambda(D)는 장기 실행 배치 작업에 적합하지 않습니다.
#130. 애플리케이션은 여러 가용 영역에 걸쳐 Amazon EC2 인스턴스에서 실행됩니다. 인스턴스는 Application Load Balancer 뒤의 Amazon EC2 Auto Scaling 그룹에서 실행됩니다. 애플리케이션은 EC2 인스턴스의 CPU 사용률이 40% 또는 40%에 가까울 때 가장 잘 수행됩니다.
그룹의 모든 인스턴스에서 원하는 성능을 유지하려면 솔루션 설계자가 무엇을 해야 합니까?
A. 간단한 크기 조정 정책을 사용하여 자동 크기 조정 그룹을 동적으로 크기 조정합니다.
B. 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장합니다.
C. AWS Lambda 함수를 사용하여 원하는 자동 확장 그룹 용량을 업데이트합니다.
D. 예약된 조정 작업을 사용하여 Auto Scaling 그룹을 확장 및 축소합니다.
정답 B
Amazon EC2 Auto Scaling 그룹의 모든 인스턴스에서 원하는 성능을 유지하려면 솔루션 아키텍트가 대상 추적 정책을 사용하여 Auto Scaling 그룹을 동적으로 확장해야 합니다. 대상 추적 정책을 사용하면 Auto Scaling 그룹이 메트릭의 대상 값에 따라 그룹의 EC2 인스턴스 수를 자동으로 조정할 수 있습니다. 이 경우 CPU 사용률 메트릭의 대상 값을 40%로 설정하여 애플리케이션의 원하는 성능을 유지할 수 있습니다. 그런 다음 Auto Scaling 그룹은 메트릭의 대상 값을 유지하기 위해 필요에 따라 인스턴스 수를 자동으로 늘리거나 줄입니다. https://docs.aws.amazon.com/autoscaling/ec2/userguide/as-scaling-simple-step.html
#132. 회사 웹사이트는 사용자에게 다운로드 가능한 과거 성과 보고서를 제공합니다. 웹사이트에는 회사의 웹사이트 수요를 전 세계적으로 충족할 수 있는 확장 가능한 솔루션이 필요합니다. 솔루션은 비용 효율적이어야 하며 인프라 리소스의 프로비저닝을 제한해야 하며 가능한 가장 빠른 응답 시간을 제공해야 합니다.
이러한 요구 사항을 충족하기 위해 솔루션 아키텍트는 어떤 조합을 권장해야 합니까?
A. Amazon CloudFront 및 Amazon S3
B. AWS Lambda 및 Amazon DynamoDB
C. Amazon EC2 Auto Scaling을 갖춘 Application Load Balancer
D. 내부 Application Load Balancer를 갖춘 Amazon Route 53
정답 A
내역 보고서 = 정적 콘텐츠 = S3
#135. 회사가 AWS에서 워크로드를 실행합니다. 회사는 외부 공급자의 서비스에 연결해야 합니다. 서비스는 공급자의 VPC에서 호스팅됩니다. 회사의 보안 팀에 따르면 연결은 비공개여야 하며 대상 서비스로 제한되어야 합니다. 연결은 회사의 VPC에서만 시작해야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 회사의 VPC와 공급자의 VPC 사이에 VPC 피어링 연결을 만듭니다. 대상 서비스에 연결하기 위해 경로 테이블을 업데이트합니다.
B. 공급자에게 VPC에 가상 프라이빗 게이트웨이를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
C. 회사 VP의 퍼블릭 서브넷에 NAT 게이트웨이를 생성하고 라우팅 테이블을 업데이트하여 대상 서비스에 연결합니다.
D. 공급자에게 대상 서비스에 대한 VPC 엔드포인트를 생성하도록 요청합니다. AWS PrivateLink를 사용하여 대상 서비스에 연결합니다.
정답 D
**AWS PrivateLink는 트래픽을 공용 인터넷에 노출시키지 않고 VPC, AWS 서비스 및 온프레미스 네트워크 간의 비공개 연결을 제공합니다**.
AWS PrivateLink를 사용하면 다양한 계정과 VPC에 걸쳐 서비스를 쉽게 연결하여 네트워크 아키텍처를 대폭 단순화할 수 있습니다. AWS PrivateLink에서 제공하는 인터페이스
**VPC 엔드포인트**는 AWS 파트너가 호스팅하는 서비스와 AWS Marketplace에서 제공되는 지원 솔루션에 연결합니다. https://aws.amazon.com/privatelink/
#145. 한 회사가 단일 Amazon EC2 On-Demand 인스턴스에서 웹사이트 분석 애플리케이션을 호스팅합니다. 분석 소프트웨어는 PHP로 작성되었으며 MySQL 데이터베이스를 사용합니다. 분석 소프트웨어, PHP를 제공하는 웹 서버, 데이터베이스 서버는 모두 EC2 인스턴스에서 호스팅됩니다. 이 애플리케이션은 바쁜 시간에 성능 저하 징후를 보이고 5xx 오류가 발생합니다. 이 회사는 애플리케이션을 원활하게 확장해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족할 솔루션은 무엇입니까?
A. 데이터베이스를 Amazon RDS for MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 만듭니다. AMI를 사용하여 두 번째 EC2 On-Demand 인스턴스를 시작합니다. Application Load Balancer를 사용하여 각 EC2 인스턴스에 부하를 분산합니다.
B. 데이터베이스를 MySQL용 Amazon RDS DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 생성합니다. AMI를 사용하여 두 번째 EC2 온디맨드 인스턴스를 시작합니다. Amazon Route 53 가중치 기반 라우팅을 사용하여 두 EC2 인스턴스에 로드를 분산시킵니다.
C. 데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. EC2 인스턴스를 중지하고 인스턴스 유형을 변경하는 AWS Lambda 함수를 만듭니다. CPU 사용률이 75%를 초과하면 Lambda 함수를 호출하는 Amazon CloudWatch 알람을 만듭니다.
D. 데이터베이스를 Amazon Aurora MySQL DB 인스턴스로 마이그레이션합니다. 웹 애플리케이션의 AMI를 만듭니다. AMI를 시작 템플릿에 적용합니다. 시작 템플릿으로 자동 확장 그룹을 만듭니다. Spot Fleet을 사용하도록 시작 템플릿을 구성합니다. 자동 확장 그룹에 애플리케이션 로드 밸런서를 연결합니다.
정답 D
- 원활한 확장 - 비용 효율적 AC 중 어느 것도 원활한 확장성을 제공하지 않습니다.
A와 B는 두 번째 인스턴스를 추가하는 것에 관한 것입니다("완벽하게 확장"하는 것과 일치하지 않는다고 가정합니다).
C는 인스턴스 유형 변경에 관한 것입니다.
D는 확장성 요구 사항에 대해 실행 가능한 유일한 솔루션입니다.
#150. 회사에서 온프레미스 서버에서 Amazon EC2 인스턴스로 애플리케이션을 마이그레이션하고 있습니다. 마이그레이션 설계 요구 사항의 일부로 솔루션 아키텍트는 인프라 메트릭 알람을 구현해야 합니다. CPU 사용률이 짧은 시간 동안 50% 이상으로 증가하는 경우 회사는 조치를 취할 필요가 없습니다. 그러나 CPU 사용률이 50% 이상으로 증가하고 디스크의 읽기 IOPS가 동시에 높은 경우 회사는 가능한 한 빨리 조치를 취해야 합니다. 솔루션 아키텍트는 또한 거짓 알람을 줄여야 합니다. 솔루션 아키텍트는
이러한 요구 사항을 충족하기 위해 무엇을 해야 합니까?
A. 가능한 경우 Amazon CloudWatch 복합 경보를 생성합니다.
B. 지표를 시각화하고 문제에 신속하게 대응하기 위해 Amazon CloudWatch 대시보드를 생성합니다.
C. Amazon CloudWatch Synthetics 카나리아를 생성하여 애플리케이션을 모니터링하고 경보를 발생시킵니다.
D. 가능한 경우 여러 개의 메트릭 임계값을 사용하여 단일 Amazon CloudWatch 메트릭 알람을 생성합니다.
정답 A
복합 알람은 다른 알람의 상태를 모니터링하여 상태를 결정합니다. **복합 알람을 사용하여 알람 노이즈를 줄일 수 있습니다**. 예를 들어, 기본 메트릭 알람이 특정 조건을 충족할 때 ALARM으로 전환되는 복합 알람을 만들 수 있습니다. 그런 다음 기본 메트릭 알람이 작업을 수행하지 않도록 구성하여 복합 알람이 ALARM으로 전환되고 기본 메트릭 알람이 ALARM으로 전환될 때 알림을 보내도록 설정할 수 있습니다. 현재 복합 알람은 다음 작업을 수행할 수 있습니다. https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Create_Composite_Alarm.html
#151. 회사에서 온프레미스 데이터 센터를 AWS로 마이그레이션하려고 합니다. 회사의 규정 준수 요구 사항에 따라 회사는 ap-northeast-3 리전만 사용할 수 있습니다. 회사 관리자는 VPC를 인터넷에 연결할 수 없습니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까? (2개를 선택하세요.)
A. AWS Control Tower를 사용하여 데이터 상주 가드레일을 구현하여 인터넷 액세스를 거부하고 ap-northeast-3을 제외한 모든 AWS 지역에 대한 액세스를 거부합니다.
B. AWS WAF의 규칙을 사용하여 인터넷 접근을 차단합니다. AWS 계정 설정에서 ap-northeast-3을 제외한 모든 AWS 리전에 대한 접근을 거부합니다.
C. AWS Organizations를 사용하여 VPC가 인터넷에 액세스하지 못하도록 방지하는 서비스 제어 정책(SCPS)을 구성합니다. ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스를 거부합니다.
D. 각 VPC의 네트워크 ACL에 대한 아웃바운드 규칙을 생성하여 0.0.0.0/0의 모든 트래픽을 거부합니다. ap-northeast-3 이외의 AWS 리전 사용을 방지하려면 각 사용자에 대한 IAM 정책을 생성합니다.
E. AWS Config를 사용하여 관리형 규칙을 활성화하여 인터넷 게이트웨이를 탐지 및 경고하고 ap-northeast-3 외부에 배포된 새로운 리소스를 탐지 및 경고합니다.
정답 A, C
A. Control Tower를 사용하면 회사는 데이터 상주 가드레일을 시행하고 VPC에 대한 인터넷 액세스를 제한하고 필수 ap-northeast-3 지역을 제외한 모든 지역에 대한 액세스를 거부할 수 있습니다.
B. AWS WAF에서만 규칙을 사용하면 ap-northeast-3을 제외한 모든 AWS 리전에 대한 액세스 거부 요구 사항이 해결되지 않기 때문입니다.
C. 조직을 통해 회사는 VPC가 인터넷에 액세스하지 못하도록 SCP를 구성할 수 있습니다. ap-northeast-3을 제외한 모든 지역에 대한 액세스를 거부함으로써 회사는 VPC가 지정된 지역에만 배포될 수 있도록 보장합니다.
D. 사용자에 대한 네트워크 ACL 및 IAM 정책의 아웃바운드 규칙을 구성하면 트래픽과 액세스를 제한하는 데 도움이 될 수 있지만 ap-northeast-3을 제외한 모든 리전에 대한 액세스를 거부해야 하는 회사의 요구 사항을 적용하지 않기 때문에 옵션 D는 올바르지 않습니다.
E. AWS Config 및 관리형 규칙을 사용하면 특정 리소스 및 구성을 감지하고 경고하는 데 도움이 될 수 있지만 인터넷 액세스 제한을 직접 시행하거나 특정 리전에 대한 액세스를 거부하지 않기 때문에 옵션 E는 올바르지 않습니다.
#170. 회사의 웹 애플리케이션이 Application Load Balancer 뒤의 Amazon EC2 인스턴스에서 실행되고 있습니다. 회사는 최근 정책을 변경하여 이제 특정 국가에서만 애플리케이션에 액세스하도록 요구하고 있습니다.
이 요구 사항을 충족하는 구성은 무엇입니까?
A. EC2 인스턴스에 대한 보안 그룹을 구성합니다.
B. Application Load Balancer에 보안 그룹을 구성합니다.
C. VPC의 Application Load Balancer에 AWS WAF를 구성합니다.
D. EC2 인스턴스가 포함된 서브넷에 대한 네트워크 ACL을 구성합니다.
정답 C
AWS WAF의 지리적(지역) 일치 조건. 이 새로운 조건 유형을 사용하면 AWS WAF를 사용하여 최종 사용자의 지리적 위치에 따라 애플리케이션 액세스를 제한할 수 있습니다. 지역 일치 조건을 사용하면 AWS WAF에서 액세스를 허용해야 하는 국가를 선택할 수 있습니다. https://aws.amazon.com/about-aws/whats-new/2017/10/aws-waf-now-supports-geographic-match/
#178. 회사의 인프라는 단일 AWS 리전의 Amazon EC2 인스턴스와 Amazon RDS DB 인스턴스로 구성됩니다. 회사는 별도의 지역에 데이터를 백업하려고 합니다.
최소한의 운영 오버헤드로 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. AWS 백업을 사용하여 EC2 백업과 RDS 백업을 별도의 리전에 복사하십시오.
B. Amazon Data Lifecycle Manager(Amazon DLM)를 사용하여 EC2 백업과 RDS 백업을 별도의 지역에 복사합니다.
C. EC2 인스턴스의 Amazon Machine Images(AMI)를 만듭니다. AMI를 별도의 Region에 복사합니다. 별도의 Region에 RDS DB 인스턴스에 대한 읽기 복제본을 만듭니다.
D. Amazon Elastic Block Store(Amazon EBS) 스냅샷을 생성합니다. EBS 스냅샷을 별도의 리전에 복사합니다. RDS 스냅샷을 생성합니다. RDS 스냅샷을 Amazon S3로 내보냅니다. S3 교차 리전 복제(CRR)를 별도의 리전으로 구성합니다.
정답 A
AWS Backup을 사용하여 EC2 및 RDS 백업을 별도의 리전에 복사하는 것은 운영 오버헤드를 최소화하면서 요구 사항을 충족하는 솔루션입니다. AWS Backup은 백업 프로세스를 단순화하고 다른 리전으로의 백업 복사를 자동화하여 EC2 인스턴스 및 RDS 데이터베이스에 대한 별도의 백업 프로세스를 관리하는 데 수반되는 수동 작업과 운영 복잡성을 줄여줍니다. Amazon Data Lifecycle Manager(Amazon DLM)는 RDS 백업을 별도의 지역에 직접 복사하도록 설계되지 않았기 때문에 옵션 B는 올바르지 않습니다. Amazon 머신 이미지(AMI) 및 읽기 전용 복제본을 생성하면 전용 백업 솔루션에 비해 복잡성과 운영 오버헤드가 추가되므로 옵션 C는 올바르지 않습니다. Amazon EBS 스냅샷, RDS 스냅샷 및 S3 교차 리전 복제(CRR)를 사용하려면 여러 수동 단계와 추가 구성이 필요하여 복잡성이 증가하므로 옵션 D는 올바르지 않습니다.
#180. 한 회사가 API로 구동되는 클라우드 커뮤니케이션 플랫폼을 설계하고 있습니다. 이 애플리케이션은 Network Load Balancer(NLB) 뒤의 Amazon EC2 인스턴스에서 호스팅됩니다. 이 회사는 Amazon API Gateway를 사용하여 외부 사용자에게 API를 통해 애플리케이션에 대한 액세스를 제공합니다. 이 회사는 SQL 주입과 같은 웹 익스플로잇으로부터 플랫폼을 보호하고 대규모의 정교한 DDoS 공격을 탐지하고 완화하고자 합니다.
어떤 솔루션 조합이 가장 많은 보호를 제공합니까? (두 가지를 선택하세요.)
A. AWS WAF를 사용하여 NLB를 보호하세요.
B. NLB와 함께 AWS Shield Advanced를 사용하십시오.
C. AWS WAF를 사용하여 Amazon API Gateway를 보호합니다.
D. AWS Shield Standard와 함께 Amazon GuardDuty 사용
E. Amazon API Gateway와 함께 AWS Shield Standard를 사용합니다.
정답 B, C
Shield - 로드 밸런서, CF, Route53
AWF - CF, ALB, API 게이트웨이
#192. 병원에서는 방대한 역사적 서면 기록 컬렉션에 대한 디지털 사본을 만들고자 합니다. 병원은 매일 수백 개의 새로운 문서를 계속 추가할 것입니다. 병원의 데이터 팀은 문서를 스캔하여 AWS 클라우드에 업로드할 것입니다.
솔루션 아키텍트는 문서를 분석하고, 의료 정보를 추출하고, 문서를 저장하여 애플리케이션이 데이터에 대한 SQL 쿼리를 실행할 수 있도록 솔루션을 구현해야 합니다. 솔루션은 확장성과 운영 효율성을 극대화해야 합니다. 솔루션 아키텍트는
이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하십시오.)
A. MySQL 데이터베이스를 실행하는 Amazon EC2 인스턴스에 문서 정보를 씁니다.
B. Amazon S3 버킷에 문서 정보를 씁니다. Amazon Athena를 사용하여 데이터를 쿼리합니다.
C. Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성하여 스캔한 파일을 처리하고 의료 정보를 추출하는 사용자 지정 애플리케이션을 실행합니다.
D. 새 문서가 업로드될 때 실행되는 AWS Lambda 함수를 만듭니다. Amazon Rekognition을 사용하여 문서를 원시 텍스트로 변환합니다. Amazon Transcribe Medical을 사용하여 텍스트에서 관련 의료 정보를 감지하고 추출합니다.
E. 새 문서가 업로드될 때 실행되는 AWS Lambda 함수를 생성합니다. Amazon Textract를 사용하여 문서를 원시 텍스트로 변환합니다. Amazon Comprehend Medical을 사용하여 텍스트에서 관련 의료 정보를 감지하고 추출합니다.
정답 B, E
Textract는 파일에서 텍스트를 추출합니다. Rekognition은 텍스트 감지에도 사용할 수 있지만 Rekognition 이후에는 Transcribe가 사용된다고 언급되어 있습니다. Transcribe는 음성을 텍스트로 변환하는 데 사용됩니다. 따라서 옵션 D는 유효하지 않을 수 있습니다.
#194. 어떤 회사가 AWS에서 중요한 애플리케이션을 실행해야 합니다. 회사는 애플리케이션의 데이터베이스에 Amazon EC2를 사용해야 합니다. 데이터베이스는 고가용성이어야 하며 중단 이벤트가 발생하면 자동으로 장애 조치되어야 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. 동일한 AWS 지역의 다른 가용성 영역에 있는 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스에 데이터베이스를 설치합니다. EC2 인스턴스를 클러스터로 구성합니다. 데이터베이스 복제를 설정합니다.
B. 가용성 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하면 AWS CloudFormation을 사용하여 EC2 인스턴스의 프로비저닝을 자동화합니다.
C. 각각 다른 AWS 지역에서 두 개의 EC2 인스턴스를 시작합니다. 두 EC2 인스턴스에 데이터베이스를 설치합니다. 데이터베이스 복제를 설정합니다. 데이터베이스를 두 번째 지역으로 장애 조치합니다. 최다 투표
D. 가용 영역에서 EC2 인스턴스를 시작합니다. EC2 인스턴스에 데이터베이스를 설치합니다. Amazon Machine Image(AMI)를 사용하여 데이터를 백업합니다. 중단 이벤트가 발생하는 경우 EC2 자동 복구를 사용하여 인스턴스를 복구합니다.
정답 A
옵션 B는 백업에 AMI를 사용하고 자동화에 CloudFormation을 사용하지만 고가용성이나 자동 장애 조치를 제공하지 않습니다.
옵션 C는 다른 지역에서 인스턴스를 시작하는데, 이는 필요하지 않을 수 있으며 비용이 증가할 수 있습니다.
옵션 D는 EC2 자동 복구를 사용하는데, 이는 인스턴스를 복구할 수 있지만 고가용성이나 자동 장애 조치를 제공하지 않습니다.
#196. 한 회사가 대규모 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 애플리케이션은 Amazon DynamoDB 테이블에 항목을 읽고 씁니다. DynamoDB 테이블의 크기는 지속적으로 증가하지만 애플리케이션에는 지난 30일 동안의 데이터만 필요합니다. 이 회사에는 비용과 개발 노력을 최소화하는 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족합니까?
A. AWS CloudFormation 템플릿을 사용하여 전체 솔루션을 배포합니다. 30일마다 CloudFormation 스택을 다시 배포하고 원래 스택을 삭제합니다.
B. AWS Marketplace에서 모니터링 애플리케이션을 실행하는 EC2 인스턴스를 사용하십시오. 테이블에 새 항목이 생성될 때 Amazon DynamoDB 스트림을 사용하여 타임스탬프를 저장하도록 모니터링 애플리케이션을 구성합니다. EC2 인스턴스에서 실행되는 스크립트를 사용하여 30일보다 오래된 타임스탬프가 있는 항목을 삭제합니다.
C. 테이블에 새 항목이 생성되면 AWS Lambda 함수를 호출하도록 Amazon DynamoDB Streams를 구성합니다. 30일 이상 된 테이블의 항목을 삭제하도록 Lambda 함수를 구성합니다. 최다 투표
D. 테이블에 생성된 각 새 항목에 현재 타임스탬프와 30일을 더한 값을 갖는 속성을 추가하도록 애플리케이션을 확장합니다. DynamoDB가 속성을 TTL 속성으로 사용하도록 구성합니다.
정답 D
DynamoDB TTL 기능을 사용하면 항목별 타임스탬프를 정의하여 항목이 더 이상 필요하지 않은 시기를 결정할 수 있습니다. 지정된 타임스탬프의 날짜 및 시간 직후에 DynamoDB는 쓰기 처리량을 소비하지 않고 테이블에서 항목을 삭제합니다.
#200. 한 회사가 AWS에서 애플리케이션을 호스팅합니다. 이 회사는 Amazon Cognito를 사용하여 사용자를 관리합니다. 사용자가 애플리케이션에 로그인하면 애플리케이션은 Amazon API Gateway에 호스팅된 REST API를 사용하여 Amazon DynamoDB에서 필요한 데이터를 가져옵니다. 이 회사는 개발 노력을 줄이기 위해 REST API에 대한 액세스를 제어하는 AWS 관리형 솔루션을 원합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 어떤 사용자가 요청했는지 확인하기 위해 API Gateway에서 권한 부여자가 되도록 AWS Lambda 함수를 구성합니다.
B. 각 사용자에 대해 각 요청과 함께 전송되어야 하는 API 키를 생성하고 할당합니다. AWS Lambda 함수를 사용하여 키를 검증합니다.
C. 모든 요청에서 헤더에 사용자의 이메일 주소를 보냅니다. AWS Lambda 함수를 호출하여 해당 이메일 주소를 가진 사용자가 적절한 액세스 권한이 있는지 확인합니다.
D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.
정답 D
키워드: 최소 운영 오버헤드 REST API에 대한 액세스를 제어하고 개발 노력을 줄이기 위해 회사는 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 사용할 수 있습니다. 이를 통해 Amazon Cognito는 각 요청을 검증하고 인증된 사용자만 API에 액세스할 수 있도록 할 수 있습니다. 이 솔루션은 회사에서 추가 인프라나 코드를 개발하고 유지 관리할 필요가 없으므로 운영 오버헤드가 가장 적습니다. 따라서 보기 D가 정답입니다.
옵션 D. Amazon Cognito가 각 요청을 검증할 수 있도록 API Gateway에서 Amazon Cognito 사용자 풀 권한 부여자를 구성합니다.
'develop > AWS' 카테고리의 다른 글
[SAA] Examtopics 오답 문제 정리(201-300) (1) | 2024.06.30 |
---|---|
[SAA] Other AWS Services (0) | 2024.06.29 |
[SAA] Disaster Recovery & Migrations (0) | 2024.06.28 |
[SAA] Integration & Messaging: SQS, SNS, Kinesis, Active MQ (0) | 2024.06.27 |
[SAA] Virtual Private Cloud(VPC) (0) | 2024.06.26 |