[SAA] Examtopics 오답 문제 정리(750 - 905)
#762. 한 회사가 Amazon EC2 인스턴스를 시작하기 위해 AWS 계정에 여러 Amazon Machine Images(AMI)를 저장합니다. AMI에는 회사 운영에 필요한 중요한 데이터와 구성이 포함되어 있습니다. 이 회사는 실수로 삭제된 AMI를 빠르고 효율적으로 복구하는 솔루션을 구현하려고 합니다.
어떤 솔루션이 운영 오버헤드를 최소화하면서 이러한 요구 사항을 충족할까요?
A. AMI의 Amazon Elastic Block Store(Amazon EBS) 스냅샷을 만듭니다. 스냅샷을 별도의 AWS 계정에 저장합니다.
B. 모든 AMI를 주기적으로 다른 AWS 계정으로 복사합니다.
C. 휴지통에 보관 규칙을 만듭니다.
D. 교차 지역 복제 기능이 있는 Amazon S3 버킷에 AMI를 업로드합니다.
정답 C
휴지통은 실수로 삭제된 Amazon EBS 스냅샷과 EBS 지원 AMI를 복원할 수 있는 데이터 복구 기능입니다.
휴지통을 사용할 때 리소스가 삭제되면 영구적으로 삭제되기 전에 지정한 기간 동안 휴지통에 보관됩니다.
보관 기간이 만료되기 전에 언제든지 휴지통에서 리소스를 복원할 수 있습니다.
이 솔루션은 추가 리소스를 생성, 복사 또는 업로드할 필요가 없으므로 운영 오버헤드가 가장 적습니다.
휴지통에서 AMI의 태그와 권한을 관리할 수도 있습니다. 휴지통의 AMI는 추가 요금이 부과되지 않습니다.
#764. 어떤 회사가 온프레미스에서 AWS로 3계층 애플리케이션을 마이그레이션하려고 합니다. 웹 계층과 애플리케이션 계층은 타사 가상 머신(VM)에서 실행 중입니다. 데이터베이스 계층은 MySQL에서 실행 중입니다.
이 회사는 아키텍처를 가능한 한 최소한으로 변경하여 애플리케이션을 마이그레이션해야 합니다. 또한 이 회사는 특정 시점으로 데이터를 복원할 수 있는 데이터베이스 솔루션이 필요합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 웹 티어와 애플리케이션 티어를 프라이빗 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon RDS for MySQL로 마이그레이션합니다.
B. 웹 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 애플리케이션 티어를 프라이빗 서브넷의 EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon Aurora MySQL로 마이그레이션합니다.
C. 웹 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 애플리케이션 티어를 프라이빗 서브넷의 EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 프라이빗 서브넷의 Amazon RDS for MySQL로 마이그레이션합니다.
D. 웹 티어와 애플리케이션 티어를 퍼블릭 서브넷의 Amazon EC2 인스턴스로 마이그레이션합니다. 데이터베이스 티어를 퍼블릭 서브넷의 Amazon Aurora MySQL로 마이그레이션합니다.
정답 B
Aurora는 자동화된 백업 및 시점 복구를 제공하여 백업 관리와 데이터 보호를 간소화합니다.
지속적인 증분 백업이 자동으로 수행되어 Amazon S3에 저장되고 데이터 보존 기간은 규정 준수 요구 사항을 충족하도록 지정할 수 있습니다.
RDS도 동일한 기능을 제공하지만 먼저 사용자는 이러한 백업에 대한 보존 기간을 설정하여 실수로 데이터가 손실되거나 손상된 경우 이전 데이터를 복구할 수 있도록 해야 하며, 시점 복구(PITR)를 통해 사용자는 설정된 보존 기간 내의 특정 시점으로 데이터베이스를 복원할 수 있습니다.
#775. Amazon EC2 워커 노드와 함께 Amazon Elastic Kubernetes Service(Amazon EKS)를 사용합니다.
한 회사가 AWS 계정에 애플리케이션을 배포했습니다. 이 애플리케이션은 AWS Lambda와 Amazon Elastic Kubernetes Service(Amazon EKS)에서 실행되는 마이크로서비스로 구성되어 있습니다. 별도의 팀이 각 마이크로서비스를 지원합니다. 이 회사는 여러 AWS 계정을 가지고 있으며 각 팀에 마이크로서비스에 대한 자체 계정을 제공하려고 합니다.
솔루션 아키텍트는 HTTPS(포트 443)를 통해 서비스 간 통신을 제공하는 솔루션을 설계해야 합니다. 이 솔루션은 또한 서비스 검색을 위한 서비스 레지스트리를 제공해야 합니다.
어떤 솔루션이 최소한의 관리 오버헤드로 이러한 요구 사항을 충족할까요?
A. 검사 VPC를 만듭니다. 검사 VPC에 AWS Network Firewall 방화벽을 배포합니다. 검사 VPC를 새 전송 게이트웨이에 연결합니다. VPC-to-VPC 트래픽을 검사 VPC로 라우팅합니다. HTTPS 통신만 허용하도록 방화벽 규칙을 적용합니다.
B. VPC Lattice 서비스 네트워크를 만듭니다. 마이크로서비스를 서비스 네트워크와 연결합니다. 각 서비스에 대한 HTTPS 리스너를 정의합니다. 마이크로서비스 컴퓨팅 리소스를 대상으로 등록합니다. 서비스와 통신해야 하는 VPC를 식별합니다. 해당 VPC를 서비스 네트워크와 연결합니다.
C. 각 마이크로서비스에 대한 HTTPS 리스너와 대상 그룹이 있는 네트워크 로드 밸런서(NLB)를 만듭니다. 각 마이크로서비스에 대한 AWS PrivateLink 엔드포인트 서비스를 만듭니다. 해당 마이크로서비스를 사용해야 하는 각 VPC에 인터페이스 VPC 엔드포인트를 만듭니다.
D. 마이크로서비스를 포함하는 VPC 간에 피어링 연결을 만듭니다. 클라이언트에 대한 연결이 필요한 각 서비스에 대한 접두사 목록을 만듭니다. 적절한 VPC로 트래픽을 라우팅하기 위한 경로 테이블을 만듭니다. HTTPS 통신만 허용하도록 보안 그룹을 만듭니다.
정답 B
Amazon VPC Lattice는 서비스 간 통신을 위한 네트워킹을 간소화하도록 설계된 Amazon Virtual Private Cloud(Amazon VPC)의 새로운 기능입니다. 링크: https://www.bing.com/search?q=what+VPC+Lattice+service+used+for+microservices&cvid=d706d95737274f388660cbda9b7b2c4e&gs_lcrp=EgZjaHJvbWUyBggAEEUYOTIICAEQ6QcY_FXSAQkyMTY1N2owajSoAgCwAgE&FORM=ANAB01&PC=U531
#779. 한 회사에는 참조 데이터 세트가 포함된 Amazon Elastic File System(Amazon EFS) 파일 시스템이 있습니다. 이 회사에는 데이터 세트를 읽어야 하는 Amazon EC2 인스턴스의 애플리케이션이 있습니다. 그러나 애플리케이션은 데이터 세트를 변경할 수 없어야 합니다. 이 회사는 IAM 액세스 제어를 사용하여 애플리케이션이 데이터 세트를 수정하거나 삭제하지 못하도록 하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. EC2 인스턴스 내에서 읽기 전용 모드로 EFS 파일 시스템을 마운트합니다.
B. EC2 인스턴스에 연결된 IAM 역할에 대해 elasticfilesystem:ClientWrite 작업을 거부하는 EFS 파일 시스템에 대한 리소스 정책을 만듭니다.
C. EFS 파일 시스템에 대한 elasticfilesystem:ClientWrite 작업을 거부하는 EFS 파일 시스템에 대한 ID 정책을 만듭니다.
D. 각 애플리케이션에 대한 EFS 액세스 포인트를 만듭니다. POSIX(Portable Operating System Interface) 파일 권한을 사용하여 루트 디렉토리의 파일에 대한 읽기 전용 액세스를 허용합니다.
정답 B
파일 시스템에 쓰기를 방지하는 2가지 방법:
1. /etc/fstab 파일의 마운트 옵션이 읽기 전용 액세스로 설정되어 있습니다. > A
2. IAM 정책은 읽기 전용 액세스 또는 루트 액세스가 비활성화되었음을 나타냅니다. > B
질문에서 IAM 액세스 제어를 사용하려고 한다고 명확하게 언급되어 있습니다.
#786. 한 회사가 온프레미스 데이터 센터에서 여러 워크로드를 실행합니다. 회사의 데이터 센터는 회사의 확장되는 비즈니스 요구 사항을 충족할 만큼 빠르게 확장할 수 없습니다. 회사는 AWS로의 마이그레이션을 계획하기 위해 온프레미스 서버와 워크로드에 대한 사용 및 구성 데이터를 수집하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. AWS Migration Hub에서 홈 AWS 리전을 설정합니다. AWS Systems Manager를 사용하여 온프레미스 서버에 대한 데이터를 수집합니다.
B. AWS Migration Hub에서 홈 AWS 리전을 설정합니다. AWS Application Discovery Service를 사용하여 온프레미스 서버에 대한 데이터를 수집합니다.
C. AWS Schema Conversion Tool(AWS SCT)을 사용하여 관련 템플릿을 만듭니다. AWS Trusted Advisor를 사용하여 온프레미스 서버에 대한 데이터를 수집합니다.
D. AWS Schema Conversion Tool(AWS SCT)을 사용하여 관련 템플릿을 만듭니다. AWS Database Migration Service(AWS DMS)를 사용하여 온프레미스 서버에 대한 데이터를 수집합니다.
정답 B
AWS Migration Hub는 발견, 평가, 계획 및 실행을 통한 가이드 엔드투엔드 마이그레이션 및 현대화 여정을 제공합니다. https://aws.amazon.com/migration-hub/ AWS Application Discovery Service는 온프레미스 서버 및 데이터베이스에 대한 사용 및 구성 데이터를 수집하여 AWS 클라우드로의 마이그레이션을 계획하는 데 도움이 됩니다. Application Discovery Service는 AWS Migration Hub 및 AWS Database Migration Service Fleet Advisor와 통합되어 있습니다. https://docs.aws.amazon.com/application-discovery/latest/userguide/what-is-appdiscovery.html
#788.한 회사가 Amazon S3 버킷에 Apache Parquet 형식으로 10TB의 로그 파일을 저장했습니다. 이 회사는 가끔 SQL을 사용하여 로그 파일을 분석해야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. Amazon Aurora MySQL 데이터베이스를 만듭니다. AWS Database Migration Service(AWS DMS)를 사용하여 S3 버킷에서 Aurora로 데이터를 마이그레이션합니다. Aurora 데이터베이스에 SQL 문을 실행합니다.
B. Amazon Redshift 클러스터를 만듭니다. Redshift Spectrum을 사용하여 S3 버킷의 데이터에 직접 SQL 문을 실행합니다.
C. AWS Glue 크롤러를 만들어 S3 버킷에서 테이블 메타데이터를 저장하고 검색합니다. Amazon Athena를 사용하여 S3 버킷의 데이터에 직접 SQL 문을 실행합니다.
D. Amazon EMR 클러스터를 만듭니다. Apache Spark SQL을 사용하여 S3 버킷의 데이터에 직접 SQL 문을 실행합니다.
정답 C
S3 + SQL = 아테나
아파치 파켓 => 글루 크롤러
#795. 한 회사가 AWS 클라우드에서 긴밀하게 결합된 고성능 컴퓨팅(HPC) 환경을 설계하고 있습니다. 이 회사는 네트워킹 및 스토리지를 위해 HPC 환경을 최적화하는 기능을 포함해야 합니다.
어떤 솔루션 조합이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. AWS Global Accelerator에서 가속기를 만듭니다. 가속기에 대한 사용자 지정 라우팅을 구성합니다.
B. Amazon FSx for Lustre 파일 시스템을 만듭니다. 스크래치 스토리지로 파일 시스템을 구성합니다.
C. Amazon CloudFront 배포를 만듭니다. 뷰어 프로토콜 정책을 HTTP 및 HTTPS로 구성합니다.
D. Amazon EC2 인스턴스를 시작합니다. 인스턴스에 Elastic Fabric Adapter(EFA)를 연결합니다.
E. AWS Elastic Beanstalk 배포를 생성하여 환경을 관리합니다.
정답 B, D
Elastic Fabric Adapter(EFA)
• HPC에 대한 개선된 ENA, Linux에서만 작동
• 노드 간 통신, 밀접하게 결합된 워크로드에 적합
• MPI(Message Passing Interface) 표준 활용
• 기본 Linux OS를 우회하여 저지연, 안정적인 전송 제공
#799. 한 회사는 Amazon S3 버킷에 텍스트 파일로 저장된 레시피 레코드에서 재료 이름을 추출해야 합니다. 웹 애플리케이션은 재료 이름을 사용하여 Amazon DynamoDB 테이블을 쿼리하고 영양 점수를 결정합니다.
이 애플리케이션은 비식품 레코드와 오류를 처리할 수 있습니다. 이 회사에는 이 솔루션을 개발할 머신 러닝 지식이 있는 직원이 없습니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. PutObject 요청이 발생할 때 S3 Event Notifications를 사용하여 AWS Lambda 함수를 호출합니다. Amazon Comprehend를 사용하여 객체를 분석하고 재료 이름을 추출하도록 Lambda 함수를 프로그래밍합니다. Amazon Comprehend 출력을 DynamoDB 테이블에 저장합니다.
B. PutObject 요청이 발생할 때 Amazon EventBridge 규칙을 사용하여 AWS Lambda 함수를 호출합니다. Amazon Forecast를 사용하여 재료 이름을 추출하여 객체를 분석하도록 Lambda 함수를 프로그래밍합니다. DynamoDB 테이블에 Forecast 출력을 저장합니다.
C. PutObject 요청이 발생하면 S3 Event Notifications를 사용하여 AWS Lambda 함수를 호출합니다. Amazon Polly를 사용하여 레시피 레코드의 오디오 녹음을 만듭니다. S3 버킷에 오디오 파일을 저장합니다. Amazon Simple Notification Service(Amazon SNS)를 사용하여 URL을 직원에게 메시지로 보냅니다. 직원에게 오디오 파일을 듣고 영양 점수를 계산하도록 지시합니다. DynamoDB 테이블에 재료 이름을 저장합니다.
D. PutObject 요청이 발생할 때 Amazon EventBridge 규칙을 사용하여 AWS Lambda 함수를 호출합니다. Amazon SageMaker를 사용하여 Lambda 함수를 프로그래밍하여 객체를 분석하고 재료 이름을 추출합니다. SageMaker 엔드포인트의 추론 출력을 DynamoDB 테이블에 저장합니다.
정답 A
Amazon Comprehend는 자연어 처리(NLP)를 사용하여 문서의 내용에 대한 통찰력을 추출합니다. 문서의 엔터티, 핵심 문구, 언어, 감정 및 기타 공통 요소를 인식하여 통찰력을 개발합니다. Amazon Comprehend를 사용하여 문서의 구조를 이해하여 새로운 제품을 만듭니다. 예를 들어 Amazon Comprehend를 사용하면 소셜 네트워킹 피드에서 제품 언급을 검색하거나 전체 문서 저장소에서 핵심 문구를 스캔할 수 있습니다. https://docs.aws.amazon.com/comprehend/latest/dg/what-is.html
What is Amazon Comprehend? - Amazon Comprehend
If your company publishes a catalog, let Amazon Comprehend tell you what customers think of your products. Send each customer comment to the DetectSentiment operation and it will tell you whether customers feel positive, negative, neutral, or mixed about a
docs.aws.amazon.com
B. 예측은 시계열입니다.
C. Polly를 사용하여 직원들이 듣게 하기 위해 오디오 녹음을 만드는 것은 적어도 비효율적입니다.
D. 질문은 ML을 요구하지 않습니다. SageMaker = ML
#802. 한 회사가 AWS에서 결제 애플리케이션을 실행하려고 합니다. 이 애플리케이션은 모바일 기기에서 결제 알림을 수신합니다. 결제 알림은 추가 처리를 위해 전송되기 전에 기본적인 검증이 필요합니다.
백엔드 처리 애플리케이션은 장기 실행되며 컴퓨팅과 메모리를 조정해야 합니다. 이 회사는 인프라를 관리하고 싶어하지 않습니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. 대기열을 Amazon EventBridge 규칙과 통합하여 모바일 기기에서 결제 알림을 수신합니다. 결제 알림을 검증하고 백엔드 애플리케이션으로 알림을 보내도록 규칙을 구성합니다. Amazon Elastic Kubernetes Service(Amazon EKS) Anywhere에 백엔드 애플리케이션을 배포합니다. 독립형 클러스터를 만듭니다.
B. Amazon API Gateway API를 만듭니다. API를 AWS Step Functions 상태 머신과 통합하여 모바일 기기에서 결제 알림을 수신합니다. 상태 머신을 호출하여 결제 알림을 검증하고 백엔드 애플리케이션으로 알림을 보냅니다. Amazon Elastic Kubernetes Service(Amazon EKS)에 백엔드 애플리케이션을 배포합니다. 자체 관리 노드가 있는 EKS 클러스터를 구성합니다.
C. Amazon Simple Queue Service(Amazon SQS) 대기열을 만듭니다. 모바일 기기에서 결제 알림을 수신하기 위해 대기열을 Amazon EventBridge 규칙과 통합합니다. 결제 알림을 검증하고 백엔드 애플리케이션으로 알림을 보내도록 규칙을 구성합니다. Amazon EC2 Spot Instances에 백엔드 애플리케이션을 배포합니다. 기본 할당 전략으로 Spot Fleet을 구성합니다.
D. Amazon API Gateway API를 만듭니다. API를 AWS Lambda와 통합하여 모바일 기기에서 결제 알림을 받습니다. Lambda 함수를 호출하여 결제 알림을 검증하고 알림을 백엔드 애플리케이션으로 보냅니다. Amazon Elastic Container Service(Amazon ECS)에 백엔드 애플리케이션을 배포합니다. AWS Fargate 시작 유형으로 Amazon ECS를 구성합니다.
정답 D
답변D 기본 검증을 위해 Lambda 함수를 사용할 것입니다.
15분 이상 걸리지 않을 것이므로 Lambda가 그 작업에 완벽합니다.
그런 다음 백엔드 처리 애플리케이션이 장기 실행 중이라는 정보가 있고 컴퓨팅 및 메모리 조정이 필요하며 모든 것이 자동화되어야 하며 회사는 인프라를 관리하고 싶어하지 않습니다.
그런 상황에서 ECS가 있는 Fargate는 모든 지불에 대해 별도로 백그라운드 애플리케이션을 실행할 수 있으므로 이상적이며 사용 중인 리소스 양만 조정하면 됩니다. 지불이 많을수록 실행 중인 애플리케이션이 많아지고 사용 중인 리소스가 많아지고 그 반대입니다.
#806. 소셜 미디어 회사에 데이터를 수집하고 처리하는 워크로드가 있습니다. 워크로드는 온프레미스 NFS 스토리지에 데이터를 저장합니다. 데이터 저장소는 회사의 확장되는 비즈니스 요구 사항을 충족할 만큼 빠르게 확장할 수 없습니다. 회사는 현재 데이터 저장소를 AWS로 마이그레이션하려고 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족할 솔루션은 무엇입니까?
A. AWS Storage Gateway Volume Gateway를 설정합니다. Amazon S3 Lifecycle 정책을 사용하여 데이터를 적절한 스토리지 클래스로 전환합니다.
B. AWS Storage Gateway Amazon S3 File Gateway를 설정합니다. Amazon S3 Lifecycle 정책을 사용하여 데이터를 적절한 스토리지 클래스로 전환합니다.
C. Amazon Elastic File System(Amazon EFS) Standard-Infrequent Access(Standard-IA) 스토리지 클래스를 사용합니다. Infrequent Access 라이프사이클 정책을 활성화합니다.
D. Amazon Elastic File System(Amazon EFS) One Zone-Infrequent Access(One Zone-IA) 스토리지 클래스를 사용합니다. Infrequent Access 라이프사이클 정책을 활성화합니다.
정답 B
이 솔루션은 기존 애플리케이션이나 워크플로를 변경하지 않고도 회사가 온프레미스 NFS 데이터 스토어를 AWS로 마이그레이션할 수 있기 때문에 가장 비용 효율적으로 요구 사항을 충족합니다.
AWS Storage Gateway는 온프레미스와 AWS 스토리지 간의 원활하고 안전한 통합을 제공하는 하이브리드 클라우드 스토리지 서비스입니다.
Amazon S3 File Gateway는 저지연 액세스를 위한 로컬 캐싱과 함께 Amazon S3에 파일 인터페이스를 제공하는 AWS Storage Gateway 유형입니다.
Amazon S3 File Gateway를 설정하면 회사는 NFS와 같은 표준 파일 프로토콜을 사용하여 파일을 Amazon S3의 객체로 저장하고 검색할 수 있습니다.
#808. 한 회사가 Amazon Elastic Container Service(Amazon ECS)에서 워크로드를 실행합니다. ECS 작업 정의에서 사용하는 컨테이너 이미지는 Common Vulnerabilities and Exposures(CVE)에 대해 스캔해야 합니다. 생성된 새 컨테이너 이미지도 스캔해야 합니다.
워크로드에 가장 적은 변경을 가하면서 이러한 요구 사항을 충족하는 솔루션은 무엇입니까?
A. Amazon Elastic Container Registry(Amazon ECR)를 개인 이미지 저장소로 사용하여 컨테이너 이미지를 저장합니다. ECR 기본 스캔에 대해 푸시 필터에서 스캔을 지정합니다.
B. 컨테이너 이미지를 Amazon S3 버킷에 저장합니다. Amazon Macie를 사용하여 이미지를 스캔합니다. S3 이벤트 알림을 사용하여 s3:ObjectCreated:Put 이벤트 유형이 있는 모든 이벤트에 대해 Macie 스캔을 시작합니다.
C. 워크로드를 Amazon Elastic Kubernetes Service(Amazon EKS)에 배포합니다. Amazon Elastic Container Registry(Amazon ECR)를 개인 이미지 저장소로 사용합니다. ECR 강화 스캔에 대해 푸시 필터에서 스캔을 지정합니다.
D. 버전 관리가 활성화된 Amazon S3 버킷에 컨테이너 이미지를 저장합니다. s3:ObjectCreated:* 이벤트에 대한 S3 이벤트 알림을 구성하여 AWS Lambda 함수를 호출합니다. Lambda 함수를 구성하여 Amazon Inspector 스캔을 시작합니다.
정답 A
작업 부하 변경 및 CVE가 덜 필요합니다. https://docs.aws.amazon.com/AmazonECR/latest/userguide/image-scanning.html
#810. 한 회사가 공급업체로부터 데이터를 수집하고 처리합니다. 공급업체는 공급업체 자체 AWS 계정의 Amazon RDS for MySQL 데이터베이스에 데이터를 저장합니다. 회사의 VPC에는 인터넷 게이트웨이, AWS Direct Connect 연결 또는 AWS Site-to-Site VPN 연결이 없습니다. 회사는 공급업체 데이터베이스에 있는 데이터에 액세스해야 합니다.
어떤 솔루션이 이 요구 사항을 충족할까요?
A. 공급업체에 AWS Hosted Connection Direct Connect Program에 가입하도록 지시합니다. VPC 피어링을 사용하여 회사의 VPC와 공급업체의 VPC를 연결합니다.
B. 회사의 VPC와 공급업체의 VPC 사이에 클라이언트 VPN 연결을 구성합니다. VPC 피어링을 사용하여 회사의 VPC와 공급업체의 VPC를 연결합니다.
C. 공급업체에 네트워크 로드 밸런서(NLB)를 만들도록 지시합니다. NLB를 Amazon RDS for MySQL 데이터베이스 앞에 배치합니다. AWS PrivateLink를 사용하여 회사의 VPC와 공급업체의 VPC를 통합합니다.
D. AWS Transit Gateway를 사용하여 회사의 VPC와 공급업체의 VPC를 통합합니다. VPC 피어링을 사용하여 회사의 VPC와 공급업체의 VPC를 연결합니다.
정답 C
AWS PrivateLink를 사용하면 VPC의 개인 IP 주소를 통해 일부 AWS 서비스, 다른 AWS 계정에서 호스팅하는 서비스(엔드포인트 서비스라고 함) 및 지원되는 AWS Marketplace 파트너 서비스에 연결할 수 있습니다. 인터페이스 엔드포인트는 VPC의 서브넷에 있는 탄력적 네트워크 인터페이스와 IP 주소를 사용하여 VPC 내부에 직접 생성됩니다. 즉, VPC 보안 그룹을 사용하여 엔드포인트에 대한 액세스를 관리할 수 있습니다. https://docs.aws.amazon.com/whitepapers/latest/aws-vpc-connectivity-options/aws-privatelink.html
#812. A. AWS Glue Studio 비주얼 캔버스를 구성하여 데이터를 변환합니다. AWS Glue 작업을 사용하여 직원과 변환 단계를 공유합니다.
B. Amazon EMR Serverless를 구성하여 데이터를 변환합니다. EMR Serverless 작업을 사용하여 직원과 변환 단계를 공유합니다.
C. AWS Glue DataBrew를 구성하여 데이터를 변환합니다. DataBrew 레시피를 사용하여 직원과 변환 단계를 공유합니다.
D. 데이터에 대한 Amazon Athena 테이블을 만듭니다. 데이터를 변환하기 위한 Athena SQL 쿼리를 작성합니다. Athena SQL 쿼리를 직원과 공유합니다.
정답 C
AWS Glue DataBrew: 코드를 작성하지 않고도 데이터를 정리하고 정규화할 수 있는 시각적 데이터 준비 도구입니다. 이상치 필터링, 날짜 정규화, 집계 생성과 같은 일반적인 작업에 대한 기본 제공 변환 기능이 있습니다. 또한 회사에서 요구하는 데이터 계보 및 프로파일링 기능도 제공합니다.
DataBrew Recipes: 데이터 변환 단계를 정의하는 재사용 가능한 워크플로입니다. 다른 직원과 쉽게 공유할 수 있으므로 데이터 준비 작업에 협업하기가 간단합니다.
#816. 한 회사에는 SFTP를 사용하여 여러 공급업체로부터 재무 데이터를 수집하는 온프레미스 애플리케이션이 있습니다. 이 회사는 AWS 클라우드로 마이그레이션하고 있습니다. 이 회사는 Amazon S3 API를 사용하여 공급업체의 파일을 업로드하는 애플리케이션을 만들었습니다.
일부 공급업체는 S3 API를 지원하지 않는 레거시 애플리케이션에서 시스템을 실행합니다. 공급업체는 SFTP 기반 애플리케이션을 사용하여 데이터를 업로드하려고 합니다. 이 회사는 레거시 애플리케이션을 사용하는 공급업체의 요구 사항에 대해 관리형 서비스를 사용하려고 합니다.
어떤 솔루션이 최소한의 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 레거시 애플리케이션을 사용하는 공급업체의 스토리지에서 Amazon S3로 데이터를 복제하기 위해 AWS Database Migration Service(AWS DMS) 인스턴스를 만듭니다. 공급업체에 AWS DMS 인스턴스에 액세스할 수 있는 자격 증명을 제공합니다.
B. 레거시 애플리케이션을 사용하는 공급업체를 위한 AWS Transfer Family 엔드포인트를 생성합니다.
C. SFTP 서버를 실행하도록 Amazon EC2 인스턴스를 구성합니다. 레거시 애플리케이션을 사용하는 공급업체에 SFTP 서버를 사용하여 데이터를 업로드하도록 지시합니다.
D. 레거시 애플리케이션을 사용하여 SMB 파일 공유에 파일을 업로드하는 공급업체를 위해 Amazon S3 파일 게이트웨이를 구성합니다.
정답 B
AWS Transfer Family는 Amazon S3 및 Amazon EFS 스토리지에 액세스하기 위한 SFTP, FTPS 및 FTP 엔드포인트를 설정할 수 있는 완전 관리형 서비스입니다. AWS Transfer Family 엔드포인트를 생성하면 이 회사는 공급업체에 익숙한 SFTP 인터페이스를 제공하여 레거시 애플리케이션을 변경하지 않고도 Amazon S3에 직접 데이터를 업로드할 수 있습니다. 이 솔루션을 사용하면 회사가 EC2 인스턴스나 파일 게이트웨이와 같은 추가 인프라를 관리하고 유지할 필요가 없습니다. AWS Transfer Family는 확장성, 가용성 및 보안을 처리하여 회사의 운영 오버헤드를 줄입니다.
#822. 한 회사가 최근 애플리케이션을 AWS로 마이그레이션했습니다. 이 애플리케이션은 여러 가용성 영역에 걸쳐 Auto Scaling 그룹의 Amazon EC2 Linux 인스턴스에서 실행됩니다. 이 애플리케이션은 EFS Standard-Infrequent Access 스토리지를 사용하는 Amazon Elastic File System(Amazon EFS) 파일 시스템에 데이터를 저장합니다. 이 애플리케이션은 회사의 파일을 인덱싱합니다. 이 인덱스는 Amazon RDS 데이터베이스에 저장됩니다.
이 회사는 일부 애플리케이션과 서비스 변경으로 스토리지 비용을 최적화해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족할 솔루션은 무엇입니까?
A. Intelligent-Tiering 수명 주기 정책을 사용하는 Amazon S3 버킷을 만듭니다. 모든 파일을 S3 버킷에 복사합니다. Amazon S3 API를 사용하여 파일을 저장하고 검색하도록 애플리케이션을 업데이트합니다.
B. Amazon FSx for Windows File Server 파일 공유를 배포합니다. CIFS 프로토콜을 사용하여 파일을 저장하고 검색하도록 애플리케이션을 업데이트합니다.
C. Amazon FSx for OpenZFS 파일 시스템 공유를 배포합니다. 새 마운트 지점을 사용하여 파일을 저장하고 검색하도록 애플리케이션을 업데이트합니다.
D. S3 Glacier Flexible Retrieval을 사용하는 Amazon S3 버킷을 만듭니다. 모든 파일을 S3 버킷에 복사합니다. Amazon S3 API를 사용하여 표준 검색으로 파일을 저장하고 검색하도록 애플리케이션을 업데이트합니다.
정답 A
B - Windows
C - OpenZFS 비용 ~ NFS 비용 *3 (주로 고성능 데이터 분석에 최적화됨)
D - Glacier Standard 검색: 12시간
#825. 한 회사가 Amazon S3 버킷으로 데이터를 마이그레이션하려고 계획하고 있습니다. 데이터는 S3 버킷 내에서 휴면 상태로 암호화되어야 합니다. 암호화 키는 매년 자동으로 순환되어야 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. S3 버킷으로 데이터를 마이그레이션합니다. Amazon S3 관리 키(SSE-S3)로 서버 측 암호화를 사용합니다. SSE-S3 암호화 키의 기본 제공 키 로테이션 동작을 사용합니다.
B. AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. 자동 키 로테이션을 활성화합니다. S3 버킷의 기본 암호화 동작을 고객 관리 KMS 키를 사용하도록 설정합니다. 데이터를 S3 버킷으로 마이그레이션합니다.
C. AWS Key Management Service(AWS KMS) 고객 관리 키를 만듭니다. S3 버킷의 기본 암호화 동작을 고객 관리 KMS 키를 사용하도록 설정합니다. 데이터를 S3 버킷으로 마이그레이션합니다. 매년 KMS 키를 수동으로 순환합니다.
D. 고객 키 자료를 사용하여 데이터를 암호화합니다. 데이터를 S3 버킷으로 마이그레이션합니다. 키 자료 없이 AWS Key Management Service(AWS KMS) 키를 만듭니다. 고객 키 자료를 KMS 키로 가져옵니다. 자동 키 로테이션을 활성화합니다.
정답 B
AnswerB 키 로테이션은 KMS가 사용 중일 때만 가능한 듯합니다. AWS 관리형 키를 사용할 경우 로테이션이 강제되고 키 로테이션 시간에 대한 사양을 제공하지 않으면 KMS가 365일마다 키를 로테이션합니다. https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingKMSEncryption.html https://docs.aws.amazon.com/kms/latest/developerguide/rotate-keys.html https://docs.aws.amazon.com/kms/latest/developerguide/concepts.html#key-mgmt
#838. 한 회사가 Amazon RDS 데이터베이스로 지원되는 Amazon EC2에서 매우 민감한 애플리케이션을 실행하고 있습니다. 규정 준수 규정에 따라 모든 개인 식별 정보(PII)는 휴면 상태에서 암호화되어야 합니다.
솔루션 아키텍트는 인프라를 최소한으로 변경하여 이 요구 사항을 충족하기 위해 어떤 솔루션을 추천해야 할까요?
A. AWS Certificate Manager를 배포하여 인증서를 생성합니다. 인증서를 사용하여 데이터베이스 볼륨을 암호화합니다.
B. AWS CloudHSM을 배포하고 암호화 키를 생성하고 해당 키를 사용하여 데이터베이스 볼륨을 암호화합니다.
C. AWS Key Management Service(AWS KMS) 키를 사용하여 SSL 암호화를 구성하여 데이터베이스 볼륨을 암호화합니다.
D. AWS Key Management Service(AWS KMS) 키를 사용하여 Amazon Elastic Block Store(Amazon EBS) 암호화 및 Amazon RDS 암호화를 구성하여 인스턴스 및 데이터베이스 볼륨을 암호화합니다.
정답 D
암호화는 KMS여야 하고, SSL은 저장용이 아닌 전송용이어야 합니다. 질문에서 EBS 볼륨에 대해 전혀 언급하지 않았지만, 저는 여전히 D를 사용할 것입니다.
Amazon RDS는 Amazon EBS 볼륨을 스토리지에 사용합니다. Amazon EBS 암호화를 구성하면 기본 스토리지 볼륨이 암호화됩니다.
#842. 한 회사가 Amazon Elastic File System(Amazon EFS) 파일 시스템에 영구 데이터를 저장하는 여러 Amazon EC2 인스턴스에서 애플리케이션을 실행합니다. 이 회사는 AWS 관리 서비스 솔루션을 사용하여 다른 AWS 리전으로 데이터를 복제해야 합니다.
어떤 솔루션이 이러한 요구 사항을 가장 비용 효율적으로 충족할까요?
A. EFS-to-EFS 백업 솔루션을 사용하여 다른 지역의 EFS 파일 시스템으로 데이터를 복제합니다.
B. EFS 파일 시스템에서 Amazon S3 버킷으로 데이터를 복사하기 위해 매일 밤 스크립트를 실행합니다. S3 버킷에서 S3 Cross-Region Replication을 활성화합니다.
C. 다른 리전에 VPC를 만듭니다. 리전 간 VPC 피어를 설정합니다. 매일 밤 rsync를 실행하여 원래 리전에서 새 리전으로 데이터를 복사합니다.
D. AWS Backup을 사용하여 매일 백업을 수행하고 다른 리전에 복제하는 규칙이 있는 백업 계획을 만듭니다. EFS 파일 시스템 리소스를 백업 계획에 할당합니다.
정답 D
EFS-EFS 백업: 이 솔루션은 소스 Amazon EFS Folesystem과 동일한 AWS 지역에 배포해야 합니다.
B, C가 아닙니다. 관리형 AWS 솔루션이 아닙니다.
D: AWS 백업으로 작업을 수행할 수 있으며, 관리형 서비스입니다.
#854. 한 회사가 Amazon Aurora 데이터베이스에 연결되는 Amazon EC2 인스턴스 그룹을 실행하려고 합니다. 이 회사는 EC2 인스턴스와 Aurora DB 클러스터를 배포하기 위해 AWS CloudFormation 템플릿을 빌드했습니다. 이 회사는 인스턴스가 안전한 방식으로 데이터베이스에 인증할 수 있도록 허용하려고 합니다. 이 회사는 정적 데이터베이스 자격 증명을 유지하고 싶어하지 않습니다.
어떤 솔루션이 최소한의 운영 노력으로 이러한 요구 사항을 충족합니까?
A. 사용자 이름과 비밀번호로 데이터베이스 사용자를 만듭니다. 데이터베이스 사용자 이름과 비밀번호에 대한 매개변수를 CloudFormation 템플릿에 추가합니다. 인스턴스가 시작될 때 EC2 인스턴스에 매개변수를 전달합니다.
B. 사용자 이름과 비밀번호로 데이터베이스 사용자를 만듭니다. 사용자 이름과 비밀번호를 AWS Systems Manager Parameter Store에 저장합니다. EC2 인스턴스를 구성하여 Parameter Store에서 데이터베이스 자격 증명을 검색합니다.
C. IAM 데이터베이스 인증을 사용하도록 DB 클러스터를 구성합니다. IAM 인증에 사용할 데이터베이스 사용자를 만듭니다. 인스턴스의 애플리케이션이 데이터베이스에 액세스할 수 있도록 EC2 인스턴스에 역할을 연결합니다.
D. IAM 사용자로 IAM 데이터베이스 인증을 사용하도록 DB 클러스터를 구성합니다. IAM 사용자와 일치하는 이름을 가진 데이터베이스 사용자를 만듭니다. 인스턴스의 애플리케이션이 데이터베이스에 액세스할 수 있도록 IAM 사용자를 EC2 인스턴스와 연결합니다.
정답 C
답변C 고객은 제가 알기로 비밀번호 로테이션을 관리하지 않으려고 하므로 A와 B는 여기서 최상의 솔루션이 아닙니다. IAM 사용자를 EC2 인스턴스와 연결할 수는 없지만 IAM 역할은 연결할 수 있다고 생각합니다. 요약하면 C https://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_use_switch-role-ec2.html https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/iam-roles-for-amazon-ec2.html https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/UsingWithRDS.IAMDBAuth.html
#857. 한 회사가 Amazon EC2 인스턴스에서 고성능 컴퓨팅(HPC) 워크로드를 실행하려고 합니다. 워크로드에는 짧은 대기 시간의 네트워크 성능과 긴밀하게 결합된 노드 간 통신을 통한 높은 네트워크 처리량이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. EC2 인스턴스를 클러스터 배치 그룹의 일부로 구성합니다.
B. 전용 인스턴스 테넌시로 EC2 인스턴스를 시작합니다.
C. EC2 인스턴스를 스팟 인스턴스로 시작합니다.
D. EC2 인스턴스가 시작될 때 온디맨드 용량 예약을 구성합니다.
정답 A
긴밀하게 결합된 저지연 HPC - 클러스터 배치 그룹
#861. 한 회사가 온프레미스 MySQL 데이터베이스를 AWS로 이전하려고 합니다. 데이터베이스는 클라이언트 기반 애플리케이션에서 정기적으로 가져오기를 허용하여 많은 양의 쓰기 작업이 발생합니다. 이 회사는 트래픽 양이 애플리케이션 내에서 성능 문제를 일으킬 수 있다고 우려합니다.
솔루션 아키텍트는 AWS에서 아키텍처를 어떻게 설계해야 할까요?
A. Provisioned IOPS SSD 스토리지로 Amazon RDS for MySQL DB 인스턴스를 프로비저닝합니다. Amazon CloudWatch를 사용하여 쓰기 작업 메트릭을 모니터링합니다. 필요한 경우 프로비저닝된 IOPS를 조정합니다.
B. General Purpose SSD 스토리지가 있는 Amazon RDS for MySQL DB 인스턴스를 프로비저닝합니다. DB 인스턴스 앞에 Amazon ElastiCache 클러스터를 배치합니다. 대신 ElastiCache를 쿼리하도록 애플리케이션을 구성합니다.
C. 메모리 최적화 인스턴스 유형으로 Amazon DocumentDB(MongoDB 호환) 인스턴스를 프로비저닝합니다. 성능 관련 문제에 대해 Amazon CloudWatch를 모니터링합니다. 필요한 경우 인스턴스 클래스를 변경합니다.
D. 일반 목적 성능 모드에서 Amazon Elastic File System(Amazon EFS) 파일 시스템을 프로비저닝합니다. IOPS 병목 현상에 대해 Amazon CloudWatch를 모니터링합니다. 필요한 경우 프로비저닝된 처리량 성능 모드로 변경합니다.
정답 A
대량의 쓰기 작업 -> 프로비저닝된 IOPS SSD 스토리지
#865. 회사의 거의 실시간 스트리밍 애플리케이션이 AWS에서 실행 중입니다. 데이터가 수집됨에 따라 데이터에서 작업이 실행되고 완료하는 데 30분이 걸립니다. 워크로드는 들어오는 데이터의 양이 많아 자주 높은 지연 시간을 경험합니다. 솔루션 아키텍트는 성능을 향상시키기 위해 확장 가능하고 서버리스 솔루션을 설계해야 합니다. 솔루션 아키텍트는
어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)
A. Amazon Kinesis Data Firehose를 사용하여 데이터를 수집합니다.
B. AWS Lambda를 AWS Step Functions와 함께 사용하여 데이터를 처리합니다.
C. AWS Database Migration Service(AWS DMS)를 사용하여 데이터를 수집합니다.
D. Auto Scaling 그룹에서 Amazon EC2 인스턴스를 사용하여 데이터를 처리합니다.
E. Amazon ECS(Amazon Elastic Container Service)와 함께 AWS Fargate를 사용하여 데이터를 처리합니다.
정답 A, E
A-실시간 데이터 수집
E-서버리스 옵션 ECS+fargate
#868. 글로벌 기업이 AWS에서 워크로드를 실행합니다. 이 회사의 애플리케이션은 민감한 데이터 저장 및 분석을 위해 AWS 리전에서 Amazon S3 버킷을 사용합니다. 이 회사는 매일 여러 S3 버킷에 수백만 개의 객체를 저장합니다. 이 회사는 버전 관리가 활성화되지 않은 모든 S3 버킷을 식별하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
B. Amazon S3 Storage Lens를 사용하여 여러 지역에서 버전 관리가 활성화되지 않은 모든 S3 버킷을 식별합니다.
C. S3에 대한 IAM Access Analyzer를 활성화하여 여러 지역에서 버전 관리가 활성화되지 않은 모든 S3 버킷을 식별합니다.
D. 버전 관리가 활성화되지 않은 모든 S3 버킷을 식별하기 위해 S3 다중 지역 액세스 포인트를 생성합니다.
정답 B
https://aws.amazon.com/blogs/aws/s3-storage-lens/
Introducing Amazon S3 Storage Lens – Organization-wide Visibility Into Object Storage | Amazon Web Services
When starting out in the cloud, a customer’s storage requirements might consist of a handful of S3 buckets, but as they grow, migrate more applications and realize the power of the cloud, things can become more complicated. A customer may have tens or ev
aws.amazon.com
#874. 한 회사가 AWS 클라우드에서 애플리케이션을 호스팅합니다. 이 애플리케이션은 Elastic Load Balancing(ELB) 로드 밸런서 뒤의 Auto Scaling 그룹의 Amazon EC2 인스턴스에서 실행됩니다. 이 애플리케이션은 Amazon DynamoDB 테이블에 연결됩니다.
재해 복구(DR) 목적으로 이 회사는 최소한의 다운타임으로 다른 AWS 리전에서 애플리케이션을 사용할 수 있도록 하려고 합니다.
어떤 솔루션이 이러한 요구 사항을 최소 다운타임으로 충족할까요?
A. DR 지역에서 자동 확장 그룹과 ELB를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. DNS 장애 조치를 구성하여 새 DR 지역의 ELB를 가리킵니다.
B. 필요할 때 시작할 EC2 인스턴스, ELB 및 DynamoDB 테이블을 만들기 위한 AWS CloudFormation 템플릿을 만듭니다. 새 DR 지역의 ELB를 가리키도록 DNS 장애 조치를 구성합니다.
C. EC2 인스턴스와 필요할 때 시작할 ELB를 만들기 위한 AWS CloudFormation 템플릿을 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. DNS 장애 조치를 구성하여 새 DR 지역의 ELB를 가리킵니다.
D. DR 지역에서 자동 확장 그룹과 ELB를 만듭니다. DynamoDB 테이블을 글로벌 테이블로 구성합니다. 평가 기간이 10분인 Amazon CloudWatch 알람을 만들어 Amazon Route 53을 업데이트하여 DR 지역의 ELB를 가리키도록 하는 AWS Lambda 함수를 호출합니다.
정답 A
다운타임 DR 지역에서 인프라를 생성하기 위해 클라우드 형성을 사용하거나 자동 확장 + Lambda를 사용하는 대신 자동 확장 + DNS 장애 조치를 선택할 것입니다.
솔루션이 비용 효율적이어야 한다는 정보가 없고 주요 요구 사항은 다운타임을 최소화하는 것입니다. DR 지역에서 1 ELB와 1 서버를 사용하여 AUTOSCALING을 사용할 것이지만 필요한 경우 서버 수를 자동으로 늘릴 수 있습니다. 따라서 최소 1개의 서버와 ELB가 대기하고 글로벌 테이블 덕분에 DynamoDB도 같은 DR 지역에서 활성화되므로 DNS를 사용하여 사용자에게 새 대상에 대해 알려야 하며 DR 지역의 ELB에 대한 DNS 페일오버가 여기서 가장 좋은 솔루션입니다.
#876. 한 회사가 단일 가용성 영역에서 실행되는 Amazon EC2 인스턴스에서 애플리케이션을 호스팅합니다. 이 애플리케이션은 OSI(Open Systems Interconnection) 모델의 전송 계층을 사용하여 액세스할 수 있습니다. 이 회사는 고가용성을 위해 애플리케이션 아키텍처가 필요합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족할 단계 조합은 무엇입니까? (두 가지를 선택하세요.)
A. 다른 가용성 영역에서 새 EC2 인스턴스를 구성합니다. Amazon Route 53을 사용하여 모든 인스턴스로 트래픽을 라우팅합니다.
B. EC2 인스턴스 앞에 네트워크 로드 밸런서를 구성합니다.
C. 인스턴스로의 TCP 트래픽을 위한 네트워크 로드 밸런서를 구성합니다. 인스턴스로의 HTTP 및 HTTPS 트래픽을 위한 애플리케이션 로드 밸런서를 구성합니다.
D. EC2 인스턴스에 대한 자동 확장 그룹을 만듭니다. 자동 확장 그룹을 구성하여 여러 가용성 영역을 사용합니다. 자동 확장 그룹을 구성하여 인스턴스에서 애플리케이션 상태 검사를 실행합니다.
E. Amazon CloudWatch 알람을 만듭니다. 중지된 상태로 전환되는 EC2 인스턴스를 다시 시작하도록 알람을 구성합니다.
정답 B, D
"응용 프로그램은 TCP인 전송 계층을 사용하여 액세스할 수 있습니다."라고 언급되어 있으므로 ALB를 사용할 더 이상의 정보나 이유가 없으므로 B+D를 선택하겠습니다
포트 번호에 대한 정보가 없으며, 이는 NLB를 사용해야 함을 의미할 뿐입니다.
ALB는 HTTP 전용이므로 연결은 예를 들어 4000과 같이 모든 포트를 통해 이루어질 수 있으므로 이 솔루션을 사용할 이유가 없습니다.
여러 AZ에 있는 인스턴스로 자동 확장하는 것이 가장 좋은 솔루션입니다.
실패할 경우 새 EC2를 실행할 수 있으며 전체 AZ가 다운되는 경우 두 번째 EC2를 사용합니다.
HTTP/애플리케이션 계층에 대한 언급은 없고 OSI 4 - TCP > B에 대한 내용만 있으며,
자동 크기 조정을 위해서는 NLB가 D:로 충분할 것입니다.
#877. 한 회사가 Amazon S3를 사용하여 정적 웹사이트를 호스팅합니다. 이 회사는 웹페이지에 연락처 양식을 추가하려고 합니다. 연락처 양식에는 사용자가 이름, 이메일 주소, 전화번호 및 사용자 메시지를 입력할 수 있는 동적 서버 측 구성 요소가 있습니다.
이 회사는 매달 100건 미만의 사이트 방문을 예상합니다. 연락처 양식은 고객이 양식을 작성하면 이메일로 회사에 알려야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족하는 솔루션은 무엇입니까?
A. Amazon Elastic Container Service(Amazon ECS)에서 동적 연락처 양식을 호스팅합니다. Amazon Simple Email Service(Amazon SES)를 설정하여 타사 이메일 공급자에 연결합니다.
B. AWS Lambda 함수에서 연락처 양식을 반환하는 Amazon API Gateway 엔드포인트를 만듭니다. API Gateway에서 다른 Lambda 함수를 구성하여 Amazon Simple Notification Service(Amazon SNS) 토픽에 메시지를 게시합니다.
C. 정적 콘텐츠와 동적 콘텐츠에 AWS Amplify Hosting을 사용하여 웹사이트를 호스팅합니다. 서버 측 스크립팅을 사용하여 연락처 양식을 빌드합니다. Amazon Simple Queue Service(Amazon SQS)를 구성하여 회사에 메시지를 전달합니다.
D. Amazon S3에서 Windows Server를 실행하는 Amazon EC2 인스턴스로 웹사이트를 마이그레이션합니다. Windows Server용 인터넷 정보 서비스(IIS)를 사용하여 웹페이지를 호스팅합니다. 클라이언트 측 스크립팅을 사용하여 연락처 양식을 빌드합니다. 양식을 Amazon WorkMail과 통합합니다.
정답 B
"회사는 매달 100건 미만의 사이트 방문을 예상합니다"라고 적혀 있고 Lambda는 호출할 때마다 요금을 청구하므로 B를 선택합니다.
#878. 한 회사가 사업부를 위해 AWS Organizations에 전담 AWS 계정을 만듭니다. 최근에 중요한 알림이 할당된 계정 소유자 대신 사업부 계정의 루트 사용자 이메일 주소로 전송되었습니다. 이 회사는 모든 향후 알림을 청구, 운영 또는 보안 알림 범주에 따라 다른 직원에게 보낼 수 있도록 하려고 합니다.
이러한 요구 사항을 가장 안전하게 충족하는 솔루션은 무엇입니까?
A. 각 AWS 계정을 구성하여 회사가 관리하는 단일 이메일 주소를 사용합니다. 모든 계정 소유자가 이메일 계정에 액세스하여 알림을 받을 수 있는지 확인합니다. 각 사업부의 청구 팀, 보안 팀 및 운영 팀에 해당하는 배포 목록이 있는 각 AWS 계정에 대한 대체 연락처를 구성합니다.
B. 회사가 관리하는 각 사업부에 대해 다른 이메일 배포 목록을 사용하도록 각 AWS 계정을 구성합니다. 알림에 응답할 수 있는 관리자 이메일 주소로 각 배포 목록을 구성합니다. 각 사업부의 청구 팀, 보안 팀 및 운영 팀에 해당하는 배포 목록으로 각 AWS 계정에 대한 대체 연락처를 구성합니다.
C. 각 AWS 계정 루트 사용자 이메일 주소를 각 사업부에서 한 사람의 개별 회사 관리 이메일 주소로 구성합니다. 각 AWS 계정에 대한 대체 연락처를 각 사업부의 청구 팀, 보안 팀 및 운영 팀에 대한 해당 배포 목록과 함께 구성합니다.
D. 각 AWS 계정 루트 사용자를 구성하여 중앙 사서함으로 이동하는 이메일 별칭을 사용합니다. 청구 팀, 보안 팀 및 운영 팀 각각에 대해 단일 비즈니스 관리 이메일 배포 목록을 사용하여 각 계정에 대한 대체 연락처를 구성합니다.
정답 B
B. 회사가 관리하는 각 사업부에 대해 다른 이메일 배포 목록을 사용하도록 각 AWS 계정을 구성합니다. 알림에 응답할 수 있는 관리자 이메일 주소로 각 배포 목록을 구성합니다. 각 사업부의 청구 팀, 보안 팀 및 운영 팀에 해당하는 배포 목록으로 각 AWS 계정에 대한 대체 연락처를 구성합니다.
이 옵션이 가장 안전한 이유는 다음과 같습니다:
- 배포 목록 사용: 배포 목록을 사용하면 특정 팀(청구 팀, 보안 팀, 운영 팀)이 직접 관련 알림을 받을 수 있습니다. 이는 각 팀이 자신에게 중요한 알림을 놓치지 않도록 보장합니다.
- 관리자 이메일 포함: 각 배포 목록에 관리자 이메일 주소를 포함하여, 책임 있는 사람이 알림에 적시에 대응할 수 있도록 합니다.
- 다양한 알림 분류: 각 사업부별로 청구, 보안, 운영 팀에 해당하는 배포 목록을 구성하여, 알림을 정확히 해당 팀에 전달할 수 있습니다.
#879. 한 회사가 AWS에서 전자상거래 애플리케이션을 실행합니다. Amazon EC2 인스턴스는 구매를 처리하고 Amazon Aurora PostgreSQL DB 클러스터에 구매 세부 정보를 저장합니다.
고객은 최대 사용 시간에 애플리케이션 시간 초과를 경험하고 있습니다. 솔루션 아키텍트는 애플리케이션이 최대 사용 수요를 충족하도록 확장할 수 있도록 애플리케이션을 재설계해야 합니다.
이러한 요구 사항을 가장 비용 효율적으로 충족할 조치 조합은 무엇입니까? (두 가지를 선택하십시오.)
A. 처리가 완료될 때까지 구매를 다시 시도하도록 새 EC2 인스턴스의 자동 확장 그룹을 구성합니다. Amazon RDS Proxy를 사용하여 DB 클러스터에 연결하도록 애플리케이션을 업데이트합니다.
B. Aurora PostgreSQL DB 클러스터 앞에 Amazon ElastiCache 클러스터를 사용하도록 애플리케이션을 구성합니다.
C. 구매 요청을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내도록 애플리케이션을 업데이트합니다. SQS 대기열에서 읽는 새로운 EC2 인스턴스의 자동 확장 그룹을 구성합니다.
D. 처리가 완료될 때까지 티켓 구매를 다시 시도하도록 AWS Lambda 함수를 구성합니다.
E. 사용 계획으로 Amazon AP! Gateway REST API를 구성합니다.
정답 A, C
A) 주로 연결 풀링 및 가용성 문제를 위한 RDS 프록시를 사용합니다. 프록시는 너무 많은 연결을 위한 것입니다(성능을 위한 것이 아닙니다: 읽기 복제본, 캐싱). B는 읽기 문제를 해결하도록 설계된 캐싱입니다. (여기에는 시간 초과와 연결 문제가 있습니다.)
C: SQS는 분리에 좋은 방법입니다.
#881. 한 회사가 기본 TTL이 0초인 Amazon CloudFront 배포판이 있는 Amazon S3에서 트래픽이 많은 정적 웹사이트를 호스팅하고 있습니다. 이 회사는 웹사이트의 성능을 개선하기 위해 캐싱을 구현하고자 합니다. 그러나 이 회사는 또한 배포 후 몇 분 이상 오래된 콘텐츠가 제공되지 않도록 하려고 합니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 캐싱 방법 조합을 구현해야 합니까? (두 가지를 선택하세요.)
A. CloudFront 기본 TTL을 2분으로 설정합니다.
B. S3 버킷에서 기본 TTL을 2분으로 설정합니다.
C. Amazon S3의 객체에 Cache-Control 개인 지침을 추가합니다.
D. HTTP 응답에 Expires 헤더를 추가하는 AWS Lambda@Edge 함수를 만듭니다. 뷰어 응답에서 실행되도록 함수를 구성합니다.
E. Amazon S3의 객체에 24시간의 Cache-Control max-age 지시문을 추가합니다. 배포 시 CloudFront 무효화를 생성하여 엣지 캐시에서 변경된 모든 파일을 지웁니다.
정답 A, E
콘텐츠가 24시간 동안 클라이언트의 캐시를 계속 유지하는 경우 잘못된 답변입니다(답변 E).
최소 TTL이 0보다 큰 경우 CloudFront는 Cache-Control: no-cache, no-store 및/또는 private 지시문이 원본 헤더에 있는 경우에도 캐시 정책의 최소 TTL을 사용합니다. https://docs.aws.amazon.com/AmazonCloudFront/latest/DeveloperGuide/Expiration.html
#884. 솔루션 아키텍트가 3계층 웹 애플리케이션을 설계하고 있습니다. 이 아키텍처는 인터넷 연결 애플리케이션 로드 밸런서(ALB)와 프라이빗 서브넷의 Amazon EC2 인스턴스에서 호스팅되는 웹 계층으로 구성됩니다. 비즈니스 로직이 있는 애플리케이션 계층은 프라이빗 서브넷의 EC2 인스턴스에서 실행됩니다. 데이터베이스 계층은 프라이빗 서브넷의 EC2 인스턴스에서 실행되는 Microsoft SQL Server로 구성됩니다. 보안은 회사의 최우선 순위입니다.
솔루션 아키텍트는 어떤 보안 그룹 구성 조합을 사용해야 합니까? (세 가지를 선택하세요.)
A. ALB의 보안 그룹에서 인바운드 HTTPS 트래픽을 허용하도록 웹 계층의 보안 그룹을 구성합니다.
B. 웹 계층의 보안 그룹을 구성하여 0.0.0.0/0으로의 아웃바운드 HTTPS 트래픽을 허용합니다.
C. 애플리케이션 계층의 보안 그룹에서 들어오는 Microsoft SQL Server 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
D. 웹 계층의 보안 그룹에 대한 아웃바운드 HTTPS 트래픽과 Microsoft SQL Server 트래픽을 허용하도록 데이터베이스 계층의 보안 그룹을 구성합니다.
E. 웹 계층의 보안 그룹에서 인바운드 HTTPS 트래픽을 허용하도록 애플리케이션 계층의 보안 그룹을 구성합니다.
F. 웹 계층의 보안 그룹에 대한 아웃바운드 HTTPS 트래픽과 Microsoft SQL Server 트래픽을 허용하도록 애플리케이션 계층의 보안 그룹을 구성합니다.
정답 A, C, E
보안 그룹은 인스턴스를 보호하고 있으며 상태 저장형입니다.
기본적으로 나가는 트래픽은 허용하지만 들어오는 트래픽은 허용하지 않습니다.
따라서 들어오는 트래픽을 허용해야 합니다.
경로는 아래와 같습니다. ALB >>HTTPS >> 웹 계층 >>HTTPS >> 애플리케이션 >>SQL 트래픽 >> SQL DB
따라서, 웹 계층에서 들어오는 https 트래픽을 허용한 다음 애플리케이션 계층에서 들어오는 http를 허용하고 마지막에는 DB 계층에서 들어오는 SQL 트래픽을 허용해야 합니다.
#885. 한 회사가 프로덕션 애플리케이션의 새 버전을 출시했습니다. 이 회사의 워크로드는 Amazon EC2, AWS Lambda, AWS Fargate, Amazon SageMaker를 사용합니다.
이 회사는 사용량이 안정된 상태이므로 이제 워크로드를 비용 최적화하려고 합니다. 이 회사는 가장 적은 절감 플랜으로 가장 많은 서비스를 제공하고자 합니다.
어떤 절감 플랜 조합이 이러한 요구 사항을 충족할까요? (두 가지를 선택하세요.)
A. Amazon EC2 및 SageMaker에 대한 EC2 인스턴스 절감 플랜을 구매하세요.
B. Amazon EC2, Lambda 및 SageMaker에 대한 컴퓨팅 절감 플랜을 구매하세요.
C. SageMaker 저축 플랜을 구매하세요.
D. Lambda, Fargate 및 Amazon EC2에 대한 컴퓨팅 절감 플랜을 구매하세요.
E. Amazon EC2 및 Fargate에 대한 EC2 인스턴스 절감 플랜을 구매하세요.
정답 C, D
Amazon SageMaker용 머신 러닝 절감 계획이라고 하지만 매우 명확합니다. (C)
컴퓨팅 워크로드의 경우 여기에서 사용하는 3가지 컴퓨팅 옵션(EC2, Lambda 및 Fargate)을 모두 포괄하는 컴퓨팅 절감 계획이 필요합니다. (D)
#886. 한 회사가 Microsoft SQL Server 데이터베이스를 사용합니다. 회사의 애플리케이션은 데이터베이스에 연결되어 있습니다. 회사는 애플리케이션 코드를 최소한으로 변경하여 Amazon Aurora PostgreSQL 데이터베이스로 마이그레이션하려고 합니다.
이러한 요구 사항을 충족하는 단계 조합은 무엇입니까? (두 가지를 선택하세요.)
A. AWS Schema Conversion Tool(AWS SCT)을 사용하여 애플리케이션의 SQL 쿼리를 다시 작성합니다.
B. Aurora PostgreSQL에서 Babelfish를 활성화하여 애플리케이션에서 SQL 쿼리를 실행합니다.
C. AWS Schema Conversion Tool(AWS SCT) 및 AWS Database Migration Service(AWS DMS)를 사용하여 데이터베이스 스키마 및 데이터를 마이그레이션합니다.
D. Amazon RDS Proxy를 사용하여 애플리케이션을 Aurora PostgreSQL에 연결합니다.
E. AWS Database Migration Service(AWS DMS)를 사용하여 애플리케이션의 SQL 쿼리를 다시 작성합니다.
정답 B, C
DMS는 데이터베이스 마이그레이션을 허용하고 AWS Schema Conversion Tool(AWS SCT)을 사용하여 대상 테이블, 인덱스, 뷰, 트리거 등 일부 또는 전체를 생성합니다. https://docs.aws.amazon.com/dms/latest/userguide/Welcome.html
변경이 필요한 코드 양을 최소화하려면 babelfish https://aws.amazon.com/rds/aurora/babelfish/ 를 사용해야 합니다.
#888. 전자상거래 회사가 회사 웹사이트에서 사용자 클릭스트림 데이터를 수집하여 실시간 분석을 시도하고자 합니다. 웹사이트는 하루 종일 트래픽 패턴이 변동합니다. 이 회사는 다양한 수준의 트래픽에 적응할 수 있는 확장 가능한 솔루션이 필요합니다.
어떤 솔루션이 이러한 요구 사항을 충족할까요?
A. Amazon Kinesis Data Streams에서 온디맨드 모드로 데이터 스트림을 사용하여 클릭스트림 데이터를 캡처합니다. AWS Lambda를 사용하여 실시간으로 데이터를 처리합니다.
B. Amazon Kinesis Data Firehose를 사용하여 클릭스트림 데이터를 캡처합니다. AWS Glue를 사용하여 실시간으로 데이터를 처리합니다.
C. Amazon Kinesis Video Streams를 사용하여 클릭스트림 데이터를 캡처합니다. AWS Glue를 사용하여 실시간으로 데이터를 처리합니다.
D. Amazon Managed Service for Apache Flink(이전 명칭 Amazon Kinesis Data Analytics)를 사용하여 클릭스트림 데이터를 캡처합니다. AWS Lambda를 사용하여 실시간으로 데이터를 처리합니다.
정답 A
Apache Flink(이전 명칭 Amazon Kinesis Data Analytics)는 Lambda에 직접 데이터를 보내는 것을 허용하지 않음
Firehouse와 Stream은 모두 확장 가능합니다.
하지만 Firehose는 Stream이 아닌 곳에서 자동입니다.
하지만 이 질문은 Firehose가 자동이어야 한다고 말하지 않았고 Glue는 실시간 분석을 지원하지 않습니다.
#889. 한 회사가 Amazon EC2 Linux 인스턴스에서 독점적인 무상태 ETL 애플리케이션을 실행합니다. 이 애플리케이션은 Linux 바이너리이며 소스 코드를 수정할 수 없습니다. 이 애플리케이션은 단일 스레드이며 2GB의 RAM을 사용하며 CPU를 많이 사용합니다. 이 애플리케이션은 4시간마다 실행되도록 예약되어 있으며 최대
20분 동안 실행됩니다. 솔루션 아키텍트가 솔루션의 아키텍처를 수정하려고 합니다.
솔루션 아키텍트는 어떤 전략을 사용해야 합니까?
A. AWS Lambda를 사용하여 애플리케이션을 실행합니다. Amazon CloudWatch Logs를 사용하여 4시간마다 Lambda 함수를 호출합니다.
B. AWS Batch를 사용하여 애플리케이션을 실행합니다. AWS Step Functions 상태 머신을 사용하여 4시간마다 AWS Batch 작업을 호출합니다.
C. AWS Fargate를 사용하여 애플리케이션을 실행합니다. Amazon EventBridge(Amazon CloudWatch Events)를 사용하여 4시간마다 Fargate 작업을 호출합니다.
D. Amazon EC2 Spot Instances를 사용하여 애플리케이션을 실행합니다. AWS CodeDeploy를 사용하여 4시간마다 애플리케이션을 배포하고 실행합니다.
정답 C
Step 함수는 배치를 호출할 수 있지만 예약된 방식으로 호출할 수는 없습니다. 이벤트브릿지와 같은 트리거가 필요합니다.
step 함수는 eventbrige에서 트리거될 때 예약된 작업을 실행할 수 있지만, eventbridge를 통해 직접 호출할 수 있을 때 왜 aws batch를 실행하기 위해 복잡성 계층을 추가할까요?
제공된 링크 - https://aws.amazon.com/pt/blogs/compute/orchestrating-high-performance-computing-with-aws-step-functions-and-aws-batch/는 HPC에만 의미가 있으며, 실행해야 하는 단일 인스턴스입니다.
#893. 어떤 회사는 각 워크로드에 대한 AWS 계정을 만들어 워크로드를 분리하려고 합니다. 이 회사에는 워크로드에 대한 네트워킹 구성 요소를 중앙에서 관리하는 솔루션이 필요합니다. 이 솔루션은 또한 자동 보안 제어(가드레일)가 있는 계정을 만들어야 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. AWS Control Tower를 사용하여 계정을 배포합니다. 프라이빗 서브넷과 퍼블릭 서브넷이 있는 VPC가 있는 네트워킹 계정을 만듭니다. AWS Resource Access Manager(AWS RAM)를 사용하여 워크로드 계정과 서브넷을 공유합니다.
B. AWS Organizations를 사용하여 계정을 배포합니다. 프라이빗 서브넷과 퍼블릭 서브넷이 있는 VPC가 있는 네트워킹 계정을 만듭니다. AWS Resource Access Manager(AWS RAM)를 사용하여 워크로드 계정과 서브넷을 공유합니다.
C. AWS Control Tower를 사용하여 계정을 배포합니다. 각 워크로드 계정에 VPC를 배포합니다. 각 VPC가 transit gateway 연결을 사용하여 검사 VPC를 통해 라우팅되도록 구성합니다.
D. AWS Organizations를 사용하여 계정을 배포합니다. 각 워크로드 계정에 VPC를 배포합니다. 각 VPC가 transit gateway attachment를 사용하여 검사 VPC를 통해 라우팅되도록 구성합니다.
정답 A
AWS Control Tower를 활용해 계정 배포와 관리를 자동화하고, AWS RAM을 활용해 중앙 집중식 네트워킹 관리를 수행함으로써 운영 오버헤드를 최소화하는 동시에 작업 부하 분리와 자동 보안 제어에 대한 회사 요구 사항을 충족합니다.
#898. 한 회사가 AWS 클라우드에서 워크로드를 실행합니다. 이 회사는 전체 회사의 보안을 평가하고 워크로드 보호를 개선하기 위해 보안 데이터를 중앙에서 수집하려고 합니다.
어떤 솔루션이 가장 적은 개발 노력으로 이러한 요구 사항을 충족할까요?
A. AWS Lake Formation에서 데이터 레이크를 구성합니다. AWS Glue 크롤러를 사용하여 보안 데이터를 데이터 레이크로 수집합니다.
B. AWS Lambda 함수를 구성하여 .csv 형식으로 보안 데이터를 수집합니다. 데이터를 Amazon S3 버킷에 업로드합니다.
C. Amazon Security Lake에서 보안 데이터를 수집하기 위한 데이터 레이크를 구성합니다. Amazon S3 버킷에 데이터를 업로드합니다.
D. AWS Database Migration Service(AWS DMS) 복제 인스턴스를 구성하여 보안 데이터를 Amazon RDS 클러스터에 로드합니다.
정답 C
Amazon Security Lake는 AWS 환경의 보안 데이터를 자동으로 중앙 집중화하여 전체 조직에서 보안 데이터를 보다 완벽하게 이해할 수 있습니다. 또한 보호를 개선할 수도 있습니다.
#900. 한 회사가 하이브리드 환경에서 온프레미스 애플리케이션을 실행하기 위해 Amazon Elastic Container Service(Amazon ECS)를 사용하고자 합니다. 이 애플리케이션은 현재 온프레미스 컨테이너에서 실행됩니다.
이 회사에는 온프레미스, 하이브리드 또는 클라우드 환경에서 확장 가능한 단일 컨테이너 솔루션이 필요합니다. 이 회사는 AWS 클라우드에서 새로운 애플리케이션 컨테이너를 실행해야 하며 HTTP 트래픽에 로드 밸런서를 사용해야 합니다.
이러한 요구 사항을 충족하는 작업의 조합은 무엇입니까? (두 가지를 선택하십시오.)
A. 클라우드 애플리케이션 컨테이너에 AWS Fargate 시작 유형을 사용하는 ECS 클러스터를 설정합니다. 온프레미스 애플리케이션 컨테이너에 Amazon ECS Anywhere 외부 시작 유형을 사용합니다.
B. 클라우드 ECS 서비스를 위한 애플리케이션 로드 밸런서를 설정합니다.
C. 클라우드 ECS 서비스를 위한 네트워크 로드 밸런서를 설정합니다.
D. AWS Fargate 시작 유형을 사용하는 ECS 클러스터를 설정합니다. 클라우드 애플리케이션 컨테이너와 온프레미스 애플리케이션 컨테이너에 Fargate를 사용합니다.
E. 클라우드 애플리케이션 컨테이너에 Amazon EC2 시작 유형을 사용하는 ECS 클러스터를 설정합니다. 온프레미스 애플리케이션 컨테이너에 AWS Fargate 시작 유형이 있는 Amazon ECS Anywhere를 사용합니다.
정답 A, B
클라우드용 Fargate와 온프레미스용 ECS Anywhere를 사용하여 ECS 클러스터를 설정하고 애플리케이션 로드 밸런서를 사용하면 최소한의 운영 오버헤드로 확장 가능하고 하이브리드이며 클라우드 기반 솔루션을 제공할 수 있습니다.
#903. 한 회사가 수많은 애플리케이션이 액세스하는 Amazon S3 버킷에서 데이터 레이크를 관리합니다. S3 버킷에는 각 애플리케이션에 대한 고유한 접두사가 포함되어 있습니다. 이 회사는 각 애플리케이션을 특정 접두사로 제한하고 각 접두사 아래의 객체를 세부적으로 제어하려고 합니다.
어떤 솔루션이 가장 적은 운영 오버헤드로 이러한 요구 사항을 충족할까요?
A. 각 애플리케이션에 대한 전용 S3 액세스 포인트와 액세스 포인트 정책을 생성합니다.
B. S3 버킷의 각 객체에 대한 ACL 권한을 설정하기 위해 S3 일괄 작업 작업을 생성합니다.
C. S3 버킷의 객체를 각 애플리케이션의 새 S3 버킷으로 복제합니다. 접두사로 복제 규칙을 만듭니다.
D. 각 애플리케이션에 대해 S3 버킷의 객체를 새 S3 버킷으로 복제합니다. 각 애플리케이션에 대해 전용 S3 액세스 포인트를 만듭니다.
정답 A
답변 A 각 애플리케이션에 대해 별도의 액세스 포인트를 생성하면 관리 복잡성을 최소화하는 동시에 해당 접두사에 맞는 액세스 제어를 적용할 수 있습니다. 이 접근 방식은 권한을 깔끔하게 분리하고 잘못된 구성의 위험을 줄입니다.
옵션 B(S3 일괄 작업)는 각 개체에 대한 ACL 권한을 개별적으로 설정하는 것을 포함하므로 번거롭고 시간이 많이 걸릴 수 있습니다.
옵션 C(새 S3 버킷에 개체 복제)는 추가 버킷과 복제 규칙을 도입하여 관리 오버헤드를 증가시킵니다.
옵션 D(개체 복제 및 전용 S3 액세스 포인트 생성)는 복제와 액세스 포인트 생성을 결합하여 불필요한 복잡성을 추가합니다.
#905. 어떤 회사가 온프레미스 시스템에서 Amazon S3 버킷으로 데이터를 전송하려고 합니다. 이 회사는 세 개의 다른 계정에서 S3 버킷을 만들었습니다. 이 회사는 데이터가 인터넷을 통과하지 않고 비공개로 데이터를 전송해야 합니다. 이 회사는 AWS에 대한 기존 전용 연결이 없습니다.
솔루션 아키텍트는 이러한 요구 사항을 충족하기 위해 어떤 단계 조합을 취해야 합니까? (두 가지를 선택하세요.)
A. AWS 클라우드에서 네트워킹 계정을 설정합니다. 네트워킹 계정에서 프라이빗 VPC를 만듭니다. 온프레미스 환경과 프라이빗 VPC 사이에 프라이빗 VIF가 있는 AWS Direct Connect 연결을 설정합니다.
B. AWS 클라우드에서 네트워킹 계정을 설정합니다. 네트워킹 계정에서 프라이빗 VPC를 만듭니다. 온프레미스 환경과 프라이빗 VPC 사이에 퍼블릭 VIF를 사용하여 AWS Direct Connect 연결을 설정합니다.
C. 네트워킹 계정에서 Amazon S3 인터페이스 엔드포인트를 생성합니다.
D. 네트워킹 계정에서 Amazon S3 게이트웨이 엔드포인트를 생성합니다.
E. AWS 클라우드에서 네트워킹 계정을 설정합니다. 네트워킹 계정에서 프라이빗 VPC를 만듭니다. S3 버킷을 호스팅하는 계정의 VPC를 네트워크 계정의 VPC와 피어링합니다.
정답 A, C
공개 VIF + 인터페이스 엔드포인트
A,C는 인터페이스 엔드포인트로 온프레미스에서 액세스를 허용하는 반면 게이트웨이 엔드포인트는 허용하지 않습니다.