이 페이지는 시험 연구소 브레인덤프 [ http://blog.examslabs.com ]에서 내보낸 페이지입니다. 내보내기 날짜:월 12 23 15:05:27 2024 / +0000 GMT ___________________________________________________ Title: 정기적 인 무료 업데이트 Professional-Cloud-Database-Engineer 덤프 실제 시험 문제 테스트 엔진 Mar 13, 2023 [Q19-Q43] --------------------------------------------------- 정기적 인 무료 업데이트 Professional-Cloud-Database-Engineer 덤프 실제 시험 문제 테스트 엔진 Mar 13, 2023 실제 시험에서 경험한 검증된 답변으로 연습문제를 풀어보세요! Google Professional-Cloud-Database-Engineer 시험 강의 계획서 주제: 주제내용주제 1Google Cloud에서 확장성과 가용성이 뛰어난 데이터베이스를 구현하기 위한 개념 적용 시나리오가 주어지면 애플리케이션 가용성 요구 사항에 따라 유지 관리 창 및 알림 정의주제 2데이터베이스 사용자를 관리합니다, 인증 및 액세스를 포함한 데이터베이스 사용자 관리 데이터베이스 솔루션 실행 비용의 지속적인 평가 및 최적화 주제 3관리형 및 비관리형 데이터베이스 서비스 구분 Google Cloud에서 데이터베이스 솔루션 실행 비용 분석 주제 4Google Cloud에서 고가용성 데이터베이스 솔루션 프로비저닝 확장 가능한 고가용성 클라우드 데이터베이스 솔루션 설계 주제 5SQL과 NoSQL 비즈니스 요구 사항 구분 다중 지역, 지역, 데이터베이스 배포 전략 간의 장단점 평가하기6주제 주어진 시나리오에 적합한 데이터베이스 마이그레이션 도구 결정하기성능 요구 사항에 따라 데이터베이스 컴퓨팅 및 스토리지 크기 조정하기7주제 Google Cloud에서 확장 가능하고 가용성이 높은 데이터베이스 배포하기 데이터베이스 연결 및 액세스 관리 고려 사항 결정하기8주제 데이터베이스 마이그레이션 계획 및 수행하기, 폴백 계획 및 스키마 변환을 포함한 데이터베이스 마이그레이션 계획 및 수행고가용성 및 재해 복구 전략을 주기적으로 테스트하기9주제 9복구 시간 목표(RTO) 및 복구 지점 목표(RPO)를 위한 설계 느리게 실행되는 쿼리와 데이터베이스 잠금을 평가하고 누락된 인덱스 식별하기10주제 세션 풀러 서비스 사용 정당화 시나리오가 주어지면 현재 환경 작업 부하 메트릭 및 향후 요구 사항을 기반으로 솔루션 크기 조정 수행11주제 데이터베이스 인스턴스 프로비저닝 자동화 애플리케이션이 데이터베이스에 연결되는 방법 결정하기 Q19. 조직에서 Compute Engine의 가상 머신(VM)에서 중요한 프로덕션 데이터베이스를 실행하고 있습니다. VM에는 데이터 파일을 위한 ext4 형식의 영구 디스크가 있습니다. 데이터베이스의 저장 공간이 곧 부족해질 것입니다. 다운타임을 방지하는 솔루션을 구현해야 합니다. 어떻게 해야 하나요? Google Cloud 콘솔에서 영구 디스크의 크기를 늘리고 resize2fs 명령을 사용하여 디스크를 확장합니다. Google Cloud 콘솔에서 영구 디스크의 크기를 늘리고 fdisk 명령을 사용하여 새 공간을 사용할 준비가 되었는지 확인합니다. Google Cloud 콘솔에서 영구 디스크의 스냅샷을 만들고, 스냅샷을 더 큰 새 디스크에 복원하고, 이전 디스크의 마운트를 해제하고, 새 디스크를 마운트한 다음 데이터베이스 서비스를 다시 시작합니다. Google Cloud 콘솔에서 VM에 연결된 새 영구 디스크를 생성하고 파일을 새 디스크로 이동하도록 데이터베이스 서비스를 구성합니다. Q20. 회사에서 Oracle, MySQL, Microsoft SQL Server 및 PostgreSQL 관계형 데이터베이스를 Google Cloud로 마이그레이션하기를 원합니다. 가능하면 완전히 관리되는 유연한 데이터베이스 솔루션이 필요합니다. 어떻게 해야 할까요? 모든 데이터베이스를 Cloud SQL로 마이그레이션하세요. Oracle, MySQL, Microsoft SQL Server 데이터베이스를 Cloud SQL로 마이그레이션하고 PostgreSQL 데이터베이스를 Compute Engine으로 마이그레이션하세요. MySQL, Microsoft SQL Server 및 PostgreSQL 데이터베이스를 Compute Engine으로 마이그레이션하고, Oracle 데이터베이스를 Oracle용 베어 메탈 솔루션으로 마이그레이션합니다. MySQL, Microsoft SQL Server 및 PostgreSQL 데이터베이스를 Cloud SQL로 마이그레이션하고, Oracle 데이터베이스를 Bare Metal Solution for Oracle로 마이그레이션합니다. Q21. 팀에서 연중무휴 24시간 사용 가능해야 하는 5TB 데이터베이스가 포함된 Cloud SQL for MySQL 인스턴스를 실행하고 있습니다. 운영 오버헤드나 프로덕션 워크로드에 대한 위험을 최소화하면서 데이터베이스 백업을 오브젝트 스토리지에 저장해야 합니다. 어떻게 해야 하나요? Cloud SQL 서버리스 내보내기를 사용하세요. 읽기 복제본을 만든 다음, mysqldump 유틸리티를 사용해 각 테이블을 내보냅니다. Cloud SQL 인스턴스를 복제하고 mysqldump 유틸리티를 사용하여 데이터를 내보냅니다. 기본 데이터베이스 인스턴스에서 mysqldump 유틸리티를 사용하여 백업을 내보냅니다. Q22. 디지털 네이티브 비즈니스에서 Cloud SQL에서 데이터베이스 워크로드를 실행합니다. 웹사이트는 전 세계에서 연중무휴 24시간 액세스할 수 있어야 합니다. 고가용성(HA)을 위해 Cloud SQL 인스턴스를 준비해야 합니다. Google 권장 사례를 따르고 싶습니다. 어떻게 해야 하나요? (두 가지를 선택하세요.) 수동 백업을 설정합니다. HA 옵션으로 온프레미스에 PostgreSQL 데이터베이스를 만듭니다. 자동 백업을 위한 단일 영역 가용성을 구성합니다. 특정 시점 복구를 사용 설정합니다. 자동 백업을 예약합니다. Q23. 새 애플리케이션을 위한 데이터베이스 백엔드를 선택하려고 합니다. 애플리케이션은 IoT 센서에서 데이터 포인트를 수집할 것입니다. 애플리케이션이 10ms 미만의 지연 시간으로 초당 최대 수백만 건의 요청을 처리하고 최대 100TB의 기록을 저장할 수 있는지 확인해야 합니다. 어떻게 해야 할까요? 처리량을 위해 읽기 복제본이 포함된 Cloud SQL을 사용하세요. Firestore를 사용해 서버리스 자동 확장을 활용하세요. 멤캐시드용 메모리스토어를 사용하고, 필요한 처리량을 달성하기 위해 필요에 따라 노드를 추가합니다. Bigtable을 사용하고, 필요한 처리량을 달성하기 위해 필요에 따라 노드를 추가합니다. Q24. Cloud SQL for PostgreSQL에서 데이터베이스에 연결하는 여러 애플리케이션을 관리하고 있습니다. 데이터베이스 성능을 모니터링하여 오래 실행되고 리소스 집약적인 쿼리가 있는 애플리케이션을 쉽게 식별할 수 있어야 합니다. 어떻게 해야 하나요? Cloud SQL에서 생성된 로그 메시지를 사용하세요. Cloud SQL용 쿼리 인사이트를 사용하세요. Cloud SQL에서 사용 가능한 메트릭이 있는 Cloud 모니터링 대시보드를 사용하세요. Google Cloud 콘솔에서 Cloud SQL 인스턴스 모니터링을 사용합니다. Q25. 애플리케이션이 마이크로 서비스 아키텍처를 따르고 하나의 대규모 Cloud SQL 인스턴스를 사용하는데 애플리케이션이 성장함에 따라 성능 문제가 발생하기 시작했습니다. Cloud 모니터링 대시보드에서 CPU 사용률은 정상으로 보입니다. 대규모 리팩터링을 피하면서 이러한 성능 문제를 해결하고 방지하기 위해 Google이 권장하는 관행을 따르고 싶어요. 어떻게 해야 하나요? Cloud SQL 대신 Cloud Spanner를 사용하세요. 인스턴스의 CPU 수를 늘립니다. 인스턴스의 스토리지 크기를 늘립니다. 더 작은 Cloud SQL 인스턴스를 많이 사용하세요. Q26. 소매 조직에서 연말연시를 준비하고 있습니다. 카탈로그 서비스 사용이 증가하고 있으며, DevOps 팀은 마이크로서비스 기반 애플리케이션을 구동하는 Cloud SQL 데이터베이스를 지원하고 있습니다. DevOps 팀은 Sqlcommenter를 통해 계측 기능을 추가했습니다. 특정 마이크로서비스 호출이 실패하는 이유의 근본 원인을 파악해야 합니다. 어떻게 해야 할까요? 장기 실행 쿼리에 대한 쿼리 인사이트를 확인하세요. Cloud SQL 인스턴스 모니터에서 CPU 사용률 메트릭을 확인하세요. Cloud SQL 권장 사항에서 오버프로비저닝된 인스턴스를 확인하세요. 실패하는 애플리케이션 요청은 Cloud Trace에서 확인하세요. Q27. 조직에서 50TB의 Oracle 데이터베이스를 Oracle용 베어 메탈 솔루션으로 마이그레이션하고 있습니다. 빠른 복원을 위해 데이터베이스 백업을 사용할 수 있어야 합니다. 또한 5년 동안 백업을 사용할 수 있어야 합니다. 2시간의 복구 시간 목표(RTO)와 15분이라는 복구 지점 목표(RPO)를 충족하는 비용 효율적인 아키텍처를 설계해야 합니다. 어떻게 해야 할까요? 플래시 스토리지에서 실행 중인 데이터베이스를 베어 메탈 솔루션 서버에 생성하고, 모든 플래시 스토리지에 로컬 백업 복사본을 보관하며, 하루 이상 지난 백업은 Actifio OnVault 스토리지에 보관합니다. 플래시 스토리지에서 실행 중인 데이터베이스를 사용하여 베어 메탈 솔루션 서버에 데이터베이스를 생성하고, 로컬 백업 복사본을 표준 스토리지에 보관하며, 하루 이전의 백업은 Actifio OnVault 스토리지에 보관합니다. 플래시 스토리지에서 실행 중인 데이터베이스를 사용하여 베어 메탈 솔루션 서버에 데이터베이스를 생성하고, 로컬 백업 복사본을 표준 스토리지에 보관하며, 하루 이상 지난 백업을 콜드라인 스토리지 버킷으로 옮기려면 Oracle 복구 관리자(RMAN) 백업 유틸리티를 사용합니다. 플래시 스토리지에서 실행 중인 데이터베이스를 사용하여 베어 메탈 솔루션 서버에 데이터베이스를 생성하고, 모든 플래시 스토리지에 로컬 백업 복사본을 유지하며, 하루 이상 지난 백업을 아카이브 스토리지 버킷으로 이동하려면 Oracle 복구 관리자(RMAN) 백업 유틸리티를 사용합니다. Q28. 조직은 규제가 엄격한 산업에서 운영됩니다. 우려 사항의 분리(SoC)와 최소 권한의 보안 원칙(PoLP)이 중요합니다. 운영팀은 다음과 같이 구성됩니다.A는 데이터베이스 관리자, B는 메트릭 보고서를 생성하는 분석가, C는 자동 백업을 담당하는 애플리케이션.팀원에게 Cloud Spanner에 대한 역할을 할당해야 합니다. 어떤 역할을 할당해야 하나요? roles/spanner.databaseA의 경우 관리자 역할을 수행합니다. roles/spanner.database의 경우 리더 역할을 수행합니다. Broles/spanner.backup의 경우 애플리케이션 C의 경우 작성자 역할을 수행합니다. roles/spanner.databaseA 사용자에 대한 관리자A 사용자에 대한 역할/spanner.databaseReader 브로레스/spanner.backup 애플리케이션 C에 대한 관리자 roles/spanner.databaseA사용자용 관리자roles/spanner.database사용자용 브로레스/spanner 데이터베이스애플리케이션 C용 리더 roles/spanner.databaseA사용자용 관리자으로les/spanner.database사용자용 사용자 Broles/spanner.backup 애플리케이션 C용 라이터 Q29. 원격 의료 회사의 온프레미스 데이터 센터를 Google Cloud로 마이그레이션하고 있습니다. 마이그레이션 계획에는 다음과 같이 명시되어 있습니다. PostgreSQL 데이터베이스는 여러 시나리오에서 복원 및 장애 조치를 허용하기 위해 지역 간 복제본이 있는 다중 지역 백업 구성으로 마이그레이션해야 합니다.MySQL 데이터베이스는 개인 식별 정보(PII)를 처리하며 지역 수준에서 데이터 상주 규정 준수가 필요합니다.관리 노력을 최소화하여 환경을 설정하고자 합니다. 어떻게 해야 할까요? 클라우드 기능으로 클라우드 로깅 및 클라우드 모니터링을 설정하여 새 데이터베이스 인스턴스가 생성될 때마다 경고를 보내고 리전을 수동으로 검증하세요. 데이터베이스 유형별로 서로 다른 조직을 설정하고 조직 수준에서 정책 제약 조건을 적용하세요. 클라우드 로깅에서 데이터를 수집하고, 새 데이터베이스 인스턴스가 만들어질 때마다 경고를 보내고, 리전을 수동으로 검증하도록 게시/서브를 설정하세요. PostgreSQL 및 MySQL 데이터베이스에 대해 서로 다른 프로젝트를 설정하고 프로젝트 수준에서 조직 정책 제약 조건을 적용하세요. Q30. 새 웹 애플리케이션을 위한 데이터베이스 전략을 설계하고 있습니다. 한 국가에서 소규모 파일럿으로 시작하여 결국 전 세계 수백만 명의 사용자를 대상으로 확장할 계획입니다. 애플리케이션이 유지보수를 위한 다운타임을 최소화하면서 연중무휴 24시간 실행될 수 있도록 해야 합니다. 어떻게 해야 하나요? 지역 구성에서 Cloud Spanner를 사용하세요. 여러 지역 구성에서 Cloud Spanner를 사용하세요. 지역 간 복제본과 함께 Cloud SQL을 사용하세요. 여러 리전에서 고가용성 Cloud SQL을 사용하세요. Q31. 개발자가 테스트를 수행할 수 있는 소규모 Cloud SQL 인스턴스를 관리하고 있습니다. 이 인스턴스는 중요하지 않으며 복구 시점 목표(RPO)가 며칠입니다. 이 인스턴스에 대한 지속적인 비용을 최소화하고 싶습니다. 어떻게 해야 할까요? 백업을 수행하지 않고 트랜잭션 로그 보존을 해제합니다. 하루에 한 번 수동 백업을 수행하고 트랜잭션 로그 보존을 해제합니다. 자동 백업을 켜고 트랜잭션 로그 보존을 해제합니다. 자동 백업을 켜고 트랜잭션 로그 보존을 켭니다. Q32. 온프레미스 MySQL 데이터베이스를 Cloud SQL로 마이그레이션하는 작업을 완료했습니다. 이전에 데이터베이스 서버에서 실행되던 크론 작업이었던 테이블의 일일 내보내기가 계속되도록 하고 싶습니다. 비용과 운영 오버헤드를 최소화하는 솔루션을 원합니다. 어떻게 해야 할까요? 클라우드 스케줄러와 클라우드 함수를 사용해 매일 내보내기를 실행하세요. 스트리밍 데이터틀로 작업을 생성하여 테이블을 내보냅니다. Cloud Composer를 설정하고 매일 테이블을 내보내는 작업을 만듭니다. 컴퓨트 엔진 인스턴스에서 cron 작업을 실행하여 내보내기를 계속합니다. Q33. 기존 Cloud Spanner 데이터베이스에 액세스할 수 있는 새 애플리케이션을 구성하고 있습니다. 새 애플리케이션은 이 데이터베이스를 읽어 대시보드에 대한 통계를 수집합니다. ID 및 액세스 관리(IAM) 권한을 부여할 때 Google이 권장하는 관행을 따르고 싶습니다. 어떻게 해야 하나요? 이 데이터베이스를 채우는 기존 서비스 계정을 재사용합니다. 새 서비스 계정을 만들고 이 계정에 Cloud Spanner 데이터베이스 관리자 역할을 부여합니다. 새 서비스 계정을 만들고 Cloud Spanner 데이터베이스 리더 역할을 부여합니다. 새 서비스 계정을 만들고 spanner.databases.select 권한을 부여합니다. Q34. Cloud SQL 인증 프록시를 사용하여 Google Cloud에 새 Cloud SQL 인스턴스를 배포하고 있습니다. 새 Cloud SQL 인스턴스에 액세스해야 하는 애플리케이션 코드 스니펫을 확인했습니다. 스니펫은 Compute Engine 컴퓨터에서 실행되는 애플리케이션 서버에 상주하고 실행됩니다. 가능한 한 빠르고 안전하게 IAM(ID 및 액세스 관리)을 설정하기 위해 Google이 권장하는 방법을 따르고 싶습니다. 어떻게 해야 하나요? 각 애플리케이션 코드에 대해 공통 공유 사용자 계정을 설정합니다. 각 애플리케이션 코드에 대해 전용 사용자 계정을 설정합니다. 애플리케이션 서버의 경우 서비스 계정을 설정합니다. 애플리케이션 서버의 경우 일반 공유 사용자 계정을 설정합니다. Q35. Cloud Run에서 실행될 애플리케이션을 작성 중이며, Cloud SQL 관리형 서비스에서 실행되는 데이터베이스가 필요합니다. 이 인스턴스가 Google Cloud의 VPC 환경에서 실행되는 애플리케이션으로부터만 연결을 받도록 이 인스턴스를 보호하고 싶습니다. 어떻게 해야 하나요? 지정된 외부(공용) IP 주소로 인스턴스를 만듭니다.VPC를 선택하고 방화벽 규칙을 만들어 Cloud Run에서 인스턴스로의 연결만 허용합니다.Cloud SQL 인증 프록시를 사용하여 인스턴스에 연결합니다. 지정된 외부(공용) IP 주소로 인스턴스 만들기.VPC를 선택하고 Cloud Run에서 인스턴스로의 연결만 허용하는 방화벽 규칙 만들기.연결 풀을 사용하여 인스턴스에 연결하여 인스턴스에 대한 연결을 가장 잘 관리하기. 지정된 내부(비공개) IP 주소로 인스턴스 만들기.비공개 서비스 연결이 구성된 VPC를 선택.Cloud SQL 인스턴스와 동일한 VPC 네트워크에서 서버리스 VPC 액세스 커넥터를 구성.Cloud SQL 인증 프록시를 사용하여 인스턴스에 연결. 지정된 내부(사설) IP 주소로 인스턴스를 생성합니다.사설 서비스 연결이 구성된 VPC를 선택합니다.Cloud SQL 인스턴스와 동일한 VPC 네트워크에서 서버리스 VPC 액세스 커넥터를 구성합니다.인스턴스에 대한 연결을 가장 잘 관리하기 위해 연결 풀을 사용하여 인스턴스에 연결합니다. Q36. 온프레미스 애플리케이션을 Google Cloud로 마이그레이션하려고 합니다. 애플리케이션은 비즈니스 크리티컬 기능을 지원하기 위해 고가용성(HA) PostgreSQL 데이터베이스가 필요합니다. 회사의 재해 복구 전략에 따라 장애 발생 후 30분 이내에 복구 시간 목표(RTO) 및 복구 지점 목표(RPO)가 필요합니다. Google Cloud 관리형 서비스를 사용할 계획입니다. 애플리케이션의 가동 시간을 최대화하려면 어떻게 해야 하나요? 지역 구성에서 PostgreSQL용 Cloud SQL을 배포합니다. 같은 지역의 다른 영역에 읽기 복제본을 만들고 재해 복구를 위해 다른 지역에 읽기 복제본을 만듭니다. HA가 활성화된 지역 구성에 PostgreSQL용 Cloud SQL을 배포합니다. 주기적으로 백업을 수행하고, 재해 복구 이벤트가 발생하는 동안 이 백업을 사용하여 다른 지역의 새 Cloud SQL for PostgreSQL 인스턴스로 복원합니다. HA가 활성화된 지역 구성에 Cloud SQL for PostgreSQL을 배포합니다. 지역 간 읽기 복제본을 만들고, 읽기 복제본을 재해 복구를 위한 기본 노드로 승격합니다. 단일 지역 중단이 애플리케이션에 영향을 미치지 않도록 PostgreSQL 데이터베이스를 다중 지역 Cloud Spanner로 마이그레이션하세요. Cloud Spanner 데이터 유형을 지원하도록 스키마를 업데이트하고 애플리케이션을 리팩터링합니다. Q37. 기존 데이터베이스를 단일 Windows Server 2019 Datacenter 에디션의 Microsoft SQL Server 2016 Standard Edition에서 단일 Cloud SQL for SQL Server 인스턴스로 마이그레이션해야 합니다. 프로젝트의 검색 단계에서 온프레미스 서버가 약 25,000개의 읽기 IOPS로 최고치를 기록한다는 것을 알게 되었습니다. 읽기 성능을 극대화하려면 Cloud SQL 인스턴스의 크기가 적절하게 설정되어 있는지 확인해야 합니다. 어떻게 해야 할까요? vCPU 4개, RAM 15GB, SSD(솔리드 스테이트 드라이브) 800GB를 갖춘 Standard 머신 유형에서 SQL Server 2019 Standard를 만듭니다. 최소 16개의 vCPU, 104GB RAM 및 200GB SSD가 있는 고용량 메모리 컴퓨터 유형에서 SQL Server 2019 Standard를 생성합니다. 16개의 vCPU, 104GB RAM 및 4TB SSD를 갖춘 고용량 메모리 컴퓨터 유형에서 SQL Server 2019 Standard를 생성합니다. 16개의 vCPU, 104GB RAM 및 500GB SSD를 갖춘 고용량 메모리 컴퓨터 유형에서 SQL Server 2019 Enterprise를 생성합니다. Q38. 프로젝트에서 요청자가 유효한 서비스 계정 키를 가지고 있더라도 어떤 상황에서도 공용 인터넷에서 액세스해서는 안 되는 데이터를 저장하기 위해 Bigtable을 사용하고 있습니다. 이 데이터에 대한 액세스를 보호해야 하는데 어떻게 해야 하나요? Bigtable 액세스 제어를 위해 ID 및 액세스 관리(IAM)를 사용하세요. VPC 서비스 제어를 사용하여 Bigtable 서비스를 위한 신뢰할 수 있는 네트워크를 만듭니다. 고객 관리 암호화 키(CMEK)를 사용합니다. 구글 클라우드 아머를 사용하여 허용 목록에 IP 주소를 추가합니다. Q39. 미션 크리티컬 Cloud SQL for Postgre