Diese Seite wurde exportiert von Exams Labs Braindumps [ http://blog.examslabs.com ] Exportdatum:Fri Jan 10 20:13:13 2025 / +0000 GMT ___________________________________________________ Titel: Die aktuellsten MCIA-Level-1-Maintenance Dumps zur MuleSoft Certified Architect Zertifizierung [Q14-Q36] --------------------------------------------------- Erhalten Sie die aktuellsten MCIA-Level-1-Maintenance Dumps zur MuleSoft Certified Architect Zertifizierung MuleSoft Certified MCIA-Level-1-Maintenance Dumps Fragen Gültige MCIA-Level-1-Maintenance Materialien Die MCIA-Level-1-Maintenance Prüfung ist eine wertvolle Zertifizierung für Personen, die mit der Anypoint Plattform von MuleSoft arbeiten. Sie ist ideal für Personen, die für die Wartung und Fehlerbehebung der MuleSoft-Integrationsplattform verantwortlich sind, und für diejenigen, die ihr Fachwissen in diesem Bereich unter Beweis stellen wollen. Mit dieser Zertifizierung können Sie Ihren Wert für Organisationen, die MuleSoft's Anypoint Platform nutzen, erhöhen und Ihre Karriereaussichten verbessern. Die MuleSoft MCIA-Level-1-Maintenance-Zertifizierung ist ein wertvoller Nachweis für Fachleute, die ihre Karriere in der MuleSoft-Integrationsarchitektur vorantreiben wollen. Die MuleSoft Certified Integration Architect - Level 1 MAINTENANCE-Zertifizierung weist die Expertise eines Kandidaten in der MuleSoft-Integration und seine Fähigkeit nach, MuleSoft-Lösungen zu entwerfen, zu erstellen und zu warten, um den Anforderungen moderner Unternehmen gerecht zu werden. FRAGE 14Wie hilft das Timeout-Attribut bei Design-Entscheidungen, wenn der JMS-Connector auf eingehende Nachrichten in einer Extended Architecture (XA)-Transaktion wartet? Nach Überschreiten der Zeitüberschreitung werden veraltete JMS-Verbraucher-Threads zerstört und neue Threads erstellt. Die Zeitüberschreitung gibt die Zeit an, die zwischen dem Empfang von JMS-Nachrichten über dieselbe JMS-Verbindung vergehen darf, und nach der Zeitüberschreitung wird eine neue JMS-Verbindung hergestellt. Die Zeit, die zwischen dem Commit der Transaktion und dem Abschluss des Mule-Flows vergehen darf, und nach dem Timeout löst die Flow-Verarbeitung einen Fehler aus. Die Zeitüberschreitung definiert die Zeit, die vergehen darf, ohne dass die Transaktion explizit beendet wird, und nachdem die Zeitüberschreitung abgelaufen ist, wird die Transaktion zurückgesetzt FRAGE 15Die Reservierungszentrale der AnyAirline-Organisation entwirft eine Integrationslösung, die Aufrufe von drei verschiedenen System-APIs (bookFlight, bookHotel und bookCar) in einer Geschäftstransaktion kombiniert.Jede System-API ruft eine einzelne Datenbank auf.Die gesamte Geschäftstransaktion muss zurückgerollt werden, wenn mindestens eine der APIs fehlschlägt.Was ist die idiomatischste (für den beabsichtigten Zweck verwendete) Methode, um diese APIs nahezu in Echtzeit zu integrieren, die das beste Gleichgewicht aus Konsistenz, Leistung und Zuverlässigkeit bietet? Implementieren von eXtended Architecture (XA)-Transaktionen zwischen den API-Implementierungen Koordinieren zwischen den API-Implementierungen unter Verwendung eines Saga-Musters Implementieren von Caching in jeder API-Implementierung zur Verbesserung der Leistung Implementierung lokaler Transaktionen in jeder API-ImplementierungKonfigurieren Sie jede API-Implementierung so, dass sie auch an derselben eXtended Architecture (XA)-Transaktion teilnimmt Implementieren Sie Caching in jeder API-Implementierung, um die Leistung zu verbessern Implementierung lokaler Transaktionen in jeder API-ImplementierungKoordinierung zwischen den API-Implementierungen unter Verwendung eines Saga-MustersAnwendung verschiedener kompensierender Aktionen je nachdem, wo ein Fehler auftritt Implementieren eines eXtended Architecture (XA)-Transaktionsmanagers in einer Mule-Anwendung unter Verwendung eines Saga-Musters Verbinden jeder API-Implementierung mit der Mule-Anwendung unter Verwendung von XA-Transaktionen Anwenden verschiedener kompensierender Aktionen je nach dem, wo ein Fehler auftritt Das Unternehmen möchte die Mule-Anwendungen verfügbarer und robuster machen, indem es jede Mule-Anwendung in einer isolierten Mule-Laufzeitumgebung in einem Docker-Container bereitstellt, während alle Mule-Anwendungen von der von MuleSoft gehosteten Steuerungsebene aus verwaltet werden.Was ist die idiomatischste (für den beabsichtigten Zweck verwendete) Wahl der Laufzeitebene, um diese organisatorischen Anforderungen zu erfüllen? Anypoint Plattform Private Cloud Edition Anypoint Runtime Fabric CloudHub Anypoint Service Mesh FRAGE 17Ein Unternehmen plant, seine Bereitstellungsumgebung von einem lokalen Cluster auf einen Runtime Fabric (RTF)-Cluster zu migrieren. Außerdem sollen Mule-Anwendungen, die auf einer Mule-Laufzeitinstanz bereitgestellt werden, Daten über Anwendungsreplikationen und Neustarts hinweg speichern und gemeinsam nutzen können.Wie können diese Anforderungen erfüllt werden? Anypoint Objektspeicher V2 zur gemeinsamen Nutzung von Daten zwischen Replikaten im RTF-Cluster Installieren Sie den Objektspeicher-Pod auf einem der Clusterknoten Konfigurieren Sie Persistence Gateway auf einem der Server mit Mule Object Store Konfigurieren Sie Persistence Gateway auf der RTF FRAGE 18Eine Organisation hat gerade eine Mule-Anwendung entwickelt, die eine REST-API implementiert. Welche zusätzliche Infrastrukturkomponente muss der Kunde zur Verfügung stellen, um eingehende API-Anfragen über die Mule-Laufzeiten des Clusters zu verteilen? Ein Message Broker Einen HTTP-Lastausgleicher Eine Datenbank Ein Objektspeicher ErläuterungDie richtige Antwort ist ein HTTP Load Balancer, wobei zu beachten ist, dass wir die Anwendung auf die vom Kunden gehostete Mule-Laufzeit verteilen. Das bedeutet, dass wir einen Load Balancer benötigen, um die Anfragen an verschiedene Instanzen des Clusters weiterzuleiten. Alle anderen Optionen sind Ablenkungsmanöver und ihre Anforderungen hängen vom Anwendungsfall des Projekts ab.FRAGE 19Als Teil des Designs muss die Mule-Anwendung die Google Maps API aufrufen, um eine Entfernungsberechnung durchzuführen. Was sollte mindestens im TLS-Kontext der HTTP-Anfragekonfiguration konfiguriert werden, um diese Anforderungen zu erfüllen? Die Konfiguration ist eingebaut und für den TLS-Kontext ist nichts weiter erforderlich Fordern Sie einen privaten Schlüssel von Google an, erstellen Sie eine PKCS12-Datei und fügen Sie diese im keyStore als Teil des TLS-Kontextes hinzu. Laden Sie das öffentliche Google-Zertifikat von einem Browser herunter, erzeugen Sie daraus eine JKS-Datei und fügen Sie sie als Teil des TLS-Kontextes in den Schlüsselspeicher ein. Laden Sie das öffentliche Google-Zertifikat von einem Browser herunter, generieren Sie daraus eine JKS-Datei und fügen Sie sie im Truststore als Teil des TLS-Kontextes hinzu FRAGE 20Eine Mule-Anwendung läuft auf einer vom Kunden gehosteten Mule-Laufzeitumgebung im Netzwerk einer Organisation. Die Mule-Anwendung fungiert als Produzent von asynchronen Mule-Events. Jedes Mule-Ereignis muss an alle interessierten externen Konsumenten außerhalb der Mule-Anwendung gesendet werden. Die Mule-Ereignisse sollten auf eine Weise veröffentlicht werden, die in normalen Situationen garantiert ist und auch in weniger häufigen Fehlerszenarien eine doppelte Zustellung minimiert. Die Firewall der Organisation ist so konfiguriert, dass sie nur ausgehenden Verkehr auf den Ports 80 und 443 zulässt. Welcher Anypoint Platform Service ist der idiomatischste (für den beabsichtigten Zweck), um diese Mule-Ereignisse an alle externen Verbraucher zu veröffentlichen und gleichzeitig die gewünschten Zuverlässigkeitsziele zu erreichen? CloudHub VM-Warteschlangen Anypoint MQ Anypoint Exchange CloudHub Gemeinsamer Load Balancer ErklärungSetzen Sie die Anypoint MQ-Connector-Operation, um Nachrichten zu veröffentlichen oder zu konsumieren, oder um eine Nachricht zu akzeptieren (ACK) oder nicht zu akzeptieren (NACK).FRAGE 21Eine Organisation hat ein gemeinsames Objektmodell in Java definiert, um die Kommunikation zwischen verschiedenen Mule-Anwendungen auf konsistente Weise zu vermitteln. Die Entwickler möchten, dass Anypoint Studio diese gemeinsamen Objekte verwendet, um bei der Erstellung von Mappings für verschiedene Transformationsschritte in der Mule-Anwendung zu helfen. Was ist die idiomatischste (für den beabsichtigten Zweck verwendete) und performanteste Art, diese gemeinsamen Objekte zu verwenden, um zwischen den eingehenden und ausgehenden Systemen in der Mule-Anwendung zu mappen? JAXB (XML) und Jackson (JSON) Datenbindungen verwenden Verwendung des WSS-Moduls Verwendung des Java-Moduls Verwendung der Komponente Transform Message FRAGE 22Eines der Backend-Systeme, die an der API-Implementierung beteiligt sind, erzwingt eine Ratenbeschränkung für die Anzahl der Anfragen, die ein Partikel-Client stellen kann.Sowohl das Backend-System als auch die API-Implementierung werden in mehreren Nicht-Produktionsumgebungen, einschließlich der Staging-Umgebung, und in einer bestimmten Produktionsumgebung bereitgestellt. Die Ratenbeschränkung des Back-End-Systems gilt für alle Nicht-Produktionsumgebungen, während die Produktionsumgebung keine Ratenbeschränkung hat. Wie kann die API-Implementierung in der Nicht-Produktionsumgebung kostengünstig auf ihre Leistung getestet werden? Einfügen einer Logik in die API-Implementierung, die die Stellen des Back-End-Systems in der Staging-Umgebung umgeht und einen Mocking-Dienst aufruft, der typische Antworten des Back-End-Systems nachbildet Anschließend Durchführung von Leistungstests mit dieser API-Implementierung Verwenden Sie MUnit, um Standardantworten des Back-End-Systems zu simulieren, und führen Sie anschließend einen Leistungstest durch, um andere Engpässe im System zu ermitteln. Erstellen Sie einen Mocking-Dienst, der die Leistungsmerkmale des Back-End-Systems nachbildet. Konfigurieren Sie dann die API-Implementierung so, dass sie den Mocking-Dienst verwendet, und führen Sie den Leistungstest durch. Führen Sie reduzierte Leistungstests in der Staging-Umgebung mit dem ratenbegrenzenden Back-End-System durch. Skalieren Sie dann die Leistungsergebnisse auf den vollen Produktionsmaßstab hoch. FRAGE 23Eine Bankgesellschaft entwickelt eine neue Reihe von APIs für ihr Online-Geschäft. Eine der kritischen APIs ist eine Master-Lookup-API, die eine System-API ist. Diese Master-Lookup-API verwendet einen persistenten Objektspeicher. Diese API wird von allen anderen APIs verwendet, um Master-Lookup-Daten bereitzustellen. Die Master-Lookup-API wird auf zwei Cloudhub-Arbeitsplätzen mit jeweils 0,1 vCore bereitgestellt, da eine große Menge an Stammdaten zwischengespeichert werden muss. Die Master-Lookup-Daten werden als Schlüssel-Wert-Paar gespeichert. Bei Leistungstests wurde festgestellt, dass die Master-Lookup-API aufgrund der Ausführung von Datenbankabfragen zum Abrufen der Master-Lookup-Daten eine längere Antwortzeit hat. Aufgrund dieses Leistungsproblems ist der Start des Online-Geschäfts in der Warteschleife, was für die Bank einen potenziellen finanziellen Verlust bedeuten könnte. Implementieren Sie eine HTTP-Caching-Richtlinie für alle GET-Endpunkte für die Master-Lookup-API und implementieren Sie Sperren, um den Zugriff auf den Objektspeicher zu synchronisieren. Upgrade der vCore-Größe von 0,1 vCore auf 0,2 vCore Implementierung einer HTTP-Caching-Richtlinie für alle GET-Endpunkte für die Master-Lookup-API Fügen Sie einen zusätzlichen Cloudhub-Arbeiter hinzu, um zusätzliche Kapazität bereitzustellen. FRAGE 24Bei welcher Mule-Anwendung können API-Richtlinien von Anypoint Platform auf den von dieser Mule-Anwendung exponierten Endpunkt angewendet werden? Eine Mule-Anwendung, die Anfragen über HTTP/1x annimmt Eine Mule-Anwendung, die JSON-Anfragen über TCP annimmt, aber NICHT verpflichtet ist, eine Antwort zu liefern. Eine Mule-Anwendung, die JSON-Anfragen über WebSocket annimmt Eine Mule-Anwendung, die gRPC-Anfragen über HTTP/2 annimmt Erläuterung* Bei HTTP/1.1 werden alle Anfragen und Antworten im Klartextformat gespeichert.* HTTP/2 verwendet die binäre Framing-Schicht, um alle Nachrichten im Binärformat zu kapseln, während die HTTP-Semantik, wie Verben, Methoden und Header, erhalten bleibt. Es wurde 2015 eingeführt und bietet mehrere Methoden zur Verringerung der Latenzzeit, insbesondere bei mobilen Plattformen und serverintensiven Grafiken und Videos* Derzeit können Mule-Anwendungen API-Richtlinien nur für Mule-Anwendungen haben, die Anfragen über HTTP/1x annehmenFRAGE 25Eine Organisation erstellt eine Testsuite für ihre Anwendungen mit m-unit. Der Integrationsarchitekt hat empfohlen, den Testrekorder im Studio zu verwenden, um die Verarbeitungsabläufe aufzuzeichnen und dann Unit-Tests auf der Grundlage der aufgezeichneten Ereignisse zu konfigurieren Welche zwei Überlegungen müssen bei der Verwendung des Testrekorders beachtet werden? Tests für Abläufe können nicht mit Mule-Fehlern erstellt werden, die innerhalb des Ablaufs ausgelöst werden oder bereits im eingehenden Ereignis vorhanden sind. Der Rekorder unterstützt das Rauchen einer Nachricht vor oder innerhalb eines ForEach Prozessors Der Rekorder unterstützt Schleifen, bei denen sich die Struktur der getesteten Daten innerhalb der Iteration ändert Die Ausführung eines aufgezeichneten Ablaufs wird erfolgreich beendet, aber das Ergebnis erreicht sein Ziel nicht, weil die Anwendung beendet wird. Mocking-Werte, die aus parallelen Prozessen resultieren, sind möglich und haben keinen Einfluss auf die Ausführung der Prozesse, die im Test folgen. FRAGE 26Eine Organisation entwirft eine hybride, lastverteilte Produktionsumgebung mit einem Cluster. Aufgrund von Performance Service Level Agreement-Zielen erwägt es, die Mule-Anwendungen in einer aktiv-aktiven Multiknoten-Cluster-Konfiguration auszuführen. was sollte bei der Ausführung seiner Mule-Anwendungen in dieser Art von Umgebung berücksichtigt werden? Alle Ereignisquellen, unabhängig von der Zeit, können vom primären Knoten des Clusters als Zielquelle konfiguriert werden. Ein externer Load Balancer ist erforderlich, um die eingehenden Anfragen auf die Knoten des Clusters zu verteilen. Eine Mule-Anwendung, die auf mehreren Knoten eingesetzt wird, läuft isoliert von den anderen Knoten des Clusters. Obwohl die Clusterumgebung vollständig installiert, konfiguriert und in Betrieb ist, werden keine Anfragen verarbeitet, bis der primäre Knoten des Clusters einen Ausfall feststellt. FRAGE 27Welche Bedingung erfordert die Verwendung eines CloudHub Dedicated Load Balancer? Wenn ein regionenübergreifender Lastausgleich zwischen verschiedenen Bereitstellungen derselben Mule-Anwendung erforderlich ist Wenn benutzerdefinierte DNS-Namen für API-Implementierungen erforderlich sind, die für vom Kunden gehostete Mule-Laufzeiten bereitgestellt werden Wenn API-Aufrufe über mehrere CloudHub-Worker hinweg lastverteilt werden müssen Wenn eine serverseitige, lastverteilte TLS-Authentifizierung zwischen API-Implementierungen und API-Clients erforderlich ist ErklärungFalsche Antwort: Wenn eine serverseitige lastverteilte TLS-Authentifizierung zwischen API-Implementierungen und API-Clients erforderlich ist CloudHub Dedicated Load Balancer (DLBs) sind eine optionale Komponente der Anypoint Platform, die es Ihnen ermöglicht, externen HTTP- und HTTPS-Verkehr an mehrere Mule-Anwendungen weiterzuleiten, die auf CloudHub-Arbeitsplätzen in einer Virtual Private Cloud (VPC) bereitgestellt werden. Dedizierte Load Balancer ermöglichen es Ihnen,: * den Lastausgleich zwischen den verschiedenen CloudHub-Arbeitern, die Ihre Anwendung ausführen, verwalten. * SSL-Konfigurationen definieren, um benutzerdefinierte Zertifikate bereitzustellen und optional eine zweiseitige SSL-Client-Authentifizierung zu erzwingen. * Konfigurieren Sie Proxy-Regeln, die Ihre Anwendungen auf benutzerdefinierte Domains abbilden. Was ist der Hauptvorteil der Verwendung von XA-Transaktionen (eXtended Architecture) im Vergleich zu lokalen Transaktionen, um diese beiden unterschiedlichen Datenbanksysteme zu synchronisieren? Eine XA-Transaktion synchronisiert die Datenbanksysteme mit dem geringsten Aufwand an Mule-Konfiguration oder -Codierung Eine XA-Transaktion verarbeitet die größte Anzahl von Anfragen in der kürzesten Zeit Eine XA-Transaktion rollt automatisch Operationen gegen beide Datenbanksysteme zurück, wenn eine Operation fehlschlägt. Eine XA-Transaktion schreibt in beide Datenbanksysteme so schnell wie möglich FRAGE 29Eine Organisation entwickelt mehrere neue Anwendungen, die auf CloudHub in einer einzigen Anypoint VPC ausgeführt werden sollen und die Daten mithilfe eines gemeinsamen persistenten Anypoint Object Store V2 (OSv2) gemeinsam nutzen müssen. Ein AVM-Konnektor, der so konfiguriert ist, dass er direkt auf die Persistenzwarteschlange des persistenten Objektspeichers zugreift Ein Anypoint MQ-Konnektor, der für den direkten Zugriff auf den persistenten Objektspeicher konfiguriert ist Der Objektspeicher V2 kann von Cloudhub-Anwendungen mit dem konfigurierten osv2-Konnektor gemeinsam genutzt werden Die Rest-API des Objektspeichers V2 ist für den Zugriff auf den persistenten Objektspeicher konfiguriert. FRAGE 30Eine Organisation entwirft eine Mule-Anwendung, die eine Alles-oder-Nichts-Transaktion zwischen mehreren Datenbankoperationen und einigen anderen Konnektoren unterstützt, so dass sie alle zurückgesetzt werden, wenn ein Problem mit einem der Konnektoren auftritt, außer dem Datenbankkonnektor. VM Anypoint MQ SFTP ObjectStore ErklärungDie richtige Antwort ist VM VM unterstützt den Transaktions-Typ. Wenn eine Ausnahme auftritt, wird die Transaktion in ihren ursprünglichen Zustand zurückgesetzt, um erneut verarbeitet zu werden. Diese Funktion wird von anderen Konnektoren nicht unterstützt.Hier finden Sie zusätzliche Informationen zum Transaktionsmanagement:Tabelle Beschreibung automatisch generiertFRAGE 31Eine Mule-Anwendung enthält einen Batch Job-Bereich mit mehreren Batch Step-Bereichen. Der Bereich "Batch Job" ist mit einer Batch-Blockgröße von 25 konfiguriert. Der Bereich "Batch Job" empfängt eine Nutzlast mit 4.000 Datensätzen. Der Batch Job-Bereich verarbeitet mehrere Datensatzblöcke parallel, und ein Block von 25 Datensätzen kann über einen früheren Datensatzblock zum nächsten Batch Step-Bereich springen Jeder Batch Step-Bereich wird mit einem Datensatz in der Nutzlast des empfangenen Mule-Ereignisses aufgerufen Für jeden Batch Step-Bereich werden alle 25 Datensätze innerhalb eines Blocks parallel verarbeitet Alle Datensätze in einem Block müssen abgeschlossen sein, bevor der Block von 25 Datensätzen dem nächsten Batch Step-Bereich zur Verfügung steht Der Batch-Job-Bereich verarbeitet jeden Datensatzblock nacheinander, einen nach dem anderen Jeder Batch-Step-Bereich wird mit einem Datensatz in der Nutzlast des empfangenen Mule-Ereignisses aufgerufen Für jeden Batch-Step-Bereich werden alle 25 Datensätze innerhalb eines Blocks nacheinander verarbeitet, einen nach dem anderen Alle 4000 Datensätze müssen abgeschlossen sein, bevor die Datensatzblöcke für den nächsten Batch-Step-Bereich verfügbar sind Der Bereich "Batch Job" verarbeitet mehrere Datensatzblöcke parallel, und ein Block von 25 Datensätzen kann über einen früheren Datensatzblock zum nächsten Bereich "Batch Step" springen Jeder Bereich "Batch Step" wird mit einem Datensatz in der Nutzlast des empfangenen Mule-Ereignisses aufgerufen Für jeden Bereich "Batch Step" werden alle 25 Datensätze innerhalb eines Blocks nacheinander verarbeitet, ein Datensatz nach dem anderen Alle Datensätze in einem Block müssen abgeschlossen sein, bevor der Block von 25 Datensätzen für den nächsten Bereich "Batch Step" verfügbar ist Der Batch Job-Bereich verarbeitet mehrere Datensatzblöcke parallelJeder Batch Step-Bereich wird mit einem Stapel von 25 Datensätzen in der Nutzlast des empfangenen Mule-Ereignisses aufgerufen Für jeden Batch Step-Bereich werden alle 4000 Datensätze parallel verarbeitet Einzelne Datensätze können in den nächsten Batch Step-Bereich springen, bevor der Rest der Datensätze die Verarbeitung im aktuellen Batch Step-Bereich beendet FRAGE 32Ein Unternehmen entwickelt eine Mule-Anwendung, um Batch-Daten vom ftps-Server eines Partners zu verarbeiten. Die Datendateien wurden komprimiert und dann mit PGP digital signiert. ATLS-Kontext Schlüsselspeicher, der den privaten Schlüssel und das Zertifikat für das Unternehmen benötigt PGP öffentlicher Schlüssel des Partners PGP privater Schlüssel für das Unternehmen ATLS-Kontext erster Speicher, der ein öffentliches Zertifikat für den ftps-Server des Partners und den öffentlichen PGP-Schlüssel des Partners enthält TLS-Kontakt Schlüsselspeicher, der die FTP-Anmeldeinformationen enthält TLS-Kontext Trust oder enthält ein öffentliches Zertifikat für den ftps-Server Der FTP-Benutzername und das Passwort Der öffentliche PGP-Schlüssel des Partners Der öffentliche PGP-Schlüssel des Partners Der private PGP-Schlüssel des Unternehmens Der FTP-Benutzername und das Kennwort FRAGE 33Ein Finanzriese plant, alle seine Mule-Anwendungen auf Runtime Fabric (RTF) zu migrieren. Als Integrationsarchitekt schlagen Sie folgende Schritte vor, um sicherzustellen, dass die Anwendungen von Cloudhub ordnungsgemäß auf Runtime Fabric (RTF) migriert werden, wobei Sie davon ausgehen, dass das Unternehmen die gleiche Bereitstellungsstrategie beibehalten möchte. An der Datei POM.xml müssen keine Änderungen vorgenommen werden, und das CI/CD-Skript sollte entsprechend den RTF-Konfigurationen geändert werden Die RuntimeFabric-Abhängigkeit sollte als Mule-Plugin zur POM.xml-Datei hinzugefügt und das CI/CD-Skript entsprechend den RTF-Konfigurationen geändert werden. runtimeFabric Deployment sollte der POM.xml-Datei in allen Mule-Anwendungen hinzugefügt werden und das CI/CD-Skript sollte gemäß den RTF-Konfigurationen geändert werden Das RuntimeFabric-Profil sollte zu den Mule-Konfigurationsdateien in den Mule-Anwendungen hinzugefügt werden und das CI/CD-Skript sollte gemäß den RTF-Konfigurationen geändert werden. FRAGE 34Eine Versicherungsgesellschaft plant, eine Mule-Anwendung in der MuleSoft Hosted Runtime-Ebene einzusetzen. Ein Teil der Anforderungen ist, dass die Anwendung skalierbar und hochverfügbar sein soll. Außerdem gibt es gesetzliche Anforderungen, die eine Aufbewahrung der Protokolle für mindestens 2 Jahre vorschreiben. Welchen Schritt würden Sie als Integrationsarchitekt empfehlen, um dies zu erreichen? Es ist nicht möglich, Protokolle für 2 Jahre in CloudHub zu speichern. Es ist ein externes Log-Management-System erforderlich. Bei der Bereitstellung einer Anwendung auf CloudHub sollte die Aufbewahrungsfrist für Protokolle auf 2 Jahre festgelegt werden. Wenn eine Anwendung auf CloudHub bereitgestellt wird, sollte die Größe des Arbeitsspeichers ausreichen, um 2 Jahre lang Daten zu speichern. Die Protokollierungsstrategie sollte in der mit der Anwendung bereitgestellten log4j-Datei entsprechend konfiguriert werden. ErklärungFalsche Antwort: Es ist nicht möglich, Protokolle für 2 Jahre im CloudHub-Einsatz zu speichern. Es ist ein externes Log-Management-System erforderlich. CloudHub hat eine spezifische Log-Aufbewahrungsrichtlinie, wie in der Dokumentation beschrieben: Die Plattform speichert Logs bis zu 100 MB pro App und pro Worker oder bis zu 30 Tage lang, je nachdem, welche Grenze zuerst erreicht wird. Sobald diese Grenze erreicht ist, werden die ältesten Protokolldaten stückweise gelöscht und sind unwiederbringlich verloren. Es wird empfohlen, die Protokolle in einem externen Protokollierungssystem Ihrer Wahl (z. B. Splunk) mithilfe eines Protokollanhängers zu speichern. Bitte beachten Sie, dass diese Lösung dazu führt, dass die Protokolle nicht mehr auf unserer Plattform gespeichert werden, so dass Sie in allen Supportfällen, die Sie einreichen, die entsprechenden Protokolle zur Überprüfung und Falllösung bereitstellen müssenFRAGE 35Die Sicherheitsanforderungen eines Unternehmens erfordern jederzeit eine zentrale Kontrolle über die Authentifizierung und Autorisierung externer Anwendungen, wenn diese Web-APIs aufrufen, die auf der Anypoint Platform verwaltet werden.Welche Funktion der Anypoint Platform ist am idiomatischsten (für den beabsichtigten Zweck), am einfachsten zu verwenden und zu warten, um diese Anforderung zu erfüllen? Client-Management, konfiguriert in der Zugriffsverwaltung Identitätsmanagement konfiguriert in der Zugriffsverwaltung Enterprise Security-Modul in Mule-Anwendungen kodiert Externer Zugriff konfiguriert in API Manager FRAGE 36Eine Organisation prüft die Verwendung des CloudHub Shared Load Balancer (SLB) gegenüber der Erstellung eines CloudHub Dedicated Load Balancer (DLB). Es wird untersucht, wie sich diese Entscheidung auf die verschiedenen Arten von Zertifikaten auswirkt, die von den in CloudHub bereitgestellten Mule-Anwendungen verwendet werden,