Diese Seite wurde exportiert von Exams Labs Braindumps [ http://blog.examslabs.com ] Exportdatum:Mon Jan 6 6:03:07 2025 / +0000 GMT ___________________________________________________ Titel: Praxis CCDAK Fragen mit Zertifizierung Führer Q&A von Training Expert [Q43-Q59] --------------------------------------------------- Praxis CCDAK Fragen mit Zertifizierungsleitfaden Q&A von Trainingsexperten ExamsLabs Kostenlose Confluent CCDAK Test Praxis Test Fragen Exam Dumps NO.43 Ein Verbraucher startet und hat auto.offset.reset=latest, und die Themenpartition hat derzeit Daten für Offsets von 45 bis 2311. Die Verbrauchergruppe hat zuvor den Offset 643 für das Thema festgelegt. Von wo wird der Verbraucher lesen? Er wird abstürzen Versatz 2311 Versatz 643 Versatz 45 Die Offsets sind bereits für diese Verbrauchergruppe und Themenpartition festgelegt, daher wird die Eigenschaft auto.offset.reset ignoriertNO.44 Die Verdichtung wird für ein Thema in Kafka durch die Einstellung log.cleanup.policy=compact aktiviert. Was trifft auf die Protokollverdichtung zu? Nach der Bereinigung wird nur eine Nachricht pro Schlüssel mit dem ersten Wert aufbewahrt Jede im Topic gespeicherte Nachricht wird komprimiert Kafka de-dupliziert automatisch eingehende Nachrichten auf der Grundlage von Schlüssel-Hashes Nach der Bereinigung wird nur eine Nachricht pro Schlüssel mit dem letzten Wert aufbewahrt Verdichtung ändert den Offset von NachrichtenErklärung:Die Protokollverdichtung behält mindestens den letzten bekannten Wert für jeden Datensatzschlüssel für eine einzelne Topic-Partition. Alle verdichteten Protokoll-Offsets bleiben gültig, auch wenn der Datensatz mit dem Offset wegverdichtet wurde, da ein Konsument den nächsthöheren Offset erhält.NO.45 Sie verwenden einen JDBC-Quellkonnektor, um Daten aus einer Tabelle in ein Kafka-Topic zu kopieren. Es wurde ein Konnektor mit max. 2 Aufgaben erstellt, der in einem Cluster mit 3 Workern eingesetzt wird. Wie viele Aufgaben werden gestartet? 3 2 1 6 Der JDBC-Connector erlaubt eine Aufgabe pro Tabelle.NO.46 Eine einmal an ein Thema gesendete Nachricht kann geändert werden Nein Ja Kafka-Protokolle werden nur angehängt, und die Daten sind unveränderlichNO.47 Welcher der folgenden Typen ist kein Avro-Primitivtyp? string long int Datum null date ist ein logischer TypNO.48 Eine Kafka-Producer-Anwendung möchte Protokollnachrichten an ein Topic senden, das keinen Schlüssel enthält. Welche Eigenschaften müssen für die Producer-Konfiguration konfiguriert werden? (wählen Sie drei aus) bootstrap.server Partition key.serializer wert.serialisierer Schlüssel Wert Sowohl key als auch value serializer sind obligatorisch.NO.49 Welche der folgenden Ereignisverarbeitungsanwendungen ist zustandslos? (wählen Sie zwei) Liest Ereignisse aus einem Stream und ändert sie von JSON in Avro Veröffentlichen Sie jeden Tag die 10 besten Aktien Lesen von Protokollnachrichten aus einem Stream und Schreiben von ERROR-Ereignissen in einen Stream mit hoher Priorität und der restlichen Ereignisse in einen Stream mit niedriger Priorität Ermittlung der minimalen und maximalen Aktienkurse für jeden Handelstag Zustandslos bedeutet, dass die Verarbeitung jeder Nachricht nur von der Nachricht abhängt, so dass die Konvertierung von JSON nach Avro oder das Filtern eines Streams beides zustandslose Operationen sindNO.50 Wir möchten ein Szenario mit höchstens einmaligem Verbrauch. Welche Offset-Commit-Strategie würden Sie empfehlen? Commit der Offsets auf der Festplatte nach der Verarbeitung der Daten Keine Offsets übertragen und von Anfang an lesen Übertragen Sie die Offsets in Kafka, nachdem Sie die Daten verarbeitet haben. Commit der Offsets in Kafka, vor der Verarbeitung der Daten Hier müssen wir die Offsets direkt nach dem Empfang eines Stapels aus einem Aufruf von .poll()NO.51 übertragen. Sie verwenden einen JDBC-Quellkonnektor, um Daten aus zwei Tabellen in zwei Kafka-Themen zu kopieren. Es wurde ein Konnektor mit max.tasks gleich 2 erstellt, der in einem Cluster mit 3 Workern eingesetzt wird. Wie viele Aufgaben werden gestartet? 6 1 2 3 Wir haben zwei Tabellen, also ist die maximale Anzahl von Aufgaben 2NO.52 Angenommen, Sie haben 6 Broker und beschließen, ein Thema mit 10 Partitionen und einem Replikationsfaktor von 3 zu erstellen. Die Broker 0 und 1 befinden sich auf Rack A, die Broker 2 und 3 auf Rack B und die Broker 4 und 5 auf Rack C. Wenn sich der Leader für Partition 0 auf Broker 4 und die erste Replik auf Broker 2 befindet, welcher Broker kann die letzte Replik hosten? (zwei auswählen) 6 1 2 5 0 3 Wenn Sie ein neues Thema erstellen, werden die Replikate der Partitionen auf verschiedene Racks verteilt, um die Verfügbarkeit zu gewährleisten. Daher wird das Rack A, in dem sich die Themenpartition derzeit nicht befindet, für die letzte Replik ausgewählt.53 Wie oft wird die Protokollverdichtung ausgewertet? Jedes Mal, wenn eine neue Partition erstellt wird Jedes Mal, wenn ein Segment geschlossen wird Jedes Mal, wenn eine Nachricht an Kafka gesendet wird Jedes Mal, wenn eine Nachricht auf die Festplatte gespült wird Die Protokollverdichtung wird jedes Mal ausgewertet, wenn ein Segment geschlossen wird. Sie wird ausgelöst, wenn genügend Daten "schmutzig" sind (siehe Dirty Ratio Config)NO.54 Welcher Wert wird in Kafka-Streams den internen Topics vorangestellt? Aufgaben- anwendung.id gruppe.id kafka-streams- In Kafka Streams ist die application.id auch die zugrunde liegende group.id für Ihre Konsumenten und das Präfix für alle internen Topics (repartition und state)NO.55 Wenn auto.create.topics.enable in der Kafka-Konfiguration auf true gesetzt ist, unter welchen Umständen erstellt ein Kafka-Broker automatisch ein Topic? (Wählen Sie drei aus) Client fordert Metadaten für ein Topic an Verbraucher liest Nachricht aus einem Topic Der Kunde ändert die Anzahl der Partitionen eines Topics Produzent sendet Nachricht an ein Topic Ein Kafka-Broker erstellt unter den folgenden Umständen automatisch ein Topic: - Wenn ein Producer beginnt, Nachrichten in das Topic zu schreiben - Wenn ein Consumer beginnt, Nachrichten aus dem Topic zu lesen - Wenn ein Client Metadaten für das Topic anfordertNO.56 Wo werden die dynamischen Konfigurationen für ein Topic gespeichert? In Zookeeper In einem internen Kafka-Topic __topic_configuratins In server.properties Im Dateisystem des Kafka-Brokers Dynamische Topic-Konfigurationen werden in Zookeeper verwaltet.NO.57 Ein Topic empfängt alle Bestellungen für die Produkte, die auf einer Commerce-Site verfügbar sind. Zwei Anwendungen wollen alle Nachrichten unabhängig voneinander verarbeiten - Auftragsabwicklung und Überwachung. Das Thema hat 4 Partitionen. Wie würden Sie die Verbraucher für eine optimale Leistung und Ressourcennutzung organisieren? Erstellen Sie 8 Verbraucher in derselben Gruppe mit 4 Verbrauchern für jede Anwendung Erstellen Sie zwei Verbrauchergruppen für zwei Anwendungen mit jeweils 8 Verbrauchern Erstellen Sie zwei Verbrauchergruppen für zwei Anwendungen mit je 4 Verbrauchern Erstellen Sie vier Verbraucher in derselben Gruppe, einen für jede Partition - zwei für die Erfüllung und zwei für die Überwachung zwei Partitionsgruppen - eine für jede Anwendung, damit alle Nachrichten an beide Anwendungen geliefert werden. 4 Verbraucher in jeder Gruppe, da es 4 Partitionen des Themas gibt und Sie nicht mehr Verbraucher pro Gruppe haben können als die Anzahl der Partitionen (sonst sind sie inaktiv und verschwenden Ressourcen)NO.58 Ein Verbraucher startet und hat auto.offset.reset=none, und die Themenpartition hat derzeit Daten für Offsets von 45 bis 2311. Die Verbrauchergruppe hat zuvor den Offset 10 für das Thema festgelegt. Von wo aus wird der Verbraucher lesen? Versatz 45 Versatz 10 er wird abstürzen Versatz 2311 auto.offset.reset=none bedeutet, dass der Verbraucher abstürzt, wenn die Offsets, von denen er liest, aus Kafka gelöscht wurden, was hier der Fall ist, da 10 < 45NO.59 Wie findet man alle Partitionen heraus, bei denen eine oder mehrere der Repliken für die Partition nicht mit dem Leader synchronisiert sind? kafka-topics.sh -bootstrap-server localhost:9092 -describe -unavailable- partitions kafka-topics.sh -zookeeper localhost:2181 -beschreiben Sie -nicht verfügbare- Partitionen kafka-topics.sh -broker-list localhost:9092 -beschreiben Sie -unter-replizierte-Partitionen kafka-topics.sh -zookeeper localhost:2181 -beschreiben -unter-replizierten-Partitionen Laden ... Bereiten Sie Top Confluent CCDAK P