Diese Seite wurde exportiert von Exams Labs Braindumps [ http://blog.examslabs.com ] Exportdatum:Mon Dec 23 19:07:24 2024 / +0000 GMT ___________________________________________________ Titel: [Q81-Q99] Latest Microsoft AI-900 First Attempt, Exam real Dumps Updated [Apr-2023] --------------------------------------------------- Neueste Microsoft AI-900 First Attempt, Exam real Dumps Updated [Apr-2023] Holen Sie sich die überlegene Qualität AI-900 Dumps Fragen von ExamsLabs. Niemand kann Sie daran hindern, Ihre Träume jetzt zu erreichen. Ihre helle Zukunft ist nur einen Klick entfernt! NEUE FRAGE 81Zuordnen der Workload-Typen für die Verarbeitung natürlicher Sprachen zu den entsprechenden Szenarien: Ziehen Sie den entsprechenden Workload-Typ aus der linken Spalte in das entsprechende Szenario auf der rechten Seite, um zu antworten. Jeder Workload-Typ kann einmal, mehrmals oder gar nicht verwendet werden.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. ErläuterungBox 1: EntitätserkennungBestimmen Sie eine breite Palette von Entitäten in Texten, wie Personen, Orte, Organisationen, Datum/Zeit und Prozentsätze, mit Hilfe der benannten Entitätserkennung. Box 2: Sentiment AnalysisSentiment Analysis ist der Prozess der Bestimmung, ob ein Text positiv, negativ oder neutral ist.Box 3: TranslationUsing Microsoft's Translator text APIThis versatile API von Microsoft can be used for the following:Translate text from one language to another.Text von einer Schrift in eine andere übersetzen.Sprache des Eingabetextes erkennen.Alternative Übersetzungen zu einem bestimmten Text finden.Satzlänge bestimmen.Referenz:https://azure.microsoft.com/en-us/services/cognitive-services/text-analyticsNEW FRAGE 82Sie müssen die Belastung der Telefonisten reduzieren, indem Sie einen Chatbot implementieren, der einfache Fragen mit vordefinierten Antworten beantwortet.Welche beiden KI-Dienste sollten Sie verwenden, um das Ziel zu erreichen? Jede richtige Antwort stellt einen Teil der Lösung dar.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. Textanalyse QnA Maker Azure Bot Dienst Übersetzer Text Abschnitt: Beschreiben Sie die Funktionen von konversationellen KI-Workloads auf AzureErläuterung:Bots sind eine beliebte Methode, um Support über mehrere Kommunikationskanäle anzubieten. Sie können den QnA Maker Service und den Azure Bot Service verwenden, um einen Bot zu erstellen, der Benutzerfragen beantwortet.Referenz:https://docs.microsoft.com/en-us/learn/modules/build-faq-chatbot-qna-maker-azure-bot-service/NEW FRAGE 83Um den Satz zu vervollständigen, wählen Sie die entsprechende Option im Antwortbereich aus. Referenz:https://azure.microsoft.com/en-us/services/cognitive-services/form-recognizer/NEW FRAGE 84Sie haben den in der folgenden Abbildung gezeigten Prozess. welche Art von KI-Lösung ist im Diagramm dargestellt? eine Sentiment-Analyse-Lösung ein Chatbot ein maschinelles Lernmodell eine Computer-Vision-Anwendung NEUE FRAGE 85Werden Sie die Azure Cognitive Services den entsprechenden KI-Arbeitslasten zuordnen, indem Sie den entsprechenden Service aus der linken Spalte in die rechte Spalte ziehen. Jeder Dienst kann einmal, mehrmals oder gar nicht verwendet werden.HINWEIS: Jede richtige Zuordnung ist einen Punkt wert. ErläuterungNEUE FRAGE 86Welche zwei Aufgaben können mit Hilfe von Computer Vision erledigt werden? Jede richtige Antwort stellt eine vollständige Lösung dar.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. Aktienkurse vorhersagen. Marken in einem Bild erkennen. Das Farbschema eines Bildes erkennen Übersetzen von Text zwischen Sprachen. Schlüsselsätze extrahieren. Abschnitt: Beschreiben Sie die Merkmale von Computer Vision Workloads auf AzureErläuterung:B: Der Computer Vision Service von Azure bietet Ihnen Zugang zu fortschrittlichen Algorithmen, die Bilder verarbeiten und Informationen basierend auf den visuellen Merkmalen zurückgeben, an denen Sie interessiert sind. Computer Vision kann zum Beispiel feststellen, ob ein Bild nicht jugendfreie Inhalte enthält, bestimmte Marken oder Objekte finden oder menschliche Gesichter erkennen.E: Computer Vision umfasst OCR-Funktionen (Optical Character Recognition). Sie können die neue Lese-API verwenden, um gedruckten und handgeschriebenen Text aus Bildern und Dokumenten zu extrahieren. Es werden die neuesten Modelle verwendet, und es funktioniert mit Text auf einer Vielzahl von Oberflächen und Hintergründen. Dazu gehören Quittungen, Poster, Visitenkarten, Briefe und Whiteboards. Die beiden OCR-APIs unterstützen die Extraktion von gedrucktem Text in mehreren Sprachen.Referenz:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/overviewNEW FRAGE 87Welche Metrik können Sie zur Bewertung eines Klassifizierungsmodells verwenden? Wahr-Positiv-Rate Mittlerer absoluter Fehler (MAE) Bestimmungskoeffizient (R2) Wurzel des mittleren quadratischen Fehlers (RMSE) Wie sieht ein gutes Modell aus?Eine ROC-Kurve, die sich mit 100% wahrer positiver Rate und 0% falsch positiver Rate der oberen linken Ecke nähert, ist das beste Modell. Ein Zufallsmodell würde sich als flache Linie von der linken unteren Ecke bis zur rechten oberen Ecke darstellen. Ein Modell, das schlechter ist als ein Zufallsmodell, würde unterhalb der y=x-Linie eintauchen.Referenz:https://docs.microsoft.com/en-us/azure/machine-learning/how-to-understand-automated-ml#classificationNEW FRAGE 88Zuordnen der Arten von Computer Vision zu den entsprechenden Szenarien.Ziehen Sie zur Beantwortung der Frage den entsprechenden Workload-Typ aus der linken Spalte zu dem entsprechenden Szenario auf der rechten Seite. Jeder Workload-Typ kann einmal, mehrmals oder gar nicht verwendet werden.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. ErläuterungBox 1: GesichtserkennungGesichtserkennung, die Gesichter und Attribute in einem Bild wahrnimmt; Personenidentifizierung, die eine Person in Ihrem privaten Repository mit bis zu 1 Million Personen abgleicht; Erkennung wahrgenommener Emotionen, die eine Reihe von Gesichtsausdrücken wie Freude, Verachtung, Neutralität und Angst erkennt; und Erkennung und Gruppierung ähnlicher Gesichter in Bildern.Box 2: OCRBox 3: ObjekterkennungDie Objekterkennung ähnelt dem Tagging, aber die API gibt die Bounding-Box-Koordinaten (in Pixel) für jedes gefundene Objekt zurück. Wenn ein Bild beispielsweise einen Hund, eine Katze und eine Person enthält, listet der Vorgang "Erkennen" diese Objekte zusammen mit ihren Koordinaten im Bild auf. Sie können diese Funktion verwenden, um die Beziehungen zwischen den Objekten in einem Bild zu verarbeiten. Die Detect-API wendet Tags auf der Grundlage der im Bild identifizierten Objekte oder Lebewesen an. Es gibt derzeit keine formale Beziehung zwischen der Tagging-Taxonomie und der Objekt-Erkennungstaxonomie. Auf konzeptioneller Ebene findet die Detect-API nur Objekte und Lebewesen, während die Tag-API auch kontextbezogene Begriffe wie "indoor" einbeziehen kann, die nicht mit Bounding Boxes lokalisiert werden können.Referenz:https://azure.microsoft.com/en-us/services/cognitive-services/face/https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectionNEW FRAGE 89Wählen Sie die entsprechende Option im Antwortbereich aus, um den Satz zu vervollständigen.Die Verwendung von Recency, Frequency, and Monetary (RFM)-Werten zur Identifizierung von Segmenten eines Kundenstamms ist ein Beispiel für___________ Siehe unten in der Erklärung: KlassifizierungNEUE FRAGE 90 Um den Satz zu vervollständigen, wählen Sie die entsprechende Option im Antwortbereich aus. ErläuterungBeschleunigen Sie Ihre Geschäftsprozesse, indem Sie die Informationsextraktion automatisieren. Form Recognizer wendet fortschrittliches maschinelles Lernen an, um Text, Schlüssel/Wertpaare und Tabellen aus Dokumenten zu extrahieren. Verwandeln Sie Formulare zu einem Bruchteil des Zeit- und Kostenaufwands in verwertbare Daten, so dass Sie sich mehr auf die Informationen konzentrieren können, anstatt sie zusammenzustellen.Referenz:https://azure.microsoft.com/en-us/services/cognitive-services/form-recognizer/NEW FRAGE 91Wählen Sie für jede der folgenden Aussagen Ja aus, wenn die Aussage wahr ist. Andernfalls wählen Sie Nein.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. ErläuterungBox 1: JaBeim maschinellen Lernen sind die Daten beschriftet, d.h. sie sind markiert oder kommentiert, um das Ziel zu zeigen, d.h. die Antwort, die Ihr maschinelles Lernmodell vorhersagen soll.Im Allgemeinen kann sich die Datenbeschriftung auf Aufgaben beziehen, die das Markieren, Kommentieren, Klassifizieren, Moderieren, Transkribieren oder Verarbeiten von Daten umfassen.Box 2: NeinBox 3: NeinDie Genauigkeit ist einfach der Anteil der korrekt klassifizierten Instanzen. Sie ist in der Regel die erste Kennzahl, die bei der Bewertung eines Klassifizierers herangezogen wird. Wenn die Testdaten jedoch unausgewogen sind (d. h. die meisten Instanzen gehören zu einer der Klassen) oder man sich mehr für die Leistung in einer der Klassen interessiert, gibt die Genauigkeit nicht wirklich Aufschluss über die Effektivität eines Klassifizierers.Referenz:https://www.cloudfactory.com/data-labeling-guidehttps://docs.microsoft.com/en-us/azure/machine-learning/studio/evaluate-model-performanceNEW FRAGE 92 Um den Satz zu vervollständigen, wählen Sie die entsprechende Option im Antwortbereich. ErklärungReferenz:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectionNEW FRAGE 93Um den Satz zu vervollständigen, wählen Sie die entsprechende Option im Antwortbereich aus. Referenz:https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/4-guiding-principlesNEW FRAGE 94Welche zwei Aufgaben können mit Hilfe des Computer Vision Service ausgeführt werden? Jede richtige Antwort stellt eine vollständige Lösung dar.HINWEIS: Jede richtige Auswahl ist einen Punkt wert. Trainieren Sie ein benutzerdefiniertes Bildklassifizierungsmodell. Gesichter in einem Bild erkennen. Erkennen von handgeschriebenem Text. Übersetzen des Textes in einem Bild zwischen verschiedenen Sprachen. ErläuterungB: Der Computer Vision Service von Azure bietet Entwicklern Zugang zu fortschrittlichen Algorithmen, die Bilder verarbeiten und Informationen basierend auf den visuellen Merkmalen zurückgeben, an denen Sie interessiert sind. Computer Vision kann zum Beispiel feststellen, ob ein Bild nicht jugendfreie Inhalte enthält, bestimmte Marken oder Objekte finden oder menschliche Gesichter erkennen.C: Computer Vision umfasst OCR-Funktionen (Optical Character Recognition). Sie können die neue Lese-API verwenden, um gedruckten und handgeschriebenen Text aus Bildern und Dokumenten zu extrahieren.Referenz:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/home Erkennen von Gesichtern in einem Bild - Face API Microsoft Azure bietet mehrere kognitive Dienste, die Sie zum Erkennen und Analysieren von Gesichtern verwenden können, einschließlich:Computer Vision, die Gesichtserkennung und einige grundlegende Gesichtsanalysen, wie z. B. die Altersbestimmung, bietet.Video Indexer, mit dem Sie Gesichter in einem Video erkennen und identifizieren können.Face, das vorgefertigte Algorithmen zur Erkennung, Erkennung und Analyse von Gesichtern bietet.Handgeschriebenen Text erkennen - Lese-APIDie Lese-API ist eine bessere Option für gescannte Dokumente, die viel Text enthalten. Die Lese-API ist auch in der Lage, automatisch das richtige Erkennungsmodell zu bestimmenNEUE FRAGE 95Wählen Sie die entsprechende Option im Antwortbereich aus, um den Satz zu vervollständigen. ErläuterungZuverlässigkeit und Sicherheit: Um Vertrauen aufzubauen, ist es entscheidend, dass KI-Systeme unter normalen Umständen und unter unerwarteten Bedingungen zuverlässig, sicher und konsistent arbeiten. Diese Systeme sollten in der Lage sein, so zu arbeiten, wie sie ursprünglich konzipiert wurden, sicher auf unvorhergesehene Bedingungen zu reagieren und schädlichen Manipulationen zu widerstehen.Referenz:https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/4-guiding-principlesNEW FRAGE 96Sie müssen eine webbasierte KI-Lösung für ein Kundensupportsystem entwickeln. Die Benutzer müssen in der Lage sein, mit einer Webanwendung zu interagieren, die sie zur besten Ressource oder Antwort führt.Welchen Dienst sollten Sie verwenden? Custom Vision QnA Maker Übersetzer Text Gesicht ErläuterungQnA Maker ist ein Cloud-basierter API-Dienst, mit dem Sie eine Frage-Antwort-Schicht über Ihren vorhandenen Daten erstellen können. Nutzen Sie ihn, um eine Wissensdatenbank aufzubauen, indem Sie Fragen und Antworten aus Ihren semistrukturierten Inhalten, einschließlich FAQs, Handbüchern und Dokumenten, extrahieren. Beantworten Sie die Fragen der Benutzer mit den besten Antworten aus den QnAs in Ihrer Wissensdatenbank - automatisch. Ihre Wissensdatenbank wird immer intelligenter, da sie kontinuierlich aus dem Benutzerverhalten lernt.Referenz:https://azure.microsoft.com/en-us/services/cognitive-services/qna-maker/NEW FRAGE 97Sie senden ein Bild an eine Computer Vision API und erhalten das in der Abbildung gezeigte kommentierte Bild zurück.Welche Art von Computer Vision wurde verwendet? Objekterkennung semantische Segmentierung optische Zeichenerkennung (OCR) Bildklassifizierung ErläuterungDie Objekterkennung ähnelt dem Tagging, aber die API gibt für jedes gefundene Objekt die Bounding-Box-Koordinaten (in Pixeln) zurück. Wenn ein Bild beispielsweise einen Hund, eine Katze und eine Person enthält, listet der Vorgang Erkennen diese Objekte zusammen mit ihren Koordinaten im Bild auf. Sie können diese Funktion verwenden, um die Beziehungen zwischen den Objekten in einem Bild zu verarbeiten. Die Detect-API wendet Tags auf der Grundlage der im Bild identifizierten Objekte oder Lebewesen an. Es gibt derzeit keine formale Beziehung zwischen der Tagging-Taxonomie und der Objekt-Erkennungstaxonomie. Auf konzeptioneller Ebene findet die Erkennungs-API nur Objekte und Lebewesen, während die Tag-API auch kontextbezogene Begriffe wie "Innenraum" einbeziehen kann, die nicht mit Bounding Boxes lokalisiert werden können.Referenz:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectionNEW FRAG