このページはExams Labs Braindumps [ http://blog.examslabs.com ] からエクスポートされました。 エクスポート日時:Wed Jan 8 14:12:26 2025 / +0000 GMT ___________________________________________________ タイトル: [Q81-Q99] 最新のMicrosoft AI-900 First Attempt, Exam real Dumps Updated [Apr-2023] --------------------------------------------------- 最新のMicrosoft AI-900は、最初の試み、試験の実際のダンプは[4月-2023]を更新しました ExamsLabsから高品質のAI-900 Dumps問題集を手に入れよう。誰もあなたの夢を邪魔することはできません。あなたの輝かしい未来はクリック一つで手に入ります! NEW QUESTION 81自然言語処理ワークロードのタイプを適切なシナリオにマッチさせます。回答するには、左側の列から適切なワークロードのタイプを右側のシナリオにドラッグします。各作業負荷タイプは、1 回、2 回以上、またはまったく使用されない場合があります。注:各正解選択は 1 ポイントに相当します。 説明ボックス 1: エンティティ認識名前付きエンティティ認識を使用して、人、場所、組織、日付/時刻、パーセンテージなど、テキスト内のさまざまなエンティティを分類します。ボックス2: 感傷分析感傷分析とは、ある文章が肯定的か、否定的か、中立的かを判断するプロセスです。ボックス3: 翻訳MicrosoftのTranslatorテキストAPIを使用Microsoftのこの汎用APIは、次の用途に使用できます:ある言語から別の言語へテキストを翻訳します。テキストをある文字から別の文字に翻訳する。入力テキストの言語を検出する。特定のテキストの代替訳を検索する。文の長さを決定する。参考:https://azure.microsoft.com/en-us/services/cognitive-services/text-analyticsNEW 第82問あなたは、あらかじめ定義された回答で簡単な質問に答えるチャットボットを実装することによって、電話オペレータの負荷を軽減する必要があります。この目標を達成するために使用すべき2つのAIサービスはどれですか?各正解は、ソリューションの一部を提示します。注:各正解の選択は1ポイントに値する。 テキスト分析 QnAメーカー Azureボットサービス 翻訳者 テキスト セクション説明:ボットは、複数のコミュニケーションチャネルを通じてサポートを提供する一般的な方法です。QnA MakerサービスとAzure Bot Serviceを使用して、ユーザーの質問に回答するボットを作成できます。参考:https://docs.microsoft.com/en-us/learn/modules/build-faq-chatbot-qna-maker-azure-bot-service/NEW QUESTION 83文章を完成させるには、回答エリアで適切な選択肢を選択してください。 参考:https://azure.microsoft.com/en-us/services/cognitive-services/form-recognizer/NEW QUESTION 84次の図に示すプロセスがあります。図に示されているのはどのタイプのAIソリューションですか。 センチメント分析ソリューション チャットボット 機械学習モデル コンピュータビジョンアプリケーション NEW QUESTION 85Azure Cognitive Servicesを適切なAlloadsに適合させます。回答するには、左側の列から適切なサービスを右側のワークロードにドラッグします。各サービスは、1回、複数回、またはまったく使用することができます。注:各正解の一致は1ポイントに値する。 解説NEW問題86コンピュータビジョンを使用して実行できる2つのタスクは何ですか?各正解は完全な解答を提示する。注:各正解選択は1ポイントに値する。 株価を予測する 画像からブランドを検出する 画像の配色を検出する 言語間のテキストを翻訳する キーフレーズを抽出する セクション説明:B:AzureのComputer Visionサービスは、画像を処理し、あなたが興味を持っている視覚的特徴に基づいて情報を返す高度なアルゴリズムへのアクセスを提供します。例えば、Computer Visionは、画像にアダルトコンテンツが含まれているかどうかを判断したり、特定のブランドやオブジェクトを見つけたり、人の顔を見つけることができます。E: Computer Visionには、光学式文字認識(OCR)機能が含まれています。新しい読み取りAPIを使用して、画像や文書から印刷テキストや手書きテキストを抽出できます。最新のモデルを使用し、さまざまな表面や背景のテキストに対応します。領収書、ポスター、名刺、手紙、ホワイトボードなどです。この2つのOCR APIは、複数の言語で印刷されたテキストの抽出をサポートしています。参考:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/overviewNEW 第87問分類モデルを評価するために使用できる指標はどれですか? 真陽性率 平均絶対誤差(MAE) 決定係数(R2) 二乗平均誤差(RMSE) 100%の真陽性率と0%の偽陽性率で左上隅に近づくROC曲線は、最良のモデルである。ランダムなモデルは、左下から右上隅まで平坦な線で表示される。参照:https://docs.microsoft.com/en-us/azure/machine-learning/how-to-understand-automated-ml#classificationNEW 問 88コンピュータビジョンのタイプを適切なシナリオにマッチさせる。回答するには、左側の列から適切な作業負荷タイプを右側のシナリオにドラッグする。各作業負荷タイプは、一度だけ使用することも、複数回使用することも、全く使用しないこともできます。 説明ボックス1:顔認識画像内の顔と属性を認識する顔検出、最大100万人の個人リポジトリ内の個人と一致する人物識別、幸福、軽蔑、中立、恐怖などのさまざまな表情を検出する知覚感情認識、画像内の類似した顔の認識とグループ化ボックス2:OCRボックス3:オブジェクト検出オブジェクト検出はタグ付けに似ていますが、APIは検出された各オブジェクトのバウンディングボックス座標(ピクセル単位)を返します。たとえば、画像に犬、猫、人物が含まれている場合、Detect 操作はこれらのオブジェクトを画像内の座標とともに一覧表示します。この機能を使って、画像内のオブジェクト間の関係を処理できます。Detect APIは、画像内で識別されたオブジェクトや生物に基づいてタグを適用します。現在のところ、タグ分類法とオブジェクト検出分類法の間に正式な関係はありません。概念レベルでは、Detect APIはオブジェクトと生物のみを検出します。一方、Tag APIは、バウンディングボックスでローカライズできない「屋内」のような文脈上の用語も含めることができます。参考:https://azure.microsoft.com/en-us/services/cognitive-services/face/https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectionNEW 第89問 文を完成させるには、回答エリアの適切な選択肢を選択してください。RFM(Recency, Frequency, and Monetary)値を使用して顧客ベースのセグメントを識別することは、______________の例です。 RFM(Recency、Frequency、Monetary)値を使用して顧客ベースのセグメントを識別することは、______________の例です。 説明情報抽出を自動化することで、ビジネスプロセスを加速します。Form Recognizerは高度な機械学習を適用して、文書からテキスト、キーと値のペア、表を正確に抽出します。わずかなサンプルで、Form Recognizer は、オンプレミスでもクラウドでも、ドキュメントに合わせて理解を深めます。フォームを使用可能なデータに変換する時間とコストはほんのわずかです。注:各正解の選択は1ポイントに値する。 説明枠1: はい機械学習では、ラベル付けされたデータがある場合、それは機械学習モデルに予測させたい答えであるターゲットを示すために、データがマークアップ(注釈)されていることを意味します。一般的に、データラベリングは、データのタグ付け、注釈、分類、モデレーション、転写、または処理を含むタスクを指すことができます。通常、分類器を評価するときに最初に見る指標です。しかし、テストデータがアンバランスな場合(ほとんどのインスタンスがどちらかのクラスに属している場合)、またはどちらかのクラスでのパフォーマンスに興味がある場合、精度は分類器の有効性を実際にはとらえません。参考:https://www.cloudfactory.com/data-labeling-guidehttps://docs.microsoft.com/en-us/azure/machine-learning/studio/evaluate-model-performanceNEW QUESTION 92文章を完成させるために、解答エリアで適切な選択肢を選択してください。 説明Ref:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectionNEW QUESTION 93文を完成させるために、解答エリアで適切な選択肢を選びなさい。 参考:https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/4-guiding-principlesNEW 第94問Computer Visionサービスを使用して実行できる2つのタスクは何ですか。各正解は完全なソリューションを提示します。注:各正解の選択は1ポイントに値する。 カスタム画像分類モデルをトレーニングする。 画像から顔を検出する 手書き文字を認識する。 画像内のテキストを言語間で翻訳する。 説明B:AzureのComputer Visionサービスは、画像を処理し、あなたが興味を持っている視覚的特徴に基づいて情報を返す高度なアルゴリズムへのアクセスを開発者に提供します。たとえば、Computer Visionは、画像にアダルトコンテンツが含まれているかどうかを判断したり、特定のブランドやオブジェクトを見つけたり、人の顔を見つけることができます。新しいRead APIを使用して、画像や文書から印刷テキストや手書きテキストを抽出することができます。参考:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/home 画像内の顔を検出する - Face API Microsoft Azureは、顔の検出と分析に使用できる複数のコグニティブサービスを提供しています。Video Indexerは、ビデオ内の顔を検出して識別するために使用できます。Faceは、顔の検出、認識、および分析を行うことができる事前に構築されたアルゴリズムを提供します。手書きのテキストを認識する - Read APIRead APIは、テキストが多いスキャンされたドキュメントのためのより良いオプションです。また、Read APIには、適切な認識モデルを自動的に決定する機能もありますNEW QUESTION 95文章を完成させるために、解答エリアで適切な選択肢を選択してください。 解説信頼性と安全性:信頼を築くには、AIシステムが通常の状況下でも、予期せぬ状況下でも、信頼性、安全性、一貫性を持って動作することが極めて重要である。参考:https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/4-guiding-principlesNEW QUESTION 96あなたは、カスタマーサポートシステムのためのWebベースのAIソリューションを開発する必要があります。ユーザーは、最適なリソースや回答を案内するウェブアプリと対話できなければなりません。 カスタムビジョン QnAメーカー 翻訳者 テキスト 顔 説明QnA MakerはクラウドベースのAPIサービスで、既存のデータの上に会話形式の質問と回答のレイヤーを作成することができます。FAQ、マニュアル、ドキュメントなどの半構造化コンテンツから質問と回答を抽出し、ナレッジベースを構築するために使用します。ナレッジベースのQnAから最適な回答でユーザーの質問に自動的に回答します。ナレッジベースは、ユーザーの行動から継続的に学習するため、より賢くなります。参考:https://azure.microsoft.com/en-us/services/cognitive-services/qna-maker/NEW QUESTION 97あなたは、Computer Vision APIに画像を送信し、図に示す注釈付き画像を返送しました。 オブジェクト検出 セマンティックセグメンテーション 光学式文字認識(OCR) 画像分類 説明オブジェクト検出はタグ付けに似ていますが、APIは検出された各オブジェクトのバウンディングボックス座標(ピクセル単位)を返します。たとえば、画像に犬、猫、人物が含まれている場合、Detect操作は画像内の座標とともにこれらのオブジェクトを一覧表示します。この機能を使って、画像内のオブジェクト間の関係を処理できます。Detect APIは、画像内で識別されたオブジェクトや生物に基づいてタグを適用します。現在のところ、タグ分類法とオブジェクト検出分類法の間に正式な関係はありません。概念レベルでは、Detect APIはオブジェクトと生物のみを検出します。一方、Tag APIは、バウンディングボックスでローカライズできない「屋内」のようなコンテキスト用語も含めることができます。参考:https://docs.microsoft.com/en-us/azure/cognitive-services/computer-vision/concept-object-detectio