Viva Engage での Copilot の責任ある AI についてよく寄せられる質問
Microsoft 365 Copilot in Viva Engage とは
Microsoft 365 Copilot in Viva Engage は、大規模言語モデル (LLM) テクノロジへのアクセスを提供します。これは、ユーザーに質問する方法と同様に、言語ベースのタスクを実行するように求めることができるテクノロジの一種です。
Copilot は、コミュニティ、キャンペーン、関心事から学び、投稿したい内容や魅力的なメリットを得られる場所について、パーソナライズされた提案を行います。
Viva Engage の Copilot でできること
Copilot in Viva Engage は、次の作業に役立ちます。
-
投稿する内容、投稿する場所、投稿に含めるポイントのアイデアをブレーンストーミングします。
-
テンプレートを提供し、投稿のコンテンツを下書きし、編集して文章の品質と価値を向上させます。
-
投稿に関するフィードバックとアドバイスを提供します。
Viva Engage での Copilot の使用目的は何ですか?
Copilot は、Viva Engage を活用してプロフェッショナルな目標を達成するために必要な情報とコラボレーションを支援します。
Viva Engage の Copilot はどのように評価されましたか? パフォーマンスを測定するために使用されるメトリックは何ですか?
次の主要なメトリックを使用して GPT を利用して、Engage での Copilot のパフォーマンスを測定しました。
-
精度と再現率: これらのメトリックは、提案の品質を評価するために重要でした。 精度は AI によって生成された提案の数を定量化し、再現率は、取得された関連する提案の数を決定しました。
-
ユーザーの満足度: ユーザーの満足度を測定するために、ユーザーアンケートを実施し、フィードバックを収集して、AI システムの支援に対するユーザーの満足度を評価しました。
-
一般化可能性: さまざまなユース ケースでシステムの結果がどの程度一般化されているかを評価するために、さまざまなデータとタスクのセットに対して Copilot in Engage をテストしました。 これには、初期トレーニング データの一部ではないさまざまなシナリオとドメインでシステムのパフォーマンスを評価する必要がありました。
赤いチーム化演習を実施し、外部の専門家やテスト担当者を招待して、システムの脆弱性や偏見を見つけます。 このプロセスは、潜在的な問題を特定し、システムの堅牢性を向上させるのに役立ちました。 評価プロセスは継続的に行われ、ユーザーからのフィードバックに基づいて継続的な更新と改善が行われます。 内部評価、ユーザー フィードバック、外部テストの組み合わせを採用することで、GPT を利用した Engage での Copilot の正確性、公平性、および一般性を確保することを目指しています。
Viva Engage の Copilot の制限とは? ユーザーがシステムを使用する際にこれらの制限の影響を最小限に抑えるにはどうすればよいか。
Copilot を強化する基になるモデルは、2021 年より前のデータでトレーニングされます。 質問に 2021 年の後の世界に関する知識が必要な場合、関連する回答は提供されません。
Viva Engage で Copilot を効果的かつ責任を持って使用するには、どのような運用上の要因と設定が可能ですか?
Engage の Copilot は、攻撃的な言葉を積極的にブロックし、機密性の高いコンテキストでの提案の生成を防止する堅牢なフィルター システムで設計されています。 Microsoft では、エンゲージで Copilot によって生成された不快なコンテンツの検出と削除を改善し、偏見、差別的、または不適切な出力に対処しています。
Engage で Copilot を使用しているときに、不快な提案が発生した場合は報告することをお勧めします。
詳細情報
Viva Engage で Copilot の使用を開始する
Viva Engage で Copilot と投稿や記事で共同作業する