Wordの Copilot は、大規模言語モデル (LLM) のパワーとWordコンテンツを組み合わせて、文書の作成、要約、質問、絞り込み、ドキュメントの質を高めることで、効率と創造性を備えた文章を実現します。 Word の Copilot を使用すると、他のドキュメントの特定の情報をコンテンツに取り込むこと、また、ドキュメントに関する質問の作成、特定のトピックに関するアイデアの取得、テキストの表変換、およびコンテンツを改善するためのコーチングの提案を取得することができるようになります。
詳細については、見出しを選択してください
Word の Copilot は、Microsoft 社内の利用データ及び一般からのデータに加え、手動および自動の大規模なテストを通じて評価されました。 不快なプロンプトおよび悪意のあるプロンプト (ユーザーの質問) と回答について、カスタム データセットに対して追加の評価が実施されました。 さらに、Word の Copilot はユーザーのオンライン フィードバックによって継続的に評価されます。
多くの言語が、Copilot シナリオでサポートされています。 英語では品質が最も高いと予想されますが、他の言語でも時間の経過と共に品質が向上すると予想されます。 今後、さらに多くの言語とロケールが追加される予定です。 詳細については、「Microsoft Copilot でサポートされる言語」をご覧ください。
Word の Copilot からの提案は AI からのものであり、提案を受け入れる前にユーザーに確認することを強くお勧めします。
また、Copilot は現在、プロンプトごとに処理できる単語の数に制限されています。 長いファイルの処理の詳細については、「簡潔で親しみやすく: Copilot に使用するドキュメントの長さについてのガイド」を参照してください。
ライティングに関するコーチングを受けることは、現在プレビュー リリース状態です。 そのため、"コーチングを受ける" オプションは、出力の品質を評価し、高品質とエクスペリエンスの基準を満たしていることを確認する間、サポートされている言語と地域のより狭い範囲に制限されています。 詳細については、「コーチングを使用して Word for the web 内のコンテンツをレビューする」を参照してください。
Word のCopilot は、責任ある AI (RAI) チームによってレビューされています。 RAI の原則に従い、以下を実装しました。
-
責任ある AI 処理パイプラインにより、有害で不適切なコンテンツなどのリスクを軽減しています。
-
製品のユーザー フィードバックでは、ユーザーは攻撃的なコンテンツを Microsoft に報告できます。
Word のCopilot には、プロンプトで攻撃的な言語をブロックし、機密性の高いコンテキストで提案を合成しないようにするためのフィルターが含まれています。 私たちは、不快な出力をよりインテリジェントに検出して削除できるよう、フィルター システムの改善に引き続き取り組んでいます。 不快な出力を見つけた場合は、安全策を改善できるよう、Copilot UI の賛成/反対のフィードバックを使用して Word でフィードバックを送信してください。 Microsoft は、この課題を非常に真剣に受け止め、対応に取り組んでいます。
Word の Copilot は流暢で文法的に正しい方法で記述されていますが、生成されるコンテンツは不正確または不適切である可能性があります。 意味を理解したり、正確さを評価したりすることはできないため、書かれた内容を必ず読み返し、判断に使用してください。
これらの機能は、予期しない不快なコンテンツを結果で提供しないようにし、有害な可能性のあるトピックを表示しないように対策を講じますが、それでも予期しない結果が表示される場合があります。 Microsoft では、問題に積極的に対処するために、Microsoft の責任ある AI の原則に沿ってテクノロジの改善に常に取り組んでいます。
AI で生成された内容と同様に、作業を開始するための優れたツールですが、作成したものを確認、編集、検証することが重要です。
Word の Copilot は、インターネットで検出された言語パターンに基づきコンテンツを生成します。 結果が既存のインターネット 内容とよく似ている場合があります。 また、Copilot は、複数のユーザーが同じように Copilot を指示した場合、同一または非常によく似たコンテンツを生成する可能性があります。
たとえば、複数のユーザーが "アップル パイのレシピ" を作成するよう Copilot に指示した場合、恐らく全員に同一またはほぼ同じコンテンツが表示されます。 独自性が懸念される場合は、オンライン ソースとの類似性を確認します ([ホーム] タブで [エディター] に移動し、[類似性] まで下にスクロールします)。
Copilot と Microsoft 365 は、セキュリティ、コンプライアンス、プライバシーに対する Microsoft の包括的なアプローチに基づいて構築されています。
プライバシーの詳細については、次の情報を参照してください:
-
(職場または学校アカウントを使用して) 組織内の Copilot for Microsoft 365 を使用している場合は、「Copilot for Microsoft 365 のデータ、プライバシー、セキュリティ」を参照してください。
-
個人用 Microsoft たアカウントを使用して、Copilot Pro の一部として自宅の Microsoft 365 アプリで Copilot を使用している場合は、「家庭向け Microsoft 365 アプリの Copilot: データとプライバシー」を参照してください。
質問に対する回答を得ることができましたか?
この記事は、Ben によって 2024 年 9 月に最終更新されました。 あなたの質問に回答した場合、特に私たちがあなたの質問に対して回答をしなかった場合は、以下のフィードバック コントロールを使用してお知らせください。 もし質問がここにない場合は、質問内容をお知らせください。今後、この記事に追加できるよう最善を尽くします。 ありがとうございます。