Word 中的 Copilot 将大型语言模型 (LLM) 的强大功能与内容 Word 相结合,以高效和创造性地转换书写 - 创建、汇总、提问、优化和提升文档。 Word 中的 Copilot 现在可以帮助将其他文档中的特定信息引入内容、提出有关文档的问题、获取有关特定主题的想法、将文本转换为表格,或获取指导建议以改进内容。
选择标题以获取更多信息
Word 中的 Copilot 是根据 Microsoft 内部使用情况和公共数据通过广泛的手动和自动测试进行评估的。 针对冒犯性和恶意的提示 (用户问题) 和响应,基于自定义数据集进行了更多评估。 此外,Word 中的 Copilot 会根据用户在线反馈不断进行评估。
Copilot 方案中支持多种语言。 当输入为英语时,预期质量会更好,而使用其他语言时,预期质量会随着时间的推移而提高。 我们将来会添加更多语言和区域设置。 查找有关 Microsoft Copilot 支持的语言 的详细信息。
Word 中 Copilot 的建议来自 AI,我们强烈建议用户在接受建议之前先查看建议。
此外,Copilot 当前限制了每次提示可处理的字数。 有关处理较长文件的详细信息,请参阅保持简短明了:你提供给 Copilot 的文档长度指南。
接收有关你写作的指导当前处于预览版状态。 因此,“获取指导”选项仅限于一小部分受支持的语言和区域,同时我们评估输出质量并确保它满足我们的高质量和体验标准。 若要了解详细信息,请参阅 使用指导查看 Word 网页版中的内容。
Word 中的 Copilot 已由我们的负责任的 AI (RAI)团队审核。 我们遵循 RAI 原则,并已实现:
-
负责任 AI 处理管道,以减轻有害、不当内容等风险。
-
在产品用户反馈中,用户可以向 Microsoft 报告冒犯性内容。
Word 中的Copilot 包括筛选器,用于阻止提示中的冒犯性语言,并避免在敏感上下文中合成建议。 我们将继续努力改进筛选器系统,以更智能地检测和删除冒犯性输出。 如果看到冒犯性输出,请使用 Copilot UI 中的赞/踩反馈在 Word 提交反馈,以便我们可以改进安全措施。 Microsoft 非常重视这一挑战,并且致力于解决它。
Word 中的 Copilot 可以流畅、语法正确的方式书写,但它生成的内容可能不准确或不恰当。 它无法理解含义或评估准确性,因此请务必仔细阅读它写作的内容,并运用你的判断力。
虽然这些功能会努力避免在结果中共享意外的冒犯性内容,并采取措施防止显示潜在的有害主题,但你仍可能会看到意外的结果。 我们一直在努力改进我们的技术,以根据我们负责任的 AI 原则主动解决问题。
与任何 AI 生成的内容一样,它是一个很好的入门工具,但请务必查看、编辑和验证它为你创建的任何内容。
Word 中的 Copilot 根据它在整个 Internet 中发现的语言模式生成内容。 有时其结果与现有 Internet 内容非常相似。 或者,Copilot 可能会为以相同方式提示 Copilot 的多个人员生成相同或非常相似的内容。
例如,指示 Copilot 创建“苹果馅饼食谱”的每个人最终可能会收到相同或几乎相同的内容。 如果担心原创性,请检查与在线资源的相似性(在“开始”选项卡上,转到“编辑器”,然后向下滚动到“相似性”)。
Copilot 和 Microsoft 365 基于 Microsoft 全面的安全性、合规性和隐私的基础之上。
有关隐私的详细信息,请参阅以下信息:
-
如果(通过工作或学校帐户)在组织中使用适用于 Microsoft 365 的 Copilot,请参阅适用于 Microsoft 365 的 Copilot 的数据、隐私和安全性。
-
如果通过个人 Microsoft 帐户使用 Copilot Pro 附带的 Microsoft 365 应用家庭版中的 Copilot,请参阅 Microsoft 365 应用家庭版中的 Copilot:数据和隐私。
我们是否已回答你的问题?
本文上次由 Ben 于 2024 年 9 月更新。 如果我们回答你的问题,特别是如果我们未回答,请使用下面的反馈控件告诉我们。 如果你的问题不在此处,请告诉我们它是什么,我们将来会尽力将其添加到本文中。 谢谢!