上次更新时间:2024 年 7 月 31 日
Copilot 将大型语言模型 (LLM) 的强大功能与 Teams 数据相结合,实时提供摘要和回答问题,帮助你在工作场所保持高效工作。
聊天和频道:
-
聊天和频道中的 Copilot 会汇总聊天消息。 其输入是来自调用它的对话的消息,其输出是高级摘要和关键信息。 用户还可以选择汇总过去 1 天、7 天和 30 天的对话。 他们还可以通过自由文本问答输入查询,Copilot 会根据聊天历史记录生成答案。 常见的用例是汇总聊天并获取问题的答案,例如已做出的决策或未清项目。
撰写:
-
撰写中的 Copilot 可帮助用户改写和调整消息,以便他们能够与同事进行有效的沟通和协作。 Copilot 不仅能解决拼写和语法问题,它还可以帮助用户通过控制消息长度来确定正确的语气并达到期望的简洁性。 使用新的自定义语气功能,用户还可以键入自己的指令来微调语气、翻译消息或添加其他上下文。
会议和通话:
-
启动脚本后,会议和通话的 Copilot 将开始工作。 在会议中,如果 Copilot 由组织者设置为“仅在会议期间”,则无需标准脚本即可启动。 用户可以在会议或通话期间或之后随时输入查询(建议或自由文本),Copilot 将根据脚本生成答案。 常见用途包括会议总结、生成拟办事项、列出未解决的问题等。
Teams 中的 Copilot 可在聊天、频道、通话和会议中使用。 若要了解详细信息,请参阅欢迎使用 Microsoft Teams 中的 Copilot。
Teams 中的 Copilot 是在 Microsoft 内部使用情况、公共数据和在线测量的基础上通过广泛的手动和自动测试进行评估的。 评估和监视的目标是保持高质量的答复完整且清晰,同时保持答复可靠且延迟较短。 针对冒犯性和恶意的提示(用户问题)和答复,基于自定义数据集进行了其他评估。
除了在线和离线评估和指标之外,还通过用户反馈(赞和踩反馈功能)、逐字反馈以及我们的产品团队的人工评估不断评估 Teams 中的 Copilot。
Teams 中的 Copilot 不与第三方共享数据。
Teams 中的 Copilot 不使用用户数据来训练模型。
Teams 会议 Copilot 仅限于具有脚本的单次会议或正在运行 Copilot 的进行中的会议。 Copilot 将仅根据会议脚本中提供的信息进行答复。 当前不支持时间较长的会议:在超过约 2 小时的会议中,答复可能会受到限制。
在聊天应用场景中,Copilot 可以处理的数据量以及追溯答案的时间跨度将受到限制。 Copilot 可以处理最近发送的消息 30 天前的信息。 它也可能受到消息保留策略的进一步限制。 在会议应用场景中,长会议 (超过 2 小时) 相较于短会议可能会受到较长延迟的影响。
管理员可以通过 Microsoft 365 管理中心选择要启用的 Copilot,并且可以启用或禁用 Teams 中的 Copilot。 管理员可以决定是否“仅在会议期间”允许 Teams 会议 Copilot。 若要了解有关如何管理 Teams 会议中的 Copilot 的详细信息,请参阅管理 Microsoft Teams 会议和活动的 Copilot。
如果管理员允许,会议组织者可以选择将 Copilot 设置为“会议期间和之后”,以要求开启保留的脚本以使用 Copilot,或将其设置为“仅在会议期间”,这样在会议后就不会保留任何信息。
当用户执行以下操作时,Teams Copilot 将做出最佳响应:
-
将问题限制为聊天或会议中涵盖的主题。 Copilot 不会回答不相关的问题。
-
使用支持的语言朗读或聊天。 Copilot 将以支持的语言进行答复,但英语输入有助于产生更好的答复。 对于会议,请确保脚本的定义语言与口述语言匹配。
-
确保有最新内容和大量内容可用。 如果不满足这些要求,Copilot 将提供错误消息。
Teams 中的 Copilot 支持英语、西班牙语、日语、法语、德语、葡萄牙语、意大利语和简体中文。 要了解详细信息,请参阅 Microsoft Copilot 支持的语言。
Copilot 和 Microsoft 365 基于 Microsoft 全面的安全性、合规性和隐私的基础之上。
有关隐私的详细信息,请参阅以下信息:
-
如果(通过工作或学校帐户)在组织中使用适用于 Microsoft 365 的 Copilot,请参阅适用于 Microsoft 365 的 Copilot 的数据、隐私和安全性。
-
如果通过个人 Microsoft 帐户使用 Copilot Pro 附带的 Microsoft 365 应用家庭版中的 Copilot,请参阅 Microsoft 365 应用家庭版中的 Copilot:数据和隐私。
Teams 生成式 AI 功能致力于根据可用的数据提供准确且信息丰富的答复。 但是,答案可能并不总是准确,因为它们是基于语言数据中的模式和概率生成。 在做出决定或根据答复采取行动之前,请使用自己的判断并仔细检查事实。 虽然这些功能会努力避免在结果中共享意外的冒犯性内容,并采取措施防止显示潜在的有害主题,但你仍可能会看到意外的结果。 我们一直在努力改进我们的技术,以根据我们负责任 AI 原则主动解决问题。
LLM 为每个查询提供的答复自然会略微不同。 这与人类行为类似- 如果在不同日期向某人提出相同的问题,他们的回答也不会完全相同。 在会议和实时聊天过程中,Copilot 会根据可用的最新内容给出答复。 这些内容会随时间推移而变化 - Copilot 发现与早期摘要相关的主题可能在五分钟后就不相关了。
从本质上讲,Copilot 的会议摘要很简洁,并不能完全涵盖会议的所有内容。 但是,你可以持续跟进有关特定详细信息或主题的问题,充分了解会议内容。 我们一直都在寻求改进 Copilot:你在使用 Copilot 时提供的反馈(赞和踩)将非常宝贵。
目前,Copilot 使用与会者显示姓名中的第一个字符串。 如果与会者的显示姓名是反过来的(姓在前,名在后),Copilot 可能会以不同的方式显示与会者的名字。 我们正在推出更改,以确保 Copilot 使用正确的名字。 请分享反馈,以便我们进一步改进。
如果发现生成的答复不正确,或者遇到有害或不适当的内容,请在摘要中单击拇指向下图标并在反馈表单中提供其他备注来反馈问题。 此反馈有助于我们在将来改进和尽量减少此内容。