上次更新日期: 2024 年 7 月 31 日
Copilot 結合大型語言模型 (LLM) 與 Teams 資料的強大功能,可即時提供摘要和回答問題,以協助您在工作場所保持生產力。
聊天和頻道:
-
聊天和頻道中的 Copilot 會摘要聊天訊息。 其輸入是來自所叫用之交談的訊息,其輸出是高層級的摘要和主要重點。 使用者也可以選擇摘要過去 1 天、7 天和 30 天的交談。 他們也可以透過免費文字問與答輸入查詢,而 Copilot 會根據聊天記錄產生解答。 常見的使用案例是摘要交談,並取得問題解答,例如所做出的決策或開啟的項目。
撰寫:
-
撰寫中的 Copilot 可協助使用者改寫並調整其訊息,讓他們可以有效溝通,並與同事有效率地共同作業。 Copilot 不僅可協助拼字及文法問題;它還可以協助使用者透過訊息長度,取得正確的語調和想要的簡潔性。 使用新的 [自訂語調] 功能,使用者也可以輸入自己的指示來微調語調、翻譯訊息,或新增其他內容。
會議和通話:
-
啟動文字記錄後,適用於會議和通話的 Copilot 便會開始作業。 在會議中,如果召集人將 Copilot 設為「只在會議期間」,則可以在不使用標準文字記錄的情況下,開始使用該功能。 使用者可以在會議或通話進行期間或之後,隨時輸入查詢 (建議或任意文字),Copilot 便會根據文字記錄產生解答。 常見的用途包括摘要會議、產生動作項目、列出無法解決的問題等等。
Teams 中的 Copilot 可在聊天、頻道、通話和會議中使用。 若要深入瞭解,請參閱 歡迎使用 Microsoft Teams 中的 Copilot。
Teams 中的 Copilot 是根據 Microsoft 內部使用量、公用資料和線上測量,透過廣泛的手動和自動測試來進行評估。 評估和監控的目標是保持完整且易讀的高品質回應,同時保持可靠性和短延遲。 我們已透過自訂資料集執行其他評估,以獲得攻擊性和惡意提示 (使用者的問題) 和回應。
除了線上和離線評估和計量之外,Teams 中的 Copilot 也會不斷地與使用者意見反應 (豎起大拇指和大拇指朝下意見反應函數)、逐字意見反應,以及我們產品團隊的手動評估,來進行評估。
Teams 中的 Copilot 不會與第三方共用資料。
Teams 中的 Copilot 不會使用使用者資料來訓練模型。
適用於會議的 Teams Copilot 僅限於具有文字記錄的單一會議,或執行 Copilot 的進行中會議。 Copilot 僅根據會議文字記錄中提供的資訊來回答。 目前不支援非常長的會議: 會議中的解答功能可能僅限於約 2 小時長的會議。
在聊天案例中,Copilot 受限於其可處理的資料量,以及可回溯以獲取解答的時間跨度。 Copilot 可以處理的最遠時間跨度是從最近傳送的訊息起的 30 天內。 訊息保留原則可能也會進一步限制此設定。 在會議案例中,較長時間的會議 (超過 2 小時) 比起較短時間的會議,可能會受到更長的延遲影響。
系統管理員可以選擇要透過 Microsoft 365 系統管理中心啟用哪些 Copilot,並且可以啟用或停用 Teams 中的 Copilot。 系統管理員可以決定是否「僅在會議期間」允許適用於 Teams 會議的 Copilot。 若要深入瞭解如何在 Teams 會議中管理 Copilot,請參閱 管理適用於 Microsoft Teams 的 Microsoft Copilot 會議和活動。
如果您的系統管理員允許,會議召集人可以選擇將 Copilot 設為「在會議期間和之後」,要求開啟保留的文字記錄以使用 Copilot,或將其設為「僅在會議期間」,以在會議結束後不保留任何資訊。
當使用者執行下列動作時,Teams 中的 Copilot 的回應效果最佳:
-
將問題限制在聊天或會議中涵蓋的主題。 Copilot 不會回答不相關的問題。
-
使用支援的語言說話或聊天。 Copilot 會以支援的語言回應,但英文輸入可提供更好的回應。 針對會議,請確定文字記錄定義的語言符合口語語言。
-
請確保有足夠的最新和實質性內容可供使用。 如果不符合這些需求,Copilot 會提供錯誤訊息。
Teams 中的 Copilot 支援英文、西班牙文、日文、法文、德文、葡萄牙文、義大利文和簡體中文。 若要深入了解,請參閱 Microsoft Copilot 支援的語言。
Copilot 和 Microsoft 365 是以 Microsoft 對安全性、合規性和隱私權的全方位方法為基礎。
如需隱私權的詳細資訊,請參閱下列資訊:
-
如果您正在組織中使用 Microsoft 365 Copilot (使用公司或學校帳戶),請參閱 適用於 Microsoft 365 Copilot 的資料、隱私權和安全性。
-
如果您使用家用版 Microsoft 365 應用程式做為 Copilot Pro 的一部分 (使用您的個人 Microsoft 帳戶),請參閱 家用版 Microsoft 365 應用程式中的 Copilot: 您的資料和隱私權。
Teams 生成式 AI 功能會根據可用的資料,努力提供正確且資訊豐富的回應。 不過,答案不一定都能正確無誤,因為它們是根據語言資料中的模式和機率所產生。 在做出決策或根據回應採取行動之前,請善用您的判斷並仔細查核事實。 雖然這些功能備有緩和措施,可避免在結果中共用非預期的不當內容,並採取防止顯示潛在有害主題的步驟,但您可能仍會看到未預期的結果。 我們會持續努力改善我們的技術,按照我們負責任的 AI 原則主動處理問題。
LLM 會自然針對每個查詢提供稍微不同的回應。 這與人類的行為很類似,如果您在不同的日子向某人詢問相同的問題,他們的回答將不完全相同。 在會議期間和進行中的聊天中,Copilot 會根據最新的可用內容提供回答。 此內容會隨時間而演進- Copilot 認為與先前摘要相關的主題,在五分鐘後可能便不那麼相關。
根據性質,Copilot 的會議摘要精簡,不一定總是會涵蓋 100% 的會議內容。 不過,您隨時都可以就特定詳細資料或主題進行相關提問,以充分利用您的會議。 我們持續致力於改善 Copilot: 在您使用 Copilot 的過程中,提供您的意見反應 (豎起大拇指或大拇指朝下),對我們而言非常重要。
目前,Copilot 會使用出席者顯示名稱中的第一個字串。 如果出席者的顯示名稱 (姓氏、名字) 顛倒,則 Copilot 可能會以不同的方式顯示出席者的名稱。 我們正在推出變更,以確保 Copilot 使用正確的名字。 請分享意見反應,讓我們可以進一步改善。
如果您發現產生的回應不正確,或者您遇到有害或不當的內容,請在摘要中點擊大拇指朝下,並在意見反應表單中提供其他註解,以提供該意見反應。 此意見反應可協助我們改善及減少此內容。