Последнее обновление: 12 июля 2023 г.
Copilot сочетает в себе возможности больших языковых моделей (LLM) с данными Teams для предоставления сводок и ответов на вопросы в режиме реального времени, чтобы поддержать вашу продуктивность на рабочем месте.
Беседы
-
Система суммирует сообщения чата. Входные данные — это сообщения из беседы, из которую он вызывается, а результаты работы — сводка и главные выводы. При открытии Copilot автоматически предоставляет сводку по умолчанию на основе последнего журнала бесед. Пользователи также могут подвести итоги за последние 1, 7 и 30 дней беседы. Пользователь может ввести запрос (предложенный или бесплатный текст), и Copilot сгенерирует ответы на основе журнала чата. Распространенные варианты использования — составление сводки чата и получение ответов на такие вопросы, как принятые решения или невыполненные элементы.
Собрания:
-
Copilot для собраний использует стенограмму собрания, поэтому он будет работать только в том случае, если собрание записано или транскрибировано. Пользователь может ввести запрос (предложенный или бесплатный текст) в любой момент во время или после собрания, и Copilot сгенерирует ответы на основе расшифровки. Распространенные варианты использования — генерирование протокола собрания и элементо действий, предоставление ответов на различные вопросы, перечисление основных обсужденных идей, перечисление неразрешенных вопросов и многое другое.
Copilot в Teams доступен в чатах и собраниях.
-
Чаты Пользователи могут получить доступ к Copilot вручную, нажав кнопку Copilot в заголовке чата. Кроме того, если лицензированный пользователь возвращается в чат после длительного отсутствия, в интерфейсе может активироваться поддерживающий нажатия интеллектуальный элемент, сообщающий пользователю, что сводка может оказаться полезной.
-
Собрания Пользователи могут получить доступ к Copilot во время собрания с помощью кнопки Copilot и после собрания (на вкладке сведений о собраниях). Чтобы Copilot функционировал, необходимо включить транскрибирование собраний.
Copilot в Teams оценивался с помощью обширного ручного и автоматического тестирования на основе внутреннего использования и общедоступных данных Майкрософт. Дополнительная оценка проводилась на основе пользовательских наборов данных для оскорбительных и вредоносных запросов (вопросов пользователей) и ответов. Кроме того, Copilot в Teams постоянно оценивается с помощью отзывов пользователей в Интернете (кнопки обратной связи с большим пальцем вверх и большим пальцем вниз).
В сценариях чата Copilot ограничен объемом данных, которые может обработать, и давностью информации, переработанной для получения ответа. Copilot может обработать информацию давностью не более 30 дней с момента последнего отправленного сообщения. Его работу могут также дополнительно ограничивать политики хранения. При работе с собраниями длительные собрания (дольше 2 часов) могут вызывать большую задержку.
Для сценариев работы с Copilot поддерживаются различные языки. Наилучшее качество ожидается при вводе запросов на английском языке, при этом для других языков качество ответов со временем будет улучшаться.
Настроить Copilot в Teams невозможно. Администраторы могут выбирать, какие Copilot следует включить, через центр Microsoft 365 Admin, и могут включить или отключить Copilot в Teams. Пользователи могут выбирать, какие вопросы следует задавать Copilot в зависимости от своих потребностей.
Copilot в Teams лучше всего работает, когда пользователи учитывают следующие правила:
-
Ограничивайте вопросы темами, которые рассматривались в чате или на собрании. Copilot не будет отвечать на вопросы не по теме.
-
Говорите или общайтесь в чате на поддерживаемых языках. Copilot будет отвечать на поддерживаемых языках, однако, как указано выше, входные данные на английском языке позволяют получить ответы более высокого качества. Для работы с собраниями убедитесь, что указанный язык стенограммы соответствует языку, на котором говорят участники.
-
Предоставьте свежее содержимое существенного объема. Если эти требования не выполняются, Copilot будет выдавать сообщения об ошибках.
Copilot в Teams поддерживает различные языки. Дополнительные сведения см. в разделе Поддерживаемые языки для Microsoft Copilot.
Copilot и Microsoft 365 созданы на основе комплексного подхода корпорации Майкрософт к безопасности, соответствию требованиям и конфиденциальности.
Дополнительные сведения о конфиденциальности см. ниже.
-
Если вы используете Copilot для Microsoft 365 в организации (с рабочей или учебной учетной записью), см. статью Данные, конфиденциальность и безопасность в Microsoft Copilot для Microsoft 365.
-
Если вы используете Copilot в приложениях Microsoft 365 дома в рамках Copilot Pro (с личной учетной записью Майкрософт), см. статью Copilot Pro: приложения Microsoft 365 и ваша конфиденциальность.
Функции генеративного ИИ Teams стремятся предоставлять точные и информативные ответы на основе доступных данных. Однако ответы не всегда могут быть точными, так как они создаются на основе шаблонов и вероятностей в языковых данных. Используйте свое собственное суждение и дважды проверьте факты, прежде чем принимать решения или предпринимать действия на основе ответов.
Эти возможности позволяют избежать публикации непредвиденного оскорбительного содержимого в результатах и предотвращают показ потенциально опасных тем, но все же вы можете получить непредвиденные результаты. Мы постоянно работаем над улучшением технологии для упреждающего решения проблем в соответствии с нашими принципами ответственного применения ИИ.
Если вы обнаружите неправильный сгенерированный ответ или столкнетесь с вредным или неприемлемым контентом, оставьте отзыв, нажав палец вниз в сводке и предоставив дополнительные комментарии в форме обратной связи. Эта обратная связь помогает нам улучшить и минимизировать этот контент в будущем.