Perguntas frequentes sobre a IA responsável para Copilot no Viva Engage
O que é o Microsoft 365 Copilot no Viva Engage?
O Microsoft 365 Copilot no Viva Engage fornece acesso à tecnologia de modelo de linguagem grande (LLM), que é um tipo de tecnologia que você pode pedir para realizar tarefas baseadas em linguagem para você, da mesma forma que você pode perguntar a uma pessoa.
O Copilot aprende com suas comunidades, campanhas e interesses para fazer sugestões personalizadas do que você pode querer postar e onde você pode se beneficiar do envolvimento.
O que o Copilot no Viva Engage pode fazer?
O Copilot no Viva Engage pode ajudar você:
-
Debate ideias sobre o que postar, onde postar e aponta para incluir em sua postagem.
-
Forneça um modelo, crie rascunhos de conteúdo para uma postagem e faça edições para melhorar a qualidade e o valor da escrita.
-
Forneça comentários e conselhos sobre a sua postagem.
Qual é o uso pretendido do Copilot no Viva Engage?
O Copilot capacita com as informações e a colaboração necessárias para aproveitar o Viva Engage para atingir suas metas profissionais.
Como o Copilot no Viva Engage foi avaliado? Quais métricas são usadas para medir o desempenho?
Medimos o desempenho do Copilot no Engage, que é da plataforma GPT, usando estas métricas chave:
-
Precisão e recall: Estas métricas foram cruciais para avaliar a qualidade das sugestões. A precisão quantifica quantas das sugestões geradas pela IA foram relevantes, enquanto o recall determinou quantas das sugestões relevantes foram recuperadas.
-
Satisfação do usuário: Para medir a satisfação do usuário, realizamos pesquisas de usuários e coletamos comentários para avaliar o grau de satisfação dos usuários com a assistência do sistema de IA.
-
Generalização: Para avaliar o quão bem os resultados do sistema foram generalizados em diferentes casos de uso, testamos o Copilot no Engage em um conjunto diversificado de dados e tarefas. Isso envolve a avaliação do desempenho do sistema em uma variedade de cenários e domínios que não fazem parte dos dados de treinamento iniciais.
Realizamos exercícios de agrupamento vermelho, convidando especialistas externos e testadores para encontrar vulnerabilidades ou desvios no sistema. Este processo nos ajudou a identificar possíveis problemas e melhorar a robustez do sistema. Nosso processo de avaliação está em andamento, com atualizações e melhorias contínuas com base nos comentários dos usuários. Ao empregar uma combinação de avaliação interna, comentários do usuário e testes externos, nosso objetivo é garantir a precisão, a imparcialidade e a generalização do Copilot no Engage da plataforma GPT.
Quais são as limitações do Copilot no Viva Engage? Como os usuários podem minimizar o impacto dessas limitações ao usar o sistema?
O modelo subjacente que capacita o Copilot é treinado em dados anteriores a 2021. Ele não fornecerá respostas relevantes se uma pergunta exigir conhecimento do mundo após 2021.
Quais fatores operacionais e configurações permitem o uso eficaz e responsável do Copilot no Viva Engage?
O Copilot no Engage foi projetado com um sistema de filtro robusto que bloqueia proativamente a linguagem ofensiva e impede a geração de sugestões em contextos confidenciais. Estamos melhorando a detecção e a remoção de conteúdo ofensivo gerado pelo Copilot no Engage e no tratamento de saídas polares, discriminatórias ou abusivas.
Incentivamos você a relatar quaisquer sugestões ofensivas encontradas ao usar o Copilot no Engage.
Saiba mais
Introdução ao Copilot no Viva Engage
Colaborar com a Copilot no Viva Engage em postagens e artigos