Domande frequenti sull'intelligenza artificiale responsabile per Copilot in Viva Engage
Che cos'è Microsoft 365 Copilot in Viva Engage?
Microsoft 365 Copilot in Viva Engage offre l'accesso alla tecnologia LLM (Large Language Model), un tipo di tecnologia che è possibile richiedere di eseguire attività basate sulla lingua, analogamente a come si potrebbe chiedere a una persona.
Copilot impara a conoscere le community, le campagne e gli interessi dell'utente, per suggerire in modo personalizzato ciò che potrebbe piacergli pubblicare e dove potrebbe trarre vantaggio dal suo impegno.
Cosa può fare Copilot in Viva Engage?
Copilot in Viva Engage può aiutarti a:
-
Brainstorming di idee su cosa pubblicare, dove pubblicare e su punti da includere nel post.
-
Fornisci un modello, una bozza di contenuto per un post e apporta modifiche per migliorare la qualità e il valore della scrittura.
-
Fornisci feedback e consigli sul tuo post.
Qual è l'uso previsto di Copilot in Viva Engage?
Copilot fornisce le informazioni e la collaborazione necessarie per sfruttare Viva Engage per raggiungere i propri obiettivi professionali.
Come è stato valutato Copilot in Viva Engage? Quali metriche vengono usate per misurare le prestazioni?
Abbiamo misurato le prestazioni di Copilot in Engage, che è basato su GPT usando queste metriche chiave:
-
Precisione e richiamo: Queste metriche erano cruciali per valutare la qualità dei suggerimenti. La precisione ha quantificato il numero di suggerimenti generati dall'intelligenza artificiale pertinenti, mentre il richiamo ha determinato quanti dei suggerimenti pertinenti sono stati recuperati.
-
Soddisfazione dell'utente: Per valutare la soddisfazione degli utenti, abbiamo condotto sondaggi con gli utenti e raccolto feedback per valutare il livello di soddisfazione degli utenti con l'assistenza del sistema di intelligenza artificiale.
-
Generalizzabilità: Per valutare il livello di generalizzazione dei risultati del sistema in diversi casi d'uso, Copilot è stato testato in Engage su un set diversificato di dati e attività. Ciò comportava la valutazione delle prestazioni del sistema in un'ampia gamma di scenari e domini che non facevano parte dei dati di formazione iniziale.
Abbiamo condotto esercizi di teaming rosso, invitando esperti esterni e tester a trovare vulnerabilità o distorsioni nel sistema. Questo processo ci ha aiutato a identificare i potenziali problemi e a migliorare la robustezza del sistema. Il processo di valutazione è in corso, con aggiornamenti e miglioramenti continui basati sul feedback degli utenti. Utilizzando una combinazione di valutazione interna, feedback degli utenti e test esterni, l'obiettivo è garantire l'accuratezza, l'equità e la generalizzabilità di Copilot in Engage con tecnologia GPT.
Quali sono i limiti di Copilot in Viva Engage? In che modo gli utenti possono ridurre al minimo l'impatto di queste limitazioni quando usano il sistema?
Il modello sottostante che supporta Copilot viene sottoposto a training su dati precedenti al-2021. ’Non fornirà risposte pertinenti se una domanda richiede una conoscenza del mondo successivo al 2021.
Quali sono i fattori e le impostazioni operative che consentono un uso efficace e responsabile di Copilot in Viva Engage?
Copilot in Engage è progettato con un robusto sistema di filtro che blocca proattivamente il linguaggio offensivo e impedisce la generazione di suggerimenti in contesti sensibili. Stiamo migliorando il rilevamento e la rimozione di contenuti offensivi generati da Copilot in Engage e risolvendo output distorti, discriminanti o offensivi.
Ti invitiamo a segnalare eventuali suggerimenti offensivi che incontra durante l'uso di Copilot in Engage.
Altre informazioni
Introduzione a Copilot in Viva Engage
Collabora a post e articoli con Copilot in Viva Engage
Partecipa di più con i suggerimenti di Copilot in Viva Engage