Veelgestelde vragen over verantwoordelijke AI voor Copilot in Viva Engage
Wat is Microsoft 365 Copilot in Viva Engage?
Microsoft 365 Copilot in Viva Engage biedt toegang tot LLM-technologie (Large Language Model). Dit is een soort technologie die u kunt vragen om op taal gebaseerde taken voor u uit te voeren, net zoals u het een persoon zou kunnen vragen.
Copilot leert van uw community's, campagnes en interesses om gepersonaliseerde suggesties te doen over wat u mogelijk wilt posten en waar u van kunt profiteren.
Wat kan Copilot in Viva Engage doen?
Copilot in Viva Engage kan u helpen bij het:
-
Brainstorm ideeën over wat u wilt posten, waar u kunt posten en punten die u in uw post moet opnemen.
-
Geef een sjabloon, conceptinhoud voor een bericht op en breng wijzigingen aan om de schrijfkwaliteit en -waarde te verbeteren.
-
Geef feedback en advies over uw post.
Wat is het beoogde gebruik van Copilot in Viva Engage?
Copilot biedt de informatie en samenwerking die u nodig hebt om Viva Engage te gebruiken om uw professionele doelen te bereiken.
Hoe is Copilot in Viva Engage geëvalueerd? Welke metrische gegevens worden gebruikt om de prestaties te meten?
We hebben de prestaties gemeten van Copilot in Engage, die wordt mogelijk gemaakt met GPT met behulp van de volgende belangrijke metrische gegevens:
-
Precisie en Herinnering: Deze metrische gegevens waren van cruciaal belang voor het evalueren van de kwaliteit van suggesties. De precisie heeft gekwantificeerd hoeveel van de door AI gegenereerde suggesties relevant zijn, terwijl in relevante overeenkomsten is bepaald hoeveel van de relevante suggesties zijn opgehaald.
-
Gebruikerstevredenheid: Om de tevredenheid van gebruikers te meten, hebben we gebruikersenquêtes uitgevoerd en feedback verzameld om te beoordelen hoe tevreden gebruikers waren met de hulp van het AI-systeem.
-
Generaliseerbaarheid: Om te beoordelen hoe goed de resultaten van het systeem zijn gegeneraliseerd in verschillende gebruiksvoorbeelden, hebben we Copilot in Engage getest op een diverse set gegevens en taken. Dit omvat het evalueren van de prestaties van het systeem voor een reeks scenario's en domeinen die geen deel uitmaakten van de initiële trainingsgegevens.
We hebben rode teamoefeningen uitgevoerd en externe experts en testers uitgenodigd om beveiligingsproblemen of afwijkingen in het systeem te vinden. Dit proces heeft ons geholpen potentiële problemen te identificeren en de robuustheid van het systeem te verbeteren. Ons evaluatieproces is constant, met doorlopende updates en verbeteringen op basis van feedback van gebruikers. Door gebruik te maken van een combinatie van interne evaluatie, feedback van gebruikers en externe tests, streven we naar de nauwkeurigheid, juistheid en generaliseerbaarheid van Copilot in Engage mogelijk gemaakt met GPT.
Wat zijn de beperkingen van Copilot in Viva Engage? Hoe kunnen gebruikers de impact van deze beperkingen minimaliseren wanneer ze het systeem gebruiken?
Het onderliggende model waarmee Copilot wordt aangestuurd, wordt getraind op gegevens van vóór 2021. Het biedt geen relevante antwoorden als een vraag kennis vereist van de wereld na 2021.
Welke operationele factoren en instellingen maken effectief en verantwoordelijk gebruik van Copilot in Viva Engage mogelijk?
Copilot in Engage is ontworpen met een robuust filtersysteem dat proactief aanstootgevende taal blokkeert en voorkomt dat suggesties worden gegenereerd in gevoelige contexten. We maken het beter in het detecteren en verwijderen van aanstootgevende inhoud die is gegenereerd door Copilot in Engage en het aanpakken van bevooroordeelde, onderscheidende of beledigende uitvoer.
We raden u aan om eventuele aanstootgevende suggesties te melden die ze tegenkomen tijdens het gebruik van Copilot in Engage.
Meer informatie
Aan de slag met Copilot in Viva Engage
Samenwerken met Copilot in Viva Engage aan berichten en artikelen