Bieži uzdotie jautājumi par atbildīgu mākslīgā intelekta izmantošanu līdzeklimCopilot pakalpojumā Viva Engage
Kas ir Microsoft 365 Copilot programmā Viva Engage?
Microsoft 365 Copilot programmā Viva Engage nodrošina piekļuvi lielo valodas modeļu (LLM) tehnoloģijai, kurai var lūgt izpildīt valodā balstītus uzdevumus līdzīgi kā sarunājoties ar citu cilvēku.
Copilot mācās no jūsu kopienām, kampaņām un interesēm, lai izveidotu personalizētus ieteikumus par to, ko jūs vēlētos publicēt un kāda iesaiste nodrošinātu ieguvumu.
Ko spēj paveikt Copilot programmā Viva Engage?
Copilot programmā Viva Engage var palīdzēt:
-
ģenerēt idejas par to, ko un kur publicēt, kā arī par punktiem, ko iekļaut savā ziņā;
-
izveidot veidnes, satura melnrakstus un veikt labojumus, lai uzlabotu teksta kvalitāti un vērtību;
-
sniegt atsauksmes un ieteikumus saistībā ar jūsu ziņu.
Kāds ir Copilot programmā Viva Engage paredzētā lietošana?
Copilot nodrošina informāciju un sadarbības iespējas, kas nepieciešamas, lai varētu izmantot programmu Viva Engage savu profesionālo mērķu sasniegšanai.
Kā tika novērtēts Copilot programmā Viva Engage? Kādi rādītāji tiek izmantoti veiktspējas novērtēšanai?
Mēs novērtējām Copilot veiktspēju programmā Engage, ko darbina GPT, izmantojot tālāk minētos galvenos rādītājus.
-
Precizitāte un atgūšana: šie rādītāji bija ļoti svarīgi, novērtējot ieteikumu kvalitāti. Precizitāte norādīja, cik no mākslīgā intelekta ģenerētajiem ieteikumiem bija saistīti, savukārt atgūšana norādīja, cik no atbilstošajiem ieteikumiem tika izgūti.
-
Lietotāju apmierinātība: lai novērtētu lietotāju apmierinātību, mēs veicām lietotāju aptaujas un apkopojām atsauksmes, un tādējādi novērtējām, cik apmierināti bija lietotāji ar mākslīgā intelekta sistēmas palīdzību.
-
Vispārīgums: lai novērtētu sistēmas rezultātu vispārīgumu dažādos lietojuma gadījumos, mēs testējām Copilot programmā Engage, izmantojot dažādus datus un uzdevumus. Šie testi ietvēra sistēmas veiktspējas novērtēšanu dažādos scenārijos un jomās, kas nebija daļa no sākotnējiem apmācību datiem.
Mēs veicām sarkanās komandas testēšanu, uzaicinot ekspertus un testētājus no ārpuses, lai viņi atrastu ievainojamības vai kļūdas sistēmā. Šis process mums palīdzēja identificēt varbūtējās problēmas un uzlabot sistēmas stabilitāti. Mūsu novērtēšanas process ir nepārtraukts, un tiek veikti pastāvīgi atjauninājumi un uzlabojumi, ņemot vērā lietotāju atsauksmes. Izmantojot iekšējo novērtēšanu, lietotāju atsauksmes un ārējo testēšanu, mēs cenšamies nodrošināt Copilot programmā Engage, ko darbina GPT, precizitāti, godīgumu un vispārīgumu.
Kādi ir Copilot ierobežojumi programmā Viva Engage? Kā lietotāji var samazināt ierobežojumu ietekmi šīs sistēmas lietošanas laikā?
Pamata modelis, kas darbina Copilot, ir apmācīts, izmantojot datus no laika perioda līdz 2021. gadam. Tas nesniedz atbilstošas atbildes, ja jautājums ir saistīts ar zināšanām par norisēm pēc 2021. gada.
Kādi darbības faktori un iestatījumi nodrošina Copilot programmā Viva Engage efektīvu un atbildīgu izmantošanu?
Copilot programmā Engage ir papildināts ar uzticamu filtru sistēmu, kas proaktīvi bloķē aizvainojošu valodu un neļauj ģenerēt ieteikumus sensitīvos kontekstos. Mēs rūpīgi strādājam, lai spētu vēl labāk konstatēt un noņemt aizskarošu saturu, ko ģenerē Copilot programmā Engage, un nepieļautu sagrozītus, diskriminējošus vai aizskarošus rezultātus.
Mēs aicinām ziņot par jebkādiem aizskarošiem ieteikumiem, ar kuriem varat saskarties, izmantojot Copilot programmā Engage.
Papildinformācija
Darba sākšana ar Copilot pakalpojumā Viva Engage
Sadarbojieties ar Copilot programmā Viva Engage saistībā ar ziņām un rakstiem
Piedalieties vairāk, izmantojot Copilot ieteikumus pakalpojumā Viva Engage