DUK apie „Copilot“ atsakingo dirbtinio intelekto naudojimą programoje „Viva Engage“
Kas yra „Microsoft 365 Copilot“ programoje „Viva Engage“?
„Microsoft 365 Copilot“ programoje „Viva Engage“ suteikia prieigą prie didelio kalbos modelio (LLM) technologijos, t. y.tam tikros rūšies technologijos, kurios galite paprašyti, kad už jus atliktų su kalba susijusias užduotis, panašiai kaip paprašytumėte žmogaus.
„Copilot“ mokosi iš jūsų bendruomenių, kampanijų ir pomėgių, kad pateiktų asmeniniams poreikiams pritaikytus pasiūlymus apie tai, ką norėtumėte skelbti ir kur jums būtų naudinga įsitraukti.
Ką gali daryti „Copilot“ programoje „Viva Engage“?
„Copilot“ programoje „Viva Engage“ gali jums padėti toliau nurodytais būdais.
-
Sugalvoti idėjų, ką skelbti, kur skelbti ir kokius dalykus įtraukti į įrašą.
-
Pateikti šabloną, parengti įrašo turinį ir atlikti pakeitimus, kad pagerintumėte rašymo kokybę ir vertę.
-
Pateikti atsiliepimų ir patarimų apie savo įrašą.
Kokia „Copilot“ programoje „Viva Engage“ naudojimo paskirtis?
„Copilot“ suteikia galimybę pasitelkti informaciją ir bendradarbiavimą, kurių reikia norint panaudoti „Viva Engage“, kad pasiektumėte savo profesinius tikslus.
Kaip buvo įvertinta „Copilot“ programoje „Viva Engage“? Kokia metrika naudojama našumui matuoti?
GPT platformą naudojančios „Copilot“ programoje „Viva Engage“ efektyvumo matavimui buvo naudotos toliau nurodytos pagrindinės metrikos.
-
Tikslumas ir išsamumas: ši metrika buvo labai svarbi vertinant pasiūlymų kokybę. Tikslumu kiekybiškai įvertinta, kiek DI sugeneruotų pasiūlymų buvo aktualūs, o išsamumu nustatyta, kiek aktualių pasiūlymų buvo gauta.
-
Vartotojų pasitenkinimas: norėdami įvertinti vartotojų pasitenkinimą, atlikome vartotojų apklausas ir surinkome atsiliepimus, kad įvertintumėte, ar vartotojai buvo patenkinti DI sistemos pagalba.
-
Apibendrinimas:norėdami įvertinti, kaip gerai sistemos rezultatai apibendrinami įvairiais naudojimo atvejais, išbandėme „Copilot“ programoje „Viva Engage“ naudodami įvairius duomenų ir užduočių rinkinius. Tai buvo susiję su sistemos našumo vertinimu įvairiuose scenarijuose ir domenuose, kurie nebuvo pradinių mokymo duomenų dalis.
Atlikome atakos simuliavimo pratimus, kviesdami išorinius ekspertus ir testuotojus sistemoje rasti spragų ar šališkumo. Šis procesas padėjo mums nustatyti galimas problemas ir pagerinti sistemos patikimumą. Mūsų vertinimo procesas yra nenutrūkstamas, nuolat atnaujinamas ir tobulinamas atsižvelgiant į vartotojų atsiliepimus. Pasitelkdami vidinio vertinimo, vartotojų atsiliepimų ir išorinių bandymų derinį, siekiame užtikrinti GPT platformą naudojančios „Copilot“ programoje „Viva Engage“ tikslumą, išsamumą ir apibendrinamumą.
Kokie yra „Copilot“ programoje „Viva Engage“ apribojimai? Kaip vartotojai gali sumažinti šių apribojimų poveikį, kai naudojama sistema?
Pamatinis modelis, palaikantis „Copilot“, išmokytas pagal iki 2021 m. duomenis. „Copilot“ nepateiks aktualių atsakymų, jei klausimas reikalauja žinių apie pasaulį po 2021 m.
Kokie operaciniai veiksniai ir parametrai leidžia veiksmingai ir atsakingai naudoti „Copilot“ programoje „Viva Engage“?
„Copilot“ programoje „Viva Engage“ sukurta naudojant patikimą filtro sistemą, kuri aktyviai blokuoja įžeidžiančią kalbą ir neleidžia generuoti pasiūlymų jautriuose kontekstuose. Stengiamės, kad būtų lengviau aptikti ir pašalinti įžeidžiantį turinį, kurį sugeneravo „Copilot“ programoje „Viva Engage“, atkreipiant dėmesį į šališkus, diskriminuojančius arba įžeidžiančius rezultatus.
Raginame pranešti apie bet kokius įžeidžiamus pasiūlymus, su kuriais susiduriama naudojant „Copilot“ programoje „Viva Engage“.
Sužinokite daugiau
Darbo su „Copilot“ pradžia programoje „Viva Engage“
Bendradarbiaukite su „Copilot“ programoje „Viva Engage“ kurdami įrašus ir straipsnius
Pasinaudokite pasiūlymais, kuriuos „Copilot“ teikia programoje „Viva Engage“
Nustatyti „Copilot“ programoje „Viva Engage“ | „Microsoft Learn“