Tanya jawab umum tentang AI yang Bertanggung Jawab untuk Copilot di Viva Engage
Apa itu Microsoft 365 Copilot dalam Viva Engage?
Microsoft 365 Copilot di Viva Engage menyediakan akses ke teknologi model bahasa besar (LLM), yang merupakan jenis teknologi yang dapat Anda minta untuk melakukan tugas berbasis bahasa untuk Anda, mirip dengan cara Anda meminta seseorang.
Copilot belajar dari komunitas, kampanye, dan minat Anda untuk memberikan saran yang dipersonalisasi tentang apa yang mungkin ingin Anda posting dan di mana Anda dapat memperoleh manfaat dari keterlibatan.
Apa yang dapat dilakukan Copilot di Viva Engage?
Copilot di Viva Engage dapat membantu Anda:
-
Curah pendapat tentang apa yang harus diposting, tempat untuk memposting, dan mengarahkan untuk disertakan dalam postingan Anda.
-
Berikan templat, konten draf untuk postingan, dan edit untuk meningkatkan kualitas dan nilai penulisan.
-
Berikan umpan balik dan saran tentang postingan Anda.
Apa tujuan penggunaan Copilot di Viva Engage?
Copilot memberdayakan dengan informasi dan kolaborasi yang Anda perlukan untuk memanfaatkan Viva Engage untuk mencapai tujuan profesional Anda.
Bagaimana Copilot di Viva Engage dievaluasi? Metrik apa yang digunakan untuk mengukur performa?
Kami mengukur kinerja Copilot dalam Engage, yang didukung oleh GPT menggunakan metrik utama ini:
-
Presisi dan Ingat: Metrik ini sangat penting untuk mengevaluasi kualitas saran. Presisi mengukur berapa banyak saran yang dihasilkan AI yang relevan, sementara penarikan kembali menentukan berapa banyak saran yang relevan diambil.
-
Kepuasan Pengguna: Untuk mengukur kepuasan pengguna, kami melakukan survei pengguna dan mengumpulkan umpan balik untuk menilai seberapa puas pengguna dengan bantuan sistem AI.
-
Generalisasi: Untuk menilai seberapa baik hasil sistem yang disamakan di berbagai kasus penggunaan, kami menguji Copilot dalam Engage pada kumpulan data dan tugas yang beragam. Hal ini melibatkan evaluasi kinerja sistem pada berbagai skenario dan domain yang bukan merupakan bagian dari data pelatihan awal.
Kami melakukan latihan tim merah, mengundang para ahli dan penguji eksternal untuk menemukan kerentanan atau bias dalam sistem. Proses ini membantu kami mengidentifikasi potensi masalah dan meningkatkan ketahanan sistem. Proses evaluasi kami sedang berlangsung, dengan pembaruan dan penyempurnaan berkelanjutan berdasarkan umpan balik pengguna. Dengan menggunakan kombinasi evaluasi internal, umpan balik pengguna, dan pengujian eksternal, kami bertujuan untuk memastikan keakuratan, keadilan, dan generalisasi Copilot di Engage didukung oleh GPT.
Apa batasan Copilot dalam Viva Engage? Bagaimana pengguna dapat meminimalkan dampak dari keterbatasan ini ketika menggunakan sistem?
Model yang mendasari mendukung Copilot dilatih pada data pra-2021. Ini tidak akan memberikan respons yang relevan jika pertanyaan memerlukan pengetahuan tentang dunia pasca 2021.
Faktor dan pengaturan operasional apa yang memungkinkan penggunaan Copilot yang efektif dan bertanggung jawab dalam Viva Engage?
Copilot di Engage dirancang dengan sistem filter yang kuat yang secara proaktif memblokir bahasa yang menyinggung dan mencegah munculnya saran dalam konteks yang sensitif. Kami membuatnya lebih baik dalam mendeteksi dan menghapus konten ofensif yang dihasilkan oleh Copilot di Engage dan menangani keluaran yang bias, diskriminatif, atau kasar.
Kami mendorong Anda untuk melaporkan saran yang menyinggung yang mereka temui saat menggunakan Copilot di Engage.
Pelajari selengkapnya
Mulai menggunakan Copilot di Viva Engage
Berkolaborasi dengan Copilot di Viva Engage pada postingan dan artikel
Berpartisipasi lebih banyak dengan saran dari Copilot di Viva Engage