Agen Pengguna dalam Penerapan AI: Mengapa AI yang Bertanggung Jawab Menghasilkan Produk yang Lebih Baik
Diterbitkan: 2024-10-28Di Grammarly, kami secara rutin membahas tentang bagaimana AI yang bertanggung jawab melibatkan pembangunan dan penerapan AI dengan cara yang selaras dengan nilai-nilai kemanusiaan. Praktik AI yang bertanggung jawab memprioritaskan penyerahan kekuasaan langsung ke tangan pengguna dengan memastikan bahwa mereka memahami cara kerja suatu produk dan memiliki kemampuan untuk mengendalikannya. Produk yang mendorong keagenan pengguna juga menghasilkan hasil bisnis yang lebih baik. AI yang bertanggung jawab, dalam bentuknya yang paling murni, pada akhirnya bertujuan untuk memusatkan pengalaman pengguna dan memastikan bahwa teknologi yang Anda buat memberikan manfaat dan mengurangi kerugian.
Saat ini, produk AI dan pembelajaran mesin dapat menjadi sumber kecemasan pengguna. Banyak orang merasa khawatir mengenai arti AI bagi masa depan pekerjaan mereka. Perusahaan yang berpusat pada manusia akan tanggap terhadap permasalahan ini, dengan bertemu orang-orang yang berkecimpung dalam produk dan pengalaman pengguna. Ada dua tuas yang dapat digunakan untuk melakukan hal ini: transparansi dan kontrol. Jika digabungkan, prinsip-prinsip ini menciptakan keagenan pengguna.
Bagaimana transparansi membangun kepercayaan
Transparansi adalah landasan kepercayaan antara sistem AI dan pengguna. Jika dijalankan dengan baik, transparansi akan menyoroti seluruh siklus hidup AI, mulai dari pengambilan dan penyimpanan data hingga pengambilan keputusan algoritmik. Meskipun transparansi menentukan keandalan dan kepercayaan suatu alat, menciptakan alat dengan cara yang dapat dipahami oleh pengguna dapat menjadi tantangan tersendiri.
Salah satu aspek penting dari transparansi adalah mengenali risiko dan bias yang melekat pada data pelatihan AI dan hasilnya. Membangun AI secara bertanggung jawab berarti secara sengaja mengatasi bias-bias ini dan secara terbuka mengakui keberadaannya. Misalnya, di Grammarly, kami mengadopsi beberapa pendekatan untuk mengurangi dampak buruk dan bias, dan kami secara terbuka berbagi risiko dan metode kami:
- Kami menggabungkan berbagai model dan mengupayakan transparansi dalam konstruksinya.
- Kami membuat filter khusus untuk mencegah bahasa yang bias menjangkau pengguna.
- Kami menerapkan proses penilaian risiko yang kuat yang mengevaluasi potensi bahaya dari fitur-fitur baru sebelum dirilis.
Vendor harus mengomunikasikan asal usul model AI dan cara mereka mengambil keputusan. Agar berhasil melakukan hal ini, sistem harus memberikan informasi yang dibutuhkan pengguna dalam bahasa dan format yang mudah dipahami. Hal ini mungkin sulit dilakukan karena beberapa alasan. Pertama, karena sifat teknologinya, seringkali tidak ada cara untuk mengetahui alasan keputusan tertentu dibuat oleh model AI. Kedua, literasi AI sangat bervariasi di kalangan masyarakat. Carilah vendor yang dapat mengatasi tantangan ini dan berupaya mencapai tingkat transparansi, yang pada akhirnya membantu pengguna memercayai sistem ini dan menggunakannya dengan percaya diri.
Transparansi juga menjamin akuntabilitas karena memungkinkan pengembang dan sistem bertanggung jawab atas tindakan mereka. Dengan memahami cara kerja sistem AI, pengguna dapat dengan mudah melaporkan masalah apa pun. Hal ini juga menciptakan jalan dan preseden untuk perbaikan berkelanjutan. Dengan memperjelas proses-proses ini, pengguna memiliki posisi yang lebih baik untuk berinteraksi dengan AI secara efektif, sehingga menghasilkan hasil yang lebih terinformasi dan adil.
Peran kontrol dalam agen pengguna
Setelah produk AI menetapkan cara memberikan transparansi, produk tersebut juga dapat mengaktifkan kontrol pengguna. Mulai dari memutuskan kapan dan bagaimana menggunakan rekomendasi AI hingga memiliki kendali atas data seseorang, kendali pengguna terwujud dalam berbagai cara. Ambil contoh, berapa banyak saran di Grammarly yang disajikan. Pengguna diberi tahu tentang dasar saran (transparansi!) dan mempunyai otonomi penuh untuk menerima atau menolak saran tersebut (kontrol!).
Di zaman ketika data mendukung inovasi AI, pengguna harus tetap memegang kendali atas data pribadi mereka. AI yang bertanggung jawab memberdayakan pengguna untuk memutuskan kapan, bagaimana, dan apakah data mereka digunakan untuk melatih model AI atau mengoptimalkan produk. Alat AI harus memungkinkan pengguna membuat pilihan tentang data pribadi mereka yang selaras dengan preferensi dan nilai-nilai mereka. Di Grammarly, pengguna memiliki kendali atas tempat kerja produk kami dan penggunaan data mereka.
Perjalanan menuju AI yang bertanggung jawab memerlukan peningkatan keagenan pengguna melalui transparansi dan kontrol. Memungkinkan pengguna untuk membuat keputusan yang tepat mengenai penggunaan AI pada akhirnya membuat penggunaan AI aman. Untuk setiap sistem dan implementasi AI, prinsip-prinsip ini akan bersifat dinamis. Saat mempertimbangkan alat AI untuk bisnis Anda, carilah perusahaan yang melakukan iterasi, menangani masukan, dan melakukan perbaikan.
Seiring berkembangnya ekosistem AI, masyarakat akan terus memikirkan perasaan mereka terhadap teknologi baru ini. Praktik AI yang bertanggung jawab serta prinsip transparansi dan kontrol akan membantu memandu perusahaan dalam menciptakan produk unggulan. Masyarakat akan bergantung pada produk yang memberikan hasil yang baik bagi penggunanya dan, dengan melakukan hal tersebut, produk tersebut akan menghasilkan produk yang lebih baik dan hasil bisnis yang lebih baik.