Dari Prinsip ke Praktik: Jalan Menuju AI yang Bertanggung Jawab

Diterbitkan: 2024-07-29

Kecerdasan buatan dengan cepat mengubah masyarakat kita dengan meningkatkan efisiensi dalam tugas sehari-hari dan memajukan batas-batas baru dalam teknologi. Namun, adopsi AI yang cepat menimbulkan diskusi penting tentang dampak dan keamanannya.

Untuk mendekati AI secara bertanggung jawab, pertimbangkan beberapa persamaan antara AI dan mobil.

Apa yang membuat mobil aman? Ini bukan hanya tentang sabuk pengaman, peraturan lalu lintas, atau tes tabrakan—meskipun semuanya berkontribusi terhadap keselamatan mereka secara keseluruhan. Konstelasi proses manufaktur, fitur, pengujian, tata kelola, pendidikan, dan norma-norma sosial memungkinkan miliaran orang menggunakan mobil dengan aman setiap hari.

Mobil dan AI serupa. Di Grammarly, kami menganggap AI yang bertanggung jawab sebagai serangkaian pemeriksaan dan keseimbangan di seluruh jalur AI, mulai dari konsep, pengembangan, hingga penerapan. Tidak ada faktor atau kendali tunggal yang menjadikan AI bertanggung jawab, namun standar dan praktik yang diterapkan di seluruh organisasi dapat membentuk pendekatan komprehensif terhadap AI yang bertanggung jawab.

Apa itu AI yang bertanggung jawab?

AI yang bertanggung jawab menciptakan dan memanfaatkan kecerdasan buatan dengan cara yang penuh perhatian, bermoral, dan selaras dengan nilai-nilai kemanusiaan. Hal ini tentang mengekang AI dengan cara yang memprioritaskan dampak yang diinginkan sekaligus mengurangi perilaku atau hasil yang tidak diinginkan. Hal ini memerlukan kesadaran penuh akan kemampuan teknologi AI yang kita miliki, mengidentifikasi potensi kendala, memilih kasus penggunaan yang tepat, dan menerapkan perlindungan terhadap risiko.

AI yang bertanggung jawab mempunyai bentuk yang berbeda-beda pada tahapan yang berbeda dalam alur AI. Penerapan AI secara bertanggung jawab mungkin memerlukan prinsip-prinsip yang berbeda dari prinsip-prinsip yang diperlukan untuk menerapkan model AI yang sudah ada atau untuk membangun teknologi berbasis AI dari awal. Menetapkan ekspektasi yang jelas dan menetapkan pedoman bagi AI Anda untuk beroperasi di setiap tahap pipeline AI sangatlah penting.

Dengan mengingat hal tersebut, bagaimana perusahaan dapat memastikan bahwa mereka berada di jalur yang benar ketika menerapkan AI yang bertanggung jawab?

Menyusun kerangka AI yang bertanggung jawab

Perjalanan menuju AI yang bertanggung jawab melibatkan pemahaman teknologi, mempertimbangkan dampak yang diharapkan, dan mitigasi potensi risiko, seperti perilaku yang tidak diinginkan, halusinasi, atau pembuatan konten berbahaya. Langkah-langkah ini memastikan bahwa perilaku AI selaras dengan nilai-nilai perusahaan Anda.

Perusahaan yang mempertimbangkan untuk memasukkan AI ke dalam bisnis mereka harus mempertimbangkan bagaimana AI dapat memengaruhi merek, pengguna, atau hasil keputusan mereka. Menetapkan kerangka kerja untuk AI yang bertanggung jawab di organisasi Anda dapat membantu memandu keputusan dalam membangun atau mengadopsi AI.

Kerangka Manajemen Risiko AI, yang diterbitkan oleh Institut Standar dan Teknologi Nasional, merupakan sumber daya yang berharga dalam upaya ini. Kerangka kerja ini membantu organisasi mengenali dan mengelola risiko yang terkait dengan AI generatif dan memandu perusahaan dalam mengembangkan prinsip-prinsip AI yang bertanggung jawab.

Standar AI yang bertanggung jawab dari Grammarly

Di Grammarly, kami membuat dan menggunakan solusi berbasis AI setiap hari. AI yang bertanggung jawab adalah landasan pengembangan produk dan keunggulan operasional kami. Kami memiliki tim AI Bertanggung Jawab berdedikasi yang terdiri dari peneliti, ahli bahasa analitis, insinyur pembelajaran mesin, dan pakar keamanan yang berpikir kritis tentang apa yang ingin kami capai untuk perusahaan, pengguna, dan produk kami.

Seiring berkembangnya perusahaan kami, kami telah mengembangkan standar AI kami yang bertanggung jawab:

  • Transparansi: Pengguna harus dapat mengetahui kapan mereka berinteraksi dengan AI.Hal ini termasuk mengidentifikasi konten yang dihasilkan AI dan memberikan detail tentang metode pelatihan AI. Ini akan membantu pengguna memahami bagaimana AI mengambil keputusan. Mengetahui keterbatasan dan kemampuan AI memungkinkan pengguna membuat keputusan yang lebih tepat mengenai penerapannya.
  • Keadilan: Keadilan AI bukan hanya sekedar kata kunci di Grammarly;itu adalah prinsip panduan. Melalui alat yang mengevaluasi keluaran AI dan penilaian risiko sensitivitas yang ketat, Grammarly secara proaktif memitigasi bias dan konten yang menyinggung. Komitmen untuk menjamin rasa hormat, inklusivitas, dan keadilan mendorong setiap interaksi pengguna.
  • Agensi Pengguna: Kontrol sebenarnya ada di tangan pengguna.Grammarly memberdayakan penggunanya dengan kemampuan untuk membentuk interaksi mereka dengan AI. Pengguna memiliki keputusan akhir—apakah mereka memilih untuk menerima saran penulisan atau memutuskan apakah konten mereka melatih model atau tidak. Hal ini memastikan bahwa AI memperkuat, bukannya mengesampingkan, suara mereka.
  • Akuntabilitas: Menyadari potensi penyalahgunaan, Grammarly secara langsung menghadapi tantangan AI.Grammarly memastikan akuntabilitas atas keluaran AI-nya melalui pengujian bias yang komprehensif dan dengan mempekerjakan tim AI kami yang Bertanggung Jawab selama proses pengembangan. AI yang bertanggung jawab adalah bagian dari struktur perusahaan, memastikan bahwa AI adalah alat pemberdayaan, bukan sumber kesalahan atau kerugian.
  • Privasi dan Keamanan: Pendekatan Grammarly terhadap AI yang bertanggung jawab berkomitmen kuat terhadap privasi dan keamanan pengguna.Kami tidak menjual data pengguna atau mengizinkan pihak ketiga mengakses data pengguna untuk iklan atau pelatihan. Kepatuhan yang ketat terhadap standar hukum, peraturan, dan internal mendukung janji ini, memastikan bahwa semua pengembangan dan pelatihan AI menjaga privasi dan keamanan tertinggi.

Menuju masa depan yang lebih bertanggung jawab

Menumbuhkan lingkungan yang bertanggung jawab untuk teknologi AI memerlukan upaya kolaboratif dari pemangku kepentingan eksternal—mulai dari industri teknologi, regulator, hingga negara. Untuk menggunakan AI secara bertanggung jawab, kita harus mengakui dan mengatasi bias yang melekat, mengupayakan transparansi dalam proses pengambilan keputusan AI, dan memastikan bahwa pengguna memiliki pengetahuan yang diperlukan untuk membuat keputusan yang tepat mengenai penggunaannya.

Penerapan prinsip-prinsip ini sangat penting untuk membuka seluruh potensi AI sekaligus memitigasi potensi risikonya. Upaya kolektif ini akan membuka jalan bagi masa depan di mana teknologi AI bersifat inovatif, adil, dan dapat diandalkan. Pelajari lebih lanjut tentang standar AI yang bertanggung jawab dari Grammarly di sini.