VIVA – Perkembangan kecerdasan buatan atau Artificial Intelligence (AI) dalam berbagai bidang kehidupan masyarakat, tidak bisa dihindari lagi. Teknologi yang terus bergerak, membuat manusia tidak mampu menghindari dirinya dari penggunaan ini.
Bahkan AI sudah menjadi infrastruktur sosial baru, yang turut serta mempengaruhi cara kita dalam belajar, bekerja bahkan sampai pada soal pelayanan publik. Belakangan ini kemudian berkembang Artificial Intelligence for Social Good atau AI4SG. Pemanfaatan ini diarahkan pada kebaikan sosial, yakni membantu menyelesaikan berbagai persoalan baik itu bidang kesehatan, pendidikan, lingkungan hingga keadilan sosial.
Ditengah penggunaan AI4SG tersebut, persoalan mendasarnya adalah konsep yang masih masih belum jelas. Ada sejumlah proyek AI yang sebenarnya memberi manfaat sosial tetapi tidak terdokumentasi dan replikasi. Tapi dalam beberapa hal juga, justru pendekatan yang dilakukan dengan non-AI justru memberi efek yang minim risiko dan lebih efektif. Maka tidak jarang muncul juga pandangan bahwa pemanfaatan AI ini dalam menyelesaikan masalah sosial bukanlah solusi tunggal.
Lalu, bagaimana merancang agar AI ini bisa mendukung kebaikan sosial? Luciano Floridi dan kawan-kawan, mengidentifikasi terdapat 7 faktor kunci untuk hal ini.
1. Falsifiability dan Penyebaran Bertahap
Pada faktor ini, adalah bagaimana proses pengujian bisa dilakukan secara bertahap dan berkelanjutan. Ini dalam rangka untuk melihat faktor kesalahan, kegagalan, dan upaya untuk melakukan perbaikan bila memang ditemukan kekeliruan.
Tanpa proses ini, maka sistem dari AI tersebut memiliki risiko kegagalan dalam menangkap realitas yang kompleks. Dalam contoh selanjutnya adalah sistem patroli satwa liar yang gagal disebabkan oleh kesalahan dalam mengidentifikasi topografi.
Proses verifikasi yang dilakukan dalam pengujian, juga belum tentu sejalan dengan apa yang terjadi di lapangan, atau dalam kondisi riil nya. Sebab pengambilan data yang dilakukan kerap kali tanpa filter. Tidak ada filter etis dari data yang dihimpun tersebut. Seperti, bila data itu diambil dari platform media sosial seperti X (twitter), data bisa bias karena yang ikut terserap adalah ujaran kebencian.
Pengembangan yang dilakukan secara bertahap dari ruang terbatas, yang bisa dianggap sebagai contoh yang baik yakni kendaraan otonom. Setelah mendapat kepercayaan publik maka ia terus tumbuh dan berkembang.
2. Safeguards Against the Manipulation of Predictors/ Pengamanan Terhadap Manipulasi Prediktor
Ada dua persoalan di balik kekuatan AI dalam melakukan prediksi. Yakni terkait manipulasi data yang diinput, serta ketergantungan terhadap indikator yang salah. Charles Goodhart pernah memperingatkan bahwa bila suatu ukuran yang dijadikan target, maka ia tidak lagi bisa diandalkan sebagai ukuran. Dalam konteks AI, bila orang tahu yang diukur itu algoritma maka peluang memanipulasi juga ada. Untuk itu, sistem yang transparan tetap perlu ada perlindungan agar tidak mudah dipermainkan.
Persoalan yang kedua, indikator non-kausal, adalah saat AI hanya melihat korelasi data tanpa paham penyebab utamanya. Siswa bolos dianggap sebagai sinyal putus sekolah, dan intervensi dilakukan dengan melalui kehadiran. Bisa saja kondisi sebenarnya adalah terkait masalah keluarga hingga kesehatan mental. Akhirnya yang diselesaikan AI dalam kasus ini adalah hanya mengobati gejala, bukan penyelesaian masalah. Pada akhirnya solusi yang dihasilkan bisa keliru. Maka perlindungan terhadap manipulasi harus dirancang AI4SG. Serta memberi kepastiakn kalau indikator yang digunakan bisa mencerminkan penyebab utama dari persoalan sosial.
3. Receiver contextualised intervention/ intervensi kontekstual penerima bantuan
Kecerdasan buatan ini sudah merambah jauh, kini sudah mulai menjadi bagian penting dalam pengambilan keputusan dalam kehidupan kita. Dalam hal tertentu, sangat bermanfaat. Seperti lansia dibantu untuk penjadwalan dalam meminum obat agar tepat waktu. Juga dalam membantu petugas dari pemburu liar di hutan.
Tapi tantangan besarnya adalah pengguna tidak saja menjadi objek tapi juga subjek yang aktif otonom. Sehingga bagaimana agar AI4SG bisa membuat intervensi tidak terlalu mengganggu tapi efektif dalam memberi dampak. Bila intervensi lemah, AI tidak akan cukup memiliki informasi. Sebaliknya, bila terlalu kuat maka pengguna tidak nyaman dan berujung penolakan pada teknologi tersebut.
Seperti yang dikembangkan pada penderita gangguan kognitif (Chu et al., 2012). AI membantu dalam rutinitas tapi tidak memaksa. Bila pengguna menolak, maka sistem bisa menawarkan diwaktu lain. Otomoni pengguna tetap dihormati.
Yang dicontohkan juga adalah tragedi Boeing 137 Max yang mengalami kecelakaan pada 2018-2019. Sistem otomatis MCAS yang pembuatannya adalah untuk membantu justru berdampak fatal, sebab tidak ada kendali pilot. Maka kegagalan bisa terjadi apabila manusia tidak dilibatkan sebagai mitra yang sejajar dalam merancang teknologinya.
Maka dari itu, intervensi AI disarankan mempertimbangkan hal penting yakni karakteristik pengguna, cara koordinasi sistem-manusia, tujuan intervensi, dampaknya dan opsionalitas. Pengguna tetap punya hak menolak, menyesuaikan atau bahkan intervensi yang lebih sesuai. Maka Ai harus menjadi partner yang benar-benar membantu.
4. Receiver-Contextualised Explanation and Transparent
Purposes (Penjelasan yang sesuai dengan konteks penerima dan tujuan yang transparan)
Kecerdasan buatan, AI, memberikan rekomendasi kepada manusia, namun pernah kah kita tahu logika apa yang mendasari keputusan itu? Apakah kemudian bisa dipercaya? Maka dari itu, bila tidak ada penjelasan yang sesuai dengan konteks pengguna, maka potensi terjadi penolakan.
Seperti edukasi HIV, sistem AI memilih siapa yang diberi edukasi terlebih dahulu. Tapi bila melalui jaringan yang rumit, maka bisa membuat bingung. Maka penjelasan Ai harus sesuai dengan penerimanya. Harus sesuai latar belakangnya, kebutuhannya hingga seberapa jauh informasi yang dibutuhkannya.
Transparansi menjadi hal penting. AI tidak bisa bekerja dalam diam, bermotif tersembunyi. Seperti pengingat lansia minum obat, tujuannya bukan untuk mengendalikan penggunanya tetapi membantu.
Untuk itu, penjelasan yang kontekstual serta tujuannya terbuka, menimbulkan kepercayaan publik. Sebab kepercayaan menjadi prasyarat dalam adopsi teknologi dalam masyarakat apalagi dalam bidang pendidikan, kesehatan hingga bantuan sosial. Maka kuncinya, kejelasan dan keterbukaan adalah keharusan.
5. Privacy Protection and Data Subject Consent/ Pentingnya privasi dan konsen subjek data
Persoalan privasi menjadi dasar yang penting. Sebab pelanggaran terhadap privasi ini sangat berbahaya bagi individu. Apalagi bila jatuh pada pihak-pihak yang tidak bertanggungjawab.
Perlindungan terhadap informasi atau data pribadi, saat ini bahkan sudah menjadi aturan khusus yang berlaku di banyak negara. Tantangan besar dalam masalah ini pernah terjadi masa pandemi Covid-19. Karena data pengguna diharuskan untuk dipegang untuk melakukan pelacakan kasus.
Privasi tetap bisa dijaga tanpa harus mengorbankan fungsi AI. Seperti depth images atau gambar kedalaman, yang berfungsi melacak kebersihan tangan di rumah sakit. Privasi tetap terjaga dan efektif.
6. Situational Fairness
Persoalan bias sosial, juga menjadi salah satu persoalan yang ditemukan dalam sistem AI. Baik itu terkait gender hingga agama. Seperti penggunaan pengenalan wajah dengan AI, yang disinyalir bisa bias ras karena ketidak akuratan. Maka ini bisa menimbulkan persoalan sosial.
Persoalannya tidak sampai di situ. Bila data yang dihasilkan sudah bias, maka keputusan berikutnya juga bias dan melahirkan data baru yang juga bias. Persoalan ini juga menjadi masalah di negara-negara berkembang.
Seperti yang terjadi pada data terpadu kesejahteraan sosial atau DTKS, yang kerap kali salah mengidentifikasi siapa ang berhak mendapatkan bantuan sosial atau bansos. Imbasnya adalah bantuan tidak tepat sasaran.
7. Human-Friendly Semanticisation
Kehadiran AI4SG harus menjadi pendukung kerja-kerja manusia, tidak dalam posisi menggantikan peran manusia. Kehadiran manusia adalah dalam rangka memberi makna dan semantik. Dengan begitu, otonomi manusia tetap digunakan dalam proses berpikir dan pemaknaan.
Semantic capital, yang dimana kapasitas manusia untuk memberi makna pada sesuatu. Menjaga manusia untuk tetap bisa berpikir dan melakukan pemaknaan secara aktif. Harus dipahami bersama, bahwa AI memberi pemaknaan secara otomatis tapi tidak akan mempertimbangkan faktor manusiawi, dan itu hanya dimiliki oleh manusia tidak bisa melalui teknologi AI.
Seperti pengenalan wajah lewat AI, bisa menangkap raut muka sedih. Tetapi AI tidak bisa menangkap kenapa bersedih, maka butuh penilaian manusiawi. Seperti dalam konteks hukum. AI akan melihat pada putusan-putusan atau peristiwa yang terjadi pada masa lalu. Tetapi tidak bisa melihat konteks terkini dan ke depan seperti faktor sosio-cultur Indonesia, ada hukum adat hingga kearifan lokal lainnya. Keadilan moral dan keunikan setiap kasus rawan hilang bila hanya diserahkan pada AI saja.
Agus Rahmat
Penulis adalah Mahasiswa Program Magister Ilmu Komunikasi FISIP Universitas Muhammadiyah Jakarta.
Halaman Selanjutnya
Pengembangan yang dilakukan secara bertahap dari ruang terbatas, yang bisa dianggap sebagai contoh yang baik yakni kendaraan otonom. Setelah mendapat kepercayaan publik maka ia terus tumbuh dan berkembang.
Disclaimer: Artikel ini adalah kiriman dari pengguna VIVA.co.id yang diposting di kanal VStory yang berbasis user generate content (UGC). Semua isi tulisan dan konten di dalamnya sepenuhnya menjadi tanggung jawab penulis atau pengguna.