Untuk mengurangi kebencian antar manusia, Google melalui DeepMind sedang berusaha mengembangkan AI untuk mengurangi efek tersebut.
Amerika dalam waktu dekat ini akan melakukan pemilihan presiden mereka, yang tepatnya akan dilaksanakan November mendatang. Namun faktanya, 80 persen orang Amerika merasa negara mereka sangat terpecah dalam nilai-nilai dasar.
Beberapa contoh perpecahan tersebut termasuk imigrasi, layanan kesehatan, politik identitas, hak transgender, dan dukungan terhadap Ukraina. Dan, polarisasi serupa juga terlihat di Uni Eropa dan Inggris.
Untuk mengurangi perpecahan nilai-nilai dasar ini, Google melalui DeepMind mengembangkan sistem AI yang dinamakan Habermas Machine. Mesin ini terinspirasi oleh filsuf Jerman Jürgen Habermas, yang percaya bahwa kesepakatan dapat tercapai jika orang berdiskusi sebagai setara dengan rasa hormat dan komunikasi yang sempurna.
Habermas Machine menggunakan prinsip mediasi kaukus, di mana AI bertindak sebagai mediator dengan bertemu masing-masing peserta secara terpisah, menyerap pernyataan mereka, lalu menyajikan pernyataan kelompok yang mewakili sudut pandang semua pihak. Berbeda dari alat pengolah teks lainnya, sistem ini merangkum teks dari berbagai peserta untuk menemukan titik temu yang disetujui bersama.
Cara kerja dari Habermas Machine adalah terdiri dari dua model bahasa utama. Model pertama adalah model generatif yang berbasis model Chinchilla yang disempurnakan untuk menghasilkan beberapa opsi pernyataan kelompok.
Lalu, mereka menggunakan model kedua yakni model penghargaan yang memprediksi kemungkinan setiap peserta menyetujui pernyataan yang dihasilkan, lalu menyajikan pernyataan yang paling dapat diterima untuk ditinjau dan dikomentari oleh peserta.
Setelah model AI ini siap, DeepMind dikabarkan akan menguji model ini dengan melibatkan lebih dari lima ribu orang yang membahas topik seperti “apakah usia pemilih seharusnya diturunkan menjadi 16 tahun?” atau “apakah layanan kesehatan Inggris sebaiknya diprivatisasi?”.
Habermas Machine berhasil memperoleh tingkat penerimaan yang lebih tinggi dibandingkan mediator manusia, yaitu 56 persen dibandingkan dengan 44 persen, seperti dilansir dari laman Arstechnica (25/10).
Di sisi lain, DeepMind bekerja sama dengan Sortition Foundation untuk menguji AI ini. Namun bedanya, mereka melakukan pengujian dengan kelompok representatif dari masyarakat Inggris yang mencerminkan berbagai latar belakang.
Hasil dari penelitian ini pun menunjukkan peningkatan kesepakatan dalam beberapa topik, seperti dukungan untuk pengurangan populasi penjara yang naik dari 60 persen menjadi 75 persen, dan penerimaan untuk mempermudah pengungsi masuk negara yang naik dari 39 persen menjadi 51 persen.
Namun, eksperimen ini menghindari beberapa topik yang sangat kontroversial, seperti hak transgender dan perubahan iklim karena khawatir akan memicu komentar ofensif. Tapi, apa yang mereka lakukan kemudian memicu pertanyaan apakah hasil yang diraih AI ini dapat diterapkan pada konflik politik yang lebih mendalam dan kompleks, di mana nilai-nilai yang bertentangan seringkali tidak mudah diselesaikan.
Selain itu, ada juga kekhawatiran tentang netralitas AI, terutama setelah muncul pandangan bahwa AI cenderung memiliki bias progresif atau “woke”. Salah satu yang vokal soal hal ini adalah Elon Musk yang menilai beberapa AI mengandung bias, dan akhirnya mengembangkan AI alternatif yang dianggap lebih netral.
Namun, DeepMind menyatakan bahwa Habermas Machine tetap netral ketika diberikan pertanyaan terbuka.
Selain membantu mencapai konsensus, Habermas Machine juga bisa digunakan untuk merancang pidato politik yang dioptimalkan untuk disukai banyak orang. Hal ini menimbulkan pertanyaan etis tentang penggunaan AI dalam politik, di mana AI mungkin tidak hanya memfasilitasi diskusi, tetapi juga dapat digunakan sebagai alat untuk mencapai tujuan politik tertentu.
Menurut filsafat Habermas, dunia modern terbagi antara “sistem,” yang didorong oleh kekuatan dan uang, serta “lifeworld,” ruang pribadi yang kita bagi dengan komunitas dekat kita. Habermas Machine diharapkan berfungsi sebagai alat konsensus dalam “lifeworld,” namun juga berpotensi digunakan dalam “sistem” untuk memenangkan kepentingan tertentu.
DeepMind sempat mencoba menghubungi Habermas untuk mendapatkan pandangannya tentang AI ini, namun hingga saat ini belum mendapat respons, karena diketahui bahwa Habermas tidak menggunakan email.