Algokrasi: Era Baru di Mana Kode Lebih Berkuasa daripada Hukum Manusia

Pernahkah Anda merasakan jenis frustrasi yang aneh di era digital ini?

Bayangkan Anda sedang terdesak. Rekening bank Anda tiba-tiba dibekukan, atau akun media sosial tempat Anda mencari nafkah terkunci tanpa peringatan. Anda mencoba menghubungi customer service, tetapi yang Anda temukan hanyalah dinding bot penjawab otomatis yang berulang-ulang. Tidak ada manusia yang mendengarkan. Tidak ada tempat untuk memohon. Tidak ada ruang untuk menjelaskan bahwa “ini hanya salah paham”.

Di masa lalu, tirani memiliki wajah. Jika birokrat mempersulit izin usaha Anda, Anda bisa menatap matanya, berdebat, atau bahkan meneriakinya. Ada rasa frustrasi, ya, tapi ada juga koneksi manusia.

Hari ini, penindasan itu hadir tanpa wajah. Ia senyap, dingin, dan tak tersentuh.

Ketika aplikasi pinjaman online menolak pengajuan Anda dalam hitungan mikro-detik, atau ketika pesanan ojek online Anda dibatalkan sistem berulang kali, Anda tidak sedang berhadapan dengan nasib buruk. Anda sedang berhadapan dengan Algokrasi. Sebuah sistem di mana kode pemrograman menjadi hakim, juri, dan eksekutor atas hidup Anda, tanpa pernah memberi Anda kesempatan untuk membela diri.

Kita sering mengira teknologi hanyalah alat bantu. Namun, jika kita melihat sejarah panjang peradaban manusia, kita akan menyadari bahwa tata kelola algoritmik bukan sekadar alat—ia adalah pergeseran tektonik dalam cara kekuasaan bekerja yang perlahan menggerus sisi paling mendasar dari kemanusiaan kita: otonomi.

Pergeseran Paradigma: Dari Birokrasi ke Tembok Kode Digital

Mari kita mundur sejenak untuk melihat gambaran besarnya (zoom out). Selama ratusan tahun, peradaban modern dibangun di atas fondasi yang disebut Max Weber sebagai “Birokrasi”.

Dalam sistem birokrasi, kekuasaan beroperasi melalui aturan tertulis dan hierarki manusia. Agar sistem ini berjalan, kita sebagai warga negara dituntut untuk memiliki “kesadaran”. Kita harus membaca aturan, memahaminya, dan kemudian memutuskan untuk mematuhinya. Dalam birokrasi, kepatuhan adalah tindakan moral. Anda berhenti di lampu merah karena Anda tahu itu aturan yang benar, atau setidaknya karena Anda takut ditilang polisi. Di sini, masih ada celah sempit bernama agensi manusia: Anda bisa memilih untuk melanggar, bernegosiasi dengan petugas, atau meminta keringanan sanksi.

Namun, Algokrasi mengubah aturan main ini secara fundamental.

Profesor hukum Lawrence Lessig pernah mencetuskan frasa profetik: “Code is Law”. Di dunia digital, kode pemrograman bukan sekadar instruksi bagi komputer; ia adalah hukum yang mengatur perilaku manusia dengan ketegasan yang melampaui konstitusi mana pun.

Dalam sistem algokratis, Anda tidak perlu memahami aturan untuk mematuhinya. Anda tidak perlu menjadi warga negara yang bermoral baik. Anda hanya perlu menjadi “pengguna”. Mengapa? Karena sistem ini beroperasi melalui kepatuhan struktural.

Bayangkan perbedaannya secara konkret: Dalam birokrasi kertas (dunia lama), Anda bisa menyerahkan formulir pendaftaran yang belum lengkap kepada petugas loket. Anda mungkin memohon, “Pak, tolong terima dulu, berkas sisanya saya susulkan besok.” Petugas itu, karena dia manusia yang punya rasa kasihan atau mungkin sedang lelah, bisa saja berkata “Oke, tapi jangan lupa ya.” Ada ruang negosiasi.

Dalam algokrasi (dunia baru), situasi ini mustahil terjadi. Cobalah mengisi formulir digital di aplikasi pemerintah atau bank. Jika ada satu kolom wajib yang kosong, tombol “Kirim” atau “Submit” akan tetap berwarna abu-abu (tidak aktif). Tidak peduli seberapa mendesak situasi Anda, tidak peduli seberapa keras Anda memohon di depan layar, sistem tidak akan mengizinkan proses berlanjut.

Inilah inti dari pergeseran tersebut: Anda tidak mematuhi aturan karena takut dihukum. Anda mematuhi aturan karena sistem secara teknis membuat ketidakpatuhan menjadi mustahil. Arsitektur kode telah membatasi apa yang bisa dan tidak bisa Anda lakukan sejak awal. Kebebasan untuk berbuat salah—yang ironisnya adalah bagian dari menjadi manusia—perlahan dihapus oleh efisiensi kode yang dingin dan kaku.

Mimpi Lama yang Menjadi Mimpi Buruk Kapitalis?

Banyak orang mengira tata kelola algoritmik adalah penemuan baru anak-anak jenius di Silicon Valley. Padahal, akarnya jauh lebih dalam dan mengejutkan.

Pada tahun 1970-an di Chili, ada sebuah eksperimen visioner bernama Project Cybersyn. Di bawah pemerintahan sosialis Salvador Allende, mereka mencoba menggunakan data dan komputer (yang saat itu masih sangat primitif) untuk mengatur ekonomi negara secara real-time. Ruang operasinya bahkan terlihat seperti film fiksi ilmiah, lengkap dengan kursi futuristik dan layar data. Tujuannya mulia: memberikan kesejahteraan bagi rakyat melalui data.

Sayangnya, kudeta militer menghancurkan mimpi itu. Namun, konsepnya tidak mati. Ia bangkit kembali di abad ke-21, tetapi dengan wajah yang sangat berbeda. Jika dulu tujuannya adalah kesejahteraan sosial, kini algokrasi berevolusi menjadi alat kontrol korporasi yang sangat canggih.

Bos Digital dan Pabrik Tanpa Dinding

Di sinilah kita bertemu dengan wajah modern algokrasi: Gig Economy.

Kita sering mendengar istilah “mitra” yang disematkan pada pengemudi ojek online atau kurir. Kata ini terdengar setara, hangat, dan membebaskan. Slogan-slogan seperti “Jadilah Bos untuk Diri Sendiri” menghiasi iklan rekrutmen mereka. Namun, realitas di lapangan menunjukkan cerita yang jauh berbeda. Aplikasi-aplikasi raksasa ini bukan sekadar perantara netral; mereka adalah Bos Digital yang jauh lebih ketat dan omnipresent (maha hadir) dibandingkan mandor pabrik mana pun dalam sejarah.

Mekanisme kontrol yang mereka gunakan disebut Algorithmic Management. Berbeda dengan mandor manusia yang bisa lelah atau luput mengawasi, algoritma memantau setiap detik pergerakan, kecepatan, lokasi, bahkan tingkat baterai ponsel pengemudi.

Lebih canggih lagi, mereka menggunakan psikologi perilaku untuk memanipulasi tindakan manusia, sebuah teknik yang dikenal sebagai Algorithmic Nudging.

Pernahkah Anda bertanya mengapa antarmuka aplikasi pengemudi sering kali terlihat seperti video game? Ada lencana pencapaian, grafik bar progres, dan notifikasi yang berbunyi ting-ting. Ini bukan kebetulan. Ini adalah Gamifikasi.

Platform memanipulasi dopamin di otak pengemudi. Ketika seorang pengemudi ingin pulang beristirahat karena kelelahan, algoritma akan mengirimkan notifikasi: “Anda hanya kurang satu perjalanan lagi untuk mendapatkan Bonus Harian!” atau “Permintaan tinggi di area sekitar Anda!”.

Tanpa sadar, pengemudi “didorong” (nudged) untuk bekerja lebih lama dari yang mereka rencanakan, menekan tombol terima order yang sebenarnya merugikan, demi mengejar target maya yang diciptakan mesin. Ini adalah bentuk eksploitasi halus di mana pekerja merasa mereka memilih secara sukarela, padahal pilihan mereka telah direkayasa oleh desain sistem.

Namun, manusia bukanlah robot pasif.

Di jalanan, terjadi perang gerilya digital yang menarik. Para pengemudi melakukan perlawanan yang disebut peneliti sebagai Algoactivism. Mereka sadar sedang dipermainkan mesin, jadi mereka mencoba mempermainkan balik.

Salah satu taktik paling cerdik adalah koordinasi massal untuk mematikan GPS. Sekelompok pengemudi akan berkumpul di satu area, lalu secara serentak mematikan aplikasi mereka. Algoritma, yang buta terhadap konteks sosial, membaca situasi ini sebagai “kekurangan pengemudi mendadak” di area tersebut. Respons otomatis algoritma adalah menaikkan harga (Surge Pricing) untuk menarik pengemudi. Begitu harga naik, para pengemudi menyalakan kembali aplikasi mereka secara serentak dan menikmati tarif tinggi.

Ini adalah bukti bahwa meskipun algoritma memiliki kekuatan struktural yang besar, semangat manusia untuk mempertahankan otonomi dan melawan ketidakadilan sistem tidak bisa sepenuhnya dipadamkan.

Bahaya Tersembunyi: Kotak Hitam dan Bias yang Tak Terlihat

Di sinilah kita sampai pada jantung masalah filosofis yang paling meresahkan: fenomena “Kotak Hitam” atau Black Box.

Dalam sejarah hukum manusia, jika seorang hakim memvonis Anda bersalah, ia wajib menjelaskan alasannya. Ia harus merujuk pada pasal undang-undang dan bukti. Namun, dalam era Deep Learning dan kecerdasan buatan (AI), prinsip transparansi ini runtuh.

Banyak algoritma modern begitu kompleks—melibatkan jutaan variabel dan lapisan jaringan saraf tiruan—sehingga bahkan penciptanya sendiri sering kali tidak bisa menjelaskan secara pasti mengapa algoritma tersebut mengambil keputusan tertentu. Kita tahu data apa yang masuk (input) dan kita tahu keputusan apa yang keluar (output), tetapi proses di tengahnya adalah misteri yang gelap.

Mengapa ini berbahaya? Mari kita lihat kasus COMPAS di Amerika Serikat, sebuah algoritma yang digunakan pengadilan untuk memprediksi risiko terdakwa mengulangi kejahatan. Niatnya objektif: menghilangkan bias subjektif hakim manusia. Namun, investigasi menemukan bahwa algoritma ini justru bias parah terhadap warga kulit hitam.

Mesin memprediksi terdakwa kulit hitam memiliki “risiko tinggi” jauh lebih sering daripada kulit putih, bahkan ketika riwayat kriminal mereka serupa. Mengerikannya, algoritma ini tidak diprogram untuk menjadi rasis. Ia tidak memiliki variabel “ras” di dalam kodenya. Namun, ia mempelajari pola dari data historis yang sudah bias. Ia melihat di mana terdakwa tinggal, pendidikan mereka, dan lingkungan mereka—yang di AS sangat berkorelasi dengan ras akibat sejarah segregasi.

Inilah yang disebut Rasisme Matematis. Bias masa lalu dikodekan ulang menjadi “kebenaran statistik” yang terlihat objektif dan ilmiah.

Masalahnya, karena ini adalah “Kotak Hitam”, korban diskriminasi algoritmik sulit membela diri. Bagaimana Anda menggugat sebuah rumus matematika? Bagaimana Anda berdebat dengan mesin yang “tidak bisa salah”? Tanpa audit dan transparansi, kita berisiko membangun masa depan di mana prasangka kuno kita diabadikan selamanya dalam kode yang tak tersentuh hukum.

Di Balik Tembok Besar Digital: Mitos dan Realitas Kredit Sosial

Berbicara tentang masa depan algokrasi, pandangan dunia sering tertuju pada Tiongkok. Namun, banyak dari apa yang kita dengar tentang Sistem Kredit Sosial di sana terdistorsi oleh ketakutan fiksi ilmiah.

Kita sering membayangkan skenario seperti serial Black Mirror: setiap warga negara berjalan dengan angka skor di atas kepalanya. Jika Anda telat bayar utang atau memutar musik terlalu keras, skor Anda turun dan Anda tidak bisa membeli tiket kereta. Mengerikan, bukan? Namun, realitasnya jauh lebih nuansa—dan dalam beberapa hal, lebih cerdas.

Pemerintah Tiongkok sebenarnya tidak fokus pada skor moral tunggal untuk setiap individu (seperti yang ditakutkan Barat). Fokus utama mereka justru adalah Sistem Kredit Sosial Korporasi.

Ini adalah bentuk algokrasi yang digunakan untuk mendisiplinkan pasar liar. Bayangkan sebuah pabrik kimia yang sering membuang limbah sembarangan. Dalam sistem lama, mereka mungkin menyuap inspektur lingkungan agar laporan tetap bersih. Dalam sistem algokrasi, sensor IoT (Internet of Things) memantau kadar limbah secara real-time. Jika data menunjukkan pelanggaran, algoritma secara otomatis memasukkan perusahaan ke dalam daftar hitam (blacklist).

Konsekuensinya pun otomatis: perusahaan tersebut langsung kehilangan akses ke pinjaman bank, tidak bisa ikut tender pemerintah, dan insentif pajaknya dicabut. Tidak ada negosiasi dengan pejabat korup, karena sistem yang mengeksekusi hukuman.

Ini adalah pedang bermata dua yang tajam. Di satu sisi, ini menciptakan pasar yang sangat efisien dan patuh—perusahaan dipaksa untuk jujur, membayar pajak, dan menjaga lingkungan bukan karena moralitas, tetapi karena ketakutan akan algoritma. Di sisi lain, ini memberikan negara kekuasaan mutlak untuk mematikan sebuah bisnis hanya dengan satu baris kode. Ini adalah pelajaran penting bagi dunia: algokrasi bisa menjadi alat paling efektif untuk memberantas korupsi, namun juga bisa menjadi alat kontrol totaliter jika tidak diawasi.

Ketika Algoritma Menghukum Orang Miskin

Implikasi dari tata kelola algoritmik menjadi semakin menakutkan ketika ia masuk ke ranah kebijakan publik global. Kita melihat fenomena yang disebut Automating Inequality atau mengotomatisasi ketimpangan, istilah yang dipopulerkan oleh penulis Virginia Eubanks.

Di Amerika Serikat, sistem otomatis pernah salah menuduh ribuan orang melakukan penipuan tunjangan, menyebabkan penderitaan nyata bagi keluarga miskin. Di Allegheny County, algoritma yang dirancang untuk melindungi anak justru menargetkan keluarga miskin. Mengapa? Karena keluarga miskin lebih sering menggunakan layanan publik, sehingga data mereka terekam lebih banyak. Sementara orang kaya yang menggunakan layanan swasta tetap “tak terlihat” oleh data.

Akibatnya, kemiskinan dikriminalisasi oleh kode. Menjadi miskin secara statistik dikorelasikan dengan risiko yang lebih tinggi, menciptakan lingkaran setan yang sulit diputus. Kita tidak lagi dilihat sebagai manusia utuh yang kompleks. Oleh mesin, kita dipecah menjadi dividuals—hanya sekumpulan data statistik.

Konteks Indonesia: Kerentanan di Tengah Hutan Rimba Data

Bagaimana dengan kita di Indonesia? Sebagai negara dengan ekonomi digital terbesar di Asia Tenggara, kita berdiri di persimpangan yang unik sekaligus berbahaya.

Di satu sisi, kita patut berbangga dengan disahkannya UU Perlindungan Data Pribadi (UU PDP) No. 27 Tahun 2022. Ini adalah tameng hukum pertama kita. Pasal-pasalnya secara eksplisit mengakui risiko pengambilan keputusan otomatis (Automated Decision Making). Di atas kertas, kita terlindungi.

Namun, hukum adalah teks, sedangkan algokrasi adalah mesin yang bekerja dengan data. Dan di sinilah letak kerentanan terbesar Indonesia: kualitas data.

Dalam dunia komputasi, ada hukum besi bernama “Garbage In, Garbage Out” (Masuk Sampah, Keluar Sampah). Sehebat apa pun algoritmanya, jika data yang dimasukkan buruk, hasilnya akan menjadi bencana. Kita melihat tragedi ini terjadi secara massal dalam penyaluran Bantuan Sosial (Bansos).

Karut-marut Data Terpadu Kesejahteraan Sosial (DTKS) menyebabkan jutaan keluarga yang berhak justru tidak menerima bantuan, sementara mereka yang mampu malah mendapatkannya. Pada tahun 2021 saja, pemerintah harus “menidurkan” 21 juta data ganda. Bayangkan dampaknya: ini bukan sekadar error di layar komputer; ini adalah 21 juta potensi kesalahan yang menyangkut perut lapar dan susu anak yang tidak terbeli. Algoritma distribusi bantuan gagal bukan karena kodenya salah, tapi karena ia bekerja di atas fondasi data yang rapuh.

Contoh yang lebih gelap lagi terlihat di sektor keuangan: Pinjaman Online (Pinjol).

Di sini, algokrasi menunjukkan wajah predatornya. Aplikasi pinjol ilegal tidak menggunakan algoritma untuk menilai kelayakan kredit secara wajar, melainkan untuk memaksimalkan ekstraksi. Mereka menyedot data kontak, galeri foto, dan lokasi Anda. Ketika telat bayar, algoritma tidak mengirim surat peringatan sopan; ia mengaktifkan mekanisme teror otomatis—menghubungi atasan Anda, mempermalukan Anda di grup WhatsApp keluarga, dan mengancam dengan data pribadi Anda.

Ini adalah bentuk anarki algoritmik. Di negara maju, algoritma mungkin bias; di Indonesia, algoritma sering kali menjadi senjata premanisme digital karena lemahnya penegakan hukum di lapangan, terlepas dari adanya UU PDP.

Menjaga Kemanusiaan di Era Kode: Sebuah Panggilan Nilai

Apakah masa depan ini sepenuhnya gelap? Tidak. Justru di momen inilah kemanusiaan kita diuji.

Memahami algokrasi bukan untuk membuat kita menjadi luddite yang anti-teknologi, melainkan agar kita menjadi tuan yang bijaksana atas ciptaan kita sendiri. Pelajaran terbesar yang bisa kita ambil dari pergeseran sejarah ini adalah perbedaan fundamental antara Kecerdasan (Intelligence) dan Kesadaran (Consciousness).

Algoritma itu luar biasa cerdas. Ia bisa memproses jutaan data pajak atau rute ojek dalam sedetik. Namun, algoritma tidak memiliki kesadaran. Ia tidak bisa merasakan penderitaan keluarga yang kelaparan karena data bansosnya salah. Ia tidak bisa merasakan ketidakadilan rasial. Ia hanya peduli pada efisiensi matematis.

Kita, manusia, memiliki kesadaran. Kita punya kemampuan untuk merasa, berempati, dan menimbang nilai moral di atas efisiensi.

Oleh karena itu, masa depan yang kita perjuangkan haruslah berlandaskan prinsip Human-in-the-Loop. Jangan pernah menyerahkan keputusan yang menyangkut hajat hidup manusia sepenuhnya kepada mesin. Di balik setiap layar “Akses Ditolak” atau “Skor Kredit Rendah”, harus ada mekanisme bagi manusia untuk melakukan banding, untuk didengar, dan untuk diperlakukan sebagai subjek yang bermartabat.

Teknologi seperti Blockchain dan DAO memberi kita harapan akan transparansi, dan regulasi seperti UU PDP memberi kita perisai hukum. Namun, benteng terakhir adalah diri kita sendiri.

Jangan menukar kebebasan Anda hanya demi kenyamanan aplikasi yang serba cepat. Jangan biarkan efisiensi membunuh empati. Tuntutlah transparansi. Tuntutlah hak untuk tahu bagaimana algoritma menilai Anda. Karena jika kita diam, kita bukan lagi warga negara, melainkan sekadar data yang siap dipanen.

Jadilah manusia yang sadar di tengah mesin yang cerdas.


Leave a Comment

Your email address will not be published. Required fields are marked *