Sejarah Algoritma: Dari Kurasi Email ke Manipulasi Emosi

Pernahkah Anda merasa aneh saat membuka ponsel? Niat hati hanya ingin mencari hiburan selama lima menit sebelum tidur, tetapi tiba-tiba dua jam berlalu begitu saja. Lebih parah lagi, Anda menutup layar dengan perasaan marah, cemas, atau membenci sekelompok orang yang bahkan tidak pernah Anda temui.

Saya sering mengalaminya. Dulu, saya mengira ini hanyalah masalah disiplin diri yang buruk. Saya menyalahkan diri sendiri karena “kurang kuat menahan godaan”. Namun, setelah menelusuri sejarah teknologi informasi lebih dalam, saya menyadari sebuah kebenaran yang meresahkan: ini bukan kebetulan, dan ini bukan sekadar kesalahan teknis.

Perasaan marah dan ketergantungan itu adalah hasil dari sebuah desain arsitektur yang dibangun perlahan selama tiga dekade. Inilah kisah tentang algoritma polarisasi—sebuah sistem yang awalnya diciptakan untuk membantu kita, tetapi kini justru menguasai kita.

Dari Niat Baik Mengatur Email ke Penjara Perhatian

Mari kita mundur sejenak, jauh sebelum era TikTok atau Instagram, ke awal tahun 1990-an. Di laboratorium Xerox PARC, para peneliti menghadapi masalah yang terdengar sangat modern: information overload atau kebanjiran informasi. Karyawan menerima terlalu banyak email hingga mereka tidak bisa membedakan mana yang penting dan mana yang sampah.

Solusi mereka saat itu bernama “Tapestry”. Ini adalah leluhur dari semua sistem rekomendasi yang kita kenal sekarang. Idenya sederhana dan manusiawi: jika rekan kerja yang Anda percayai menandai sebuah pesan sebagai “menarik”, maka pesan itu akan muncul di kotak masuk Anda. Ini adalah bentuk awal dari “kolaborasi”. Kita mengandalkan penilaian manusia lain untuk menyaring dunia.

Namun, pergeseran besar terjadi ketika sistem ini diotomatisasi. Proyek GroupLens di Usenet kemudian memperkenalkan matematika “Tetangga Terdekat” (Nearest Neighbor). Logikanya begini: Jika Anda dan saya menyukai sepuluh film yang sama di masa lalu, matematika berasumsi kita akan menyukai film kesebelas yang sama.

Di sinilah letak “dosa asal” dari algoritma polarisasi. Demi efisiensi, sistem ini secara matematis mengelompokkan manusia ke dalam kotak-kotak yang seragam. Ia tidak dirancang untuk menantang pandangan kita; ia dirancang untuk mencari orang yang mirip dengan kita dan terus menyodorkan apa yang mungkin kita sukai. Tanpa sadar, kita mulai membangun tembok tak kasat mata di sekeliling pikiran kita.

Evolusi Berbahaya: Dari Mengejar Akurasi ke Memburu Waktu

Ada masa lugu dalam sejarah internet, sekitar tahun 2006, ketika raksasa teknologi terobsesi dengan satu hal: Akurasi. Saat itu, Netflix bahkan menggelar kompetisi berhadiah $1 juta bagi siapa saja yang bisa menyempurnakan algoritma mereka. Tujuannya mulia: mesin harus bisa memprediksi rating bintang lima yang akan Anda berikan pada sebuah film seakurat mungkin.

Dalam istilah teknis, mereka mengejar angka Root Mean Square Error (RMSE) yang sempurna. Asumsinya, jika mesin tahu apa yang Anda nilai “bagus”, maka Anda akan puas. Namun, industri ini segera menyadari sebuah ironi pahit tentang sifat manusia: apa yang kita katakan bagus, belum tentu apa yang ingin kita tonton.

Kita mungkin memberi bintang lima untuk dokumenter sejarah yang “penting dan mendidik”, tetapi di Selasa malam yang melelahkan, kita justru menonton film aksi murahan atau video kucing selama berjam-jam. Algoritma yang berbasis akurasi rating gagal menangkap kemunafikan manusiawi ini.

Maka, pada tahun 2012, terjadi perubahan diam-diam yang mengubah segalanya. YouTube memutuskan untuk mengganti metrik utamanya. Mereka berhenti peduli pada “klik” atau “rating”. Mereka beralih ke satu tuhan baru: Waktu Tonton (Watch Time).

Ini adalah momen ketika algoritma berhenti menjadi “pelayan digital” dan berubah menjadi “penguasa perhatian”.

Pergeseran fungsi objektif ini memiliki konsekuensi yang mengerikan. Algoritma belajar dengan cepat bahwa konten yang bernuansa, tenang, dan berimbang gagal menahan mata manusia di layar. Sebaliknya, apa yang membuat kita terpaku? Ketakutan, kemarahan, dan sensasi ekstrem.

Mesin menemukan bahwa cara terbaik untuk meningkatkan Watch Time adalah dengan membawa pengguna masuk ke dalam “Lubang Kelinci” (Rabbit Hole). Jika Anda mencari video tentang diet sehat, algoritma yang mengoptimalkan waktu tonton tidak akan menyarankan resep salad; ia perlahan akan mengarahkan Anda ke video konspirasi tentang bagaimana industri farmasi meracuni makanan kita. Kenapa? Karena video konspirasi terbukti secara statistik membuat orang menonton lebih lama daripada video edukasi biasa.

Tanpa ada niat jahat dari pemrogramnya, algoritma ini belajar sendiri bahwa ekstremisme adalah bahan bakar terbaik untuk keterlibatan. Ia mempromosikan polarisasi bukan karena ideologinya, tapi karena itu menguntungkan secara matematis.

Fisiologi Kebencian: Mengapa Kebohongan Berlari Lebih Cepat

Seringkali kita tergoda untuk berpikir bahwa algoritma ini memiliki agenda politik—bahwa mereka sengaja “kiri” atau “kanan”. Namun, realitasnya jauh lebih primal daripada politik: algoritma ini meretas biologi kita.

Sebuah studi monumental dari MIT pada tahun 2018 yang menganalisis 126.000 rumor di Twitter membongkar fakta ini dengan data yang brutal: berita palsu menyebar 6 kali lebih cepat, lebih jauh, dan lebih dalam daripada kebenaran. Dan yang mengejutkan, penyebaran ini bukan didorong oleh robot, melainkan oleh jari-jari manusia biasa seperti Anda dan saya.

Mengapa kita lebih suka menyebarkan kebohongan? Jawabannya ada pada apa yang disebut psikolog sebagai “Emosi Gairah Tinggi” (High Arousal Emotions).

Kebenaran seringkali membosankan, bernuansa, dan menenangkan (membuat kita sedih atau sekadar setuju). Sebaliknya, misinformasi dirancang khusus untuk memicu tiga emosi purba: kemarahan, ketakutan, dan kejijikan. Ketika kita merasakan emosi ini, detak jantung kita meningkat dan kita merasa harus bertindak—biasanya dengan membagikan (share) atau berkomentar.

Selain itu, algoritma polarisasi sangat mencintai “Kebaruan” (Novelty). Karena berita palsu tidak terikat pada fakta, ia bisa menjadi seliar dan seaneh mungkin. Bagi otak manusia yang selalu haus akan hal baru, kebohongan terlihat berkilau dan menarik, sementara kebenaran terlihat usang.

Jadi, mesin ini tidak diprogram untuk berbohong. Ia diprogram untuk memaksimalkan reaksi. Dan sayangnya, cara termudah untuk mendapatkan reaksi maksimal dari otak manusia adalah dengan menyodorkan hal-hal yang membuat kita marah atau takut. Algoritma hanyalah cermin beresolusi tinggi yang memantulkan—dan memperbesar—sisi paling impulsif dari natur manusia.

Revolusi Monolith: Ketika Mesin Mengenal Anda Lebih Cepat dari Diri Anda Sendiri

Sekitar tahun 2018, kita memasuki fase evolusi yang paling radikal dan berbahaya: peralihan dari Grafik Sosial ke Grafik Minat.

Di era awal Facebook dan Instagram, pengalaman digital Anda dibatasi oleh Grafik Sosial: Anda hanya melihat apa yang diposting oleh teman atau keluarga Anda. Jika teman Anda membosankan atau jarang memposting, beranda Anda akan sepi. Algoritma terbatas oleh siapa yang Anda kenal.

Namun, TikTok menghancurkan batasan ini dengan Grafik Minat. Platform ini tidak peduli siapa teman Anda. Ia tidak peduli siapa yang Anda ikuti. Ia hanya peduli pada satu hal: apa yang membuat mata Anda tidak berkedip.

Di balik layar, TikTok menggunakan arsitektur rekayasa canggih yang disebut “Monolith”. Berbeda dengan sistem lama yang belajar secara lambat (mengumpulkan data hari ini untuk memperbarui rekomendasi besok), Monolith melakukan pelatihan secara real-time.

Bayangkan Monolith sebagai pelayan yang memiliki kemampuan telepati instan. Jika Anda berhenti selama 3 detik pada sebuah video tentang kucing, dan kemudian menggeser cepat video tentang anjing, Monolith seketika itu juga mengubah ribuan video antrean berikutnya untuk Anda. Ia tidak menunggu. Ia belajar detik demi detik.

Implikasi dari kecepatan ini mengerikan. Sistem ini dapat mendeteksi kerentanan psikologis atau ketertarikan politik Anda dalam hitungan menit. Jika Anda menunjukkan sedikit ketertarikan pada isu politik sensitif, Monolith akan segera menguji Anda dengan konten yang lebih ekstrem. Jika Anda merespons, ia akan terus menyuapi Anda.

Hasilnya adalah radikalisasi kecepatan tinggi. Anda tidak perlu bergabung dengan grup radikal atau mengikuti pemimpin sekte. Anda cukup diam dan menggeser layar. Tanpa sadar, Anda dikelompokkan ke dalam kluster ideologis yang sangat spesifik.

Inilah bentuk isolasi modern yang paling sunyi: Anda bisa duduk di sofa yang sama dengan pasangan Anda, fisik bersentuhan, tetapi secara mental Anda berdua berada di planet yang berbeda. Anda berada di planet algoritma A, dan dia di planet algoritma B. Karena umpan Anda tidak lagi didasarkan pada teman bersama (realitas sosial), tetapi pada keinginan bawah sadar pribadi (realitas minat), jembatan pemahaman antar manusia pun runtuh.

Mitos Gelembung Filter: Mengapa Melihat Lawan Justru Menambah Kebencian

Selama bertahun-tahun, kita dicekoki dengan istilah “Gelembung Filter” (Filter Bubble). Teorinya mengatakan bahwa kita terpolarisasi karena algoritma menyembunyikan pandangan lawan, sehingga kita hidup dalam kepompong informasi yang steril. Kita percaya bahwa jika saja kita bisa melihat “sisi lain”, kita akan lebih toleran.

Namun, riset terbaru membongkar mitos ini. Kenyataannya, sebagian besar dari kita tidak terisolasi total. Kita sering melihat pandangan yang berlawanan di linimasa kita. Tetapi, inilah masalah sebenarnya: kita tidak mengalami isolasi informasi, melainkan Polarisasi Afektif.

Algoritma memang mempertemukan kita dengan kubu lawan, tetapi seringkali dalam konteks terburuk. Anda jarang melihat argumen cerdas dan santun dari sisi lawan yang sedang viral. Sebaliknya, algoritma lebih suka menampilkan “Quote-Tweet” atau cuplikan video di mana kubu Anda sedang mengolok-olok kebodohan kubu mereka.

Kita melihat lawan bukan saat mereka sedang benar, tapi saat mereka sedang dipermalukan.

Ini menciptakan fenomena psikologis yang disebut “Ketidaknyamanan Epistemik”. Paparan terhadap pandangan berbeda di media sosial tidak melahirkan diskusi, melainkan memperkeras stereotip. Kita jadi berpikir, “Wah, ternyata orang-orang di kubu sana sebodoh itu ya?” Padahal, yang kita lihat adalah karikatur ekstrem yang dipilihkan algoritma demi engagement.

Jadi, algoritma tidak hanya memisahkan kita; ia aktif melatih kita untuk saling membenci. Ia menyajikan “musuh” kepada kita setiap hari, bukan untuk dipahami, tapi untuk dijadikan bahan bakar kemarahan.

Kita Bukan Sekadar Pengguna, Kita Adalah Sinyal

Membaca sejarah ini mungkin membuat kita merasa pesimis, seolah kita hanyalah wayang yang digerakkan oleh dalang digital. Namun, memahami sejarah algoritma polarisasi ini justru memberikan kita kekuatan baru.

Kita sekarang tahu bahwa rasa marah yang kita rasakan di media sosial seringkali adalah produk buatan, sebuah umpan untuk mengambil waktu kita. Menyadari hal ini adalah langkah pertama untuk membebaskan diri.

Masa depan tidak harus suram. Ada wacana baru untuk mengubah tujuan algoritma dari sekadar “Keterlibatan Jangka Pendek” (klik dan marah) menjadi “Nilai Jangka Panjang” (kepuasan hidup). Tapi perubahan ini tidak akan terjadi jika kita sebagai pengguna tidak menuntutnya.

Lain kali Anda merasakan dorongan emosi yang kuat saat menatap layar, berhentilah sejenak. Ingatlah bahwa emosi itu mungkin bukan milik Anda sepenuhnya, melainkan hasil kalkulasi mesin yang ingin Anda tetap di sana. Tarik napas, letakkan ponsel, dan kembali ke dunia nyata. Kebebasan sejati di abad ke-21 adalah kemampuan untuk memilih ke mana kita mengarahkan perhatian kita.


Leave a Comment

Your email address will not be published. Required fields are marked *