Selamat datang di dunia algoritma, ketika kebebasan berbicara senantiasa dikebiri oleh sensor otomatis yang bikin geleng-geleng kepala. Di sini, kita tidak berbicara dengan kosakata yang biasa digunakan sehari-hari oleh manusia normal. Agar selalu bisa menyampaikan maksud tanpa kena takedown, kita bicara dengan bahasa
algospeak
.
Untuk pemakai Instagram, YouTube, atau TikTok,
algospeak
Seharusnya tidak menjadi sesuatu yang aneh, walaupun dari segi terminologi bisa saja terdengar baru. Misalnya kata seks sering digantikan oleh “seggs”, sementara bunuh diri berubah jadi singkatan “BD” atau istilah “unalive”.
Kalimat itu mungkin kurang menyenangkan untuk dibaca dan tampak seperti lelucon tanpa humor bagi orang baru melihatnya. Akan tetapi, demikianlah kenyataannya dalam menghadapi kejamnya hutan raya pengawasan yang benar-benar tidak kenal pilih kasih.
Tak peduli konteks, hukuman berupa
takedown
,
shadowban
, atau sistem suspensi, tidak boleh langsung jatuh begitu saja. Oleh karena itu, baik secara sukarela maupun paksaan, kita perlu melakukan adaptasi.
Algoritma Sensor yang Buta Konteks
Sebelum penonaktifan akun pada tahun 2025, mayoritas aktivitas media sosialku dilakukan di Twitter atau yang kini bernama X. Platform ini kurang populer untuk penggunaan algoritma bahasa atau algospeak karena sudah dikenal luas sebagai tempat yang cukup longgar dengan sedikit sensor, kadang-kadang hingga batasan kasar, terutama semenjak berganti nama menjadi X. Oleh karena itu, saat pertama kali melihat istilah “unalive” beberapa tahun silam di Twitter, aku merasa bingung. “Ini omongan Generasi Z baru apa ya?” begitu pikiranku waktu itu.
Namun, saya salah sangka. Telusur punya telusur, selidik punya selidik, saya mendapati bahwa kosakata “unalive” muncul pertama kali dari media sosial
TikTok dengan algoritma penyensorannya sekuat pemerintah negeri kelahiran aplikasi tersebut.
. Setiap istilah terkait kematiangan diganti menjadi “unalive” serta bentuk-bentuk lainnya seperti “unalived” apabila mengacu kepada hal tersebut.
past tense
atau
passive voice
serta “unaliving” untuk
continuous tense
.
Platform macam TikTok menerapkan sistem moderasi berbasis algoritma untuk menyaring konten berbahaya, seperti kekerasan ekstrem, pornografi, atau ujaran kebencian. Masalahnya, algoritma itu tidak dibekali dengan konteks. Kata kunci seperti seks atau bunuh diri bisa dibaca sebagai pelanggaran, bahkan ketika digunakan dalam diskusi edukatif atau berbagi pengalaman penyintas.
Di satu sisi, moderasi berbasis algoritma memang memudahkan pengelola platform. Hal itu dikarenakan, melacak semua komentar dan ujaran secara manual adalah pekerjaan yang bisa dibilang mustahil. Namun, di sisi lain, mengotomasi moderasi dengan algoritma juga menimbulkan efek samping berupa kebutaan akan konteks. Walhasil, konten-konten yang sebenarnya bermanfaat, misalnya edukasi kesehatan mental, advokasi kekerasan seksual, atau diskusi identitas gender, justru terberangus secara otomatis hanya karena mengandung kata pemicu (
trigger word
) yang salah.
Yang lebih kacau lagi,
dukungan terhadap Palestina sampai terkena sensor
, terutama oleh Meta—induk dari Facebook, Instagram, dan WhatsApp, yang
punya relasi kuat dengan Israel
Saya pernah merasakan langsung dampak negatif dari ketidaktahuan terhadap sistem sensor algoritme milik Meta. Saat memposting ucapan duka atas wafatnya pimpinan Hamas, Yahya Sinwar, ternyata tanpa disadari posisi tersebut segera ditakedown oleh platform. Meskipun demikian, dalam unggahan itu saya tidak menyebutkan kata “Hamas” atau pun nama belakang sang tokoh yang sudah tiada.
Dari hutan ganas dan tidak terduga tersebut, muncullah suatu sistem kelangsungan hidup bernama
algospeak
. Bisa dikatakan, semua kultur memiliki
algospeak
-masing-masing. Mengubah istilah terkait kematiannya menjadi “unalive” merupakan sebuah contoh
algospeak
Dari budaya bahasa Inggris. Terdapat juga istilah lain seperti “sui” atau “s-word” yang dipakai untuk menggantikan kata bunuh diri dan “corn” sebagai pengganti pornografi. Tidak jarang, emoji seperti 🌽 dan 🍆 ikut dimanfaatkan mirip dengan hieroglyph di layar telepon pintar zaman now.

Indonesia juga memiliki
algospeak
-Uninya sendiri. Istilah Unalive juga banyak dipakai di Indonesia sebagai alternatif bagi kata-kata yang berkaitan dengan kematian. Pilihan lainnya adalah menggunakan metode mirip mIRC, yakni dengan mencampur huruf dan angka contohnya “m4t1” guna menggantikan kata mati.
Setelah itu, singkatan “BD” sering digunakan sebagai pengganti kata bunuh diri. Kemudian, singkatan “SA” atau “KS” umumnya dipakai untuk melambangkan sexual assault atau kekerasan seksual. Di samping itu, istilah “kaum pelangi” biasa diartikan sebagai LGBT. Tidak hanya itu, kata seperti trauma juga banyak yang merubah jadi “tr*m4”.
Tujuan penggunaan algoritma ini beragam dan bergantung pada siapa yang menggunakannya. Untuk pembuat konten, salah satu alasannya adalah untuk mencegah kiriman mereka di-censor atau diblokir oleh sistem moderasi otomatis.
takedown
Atau dihapus dari peredaran. Di samping itu, mereka berupaya mengelakkan risiko tersebut.
shadowban
atau pemblokiran akun yang sering kali mengharuskan proses appeals bertahun-tahun. Di sisi lain, untuk penulis komentar,
algospeak
terpaksa dipakai agar unggahannya tidak di-hapus
takedown
atau supaya akunnya tidak mendapat sanksi suspend.
Algospeak bukanlah
slang internet
. Setidaknya, dia bukan hal seperti itu.
slang
internet biasa.
Slang
Internet bukan dibuat karena keperluan menipu algoritme dan dapat diterapkan dalam aktivitas keseharian. Sebaliknya,
algospeak
ada karena sensor algoritma yang buta konteks. Ia eksis secara khusus untuk berinteraksi di platform digital dan sering kali tidak sampai terbawa ke dunia nyata.
Upaya Lepas dari Algoritma Sensor
Di satu sisi,
algospeak
adalah bentuk kreativitas linguistik. Ia membuka ruang bagi komunitas untuk tetap berdiskusi tentang hal-hal penting, meski dalam kondisi represi digital. Bahasa ini menjadi kamuflase yang memberikan ruang aman bagi diskusi apa pun untuk bisa berjalan tanpa harus khawatir tersandung sensor.
Namun, di sisi lain, algospeak memiliki risikonya tersendiri. Makin banyak informasi yang disamarkan, makin besar pula potensi misinterpretasi. Diskusi-diskusi penting bisa kehilangan kejelasan dan konteks. Yang lebih berbahaya, budaya ini bisa memperkuat budaya self-censorship, yakni situasi ketika orang memilih diam atau menyamarkan kebenaran karena takut terkena hukuman digital.
Walau begitu, selama algoritma tetap menjadi penjaga gerbang utama komunikasi digital, tanpa transparansi dan pemahaman konteks, algospeak akan terus berkembang. Paling tidak, situasinya akan selalu begini sampai para pemilik dan pengelola platform menemukan jurus jitu untuk memberikan pemahaman konteks terhadap sensor algoritma yang diterapkan; bukan sekadar mengajarkan bahwa trigger word tertentu layak mendapat sanksi.
Bisa jadi di masa mendatang akan muncul moderasi dengan kombinasi antara mesin dan moderator manusia. Kreator diberi lebih banyak kendali atas konten yang akan diklasifikasikan. Dengan begitu, harapannya, sensor yang diterapkan menjadi lebih “sehat” dan melek konteks.
Sayangnya, untuk saat ini, internet masih bermain dalam dua dunia: satu yang terlihat oleh mesin, dan satu lagi yang hanya dimengerti oleh manusia.

