HAI-ONLINE.COM - Tau nggak, gimana proses post di media sosial yang nggak pantas dilihat dihapus?Bukan pakai bot atau AI saja, tapi ada juga orang-orang yang menghapus post tersebut secara manual.Para moderator konten tersebut adalah garda depan untuk menyaring konten nggak pantas di media sosial, menyelamatkan hati para pengguna dengan mengorbankan hati mereka sendiri. "Saya telah melihat ratusan kepala dipenggal," ujar seorang cewek yang diwawancara dalam sebuah video. Wajahnya nggak tampak jelas karena membelakangi kamera. Buat kebanyakan orang, pemandangan sadis macam itu pasti membikin bergidik ngeri.
Baca Juga: Walau Super Sibuk, Para Atlet Pelajar Ini Punya Prestasi MengagumkanSisi muram kehidupan para moderator konten tersebut diangkat dalam film dokumenter The Cleaners arahan sutradara Moritz Riesewieck and Hans Block. Cuplikannya pekan ini dimuat di situs BBC, sebagaimana dirangkum oleh KompasTekno, Jumat (19/10/2018). Para moderator konten media sosial ini menghabiskan 8 hingga 10 jam setiap hari untuk menyaksikan aneka macam konten sadis dan nggak pantas, mulai dari ujaran kebencian, adegan bunuh diri, hingga video penyiksaan anak atau binatang, untuk kemudian menghapusnya.
Mengguncang mental
Perusahaan teknologi memang memasang mesin kecerdasan buatan (AI) untuk menyaring konten. Tapi tangan manusia tetap dibutuhkan untuk membuat lini masa bersih dari kotoran konten. Mereka adalah sekolompok orang yang direkrut khusus untuk menyaring konten. Para bos-bos media sosial di Amerika Serikat menyebutnya sebagai tim moderator konten.Tugasnya, menonton jutaan posting yang dikirim pengguna sosial seperti Facebook, Twitter, Instagram atau YouTube. Mereka nggak hanya memantau unggahan "normal" saja, namun juga kiriman mengerikan yang mengguncang mental tadi. "Ini (moderator konten) merupakan industri tersembunyi di Filipina, di mana banyak perusahaan outsourcing yang berkecimpung di situs media sosial populer," jelas Riesewieck, sutradara The Cleaner, yang berarti "Sang Pembersih" dalam bahasa Indonesia. Para moderator berjibaku dengan segala macam konten negatif demi "membersihkan" linimasa. Mereka hanya bersenjatakan mouse untuk memilih opsi "hapus" atau "abaikan". Sebagai panduan, moderator diberikan buku aturan main setebal ratusan halaman. Tapi ada kalanya juga mereka masih kebobolan meloloskan konten. Maklum, mereka kebanyakan hanya diberikan waktu pelatihan sepekan atau paling banyak tiga pekan saja untuk mempelajari semua aturan, sebelum bisa memutuskan konten mana yang harus dihapus dan mana yang harus diabaikan. "Misalnya, siapa yang memutuskan apa definisi dari teroris. Mereka punya daftar, mereka harus mempelajari daftar yang mengacu dari departemen keamanan dalam negeri AS," terang Riesewieck. Di sinilah masalah dimulai. Bagi para pekerja muda Filipina yang rata-rata berumur 21 tahun, mereka harus paham betul pedoman yang berkiblat pada undang-undang AS. "Kalo mereka ingat dengan baik, mereka akan memblokir simbol apapun terkait terorisme. Tapi kalo mereka hanya melihatnya sekilas, mereka bisa saja salah menerka orang biasa yang ingin protes ke pemerintah, tapi dianggap sebagai teroris", imbuh Riesewieck.
Tertekan, nggak bisa mundur
Kalo terjadi kesalahan seperti kurang memperhatikan konten yang dinilai, para moderator akan mendapatkan masalah besar. "Ketika memulai pelatihan, saya nggak tahu apa itu moderator konten. Saya benar-benar nggak tahu dan itu kali pertama saya mendengarnya (konten moderator)", ujar salah satu pegawai wanita. Ia pun merasa tertekan, menyaksikan serangkaian konten negatif, mulai dari siaran bunuh diri secara langsung, pelecehan seksual kepada anak-anak, perundungan, hingga penjagalan di wilayah perang. "Saya harus melihat video-video kekerasan anak-anak yang dilecehkan, tindakan dalam video tersebut nggak bisa saya maafkan", aku pegawai wanita tadi dengan suara tercekat. Sayangnya, ketika ia mencoba mengundurkan diri, kepala tim tempatnya bekerja nggak mengizinkan. "Dia (kepala tim) bilang bahwa saya harus melakukannya karena itu adalah pekerjaan saya dan saya telah menandatangani kontrak," ujarnya.
Nonton pornografi 8 jam Di dalam film The Cleaner, secara kasat mata, para pekerja outsourcing ini digambarkan nggak jauh berbeda dengan pekerja kantoran atau pegawai startup. Namun dari cara kerjanya, mereka ibarat pemulung yang menjumput sampah digital. Misalnya saja seperti yang dialami salah satu moderator yang pernah bertugas untuk Facebook. Ia menuturkan pernah menonton video kucing yang dipanggang di dalam microwave. Video semacam itu tentu berdampak pada psikologis para pegawai. "Tentu saja hal itu bisa meningglakan trauma yang bisa berujung ke post-traumatic stress disorder (PTSD)", papar Riesewieck. Sindrom dimaksud kerap dialami para veteran perang setelah kembali ke lingkungan yang normal. Kondisi itu diamini oleh salah satu psikolog asal Manila, Denise (nama samaran), yang sempat memeriksa kejiwaan dua orang moderator. "Ada jejak memori di ingatan mereka", paparnya, dilaporkan Wired. Beberapa pekerja berhenti dari profesi moderator konten karena terguncang mentalnya. Mereka yang memiliki pasangan mengaku mengalami penurunan hubungan intim dengan pasangannya. Ada juga yang sebaliknya, malah ditimpa kenaikan birahi. "Apa yang akan Anda rasakan kalo harus terpaksa menonton pornografi hingga 8 jam setiap hari. Berapa lama Anda bisa terima itu?" tanya sang psikolog. Pekerja lain dengan nama samaran Maria juga mengaku jengah dan terganggu dengan menonton adegan kekerasan seksual kepada anak-anak. Paranoia itu terjadi pula ke pegawai lain dan mempengaruhi kehidupan sosial mereka di dunia nyata. Di dunia maya, mereka melihat banyak sekali keberagaman, hasil dari konsep demokrasi yang dijunjung tinggi jejaring sosial. Nggak jarang, mereka kehilangan akal, menganggap orang-orang di sekitar mereka punya itikad buruk. Maria mengisahkan, teman-temannya bahkan nggak berani meninggalkan anak mereka dengan pengasuhnya.
Kurang perhatian?
Trauma psikologis yang nggak terhindarkan nyatanya kurang mendapat perhatian dari para petinggi media sosial. "Hampir nggak ada dukungan psikologis yang mumpuni. Mereka benar-benar bekerja, seolah mereka melakukan hal kotor untuk kita semua", jelas Riesewieck. Untuk ukuran pekerja muda, para moderator sebenarnya dibayar cukup tinggi kalo bekerja di bawah perusahaan media sosial yang matang. Namun menurut Riesewieck, upah tersebut kurang cukup untuk mengatasi masalah psikologis mereka. "Facebook, YouTube dan Twitter mengatakan bahwa dukungan psikologis tersedia bagi semua pengulas konten, baik yang direkrut secara langsung maupun yang melalui outsourcing", imbuhnya. Baru-baru ini, mantan moderator konten yang pernah bekerja untuk Facebook menuntut jejaring sosial raksasa itu. Ia menyebut perusahaan pimpinan Mark Zuckerberg tersebut gagal menciptakan lingkungan kerja yang aman bagi pegawainya, terutama soal kesehatan mental pegawai.Facebook pun berdalih dan mengatakan bahwa perusahannya menawarkan akses tanpa batas ke fasilitas kesehatan mental dan berkonsultasi dengan ahli terkait. "Kami sadar pekerjaan sebagai moderator konten akan sulit. Karenanya, kami menyediakan dukungan yang serius ke para pegawai, mulai dari pelatihan, berbagai manfaat khusus, hingga akses ke fasilitas psikologis," kata perwakilan Facebook.Artikel ini telah tayang di Kompas.com dengan judul "Nasib Moderator Konten Medsos, Terpaksa Nonton Video Porno 8 Jam"