Tiktok meniadakan lebih dari 104 juta video dari platform-nya sampai tengah tahun 2020. Video yang dihapus ialah content yang dipandang menyalahi kebijaksanaan komune tiktok.

Jumlah video yang dihapus ini sama dengan 1 % dari keseluruhnya video yang diupload di tiktok. Mencuplik zdnet. Kamis (24/9/2020). Video yang dihapus umumnya datang dari pemakai di india (37.68 juta video) serta amerika serikat (9.82 video).

Disebut tiktok dalam laporan transparannya. 96.4 % video dideteksi serta dihapus faksi tiktok sebelum pemakai menyampaikannya. Sesaat. 90.3 % video dihapus sebelum dilihat oleh beberapa pemakai.

Sebagian besar. Yaitu 30.9 % video dihapus sebab memiliki kandungan ketelanjangan serta kesibukan seksual. Mengenai 22.3 % dihapus sebab menyalahi keselamatan minor. Serta 19.6 % dihapus sebab kesibukan ilegal.

Kecuali india serta amerika serikat. Beberapa video yang dihapus oleh tiktok banyak juga datang dari pakistan (6.45 juta video). Brasil (5.53 juta video). Serta inggris (2.95 juta video).

Penghilangan video yang dipandang menyalahi ketentuan ini dilaksanakan untuk penuhi keinginan dari pemerintah serta penegak hukum di penjuru dunia.

Keinginan itu disodorkan sesuai dengan dokumen hukum dari pemerintah satu negara. Contohnya panggilan pengadilan. Surat pemerintah. Atau keinginan genting yang lain.

Antara jumlah itu. India ajukan terbanyak keinginan (1.206 permintaan). Yang dipenuhi dengan tiktok sekitar 79 %.

Sesaat as melontarkan 290 keinginan serta dipenuhi 85 %. Israel ajukan 41 keinginan serta tiktok penuhi 85 %. Paling akhir jerman yang ajukan 37 keinginan tapi cuma dipenuhi 16 %.

Dalam pengakuan terpisah. General manajer tiktok vanessa pappas menyebutkan. Faksinya mengirim surat pada 9 bos basis sosmed.

Didalamnya ialah menyarankan nota kesepakatan yang mempunyai tujuan untuk menggerakkan perusahaan sama-sama mengingatkan mengenai ada content yang dipandang tidak patut di basis semasing.

“basis sosmed terus dilawan dengan adanya banyak upload beresiko (yang diupload berkali-kali di beberapa basis) serta ini memengaruhi kita. Baik team atau komune.” kata pappas dalam pengakuan.

Dia meneruskan. Saat content beralih dari satu aplikasi ke aplikasi lain. Terkadang didiamkan. Walau sebenarnya content itu tidak aman.

“tehnologi harusnya dapat menolong mengetahui serta batasi dengan cara automatis. Dibantu oleh moderator manusia.” tuturnya.

Pappas menjelaskan. Setiap usaha mengatasi content negatif akan membawa hasil lebih bagus bila dilaksanakan dengan cara kolaboratif.

“dengan bekerja bersama membuat bank hash untuk content serta grafis kekerasan. Kita dapat kurangi peluang menebarnya content negatif secarasignifikan.” tuturnya.