REPUBLIKA.CO.ID, JAKARTA -- YouTube telah mengumumkan tidak akan merekomendasikan video yang tidak akurat atau bernada konspirasi. Hal tersebut untuk menghindari komunitas penggunanya dari berbagai bentuk kekerasan.
Pada Sabtu lalu, dalam pengumumannya YouTube menyebut hal tersebut sebagai gerakan "kemenangan bersejarah". Berdasarkan unggahan blog orisinil dari YouTube, video yang direkomendasikannya biasanya akan muncul setelah pengguna menonton satu video.
Misal, jika pengguna menonton video memasak, mereka akan dibombardir dengan rekomendasi video masakan lain yang serupa. Demikian halnya berlaku pada video yang mengangkat tentang konspirasi. Beberapa video konspirasi yang sering muncul seperti klaim bahwa bumi datar, atau klaim tentang kejadian 9/11.
Perubahan ini tidak akan berdampak terhadap ketersedian video. Jika pengguna merupakan pengikut dari sebuah saluran video konspirasi, mereka tetap dapat melihat rekomendasi video lainnya.
Mantan teknisi Google, Guillaume Chaslot, mengatakan bahwa dia membantu YouTube membangun kecerdasan buatan yang digunakan untuk mengkurasi video rekomendasi. "Ini permulaan dari teknologi yang lebih humanis. Teknologi yang bisa memberdayakan kita, bukan yang memperdaya," ujar Chaslot dalam uanggahan Twitternya dikutip NBC News.
Chaslot menggambarkan bagaimana kecerdasan buatan itu bekerja. Pengguna yang menonton video teori konspirasi biasanya diarahkan untuk menonton konten video yang sama terus-menerus. Inilah yang menjadi fokus kecerdasan buatan.
Menurut Chaslot, tujuan yang ingin dicapai YouTube dengan kecerdasan buatan ini untuk menjaga pengguna dari rekomendasi yang terus akan muncul selama dia menonton video konspirasi. Kecerdasan buatan akan membaca pola dari kebiasaan menonton video pengguna di YouTube.
February 11, 2019 at 04:07PM from Republika Online RSS Feed http://bit.ly/2USsDjv
via IFTTT
No comments:
Post a Comment