Sekarang media sosial terlihat ramai seperti biasa, namun “rasa kehadiran manusia” perlahan menghilang. Ketika banyak AI sampah (AI slop) mengalir ke berbagai platform utama, konten palsu dan clickbait merajalela, semakin banyak pengguna asli kehilangan keinginan untuk berbagi, bahkan mulai meninggalkan platform tersebut.
Menghadapi banjir AI sampah, pemeriksaan algoritma saja sudah tidak cukup. Baru-baru ini, modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan (Staked Media), menggunakan uang asli untuk menyaring gangguan AI, menarik perhatian pasar.
Ketika AI mulai melakukan replikasi diri, internet sedang dibanjiri oleh “konten pra-buat”
“AI mulai meniru AI.”
Baru-baru ini, moderator Reddit “American Forum” mengalami keruntuhan, mereka berjuang melawan volume besar konten yang dihasilkan AI. Subreddit r/AmItheAsshole yang memiliki 24 juta pengguna, bahkan mengeluhkan lebih dari separuh konten dihasilkan oleh AI.
Hanya dalam semester pertama 2025, Reddit menghapus lebih dari 40 juta konten sampah dan palsu. Fenomena ini menyebar seperti virus ke platform lain seperti Facebook, Instagram, X, YouTube, Xiaohongshu, dan TikTok.
Saat ini, di era di mana informasi tampaknya meledak, namun suara asli semakin sedikit, konten sampah yang dihasilkan AI hampir merambah seluruh internet, secara diam-diam menggerogoti pikiran manusia. Faktanya, seiring meluasnya penggunaan alat generatif seperti ChatGPT dan Gemini, pembuatan konten secara manual mulai digantikan AI, menjadi semacam “pabrik lini produksi”.
Menurut studi terbaru dari perusahaan SEO Graphite, sejak ChatGPT dipublikasikan akhir 2022, proporsi artikel yang dihasilkan AI meningkat tajam, dari sekitar 10% pada tahun itu menjadi lebih dari 40% pada 2024. Hingga Mei tahun ini, angka ini naik menjadi 52%.
Namun, sebagian besar konten yang dihasilkan AI ini seperti “makanan pra-buat”, memiliki resep tetap dan proses produksi standar, tetapi kehilangan jiwa, membosankan untuk dibaca. Tidak hanya itu, AI saat ini tidak lagi ceroboh; mereka tidak hanya mampu meniru nada manusia, bahkan mampu mereplikasi emosi. Dari panduan wisata hingga konflik emosional, bahkan sengaja memprovokasi konflik sosial demi menarik perhatian, AI mampu melakukannya dengan mudah.
Lebih berbahaya lagi, ketika AI mengalami halusinasi, mereka akan berbicara ngawur dengan serius, tidak hanya menciptakan sampah informasi, tetapi juga memicu krisis kepercayaan.
Di era banjir AI, bangun kepercayaan media dengan uang asli
Menghadapi maraknya konten sampah AI di internet, berbagai platform meskipun memperbarui mekanisme pemeriksaan dan memperkenalkan bantuan AI, efektivitas pengelolaan tetap terbatas. Dalam laporan tahunan penting dari a16z crypto, Robert Hackett mengusulkan konsep “media yang dipertaruhkan” (Staked Media). (Baca juga: a16z: 17 arah baru kripto yang membuat antusias di 2026)
Laporan tersebut menunjukkan bahwa, model media tradisional menekankan objektivitas, tetapi kelemahannya sudah terlihat. Internet memungkinkan setiap orang memiliki saluran untuk bersuara, dan semakin banyak praktisi, pelaku, dan pembangun langsung menyampaikan pandangan kepada publik. Sudut pandang mereka mencerminkan kepentingan mereka di dunia ini. Ironisnya, audiens menghormati mereka bukan karena “meskipun mereka memiliki kepentingan”, tetapi “karena mereka memiliki kepentingan”.
Perubahan tren ini bukan karena munculnya media sosial, melainkan “kemunculan alat kripto”, yang memungkinkan orang membuat komitmen yang dapat diverifikasi secara publik. Seiring AI menurunkan biaya dan mempermudah proses pembuatan konten dalam jumlah besar (berbasis sudut pandang dan identitas apa pun, dan dapat memverifikasi keaslian konten), ketergantungan pada pernyataan manusia (atau robot) sudah tidak cukup meyakinkan. Sebagai gantinya, aset tokenisasi, penguncian yang dapat diprogram, pasar prediksi, dan catatan sejarah di blockchain memberikan fondasi yang lebih kokoh untuk kepercayaan: komentator dapat membuktikan konsistensi ucapan dan tindakan mereka (dengan dana sebagai jaminan); pembawa acara dapat mengunci token, membuktikan mereka tidak akan berpindah posisi secara curang atau melakukan manipulasi pasar; analis dapat mengaitkan prediksi mereka dengan pasar yang terbuka dan dapat diaudit, membentuk catatan yang transparan.
Ini adalah bentuk awal dari “media yang dipertaruhkan”: media semacam ini tidak hanya menyetujui ide yang menguntungkan semua pihak, tetapi juga menyediakan bentuk media yang dapat dibuktikan secara nyata. Dalam model ini, kepercayaan tidak berasal dari kedok netral, atau klaim tanpa dasar, melainkan dari janji kepentingan yang terbuka, transparan, dan dapat diverifikasi. Media yang dipertaruhkan tidak akan menggantikan bentuk media lain, melainkan melengkapi ekosistem media yang ada. Ia menyampaikan sinyal baru: bukan “percaya padaku, aku netral”, tetapi “ini risiko yang aku tanggung, ini cara kamu memverifikasi bahwa aku tidak berbohong”.
Robert Hackett memperkirakan, bidang ini akan terus berkembang, seperti media massa abad ke-20 yang berusaha menyesuaikan diri dengan teknologi dan insentif saat itu (menarik audiens dan pengiklan). Kini, AI memudahkan pembuatan atau pemalsuan konten apa pun, sementara yang benar-benar langka adalah bukti, yaitu mereka yang mampu membuat janji yang dapat diverifikasi dan benar-benar mendukung klaim mereka, akan memiliki keunggulan.
Manfaatkan mekanisme pertaruhan untuk meningkatkan biaya pembuatan palsu, usulkan mekanisme verifikasi ganda konten
Ide inovatif ini juga mendapat pengakuan dari pelaku industri kripto dan mendapatkan saran.
Analis kripto Chen Jian menyatakan, dari media besar hingga media mandiri, berbagai berita palsu bermunculan, satu peristiwa bisa dilaporkan berbalik dan berbalik lagi. Penyebab utamanya adalah biaya palsu rendah dan keuntungan tinggi. Jika setiap penyebar informasi dipandang sebagai sebuah node, mengapa tidak menggunakan mekanisme ekonomi POS (Proof of Stake) dari blockchain untuk mengatasi masalah ini? Ia menyarankan, misalnya, setiap node harus mempertaruhkan dana sebelum mengeluarkan pendapat, semakin banyak yang dipertaruhkan, semakin tinggi kepercayaannya; dan orang lain dapat mengumpulkan bukti untuk menantang, jika tantangan berhasil, sistem akan menyita dana pertaruhan dan memberi penghargaan kepada penantang. Tentu saja, proses ini juga melibatkan masalah privasi dan efisiensi, saat ini ada solusi seperti Swarm Network yang menggabungkan ZK dan AI, melindungi privasi peserta sekaligus membantu verifikasi melalui analisis data multi-model, mirip fungsi verifikasi kebenaran di Grok di Twitter.
KOL kripto Blue Fox juga percaya bahwa melalui teknologi kriptografi seperti zero-knowledge proof (zk), media atau individu dapat membuktikan kepercayaan diri mereka secara online, seperti “membuat surat pernyataan” di internet, dan data tersebut tidak dapat diubah di blockchain. Tapi, hanya surat pernyataan saja tidak cukup, perlu “pertaruhan” aset tertentu sebagai jaminan, seperti ETH, USDC, atau token kripto lainnya.
Logika mekanisme pertaruhan sangat sederhana: jika konten yang dipublikasikan terbukti palsu, aset yang dipertaruhkan akan disita; jika konten benar dan dapat dipercaya, aset tersebut akan dikembalikan setelah periode tertentu, bahkan mungkin mendapatkan bonus tambahan (seperti token media yang dipertaruhkan atau bagian dari dana yang disita dari pelaku palsu). Mekanisme ini menciptakan lingkungan yang mendorong kejujuran. Bagi media, pertaruhan memang meningkatkan biaya dana, tetapi yang didapat adalah kepercayaan audiens yang nyata, sangat penting di era berita palsu yang meluas.
Contohnya, seorang YouTuber yang mengunggah video merekomendasikan suatu produk harus “membuat surat pernyataan” di blockchain Ethereum dan mempertaruhkan ETH atau USDC. Jika konten video tidak benar, dana pertaruhan akan disita, dan penonton bisa yakin dengan keaslian konten tersebut; jika pembuat konten merekomendasikan ponsel, mereka harus mempertaruhkan 100 dolar ETH dan menyatakan: “Jika fitur kecantikan ponsel ini tidak sesuai, saya akan mengganti kerugian.” Melihat adanya dana pertaruhan, penonton akan merasa lebih percaya. Jika konten tersebut palsu dari AI, pembuat konten akan kehilangan dana pertaruhan.
Untuk menilai keaslian konten, Blue Fox menyarankan mekanisme verifikasi ganda “komunitas + algoritma”. Dari sisi komunitas, pengguna yang memiliki hak voting (harus mempertaruhkan aset kripto) melakukan voting di blockchain, jika lebih dari 60% setuju, dianggap palsu; dari sisi algoritma, analisis data digunakan untuk membantu verifikasi hasil voting; mekanisme arbitrase, jika pembuat konten tidak puas dengan hasil, dapat mengajukan banding ke komite ahli; jika ditemukan bahwa pemilih melakukan manipulasi, aset voting disita; peserta voting dan komite ahli mendapatkan reward, sumbernya dari dana sanksi dan token media. Selain itu, pembuat konten juga dapat menggunakan teknologi zero-knowledge proof untuk membuktikan keaslian konten dari sumbernya, misalnya, membuktikan asal-usul video yang asli.
Bagi mereka yang punya kekuatan finansial dan berusaha memanfaatkan mekanisme pertaruhan untuk membuat palsu, Blue Fox menyarankan meningkatkan biaya jangka panjang untuk memalsukan, tidak hanya dari segi dana, tetapi juga waktu, catatan sejarah, sistem reputasi, dan tanggung jawab hukum. Misalnya, akun yang disita akan diberi tanda, dan konten yang dipublikasikan harus mempertaruhkan lebih banyak dana; jika akun sering disita, kepercayaan terhadap konten mereka akan menurun drastis; pelanggaran serius bahkan bisa menghadapi tuntutan hukum.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Ketika AI menguasai platform konten, bagaimana memperkenalkan staking kripto untuk memulihkan kepercayaan?
作者:Nancy,PANews
Sekarang media sosial terlihat ramai seperti biasa, namun “rasa kehadiran manusia” perlahan menghilang. Ketika banyak AI sampah (AI slop) mengalir ke berbagai platform utama, konten palsu dan clickbait merajalela, semakin banyak pengguna asli kehilangan keinginan untuk berbagi, bahkan mulai meninggalkan platform tersebut.
Menghadapi banjir AI sampah, pemeriksaan algoritma saja sudah tidak cukup. Baru-baru ini, modal ventura terkemuka a16z mengusulkan konsep media yang dipertaruhkan (Staked Media), menggunakan uang asli untuk menyaring gangguan AI, menarik perhatian pasar.
Ketika AI mulai melakukan replikasi diri, internet sedang dibanjiri oleh “konten pra-buat”
“AI mulai meniru AI.”
Baru-baru ini, moderator Reddit “American Forum” mengalami keruntuhan, mereka berjuang melawan volume besar konten yang dihasilkan AI. Subreddit r/AmItheAsshole yang memiliki 24 juta pengguna, bahkan mengeluhkan lebih dari separuh konten dihasilkan oleh AI.
Hanya dalam semester pertama 2025, Reddit menghapus lebih dari 40 juta konten sampah dan palsu. Fenomena ini menyebar seperti virus ke platform lain seperti Facebook, Instagram, X, YouTube, Xiaohongshu, dan TikTok.
Saat ini, di era di mana informasi tampaknya meledak, namun suara asli semakin sedikit, konten sampah yang dihasilkan AI hampir merambah seluruh internet, secara diam-diam menggerogoti pikiran manusia. Faktanya, seiring meluasnya penggunaan alat generatif seperti ChatGPT dan Gemini, pembuatan konten secara manual mulai digantikan AI, menjadi semacam “pabrik lini produksi”.
Menurut studi terbaru dari perusahaan SEO Graphite, sejak ChatGPT dipublikasikan akhir 2022, proporsi artikel yang dihasilkan AI meningkat tajam, dari sekitar 10% pada tahun itu menjadi lebih dari 40% pada 2024. Hingga Mei tahun ini, angka ini naik menjadi 52%.
Namun, sebagian besar konten yang dihasilkan AI ini seperti “makanan pra-buat”, memiliki resep tetap dan proses produksi standar, tetapi kehilangan jiwa, membosankan untuk dibaca. Tidak hanya itu, AI saat ini tidak lagi ceroboh; mereka tidak hanya mampu meniru nada manusia, bahkan mampu mereplikasi emosi. Dari panduan wisata hingga konflik emosional, bahkan sengaja memprovokasi konflik sosial demi menarik perhatian, AI mampu melakukannya dengan mudah.
Lebih berbahaya lagi, ketika AI mengalami halusinasi, mereka akan berbicara ngawur dengan serius, tidak hanya menciptakan sampah informasi, tetapi juga memicu krisis kepercayaan.
Di era banjir AI, bangun kepercayaan media dengan uang asli
Menghadapi maraknya konten sampah AI di internet, berbagai platform meskipun memperbarui mekanisme pemeriksaan dan memperkenalkan bantuan AI, efektivitas pengelolaan tetap terbatas. Dalam laporan tahunan penting dari a16z crypto, Robert Hackett mengusulkan konsep “media yang dipertaruhkan” (Staked Media). (Baca juga: a16z: 17 arah baru kripto yang membuat antusias di 2026)
Laporan tersebut menunjukkan bahwa, model media tradisional menekankan objektivitas, tetapi kelemahannya sudah terlihat. Internet memungkinkan setiap orang memiliki saluran untuk bersuara, dan semakin banyak praktisi, pelaku, dan pembangun langsung menyampaikan pandangan kepada publik. Sudut pandang mereka mencerminkan kepentingan mereka di dunia ini. Ironisnya, audiens menghormati mereka bukan karena “meskipun mereka memiliki kepentingan”, tetapi “karena mereka memiliki kepentingan”.
Perubahan tren ini bukan karena munculnya media sosial, melainkan “kemunculan alat kripto”, yang memungkinkan orang membuat komitmen yang dapat diverifikasi secara publik. Seiring AI menurunkan biaya dan mempermudah proses pembuatan konten dalam jumlah besar (berbasis sudut pandang dan identitas apa pun, dan dapat memverifikasi keaslian konten), ketergantungan pada pernyataan manusia (atau robot) sudah tidak cukup meyakinkan. Sebagai gantinya, aset tokenisasi, penguncian yang dapat diprogram, pasar prediksi, dan catatan sejarah di blockchain memberikan fondasi yang lebih kokoh untuk kepercayaan: komentator dapat membuktikan konsistensi ucapan dan tindakan mereka (dengan dana sebagai jaminan); pembawa acara dapat mengunci token, membuktikan mereka tidak akan berpindah posisi secara curang atau melakukan manipulasi pasar; analis dapat mengaitkan prediksi mereka dengan pasar yang terbuka dan dapat diaudit, membentuk catatan yang transparan.
Ini adalah bentuk awal dari “media yang dipertaruhkan”: media semacam ini tidak hanya menyetujui ide yang menguntungkan semua pihak, tetapi juga menyediakan bentuk media yang dapat dibuktikan secara nyata. Dalam model ini, kepercayaan tidak berasal dari kedok netral, atau klaim tanpa dasar, melainkan dari janji kepentingan yang terbuka, transparan, dan dapat diverifikasi. Media yang dipertaruhkan tidak akan menggantikan bentuk media lain, melainkan melengkapi ekosistem media yang ada. Ia menyampaikan sinyal baru: bukan “percaya padaku, aku netral”, tetapi “ini risiko yang aku tanggung, ini cara kamu memverifikasi bahwa aku tidak berbohong”.
Robert Hackett memperkirakan, bidang ini akan terus berkembang, seperti media massa abad ke-20 yang berusaha menyesuaikan diri dengan teknologi dan insentif saat itu (menarik audiens dan pengiklan). Kini, AI memudahkan pembuatan atau pemalsuan konten apa pun, sementara yang benar-benar langka adalah bukti, yaitu mereka yang mampu membuat janji yang dapat diverifikasi dan benar-benar mendukung klaim mereka, akan memiliki keunggulan.
Manfaatkan mekanisme pertaruhan untuk meningkatkan biaya pembuatan palsu, usulkan mekanisme verifikasi ganda konten
Ide inovatif ini juga mendapat pengakuan dari pelaku industri kripto dan mendapatkan saran.
Analis kripto Chen Jian menyatakan, dari media besar hingga media mandiri, berbagai berita palsu bermunculan, satu peristiwa bisa dilaporkan berbalik dan berbalik lagi. Penyebab utamanya adalah biaya palsu rendah dan keuntungan tinggi. Jika setiap penyebar informasi dipandang sebagai sebuah node, mengapa tidak menggunakan mekanisme ekonomi POS (Proof of Stake) dari blockchain untuk mengatasi masalah ini? Ia menyarankan, misalnya, setiap node harus mempertaruhkan dana sebelum mengeluarkan pendapat, semakin banyak yang dipertaruhkan, semakin tinggi kepercayaannya; dan orang lain dapat mengumpulkan bukti untuk menantang, jika tantangan berhasil, sistem akan menyita dana pertaruhan dan memberi penghargaan kepada penantang. Tentu saja, proses ini juga melibatkan masalah privasi dan efisiensi, saat ini ada solusi seperti Swarm Network yang menggabungkan ZK dan AI, melindungi privasi peserta sekaligus membantu verifikasi melalui analisis data multi-model, mirip fungsi verifikasi kebenaran di Grok di Twitter.
KOL kripto Blue Fox juga percaya bahwa melalui teknologi kriptografi seperti zero-knowledge proof (zk), media atau individu dapat membuktikan kepercayaan diri mereka secara online, seperti “membuat surat pernyataan” di internet, dan data tersebut tidak dapat diubah di blockchain. Tapi, hanya surat pernyataan saja tidak cukup, perlu “pertaruhan” aset tertentu sebagai jaminan, seperti ETH, USDC, atau token kripto lainnya.
Logika mekanisme pertaruhan sangat sederhana: jika konten yang dipublikasikan terbukti palsu, aset yang dipertaruhkan akan disita; jika konten benar dan dapat dipercaya, aset tersebut akan dikembalikan setelah periode tertentu, bahkan mungkin mendapatkan bonus tambahan (seperti token media yang dipertaruhkan atau bagian dari dana yang disita dari pelaku palsu). Mekanisme ini menciptakan lingkungan yang mendorong kejujuran. Bagi media, pertaruhan memang meningkatkan biaya dana, tetapi yang didapat adalah kepercayaan audiens yang nyata, sangat penting di era berita palsu yang meluas.
Contohnya, seorang YouTuber yang mengunggah video merekomendasikan suatu produk harus “membuat surat pernyataan” di blockchain Ethereum dan mempertaruhkan ETH atau USDC. Jika konten video tidak benar, dana pertaruhan akan disita, dan penonton bisa yakin dengan keaslian konten tersebut; jika pembuat konten merekomendasikan ponsel, mereka harus mempertaruhkan 100 dolar ETH dan menyatakan: “Jika fitur kecantikan ponsel ini tidak sesuai, saya akan mengganti kerugian.” Melihat adanya dana pertaruhan, penonton akan merasa lebih percaya. Jika konten tersebut palsu dari AI, pembuat konten akan kehilangan dana pertaruhan.
Untuk menilai keaslian konten, Blue Fox menyarankan mekanisme verifikasi ganda “komunitas + algoritma”. Dari sisi komunitas, pengguna yang memiliki hak voting (harus mempertaruhkan aset kripto) melakukan voting di blockchain, jika lebih dari 60% setuju, dianggap palsu; dari sisi algoritma, analisis data digunakan untuk membantu verifikasi hasil voting; mekanisme arbitrase, jika pembuat konten tidak puas dengan hasil, dapat mengajukan banding ke komite ahli; jika ditemukan bahwa pemilih melakukan manipulasi, aset voting disita; peserta voting dan komite ahli mendapatkan reward, sumbernya dari dana sanksi dan token media. Selain itu, pembuat konten juga dapat menggunakan teknologi zero-knowledge proof untuk membuktikan keaslian konten dari sumbernya, misalnya, membuktikan asal-usul video yang asli.
Bagi mereka yang punya kekuatan finansial dan berusaha memanfaatkan mekanisme pertaruhan untuk membuat palsu, Blue Fox menyarankan meningkatkan biaya jangka panjang untuk memalsukan, tidak hanya dari segi dana, tetapi juga waktu, catatan sejarah, sistem reputasi, dan tanggung jawab hukum. Misalnya, akun yang disita akan diberi tanda, dan konten yang dipublikasikan harus mempertaruhkan lebih banyak dana; jika akun sering disita, kepercayaan terhadap konten mereka akan menurun drastis; pelanggaran serius bahkan bisa menghadapi tuntutan hukum.