Fei-Fei Li, profesor Universitas Stanford yang sering disebut sebagai “Godmother of AI,” tidak memperkirakan seberapa cepat kecerdasan buatan akan mengubah masyarakat. Dalam diskusi mendalam baru-baru ini, dia merenungkan karier selama 25 tahun dan berbagi pandangannya tentang ke mana teknologi tingkat peradaban ini menuju—sebuah arah yang dia yakini secara tegas mengarah ke kecerdasan spasial.
Magnitudo Tak Terduga dari Kebangkitan AI
Ketika ditanya tentang kekagetan menyaksikan adopsi AI yang meledak di arus utama, Li mengakui adanya ketidaksesuaian antara keterlibatannya yang lama di bidang ini dan trajektori saat ini. “Saya tidak pernah menyangka itu akan menjadi begitu besar,” ungkapnya. Kedalaman dan luasnya dampak AI terhadap hampir setiap aspek keberadaan manusia—kerja, kesejahteraan, dan prospek masa depan—masih membuatnya terkejut. Yang membedakan momen ini bukan sekadar kekuatan teknologi, tetapi juga penyebarannya: setiap orang di planet ini akan merasakan pengaruh AI dalam beberapa bentuk.
Ini tidak selalu jelas. Ketika Li dan generasi penelitiannya menciptakan ImageNet pada awal 2000-an, lanskapnya sangat berbeda. Mahasiswa pascasarjana bekerja dengan dataset yang hanya berisi empat hingga dua puluh kategori objek. Sebaliknya, ImageNet mewakili loncatan kuantum: 22.000 kategori objek dan 15 juta gambar berlabel. Terobosan itu secara langsung memicu revolusi pembelajaran mendalam yang mendukung aplikasi saat ini.
Alat Bermata Dua yang Membutuhkan Pengelolaan Manusia
Li secara konsisten memandang teknologi melalui lensa seimbang: transformatif tetapi secara inheren berkarakter ganda. Sepanjang peradaban manusia, alat yang dibuat manusia sebagian besar telah melayani tujuan yang bermanfaat, namun penyalahgunaan yang disengaja dan konsekuensi tak terduga tetap menjadi risiko yang selalu ada. Dia menekankan bahwa tanggung jawab harus menyertai kemampuan—terutama ketika terkonsentrasi dalam beberapa tangan.
“Secara pribadi, saya berharap teknologi ini bisa menjadi lebih demokratis,” tegas Li, mendukung akses dan pengaruh yang lebih luas terhadap pengembangan AI. Dia berpendapat bahwa demokratisasi tidak mengurangi kebutuhan pengawasan; sebaliknya, itu mendistribusikan tanggung jawab di antara individu, perusahaan, dan masyarakat secara keseluruhan.
Kecerdasan Spasial: Perbatasan Logis Berikutnya
Saat ini, Li menjabat sebagai salah satu pendiri dan CEO dari World Labs, sebuah startup bernilai 1,1 miliar dolar yang didedikasikan untuk mempelopori apa yang dia identifikasi sebagai dimensi kritis berikutnya dari AI: kecerdasan spasial. Sementara model bahasa besar mendominasi diskursus kontemporer, dia berpendapat bahwa memahami ruang tiga dimensi—bagaimana objek bergerak, bagaimana agen berinteraksi dengan lingkungan, dan bagaimana mesin memahami kedalaman dan hubungan—layak mendapatkan perhatian yang setara.
“Kecerdasan spasial adalah kemampuan AI untuk memahami, merasakan, bernalar, dan berinteraksi dengan dunia,” jelas Li. Ini merupakan kelanjutan alami dari pekerjaan kecerdasan visual, yang berfokus pada penerimaan informasi pasif. Evolusi mengajarkan kita bahwa melihat dan bergerak tidak terpisahkan; kecerdasan itu sendiri tidak terpisahkan dari tindakan.
Marble, sebuah model yang baru-baru ini dipamerkan oleh World Labs, menjadi contoh arah ini. Sistem ini menghasilkan lingkungan tiga dimensi dari prompt teks sederhana atau foto, memungkinkan desainer untuk berinovasi dengan cepat, pengembang game untuk mendapatkan scene 3D, dan robot untuk belajar melalui simulasi. Aplikasi edukasi bahkan lebih luas lagi: bayangkan gadis-gadis Afghanistan mengikuti kelas virtual, atau siswa sekolah dasar menjelajahi struktur sel secara virtual dengan berjalan di dalam sel untuk mengamati inti dan enzim secara langsung.
Menghadapi Disrupsi Tenaga Kerja oleh Teknologi
Li tidak meremehkan kekhawatiran tentang pekerjaan. Dia mengakui bahwa AI akan secara mendalam mengubah lanskap tenaga kerja, dengan contoh konkret seperti transfer 50% peran layanan pelanggan Salesforce ke sistem AI. Namun, dia menempatkan ini dalam konteks pola sejarah. Setiap loncatan teknologi besar—mesin uap, listrik, komputasi, mobil—menciptakan transisi menyakitkan di samping restrukturisasi pekerjaan yang akhirnya terjadi. Respon kontemporer harus sama-sama bernuansa: individu harus berkomitmen untuk pembelajaran berkelanjutan, sementara perusahaan dan masyarakat memikul tanggung jawab yang saling melengkapi.
Superinteligensi: Tata Kelola, Bukan Tak Terhindarkan
Mengenai peringatan Geoffrey Hinton tentang risiko kepunahan 10-20% dari AI superinteligensi, Li dengan hormat tidak setuju dengan kerangka tersebut. Dia tidak menolak kekhawatiran itu secara langsung, tetapi mengarahkannya ke agensi manusia. “Jika umat manusia benar-benar menghadapi krisis, itu karena kesalahan kita sendiri, bukan mesin,” tegasnya. Alih-alih memandang superinteligensi sebagai ancaman otonom, dia mengajukan pertanyaan yang lebih mendasar: Mengapa umat manusia secara kolektif mengizinkan skenario seperti itu terjadi?
Perspektif ini menekankan tata kelola internasional, praktik pengembangan yang bertanggung jawab, dan kerangka regulasi global—mekanisme yang masih dalam tahap embrio tetapi sangat penting untuk dikembangkan. Li mendukung pengawasan pragmatis di tingkat internasional daripada menerima pasrah determinisme teknologi.
Energi, Energi Terbarukan, dan Pragmatisme Realistis
Pertanyaan apakah pusat data besar akan memicu bencana ekologis mendorong Li untuk membedakan antara sumber energi saat ini dan takdir teknologi. Meskipun fasilitas saat ini sebagian besar bergantung pada bahan bakar fosil, dia berpendapat bahwa inovasi energi terbarukan dan restrukturisasi kebijakan dapat mengubah persamaan ini. Negara-negara yang membangun infrastruktur pusat data besar memiliki peluang untuk sekaligus berinvestasi dalam sistem energi yang lebih bersih—sebuah hikmah dari masalah yang menantang ini.
Pentingnya Nilai Berbasis Manusia yang Abadi
Mungkin yang paling reflektif adalah komentar Li tentang pendidikan dan perkembangan anak di dunia yang dipenuhi AI. Alih-alih menyarankan pergeseran karier yang didorong oleh kecemasan, dia menganjurkan pengembangan kualitas manusia yang abadi: rasa ingin tahu, berpikir kritis, kreativitas, kejujuran, dan ketekunan. Orang tua seharusnya tidak terlalu khawatir apakah anak-anak mereka harus belajar ilmu komputer; melainkan, mereka harus membina kemandirian dan martabat sambil memahami bakat dan minat individu.
Dia menekankan prinsip yang sederhana namun mendalam: jangan memanfaatkan alat untuk kemalasan atau kerusakan. Belajar matematika bukan tentang mendapatkan jawaban dari model bahasa besar—itu tentang mengembangkan kapasitas bernalar. Kekhawatiran otentik tentang gambar, suara, dan teks yang dihasilkan AI mencerminkan bukan hanya tantangan teknologi tetapi juga kegagalan komunikasi yang lebih luas di era media sosial.
Tanggung Jawab Warga Dunia
Perjalanan pribadi Li—imigrasi ke Amerika Serikat saat berusia 15 tahun, mengatasi hambatan bahasa, mengelola toko cuci kering keluarganya sambil menempuh pendidikan, mendapatkan manfaat dari mentor seperti guru matematikanya—membentuk pandangannya tentang tanggung jawab dan ketahanan. Saat ini, sebagai profesor Stanford dan CEO startup AI, dia menyadari bahwa platformnya memiliki bobot. “Inisiatif harus berada di tangan manusia,” tegasnya. “Inisiatif tidak terletak pada mesin, tetapi pada diri kita sendiri.”
Keyakinan ini membentuk segala sesuatu yang dilakukan organisasinya: menciptakan teknologi transformatif sambil menggunakannya secara bertanggung jawab. Ini bukan utopia teknologi maupun alarm dystopian, tetapi pusat pragmatis yang berlandaskan pada ketelitian ilmiah dan nilai manusia. Di era di mana kemampuan AI berkembang hampir tak terbayangkan, Fei-Fei Li tetap yakin bahwa kebijaksanaan manusia, tata kelola, dan komitmen etis tetap menjadi sumber daya terbesar umat manusia.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Dari Perbatasan AI Visual ke Kecerdasan Spasial: Visi Fei-Fei Li untuk Era Berikutnya
Fei-Fei Li, profesor Universitas Stanford yang sering disebut sebagai “Godmother of AI,” tidak memperkirakan seberapa cepat kecerdasan buatan akan mengubah masyarakat. Dalam diskusi mendalam baru-baru ini, dia merenungkan karier selama 25 tahun dan berbagi pandangannya tentang ke mana teknologi tingkat peradaban ini menuju—sebuah arah yang dia yakini secara tegas mengarah ke kecerdasan spasial.
Magnitudo Tak Terduga dari Kebangkitan AI
Ketika ditanya tentang kekagetan menyaksikan adopsi AI yang meledak di arus utama, Li mengakui adanya ketidaksesuaian antara keterlibatannya yang lama di bidang ini dan trajektori saat ini. “Saya tidak pernah menyangka itu akan menjadi begitu besar,” ungkapnya. Kedalaman dan luasnya dampak AI terhadap hampir setiap aspek keberadaan manusia—kerja, kesejahteraan, dan prospek masa depan—masih membuatnya terkejut. Yang membedakan momen ini bukan sekadar kekuatan teknologi, tetapi juga penyebarannya: setiap orang di planet ini akan merasakan pengaruh AI dalam beberapa bentuk.
Ini tidak selalu jelas. Ketika Li dan generasi penelitiannya menciptakan ImageNet pada awal 2000-an, lanskapnya sangat berbeda. Mahasiswa pascasarjana bekerja dengan dataset yang hanya berisi empat hingga dua puluh kategori objek. Sebaliknya, ImageNet mewakili loncatan kuantum: 22.000 kategori objek dan 15 juta gambar berlabel. Terobosan itu secara langsung memicu revolusi pembelajaran mendalam yang mendukung aplikasi saat ini.
Alat Bermata Dua yang Membutuhkan Pengelolaan Manusia
Li secara konsisten memandang teknologi melalui lensa seimbang: transformatif tetapi secara inheren berkarakter ganda. Sepanjang peradaban manusia, alat yang dibuat manusia sebagian besar telah melayani tujuan yang bermanfaat, namun penyalahgunaan yang disengaja dan konsekuensi tak terduga tetap menjadi risiko yang selalu ada. Dia menekankan bahwa tanggung jawab harus menyertai kemampuan—terutama ketika terkonsentrasi dalam beberapa tangan.
“Secara pribadi, saya berharap teknologi ini bisa menjadi lebih demokratis,” tegas Li, mendukung akses dan pengaruh yang lebih luas terhadap pengembangan AI. Dia berpendapat bahwa demokratisasi tidak mengurangi kebutuhan pengawasan; sebaliknya, itu mendistribusikan tanggung jawab di antara individu, perusahaan, dan masyarakat secara keseluruhan.
Kecerdasan Spasial: Perbatasan Logis Berikutnya
Saat ini, Li menjabat sebagai salah satu pendiri dan CEO dari World Labs, sebuah startup bernilai 1,1 miliar dolar yang didedikasikan untuk mempelopori apa yang dia identifikasi sebagai dimensi kritis berikutnya dari AI: kecerdasan spasial. Sementara model bahasa besar mendominasi diskursus kontemporer, dia berpendapat bahwa memahami ruang tiga dimensi—bagaimana objek bergerak, bagaimana agen berinteraksi dengan lingkungan, dan bagaimana mesin memahami kedalaman dan hubungan—layak mendapatkan perhatian yang setara.
“Kecerdasan spasial adalah kemampuan AI untuk memahami, merasakan, bernalar, dan berinteraksi dengan dunia,” jelas Li. Ini merupakan kelanjutan alami dari pekerjaan kecerdasan visual, yang berfokus pada penerimaan informasi pasif. Evolusi mengajarkan kita bahwa melihat dan bergerak tidak terpisahkan; kecerdasan itu sendiri tidak terpisahkan dari tindakan.
Marble, sebuah model yang baru-baru ini dipamerkan oleh World Labs, menjadi contoh arah ini. Sistem ini menghasilkan lingkungan tiga dimensi dari prompt teks sederhana atau foto, memungkinkan desainer untuk berinovasi dengan cepat, pengembang game untuk mendapatkan scene 3D, dan robot untuk belajar melalui simulasi. Aplikasi edukasi bahkan lebih luas lagi: bayangkan gadis-gadis Afghanistan mengikuti kelas virtual, atau siswa sekolah dasar menjelajahi struktur sel secara virtual dengan berjalan di dalam sel untuk mengamati inti dan enzim secara langsung.
Menghadapi Disrupsi Tenaga Kerja oleh Teknologi
Li tidak meremehkan kekhawatiran tentang pekerjaan. Dia mengakui bahwa AI akan secara mendalam mengubah lanskap tenaga kerja, dengan contoh konkret seperti transfer 50% peran layanan pelanggan Salesforce ke sistem AI. Namun, dia menempatkan ini dalam konteks pola sejarah. Setiap loncatan teknologi besar—mesin uap, listrik, komputasi, mobil—menciptakan transisi menyakitkan di samping restrukturisasi pekerjaan yang akhirnya terjadi. Respon kontemporer harus sama-sama bernuansa: individu harus berkomitmen untuk pembelajaran berkelanjutan, sementara perusahaan dan masyarakat memikul tanggung jawab yang saling melengkapi.
Superinteligensi: Tata Kelola, Bukan Tak Terhindarkan
Mengenai peringatan Geoffrey Hinton tentang risiko kepunahan 10-20% dari AI superinteligensi, Li dengan hormat tidak setuju dengan kerangka tersebut. Dia tidak menolak kekhawatiran itu secara langsung, tetapi mengarahkannya ke agensi manusia. “Jika umat manusia benar-benar menghadapi krisis, itu karena kesalahan kita sendiri, bukan mesin,” tegasnya. Alih-alih memandang superinteligensi sebagai ancaman otonom, dia mengajukan pertanyaan yang lebih mendasar: Mengapa umat manusia secara kolektif mengizinkan skenario seperti itu terjadi?
Perspektif ini menekankan tata kelola internasional, praktik pengembangan yang bertanggung jawab, dan kerangka regulasi global—mekanisme yang masih dalam tahap embrio tetapi sangat penting untuk dikembangkan. Li mendukung pengawasan pragmatis di tingkat internasional daripada menerima pasrah determinisme teknologi.
Energi, Energi Terbarukan, dan Pragmatisme Realistis
Pertanyaan apakah pusat data besar akan memicu bencana ekologis mendorong Li untuk membedakan antara sumber energi saat ini dan takdir teknologi. Meskipun fasilitas saat ini sebagian besar bergantung pada bahan bakar fosil, dia berpendapat bahwa inovasi energi terbarukan dan restrukturisasi kebijakan dapat mengubah persamaan ini. Negara-negara yang membangun infrastruktur pusat data besar memiliki peluang untuk sekaligus berinvestasi dalam sistem energi yang lebih bersih—sebuah hikmah dari masalah yang menantang ini.
Pentingnya Nilai Berbasis Manusia yang Abadi
Mungkin yang paling reflektif adalah komentar Li tentang pendidikan dan perkembangan anak di dunia yang dipenuhi AI. Alih-alih menyarankan pergeseran karier yang didorong oleh kecemasan, dia menganjurkan pengembangan kualitas manusia yang abadi: rasa ingin tahu, berpikir kritis, kreativitas, kejujuran, dan ketekunan. Orang tua seharusnya tidak terlalu khawatir apakah anak-anak mereka harus belajar ilmu komputer; melainkan, mereka harus membina kemandirian dan martabat sambil memahami bakat dan minat individu.
Dia menekankan prinsip yang sederhana namun mendalam: jangan memanfaatkan alat untuk kemalasan atau kerusakan. Belajar matematika bukan tentang mendapatkan jawaban dari model bahasa besar—itu tentang mengembangkan kapasitas bernalar. Kekhawatiran otentik tentang gambar, suara, dan teks yang dihasilkan AI mencerminkan bukan hanya tantangan teknologi tetapi juga kegagalan komunikasi yang lebih luas di era media sosial.
Tanggung Jawab Warga Dunia
Perjalanan pribadi Li—imigrasi ke Amerika Serikat saat berusia 15 tahun, mengatasi hambatan bahasa, mengelola toko cuci kering keluarganya sambil menempuh pendidikan, mendapatkan manfaat dari mentor seperti guru matematikanya—membentuk pandangannya tentang tanggung jawab dan ketahanan. Saat ini, sebagai profesor Stanford dan CEO startup AI, dia menyadari bahwa platformnya memiliki bobot. “Inisiatif harus berada di tangan manusia,” tegasnya. “Inisiatif tidak terletak pada mesin, tetapi pada diri kita sendiri.”
Keyakinan ini membentuk segala sesuatu yang dilakukan organisasinya: menciptakan teknologi transformatif sambil menggunakannya secara bertanggung jawab. Ini bukan utopia teknologi maupun alarm dystopian, tetapi pusat pragmatis yang berlandaskan pada ketelitian ilmiah dan nilai manusia. Di era di mana kemampuan AI berkembang hampir tak terbayangkan, Fei-Fei Li tetap yakin bahwa kebijaksanaan manusia, tata kelola, dan komitmen etis tetap menjadi sumber daya terbesar umat manusia.