Teknologi inti agen AI memiliki cacat fatal…… Mengeluarkan peringatan "LangGrinch" dari LangChain

robot
Pembuatan abstrak sedang berlangsung

Dalam kerangka kerja operasi agen AI “LangChain Core” ditemukan celah keamanan serius. Masalah ini diberi nama “LangGrinch”, yang memungkinkan penyerang mencuri informasi sensitif dalam sistem AI. Celah ini karena potensi menggoyahkan fondasi keamanan banyak aplikasi AI dalam jangka panjang, sedang memberi peringatan kepada seluruh industri.

Perusahaan startup keamanan AI Cyata Security mengungkapkan celah ini, dengan nomor CVE-2025-68664, dan memberikan peringkat risiko tinggi dengan skor (CVSS)9.3. Masalah inti terletak pada fungsi bantu internal yang terdapat dalam LangChain Core, yang selama proses serialisasi dan deserialisasi, berpotensi salah menganggap input pengguna sebagai objek yang terpercaya. Penyerang dapat memanfaatkan teknik “injeksi prompt” untuk memanipulasi output terstruktur yang dihasilkan agen, menyisipkan kunci penanda internal di dalamnya, sehingga kemudian diperlakukan sebagai objek yang terpercaya.

LangChain Core memainkan peran sentral di antara banyak kerangka kerja agen AI, dengan jumlah unduhan mencapai puluhan juta dalam 30 hari terakhir. Statistik keseluruhan menunjukkan bahwa total unduhan telah melebihi 8,47 miliar kali. Mengingat aplikasi yang terhubung dengan seluruh ekosistem LangChain, para ahli menganalisis bahwa dampak celah ini akan sangat luas.

Yarden Porat, peneliti keamanan dari Cyata, menjelaskan: “Keunikan celah ini terletak pada kenyataan bahwa ini bukan sekadar masalah deserialisasi sederhana, melainkan terjadi pada jalur serialisasi itu sendiri. Proses penyimpanan, streaming, atau pemulihan data terstruktur yang dihasilkan oleh prompt AI, secara intrinsik membuka permukaan serangan baru.” Cyata mengonfirmasi bahwa dalam satu prompt terdapat 12 jalur serangan yang jelas yang dapat menyebabkan berbagai skenario.

Setelah serangan dilakukan, dapat menyebabkan kebocoran variabel lingkungan secara jarak jauh melalui permintaan HTTP, termasuk kredensial cloud, URL akses basis data, informasi basis data vektor, kunci API LLM, dan data bernilai tinggi lainnya. Yang paling serius, celah ini merupakan cacat struktural yang dihasilkan oleh LangChain Core sendiri, tanpa memerlukan alat pihak ketiga atau integrasi eksternal. Cyata memperingatkan bahwa ini adalah “ancaman yang ada di lapisan pipeline ekosistem.”

Saat ini, patch keamanan untuk memperbaiki masalah ini telah dirilis bersama dengan versi LangChain Core 1.2.5 dan 0.3.81. Cyata telah memberi tahu tim operasional LangChain sebelum mengungkapkan masalah ini, dan diketahui bahwa tim tersebut tidak hanya merespons secara langsung, tetapi juga mengambil langkah-langkah untuk memperkuat keamanan jangka panjang.

Shahar Tal, salah satu pendiri dan CEO Cyata, menegaskan: “Seiring sistem AI secara penuh diterapkan di lokasi industri, keputusan tentang hak apa yang akhirnya akan diakses oleh sistem menjadi isu keamanan yang lebih penting daripada eksekusi kode itu sendiri. Dalam arsitektur berbasis identifikasi agen, minimisasi hak dan minimisasi radius dampak harus menjadi elemen desain dasar.”

Insiden ini diperkirakan akan menjadi momen refleksi bagi industri AI (yang saat ini sedang beralih dari intervensi manusia ke otomatisasi berbasis agen) dalam meninjau kembali prinsip dasar desain keamanan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)