Super AI akan keluar dalam tujuh tahun, OpenAI bermaksud menginvestasikan "uang besar" untuk mencegah lepas kendali

巴比特_

**Sumber: **Asosiasi Keuangan

Diedit oleh Huang Junzhi

Pengembang ChatGPT OpenAI mengatakan pada hari Rabu (5) bahwa perusahaan berencana untuk menginvestasikan sumber daya yang signifikan dan membuat tim penelitian baru untuk memastikan bahwa kecerdasan buatan (AI) aman bagi manusia dan pada akhirnya mencapai pengawasan mandiri terhadap AI.

“Kekuatan superintelijen yang luar biasa dapat … menyebabkan ketidakberdayaan manusia, atau bahkan kepunahan,” tulis salah satu pendiri OpenAI Ilya Sutskever dan Jan Leike, kepala tim Konsistensi AI yang bertugas meningkatkan keamanan sistem, dalam sebuah posting blog .

“Saat ini, kami tidak memiliki solusi untuk memanipulasi atau mengendalikan AI yang berpotensi superintelijen dan mencegahnya lepas kendali,” tulis mereka.

Penyelarasan AI mengacu pada kebutuhan agar perilaku AI sejalan dengan minat dan harapan desainer.

Daya komputasi 20% digunakan untuk menyelesaikan masalah AI di luar kendali

Mereka memperkirakan bahwa AI superintelijen (yaitu, sistem yang lebih pintar daripada manusia) dapat tiba dalam dekade ini (pada tahun 2030), dan bahwa manusia akan membutuhkan teknologi yang lebih baik daripada saat ini untuk mengendalikan AI superinteligen, sehingga mereka harus berada dalam apa yang disebut sebagai terobosan. dalam Studi Konsistensi AI, yang berfokus untuk memastikan bahwa kecerdasan buatan bermanfaat bagi manusia.

Menurut mereka, dengan dukungan Microsoft (Microsoft), **OpenAI akan menghabiskan 20% daya komputasinya dalam empat tahun ke depan untuk menyelesaikan masalah AI yang tidak terkendali. **Selain itu, perusahaan sedang membentuk tim baru untuk mengatur pekerjaan ini, yang disebut Tim Super Konsistensi.

Dilaporkan bahwa tujuan tim adalah untuk menciptakan peneliti AI “tingkat manusia”, yang kemudian dapat diperluas dengan sejumlah besar daya komputasi. OpenAI mengatakan ini berarti mereka akan menggunakan umpan balik manusia untuk melatih sistem AI, melatih sistem AI untuk membantu evaluasi manusia, dan akhirnya melatih sistem AI untuk melakukan studi konsistensi yang sebenarnya.

Pertanyaan pakar

Namun, langkah ini telah dipertanyakan oleh para ahli segera setelah diumumkan. Connor Leahy, seorang advokat keamanan AI, mengatakan bahwa rencana OpenAI pada dasarnya cacat karena versi dasar AI yang dapat mencapai “tingkat manusia” dapat lepas kendali dan mendatangkan malapetaka sebelum dapat digunakan untuk memecahkan masalah keamanan AI. "

“Anda harus memecahkan masalah konsistensi sebelum Anda dapat membangun kecerdasan tingkat manusia, jika tidak, Anda tidak dapat mengendalikannya secara default. Saya pribadi tidak menganggap itu rencana yang baik atau aman,” katanya dalam sebuah wawancara.

Potensi bahaya AI telah lama menjadi perhatian utama para peneliti AI dan masyarakat. Pada bulan April, sekelompok pemimpin dan pakar industri AI menandatangani surat terbuka yang menyerukan moratorium pelatihan sistem AI yang lebih kuat daripada model GPT-4 baru OpenAI selama setidaknya enam bulan, mengutip potensi risikonya terhadap masyarakat dan kemanusiaan.

Jajak pendapat baru-baru ini menemukan bahwa lebih dari dua pertiga orang Amerika khawatir tentang kemungkinan dampak negatif AI, dan 61% percaya bahwa AI dapat mengancam peradaban manusia.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar