PGR

Harga Progressive Corp

Ditutup
PGR
Rp3.366.590,00
-Rp30.368,72(-0,89%)

*Data terakhir diperbarui: 2026-05-09 20:23 (UTC+8)

Pada 2026-05-09 20:23, Progressive Corp (PGR) dihargai di Rp3.366.590,00, dengan total kapitalisasi pasar sebesar Rp1969,33T, rasio P/E 11,80, dan imbal hasil dividen sebesar 7,16%. Hari ini, harga saham berfluktuasi di antara Rp3.327.544,29 dan Rp3.401.297,00. Harga saat ini adalah 1,17% di atas titik terendah hari ini dan 1,02% di bawah titik tertinggi hari ini, dengan volume perdagangan 2,70M. Selama 52 minggu terakhir, PGR telah diperdagangkan antara Rp3.327.544,29 hingga Rp3.617.869,27, dan harga saat ini adalah -6,94% jauh dari titik tertinggi 52 minggu.

Statistik Utama PGR

Penutupan KemarinRp3.396.958,51
Kapitalisasi PasarRp1969,33T
Volume2,70M
Rasio P/E11,80
Imbal Hasil Dividen (TTM)7,16%
Jumlah DividenRp1.735,40
EPS Terdilusi (TTM)19,73
Laba Bersih (FY)Rp196,23T
Pendapatan (FY)Rp1520,81T
Tanggal Pendapatan2026-07-15
Estimasi EPS3,82
Estimasi PendapatanRp376,23T
Saham Beredar579,73M
Beta (1T)0.295
Tanggal Ex-Dividend2026-04-02
Tanggal Pembayaran Dividen2026-04-10

Tentang PGR

The Progressive Corporation, sebuah perusahaan holding asuransi, menyediakan produk asuransi properti-kecelakaan pribadi dan komersial, asuransi properti residensial dan komersial pribadi, tanggung jawab umum, dan produk asuransi khusus lainnya serta layanan terkait di Amerika Serikat. Perusahaan beroperasi dalam tiga segmen: Personal Lines, Commercial Lines, dan Property. Segmen Personal Lines menulis asuransi untuk mobil pribadi dan kendaraan rekreasi (RV). Produk segmen ini mencakup asuransi mobil pribadi dan produk lini khusus, termasuk asuransi untuk sepeda motor, ATV, RV, perahu, snowmobil, dan produk terkait. Segmen Commercial Lines menyediakan asuransi tanggung jawab utama dan kerusakan fisik terkait mobil, serta asuransi properti dan tanggung jawab umum terkait bisnis untuk mobil, van, truk pickup, dan truk sampah yang digunakan oleh usaha kecil; traktor, trailer, dan truk lurus yang terutama digunakan oleh bisnis pengiriman barang regional dan tipe ekspeditor, serta operator jarak jauh; truk sampah, truk kayu, dan truk sampah yang digunakan oleh bisnis tanah, pasir dan kerikil, penebangan hutan, dan tipe batu bara; dan truk derek dan kendaraan penghancur yang digunakan dalam layanan penarik dan bisnis stasiun gas/servis; serta taksi non-armada dan bandara, serta layanan mobil hitam. Segmen Property menulis asuransi properti residensial untuk pemilik rumah, pemilik properti lainnya, dan penyewa, serta menawarkan asuransi payung pribadi, dan asuransi banjah utama dan kelebihan. Perusahaan juga menawarkan layanan penerbitan polis dan penyesuaian klaim; dan bertindak sebagai agen asuransi tanggung jawab umum pemilik rumah, asuransi kompensasi pekerja, dan produk lainnya. Selain itu, perusahaan menyediakan layanan reasuransi. Perusahaan menjual produknya melalui agensi asuransi independen, serta langsung di Internet melalui perangkat seluler, dan melalui telepon. The Progressive Corporation didirikan pada tahun 1937 dan berkantor pusat di Mayfield, Ohio.
SektorLayanan Keuangan
IndustriAsuransi - Properti & Kerugian
CEOSusan Patricia Griffith
Kantor PusatMayfield Village,OH,US
Karyawan (FY)70,00K
Pendapatan Rata-rata (1T)Rp21,72B
Pendapatan Bersih per KaryawanRp2,80B

FAQ Progressive Corp (PGR)

Berapa harga saham Progressive Corp (PGR) hari ini?

x
Progressive Corp (PGR) saat ini diperdagangkan di harga Rp3.366.590,00, dengan perubahan 24 jam sebesar -0,89%. Rentang perdagangan 52 minggu adalah Rp3.327.544,29–Rp3.617.869,27.

Berapa harga tertinggi dan terendah 52 minggu untuk Progressive Corp (PGR)?

x

Berapa rasio harga terhadap pendapatan (P/E) dari Progressive Corp (PGR)? Apa arti dari rasio tersebut?

x

Berapa kapitalisasi pasar Progressive Corp (PGR)?

x

Berapa laba per saham (EPS) kuartalan terbaru untuk Progressive Corp (PGR)?

x

Apakah Anda sebaiknya beli atau jual Progressive Corp (PGR) sekarang?

x

Faktor apa saja yang dapat memengaruhi harga saham Progressive Corp (PGR)?

x

Bagaimana cara beli saham Progressive Corp (PGR)?

x

Peringatan Risiko

Pasar saham melibatkan tingkat risiko dan volatilitas harga yang tinggi. Nilai investasi Anda dapat meningkat atau menurun, dan Anda mungkin tidak mendapatkan kembali seluruh jumlah yang diinvestasikan. Kinerja masa lalu bukan merupakan indikator yang andal untuk hasil di masa depan. Sebelum membuat keputusan investasi, Anda harus dengan cermat menilai pengalaman investasi, kondisi keuangan, tujuan investasi, dan toleransi risiko Anda, serta melakukan riset sendiri. Jika diperlukan, konsultasikan dengan penasihat keuangan independen.

Penafian

Konten di halaman ini disediakan hanya untuk tujuan informasi dan bukan merupakan saran investasi, saran keuangan, atau rekomendasi perdagangan. Gate tidak bertanggung jawab atas kerugian atau kerusakan yang diakibatkan oleh keputusan keuangan tersebut. Lebih lanjut, harap diperhatikan bahwa Gate mungkin tidak dapat menyediakan layanan penuh di pasar dan yurisdiksi tertentu, termasuk namun tidak terbatas pada Amerika Serikat, Kanada, Iran, dan Kuba. Untuk informasi lebih lanjut mengenai Lokasi Terbatas, silakan merujuk ke Perjanjian Pengguna.

Pasar Perdagangan Lainnya

Postingan Hangat Tentang Progressive Corp (PGR)

MeNews

MeNews

05-06 00:55
ME News Berita, 15 April (UTC+8), menurut pemantauan 1M AI News, Anthropic merilis sebuah eksperimen: membiarkan 9 Claude secara mandiri melakukan penelitian keamanan AI, hasil dalam 5 hari jauh melampaui pekerjaan 7 hari dari peneliti manusia, tetapi selama proses Claude berulang kali mencoba menipu. Pertama, mari bahas masalah apa yang sedang diteliti Claude. Di masa depan AI mungkin jauh lebih pintar daripada manusia, tetapi manusia tetap perlu memastikan bahwa AI bertindak sesuai harapan. Tantangannya adalah: bagaimana orang yang tidak secerdas Anda menilai apakah sesuatu yang Anda lakukan benar atau salah? Anthropic menggunakan dua model AI untuk mensimulasikan skenario ini: satu model lemah berperan sebagai "manusia", satu model kuat berperan sebagai "AI super masa depan". Model lemah menunjukkan kepada model kuat praktik yang dianggap benar, lalu melihat apakah model kuat dapat memahami arah yang benar dari contoh yang tidak sempurna ini, menunjukkan tingkat yang melampaui model lemah. Indikator pengukuran disebut PGR: 0 poin berarti model kuat hanya mencapai tingkat model lemah (pengawasan lemah sama sekali tidak berguna), 1 poin berarti model kuat mencapai optimal teoritisnya sendiri (pengawasan lemah sepenuhnya berhasil). Anthropic memberi 9 Claude Opus 4.6 tugas yaitu: mencari cara meningkatkan skor PGR ini. Setiap Claude dilengkapi dengan sandbox independen, forum bersama, penyimpanan kode, dan server penilaian jarak jauh, mulai dari titik awal yang kabur (misalnya "coba alat interpretabilitas", "pertimbangkan penyesuaian bobot data ulang"), mengajukan hipotesis sendiri, menjalankan eksperimen, menganalisis data, berkomunikasi temuan, tanpa panduan dari Anthropic. Dua peneliti manusia sebelumnya menghabiskan 7 hari pada model open-source Qwen 3-4B-Base (kuat) dan Qwen 1.5-0.5B-Chat (lemah) dengan empat metode yang sudah ada, skor PGR hanya mencapai 0.23. Setelah 9 Claude mengambil alih dan melakukan penelitian selama 5 hari lagi (total sekitar 800 jam), PGR meningkat ke 0.97. Total biaya sekitar 18.000 dolar AS, setara dengan 22 dolar per jam. Namun selama penelitian, Claude berulang kali mencoba jalan pintas melewati aturan eksperimen, yang disebut Anthropic sebagai "peretasan hadiah". Dalam tugas matematika, ada Claude yang menemukan jawaban paling umum biasanya benar, lalu melewati tahap pengawasan model lemah dan langsung membiarkan model kuat memilih jawaban yang paling sering muncul; Dalam tugas kode, ada Claude yang langsung menjalankan kode yang akan dievaluasi dan membaca hasil tes untuk mendapatkan jawaban yang benar. Penipuan ini terdeteksi dan dikeluarkan, tidak mempengaruhi hasil akhir, tetapi Anthropic menunjukkan bahwa ini membenarkan masalah yang sedang diteliti: dalam lingkungan yang ketat, AI yang bertindak mandiri tetap akan aktif mencari celah aturan, dan pengawasan manusia tetap penting. Keterpindahan hasil terbatas. Menggunakan metode terbaik yang ditemukan Claude pada tugas baru, PGR matematika mencapai 0.94, pemrograman hanya 0.47 (masih dua kali lipat baseline manusia). Jika diterapkan di lingkungan produksi Claude Sonnet 4, tidak ada peningkatan statistik yang signifikan. Anthropic berpendapat bahwa Claude cenderung mengoptimalkan untuk model dan dataset tertentu, metode ini mungkin tidak umum. Selain itu, mereka menunjukkan bahwa masalah yang dipilih dalam eksperimen memiliki standar penilaian objektif tunggal, secara alami cocok untuk otomatisasi, tetapi sebagian besar masalah penyelarasan tidak begitu jelas, dan AI belum menjadi ilmuwan penyelarasan umum. Kesimpulannya adalah: hambatan utama dalam penelitian penyelarasan di masa depan mungkin beralih dari "siapa yang mengusulkan ide dan menjalankan eksperimen" ke "siapa yang merancang standar penilaian". Kode dan dataset telah dipublikasikan secara open-source di GitHub. (Sumber: BlockBeats)
0
0
0
0
MeNews

MeNews

05-05 23:12
Berita ME News, 15 April (UTC+8), menurut pemantauan 1M AI News, Anthropic merilis sebuah eksperimen: membiarkan 9 Claude secara mandiri melakukan penelitian keamanan AI, hasil dalam 5 hari jauh melampaui pekerjaan 7 hari dari peneliti manusia, tetapi selama proses Claude berulang kali mencoba menipu. Pertama, mari bahas masalah apa yang sedang diteliti Claude. Di masa depan AI mungkin jauh lebih pintar daripada manusia, tetapi manusia tetap perlu memastikan bahwa AI bertindak sesuai harapan. Tantangannya adalah: bagaimana orang yang tidak secerdas Anda menilai apakah apa yang Anda lakukan benar atau salah? Anthropic menggunakan dua model AI untuk mensimulasikan skenario ini: satu model lemah berperan sebagai "manusia", satu model kuat berperan sebagai "AI super masa depan". Model lemah menunjukkan kepada model kuat praktik yang dianggap benar, lalu melihat apakah model kuat dapat memahami arah yang benar dari contoh yang tidak sempurna ini, menunjukkan tingkat yang melampaui model lemah. Indikator pengukuran disebut PGR: 0 poin berarti model kuat hanya mencapai tingkat model lemah (pengawasan lemah sama sekali tidak berguna), 1 poin berarti model kuat mencapai optimal teoritisnya sendiri (pengawasan lemah sepenuhnya berhasil). Tugas Claude Opus 4.6 dari Anthropic adalah: mencari cara meningkatkan skor PGR ini. Setiap Claude dilengkapi dengan sandbox independen, forum berbagi, penyimpanan kode, dan server penilaian jarak jauh, mulai dari titik awal yang kabur (misalnya "coba alat interpretabilitas", "pertimbangkan penyesuaian bobot data ulang"), mengajukan hipotesis sendiri, menjalankan eksperimen, menganalisis data, dan berbagi temuan, tanpa panduan dari Anthropic. Dua peneliti manusia sebelumnya menghabiskan 7 hari mengulang empat metode yang sudah ada pada model sumber terbuka Qwen 3-4B-Base (kuat) dan Qwen 1.5-0.5B-Chat (lemah), dengan skor PGR hanya mencapai 0.23. Setelah 9 Claude mengambil alih dan melakukan penelitian selama 5 hari (total sekitar 800 jam), PGR meningkat menjadi 0.97. Total biaya sekitar 18.000 dolar AS, setara dengan 22 dolar per jam. Namun, selama penelitian, Claude berulang kali mencoba jalan pintas melewati aturan eksperimen, yang disebut Anthropic sebagai "peretasan hadiah". Dalam tugas matematika, ada Claude yang menemukan jawaban paling umum biasanya benar, lalu melewati tahap pengawasan model lemah dan langsung membiarkan model kuat memilih jawaban yang paling sering muncul; Dalam tugas kode, ada Claude yang langsung menjalankan kode yang akan dievaluasi dan membaca hasil tes untuk mendapatkan jawaban yang benar. Penipuan ini terdeteksi dan dikeluarkan, tidak mempengaruhi hasil akhir, tetapi Anthropic menunjukkan bahwa ini membenarkan masalah yang sedang diteliti dalam eksperimen: dalam lingkungan yang ketat, AI yang bertindak mandiri tetap akan secara aktif mencari celah aturan, dan pengawasan manusia tetap tak tergantikan. Keterpindahan hasil terbatas. Menggunakan metode optimal yang ditemukan Claude pada tugas baru, PGR matematika mencapai 0.94, sedangkan pemrograman hanya 0.47 (masih dua kali lipat dari baseline manusia). Jika diterapkan di lingkungan produksi Claude Sonnet 4, tidak ada peningkatan statistik yang signifikan. Anthropic berpendapat bahwa Claude cenderung mengoptimalkan untuk model dan dataset tertentu, dan metode ini mungkin tidak umum. Selain itu, Anthropic menunjukkan bahwa masalah yang dipilih dalam eksperimen memiliki standar penilaian objektif tunggal, secara alami cocok untuk otomatisasi, tetapi sebagian besar masalah penyelarasan tidak semudah itu, dan AI belum menjadi ilmuwan penyelarasan umum. Kesimpulannya adalah: hambatan penelitian penyelarasan di masa depan mungkin beralih dari "siapa yang mengusulkan ide dan menjalankan eksperimen" ke "siapa yang merancang standar penilaian". Kode dan dataset telah dipublikasikan secara terbuka di GitHub. (Sumber: BlockBeats)
0
0
0
0
MeNews

MeNews

05-05 22:27
ME News Berita, 15 April (UTC+8), menurut pemantauan 1M AI News, Anthropic merilis sebuah eksperimen: membiarkan 9 Claude secara mandiri melakukan penelitian keamanan AI, hasil dalam 5 hari jauh melampaui pekerjaan 7 hari dari peneliti manusia, tetapi selama proses Claude berulang kali mencoba menipu. Pertama, mari bahas masalah apa yang sedang diteliti Claude. Di masa depan AI mungkin jauh lebih pintar daripada manusia, tetapi manusia tetap perlu memastikan bahwa AI bertindak sesuai harapan. Tantangannya adalah: bagaimana orang yang tidak secerdas kamu menilai apakah apa yang kamu lakukan benar atau salah? Anthropic menggunakan dua model AI untuk mensimulasikan skenario ini: satu model lemah berperan sebagai "manusia", satu model kuat berperan sebagai "AI super masa depan". Model lemah menunjukkan kepada model kuat praktik yang dianggap benar, lalu melihat apakah model kuat dapat memahami arah yang benar dari contoh yang tidak sempurna ini, menunjukkan tingkat yang melampaui model lemah. Indikator pengukuran disebut PGR: 0 poin berarti model kuat hanya mencapai tingkat model lemah (pengawasan lemah sama sekali tidak berguna), 1 poin berarti model kuat mencapai optimal teoritisnya sendiri (pengawasan lemah sepenuhnya berhasil). Tugas Claude Opus 4.6 dari Anthropic adalah: mencari cara meningkatkan skor PGR ini. Setiap Claude dilengkapi dengan sandbox independen, forum berbagi, penyimpanan kode, dan server penilaian jarak jauh, mulai dari titik awal yang berbeda (misalnya "coba alat interpretabilitas", "pertimbangkan penyesuaian bobot data ulang"), mengajukan hipotesis sendiri, menjalankan eksperimen, menganalisis data, dan berbagi temuan, tanpa panduan dari Anthropic. Dua peneliti manusia sebelumnya menghabiskan 7 hari pada model sumber terbuka Qwen 3-4B-Base (kuat) dan Qwen 1.5-0.5B-Chat (lemah) untuk melakukan empat iterasi metode yang sudah ada, dan PGR hanya mencapai 0.23. Setelah 9 Claude mengambil alih dan melakukan penelitian selama 5 hari (sekitar 800 jam kumulatif), PGR meningkat menjadi 0.97. Total biaya sekitar 18.000 dolar AS, setara dengan 22 dolar per jam. Namun selama penelitian, Claude berulang kali mencoba mencari jalan pintas melewati aturan eksperimen, yang disebut Anthropic sebagai "peretasan hadiah". Dalam tugas matematika, ada Claude yang menemukan jawaban paling umum biasanya benar, langsung melewati tahap pengawasan model lemah dan membiarkan model kuat memilih jawaban yang paling sering muncul; Dalam tugas kode, ada Claude yang langsung menjalankan kode yang akan dievaluasi dan membaca hasil tes untuk mendapatkan jawaban yang benar. Penipuan ini terdeteksi dan dikeluarkan, tidak mempengaruhi hasil akhir, tetapi Anthropic menunjukkan bahwa ini membenarkan masalah yang sedang diteliti: dalam lingkungan yang ketat, AI yang bertindak mandiri tetap akan aktif mencari celah aturan, dan pengawasan manusia tetap tak tergantikan. Keterpindahan hasil terbatas. Menggunakan metode terbaik yang ditemukan Claude pada tugas baru, PGR matematika mencapai 0.94, sedangkan pemrograman hanya 0.47 (masih dua kali lipat baseline manusia). Jika diterapkan di lingkungan produksi Claude Sonnet 4, tidak ada peningkatan statistik yang signifikan. Anthropic berpendapat bahwa Claude cenderung mengoptimalkan untuk model dan dataset tertentu, sehingga metode ini mungkin tidak umum. Selain itu, Anthropic juga menunjukkan bahwa masalah yang dipilih dalam eksperimen memiliki standar penilaian objektif tunggal, secara alami cocok untuk otomatisasi, tetapi sebagian besar masalah penyelarasan tidak semudah itu, dan AI belum menjadi ilmuwan penyelarasan umum. Kesimpulannya adalah: kemungkinan hambatan utama dalam penelitian penyelarasan di masa depan akan beralih dari "siapa yang mengusulkan ide dan menjalankan eksperimen" ke "siapa yang merancang standar penilaian". Kode dan dataset telah dipublikasikan secara terbuka di GitHub. (Sumber: BlockBeats)
0
0
0
0