Pemasok Nvidia SK Hynix mengatakan chip memori bandwidth tinggi yang digunakan dalam prosesor AI hampir terjual habis untuk tahun 2025

IklanIklanSemikonduktor+ IKUTIMengunduh lebih banyak dengan myNEWSUMPAN berita yang dipersonalisasi dari cerita yang penting bagi AndaPelajari lebih lanjutTechBig Tech

  • SK Hynix telah menjual chip memori bandwidth tinggi untuk tahun ini, karena perusahaan secara agresif memperluas layanan AI
  • Pembuat chip memori Korea Selatan memperkirakan pertumbuhan permintaan tahunan untuk chip HBM menjadi sekitar 60 persen dalam jangka menengah hingga panjang

Semiconductors+ FOLLOWReuters+ FOLLOWPublished: 5:24pm, 2 May 2024Mengapa Anda dapat mempercayai SK Hynix dari SCMPSouth Korea mengatakan pada hari Kamis bahwa chip memori bandwidth tinggi (HBM) yang digunakan dalam prosesor kecerdasan buatan (AI) terjual habis untuk tahun ini dan hampir terjual habis untuk tahun 2025, karena bisnis secara agresif memperluas layanan AI. Pemasok Nvidia dan pembuat chip memori terbesar kedua di dunia akan mulai mengirimkan sampel chip HBM terbarunya, yang disebut HBM3E 12-layer, pada bulan Mei dan mulai memproduksinya secara massal pada kuartal ketiga. Pasar HBM diperkirakan akan terus tumbuh seiring dengan meningkatnya data dan model [AI],” kata kepala eksekutif SK Hynix Kwak Noh-Jung pada konferensi pers. “Pertumbuhan permintaan tahunan diperkirakan sekitar 60 persen dalam jangka menengah hingga panjang.” SK Hynix, yang bersaing dengan saingan AS Micron Technology dan raksasa domestik Samsung Electronics di HBM, hingga Maret menjadi pemasok tunggal chip ini ke Nvidia, menurut analis, yang menambahkan bahwa pembeli chip AI utama tertarik untuk mendiversifikasi pemasok mereka untuk lebih mempertahankan margin operasi. Nvidia menguasai sekitar 80 persen pasar chip AI global.

Micron juga mengatakan chip HBM-nya terjual habis untuk 2024 dan sebagian besar pasokan 2025-nya sudah dialokasikan. Ia berencana untuk menyediakan sampel untuk chip HBM3E 12-layer kepada pelanggan pada bulan Maret.

“Karena fungsi dan kinerja AI ditingkatkan lebih cepat dari yang diharapkan, permintaan pelanggan untuk chip berkinerja sangat tinggi seperti chip 12-layer tampaknya meningkat lebih cepat daripada HBM3E 8-layer,” kata Jeff Kim, kepala penelitian di KB Securities.

Samsung, yang berencana untuk memproduksi chip HBM3E 12-layer pada kuartal kedua, mengatakan minggu ini bahwa pengiriman chip HBM tahun ini diperkirakan akan meningkat lebih dari tiga kali lipat dan telah menyelesaikan diskusi pasokan dengan pelanggan. Perusahaan tidak menjelaskan lebih lanjut.

Bulan lalu, SK Hynix mengumumkan rencana US $ 3,87 miliar untuk membangun pabrik pengemasan chip canggih di negara bagian Indiana AS dengan lini chip HBM dan investasi 5,3 triliun won (US $ 3,9 miliar) di pabrik chip DRAM baru di rumah dengan fokus pada

HBM.Kwak dari SK Hynix mengatakan investasi di HBM berbeda dari pola masa lalu di industri chip memori karena kapasitas produksi sedang ditingkatkan setelah dibuat yakin permintaan pertama.

Pada tahun 2028, porsi chip yang dibuat untuk AI, seperti HBM dan modul DRAM berkapasitas tinggi, diperkirakan akan mencapai 61 persen dari semua volume memori dalam hal nilai dari sekitar 5 persen tahun lalu, kata kepala infrastruktur AI SK Hynix Justin Kim.

Pekan lalu, SK Hynix mengatakan dalam panggilan konferensi pasca-pendapatan bahwa mungkin ada kekurangan chip memori reguler untuk smartphone, komputer pribadi dan server jaringan pada akhir tahun jika permintaan untuk perangkat teknologi melebihi harapan. Tiang

Leave a Reply

Your email address will not be published. Required fields are marked *