AI perusahaan, dari "membeli lebih banyak GPU" beralih ke "konfigurasi optimal untuk menurunkan biaya inferensi"... Solusi AMD dan Red Hat menjadi perhatian

robot
Pembuatan abstrak sedang berlangsung

Perusahaan yang mengadopsi kecerdasan buatan sedang melintasi batas baru. Kini, fokus pasar tidak lagi terbatas pada apakah akan berinvestasi dalam AI, tetapi beralih ke bagaimana menempatkan semikonduktor dan infrastruktur yang sesuai untuk berbagai bisnis guna memaksimalkan efisiensi biaya. Terutama dengan meningkatnya tugas “AI agen” dan biaya inferensi yang meningkat, bagi perusahaan besar, inti masalahnya bukan lagi memilih perangkat dengan performa tertinggi secara buta, melainkan memilih sumber daya komputasi yang sesuai berdasarkan tujuan, yaitu membuat “pilihan”.

Dalam konteks perubahan ini, kolaborasi AMD dan Red Hat kembali menjadi perhatian. Wakil Presiden Penjualan Teknologi Perusahaan AMD secara global, John Hampton, menyatakan di acara “Red Hat Summit 2026” di Boston bahwa perusahaan menginginkan infrastruktur AI yang lebih fleksibel dalam lingkungan hibrida secara keseluruhan. Ia menyebutkan bahwa banyak pelanggan baru-baru ini membangun klaster GPU skala besar secara terburu-buru untuk memenuhi kebutuhan AI, tetapi dalam tahap operasional mereka menghadapi tekanan biaya yang jauh melebihi ekspektasi.

Biaya inferensi AI meningkat tajam… perusahaan meninjau kembali strategi GPU tunggal besar

Menurut Hampton, banyak perusahaan untuk tidak tertinggal dalam kompetisi AI awalnya mengumpulkan GPU berkinerja tinggi dalam jumlah besar. Masalahnya, seiring bertambahnya skala layanan, biaya setiap kueri AI terus bertambah, dengan cepat memperburuk tekanan anggaran. Fenomena ini disebut “ekonomi token”, yang berarti bahwa seiring meningkatnya penggunaan AI generatif, biaya pengolahan token juga meningkat, secara langsung mempengaruhi profitabilitas perusahaan.

Dia mengatakan, “Perusahaan awalnya membeli klaster GPU besar secara besar-besaran untuk kompetisi AI, tetapi sekarang menghadapi reaksi yang tidak mampu ditanggung. Meskipun aplikasi AI berkembang, lonjakan biaya yang terlalu cepat menimbulkan kekhawatiran besar.” Ini akhirnya berarti inti strategi AI perusahaan beralih dari “menjamin perangkat dengan performa tertinggi” ke “mengoptimalkan penempatan berdasarkan tugas”.

AMD dan Red Hat: Menyediakan solusi “spektrum lengkap” dari CPU hingga GPU

Untuk menghadapi tren ini, AMD meluncurkan rangkaian produk “spektrum lengkap” yang mencakup CPU, GPU berbiaya efisien, dan akselerator berkinerja tinggi. Strateginya adalah menggabungkan perangkat keras ini dengan tumpukan perangkat lunak sumber terbuka berbasis Red Hat, mendukung perusahaan dalam menjalankan tugas AI secara fleksibel di lingkungan cloud hibrida tanpa bergantung pada vendor tertentu.

Sebagai contoh, AMD Instinct MI350P diperkenalkan sebagai GPU berbasis antarmuka PCIe yang relatif mudah diintegrasikan ke dalam server yang ada. Fitur utamanya adalah desain pendingin udara untuk meningkatkan efisiensi biaya. Red Hat AI berfungsi sebagai platform tingkat perusahaan yang mendukung penempatan dan pengembangan agen AI pada perangkat keras semacam ini. Selain itu, dengan memanfaatkan CPU AMD EPYC dan alat virtualisasi Red Hat, perusahaan juga dapat melakukan integrasi server, membantu mengurangi ruang dan konsumsi listrik pusat data.

Intinya adalah “arsitektur terbuka”… sekaligus mendorong pengendalian anggaran AI dan modernisasi infrastruktur

Pesan utama dari inisiatif ini adalah “keterbukaan” dan “pilihan”. AMD bersama Red Hat menekankan bahwa dibandingkan dengan ekosistem tertutup, perusahaan harus melalui arsitektur terbuka yang memungkinkan mereka memilih sumber daya paling sesuai dari CPU, GPU hemat daya, dan akselerator berkinerja tinggi sesuai beban kerja AI yang berbeda. Tidak semua tugas inferensi perlu dijalankan di perangkat yang mahal.

Pendekatan ini tidak hanya mengurangi biaya. Bagi perusahaan, ini memungkinkan mereka memanfaatkan infrastruktur yang ada secara maksimal tanpa memperlambat adopsi AI, dan mengalokasikan anggaran serta sumber daya listrik yang dihemat ke proyek AI baru. Secara praktis, ini sangat berarti, memungkinkan modernisasi infrastruktur AI dan pengendalian anggaran berjalan bersamaan.

Hampton memprediksi, standar evaluasi pasar AI di masa depan kemungkinan tidak lagi “apa yang dibeli”, tetapi “bagaimana cara menempatkannya”. Seiring kompetisi AI perusahaan secara resmi memasuki tahap operasional, beberapa analis berpendapat bahwa kunci keberhasilan di masa depan tidak lagi terletak pada performa, tetapi pada kemampuan untuk menyeimbangkan total biaya kepemilikan dan hasil nyata secara cerdik.

Catatan TP AI Artikel ini dirangkum berdasarkan model bahasa TokenPost.ai. Informasi utama dalam teks mungkin terlewatkan atau berbeda dari fakta.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan