Sabtu, Desember 6, 2025
BerandaUncategorizedAkamai dan NVIDIA Percepat AI di Edge dengan Cloud Inference

Akamai dan NVIDIA Percepat AI di Edge dengan Cloud Inference

Kolaborasi Akamai dan NVIDIA Memperluas Kemampuan Inferensi AI di Jaringan Edge

Akamai Technologies, sebuah perusahaan teknologi yang terkenal dengan solusi jaringan globalnya, baru-baru ini mengumumkan kemitraan strategis dengan NVIDIA untuk meluncurkan layanan Cloud Inference. Layanan ini bertujuan untuk memperluas kemampuan inferensi kecerdasan buatan (AI) hingga ke jaringan edge global, memberikan akses yang lebih cepat dan efisien bagi berbagai organisasi.

Kolaborasi antara Akamai dan NVIDIA menunjukkan komitmen kuat dalam menyediakan infrastruktur AI yang berlatensi rendah dan efisien. Dengan menggabungkan teknologi canggih dari NVIDIA, seperti GPU RTX PRO 6000 Blackwell Server Edition, DPU BlueField-3, serta perangkat lunak NVIDIA AI Enterprise, Akamai mampu menjalankan proses inferensi AI secara optimal baik di pusat data maupun di edge—lokasi yang lebih dekat dengan pengguna dan perangkat.

Keunggulan Infrastruktur Edge dalam Inferensi AI

Salah satu keunggulan utama dari layanan Cloud Inference adalah kemampuannya untuk menjalankan proses inferensi AI di lokasi edge. Hal ini sangat penting karena memungkinkan pengurangan waktu respons dan peningkatan kecepatan pemrosesan data. Akamai mengandalkan jaringan globalnya yang mencakup lebih dari 4.200 titik edge. Pada tahap awal, layanan ini akan tersedia di sekitar 20 lokasi strategis dan akan diperluas secara bertahap ke wilayah lain di seluruh dunia.

Empat Skenario Utama Penerapan Cloud Inference

Melalui kolaborasi ini, Akamai dan NVIDIA telah mengidentifikasi empat skenario utama penerapan Cloud Inference yang dirancang untuk memaksimalkan potensi inferensi AI di edge:

  1. AI Factories di Edge – Membantu pemrosesan dan inferensi data dilakukan secara lokal, sehingga mengurangi waktu respons.
  2. Streaming Inference Real-Time – Mendukung analisis berkelanjutan pada aplikasi seperti deteksi penipuan atau keputusan keuangan real-time.
  3. AI Fisik dengan Respons Milidetik – Cocok digunakan untuk sistem otomatisasi seperti kendaraan otonom, robot industri, hingga infrastruktur kota pintar.
  4. Orkestrasi Cerdas Beban Kerja Global – Secara dinamis mengarahkan proses inferensi ke lokasi edge atau pusat data yang paling efisien sesuai kompleksitas beban kerja.

Menuju Infrastruktur AI yang Terdistribusi

CEO Akamai, Dr. Tom Leighton, menyatakan bahwa perkembangan AI saat ini memiliki pola yang mirip dengan era awal internet. Ia mengingatkan bahwa dua puluh lima tahun lalu, Akamai mempelopori Content Delivery Network (CDN) untuk mengatasi masalah world wide wait dan membawa web menjadi platform global seperti sekarang.

Menurutnya, peningkatan kebutuhan akan kapasitas dan kinerja inferensi kini mendorong transformasi serupa di ranah AI. Dengan dukungan infrastruktur AI NVIDIA, Akamai Inference Cloud akan memperluas inferensi AI ke ribuan lokasi di seluruh dunia seiring pertumbuhan permintaan.

Peran NVIDIA dalam Pengembangan AI

Sementara itu, Jensen Huang, pendiri dan CEO NVIDIA, menekankan bahwa fase inferensi merupakan tahap AI yang paling menuntut daya komputasi. Ia menjelaskan bahwa inferensi telah menjadi fase AI yang membutuhkan komputasi paling intensif—yang membutuhkan penalaran secara real-time dalam skala global.

Ia menilai kolaborasi ini akan mempercepat adopsi AI generatif di berbagai sektor. “Bersama-sama, NVIDIA dan Akamai memindahkan inferensi lebih dekat ke pengguna di mana saja, sehingga menghadirkan generative AI yang lebih cepat dan lebih scalable,” tambahnya.

zonagadget
zonagadgethttps://www.zonagadget.co.id/
Berikan ilmu yang kamu punya, niscaya kamu akan mendapatkan yang lebih
RELATED ARTICLES

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

New Post

Most Popular