DeepInfra, Seri B mengumpulkan dana sebesar 107 juta dolar AS…… Ekspansi global infrastruktur inferensi AI

robot
Pembuatan abstrak sedang berlangsung

Perusahaan komputasi awan yang fokus pada penalaran kecerdasan buatan DeepInfra mendapatkan pendanaan Seri B sebesar 107 juta dolar AS, yang akan mendorong ekspansi perangkat global. Dalam mata uang Won Korea, skala sekitar 1.581.925.000.000 Won Korea. Saat tahap percobaan AI generatif yang melampaui batas dan beralih ke “AI agen”, DeepInfra berencana melampaui batasan cloud computing umum yang ada saat ini.

Putaran investasi ini dipimpin oleh 500 Global dan mantan insinyur Google Cloud George Harrick. Selain itu, Nvidia, divisi investasi Samsung Electronics Samsung Next, Supermicro, A.Capital Ventures, Crescent Cove, Peliciis, Peak6, Upper90, dan lainnya juga turut berpartisipasi. Yang menarik perhatian adalah bahwa para investor utama juga memperhatikan potensi pertumbuhan pasar infrastruktur AI.

DeepInfra adalah perusahaan yang berfokus pada tahap “penalaran” dalam beban kerja AI. Penalaran merujuk pada tahap di mana model AI yang telah dilatih menangani permintaan pengguna dalam lingkungan layanan nyata. Perusahaan berpendapat bahwa platform cloud yang ada saat ini tidak dirancang dengan kebutuhan ini sebagai prioritas. Mereka menjelaskan bahwa, terutama untuk AI agen, untuk menyelesaikan satu tugas diperlukan puluhan hingga ratusan panggilan model, yang dapat menyebabkan latensi dan biaya yang sangat tidak stabil.

Untuk mengatasi masalah ini, DeepInfra menyatakan sedang membangun “pabrik token” yang memandang penalaran sebagai proses inti, bukan layanan tambahan. Perusahaan ini didirikan oleh tim insinyur yang menciptakan aplikasi pesan instan “imo”, yang telah berkembang ke lebih dari 200 juta pengguna di seluruh dunia. Strateginya adalah mentransfer pengalaman operasional sistem terdistribusi skala besar ke infrastruktur penalaran AI.

Berbeda dengan operator yang bergantung pada peminjaman kapasitas server “Spot” yang tidak terpakai dari pihak ketiga, DeepInfra mengoperasikan perangkat keras sendiri di 8 pusat data di AS. Mereka menggambarkan bahwa mereka meningkatkan efisiensi melalui pengendalian seluruh tumpukan dari GPU hingga API. Perusahaan mengklaim bahwa dengan menggunakan platform penalaran terdistribusi Nvidia “Dynamo” serta GPU Blackwell dan Vera Rubin, mereka dapat menawarkan efisiensi biaya penalaran hingga 20 kali lipat.

Secara khusus, DeepInfra berpendapat bahwa AI agen membutuhkan lebih banyak sumber daya dibandingkan chatbot generatif yang ada saat ini. Saat ini, lebih dari 30% dari seluruh lalu lintas token yang dihasilkan di platform mereka berasal dari agen mandiri, yang membuktikan hal ini. Ini menunjukkan bahwa permintaan penalaran AI melampaui respons chatbot sederhana dan beralih ke otomatisasi proses bisnis secara cepat.

Saat ini, platform DeepInfra mendukung lebih dari 190 model AI open-source termasuk seri Nvidia Nemotron. Selain itu, untuk perusahaan yang merasa terbebani mengirimkan data sensitif ke cloud eksternal, mereka juga menawarkan kebijakan “tanpa data disimpan”. Ini dipandang sebagai upaya membangun keunggulan diferensiasi di pasar AI perusahaan yang mempertimbangkan keamanan, biaya, dan kecepatan secara bersamaan.

Co-founder sekaligus CEO Nikolai Borisov menyatakan bahwa sejak mendirikan perusahaan empat tahun lalu, dia sudah yakin bahwa penalaran AI akan menjadi inti beban kerja AI perusahaan, dan kini prediksinya menjadi kenyataan. Dia menganalisis bahwa model open-source dengan cepat mengejar model tertutup untuk menyebarkan inovasi dengan biaya lebih rendah, dan sistem berbasis agen menciptakan permintaan yang berkelanjutan dan skala besar. Dia menegaskan bahwa penalaran AI tidak lagi menjadi lapisan proses yang tipis, melainkan akan menjadi “bottleneck” yang mendefinisikan sebagian besar beban kerja AI di masa depan.

Tony Wang dari 500 Global juga menilai bahwa dalam situasi meningkatnya permintaan penalaran AI, pengembang dan insinyur membutuhkan infrastruktur yang lebih cepat, lebih fleksibel, dan lebih stabil. Dia menyatakan bahwa tim DeepInfra telah membuktikan kemampuan mereka dalam membangun dan mengoperasikan sistem terdistribusi skala global, dan percaya bahwa infrastruktur penalaran AI yang berorientasi tujuan akan menjadi fondasi utama untuk mendukung industri AI di tahap berikutnya.

Pendanaan ini bukan sekadar pengumpulan dana, tetapi juga menunjukkan bahwa fokus kompetisi infrastruktur AI beralih dari pelatihan ke penalaran. Terutama dengan menyebarnya AI agen secara resmi, bagaimana memproses penalaran AI secara cepat dan biaya rendah semakin menjadi faktor penentu kemenangan di pasar cloud computing.

Catatan TP AI Artikel ini dirangkum berdasarkan model bahasa TokenPost.ai. Konten utama asli mungkin terlewatkan atau tidak sesuai fakta.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan