احصل على ما يصل إلى 300 دولار في أرصدة السحابة

عرض محدود المدة. قد تقوم Vultr بتعديل هذا العرض أو إيقافه في أي وقت دون إشعار مسبق.

قد يكون المستخدمون الجدد مؤهلين للحصول على أرصدة ترويجية عند إنشاء حساب باستخدام رابط إحالة رسمي.

تخضع الأرصدة لشروط البرنامج الرسمية لـ Vultr ومتطلبات الأهلية. يعمل هذا الموقع بشكل مستقل وغير تابع لـ Vultr Inc.

بنية تحتية GPU سحابية عالمية

نشر وحدات معالجة الرسومات السحابية القوية للذكاء الاصطناعي ونماذج LLM وتعلم الآلة

أطلق خوادم GPU عالية الأداء في دقائق واحصل على اعتمادات الإحالة وفقًا لشروط برنامج Vultr الرسمية.

استكشاف حالات استخدام GPU
+9
مناطق عالمية
A100/H100
فئات GPU المتاحة
دقائق
للنشر
24/7
وقت تشغيل البنية التحتية
GPU متصل · نشر في ثوانٍ
NVIDIA A100
80GB HBM2e
NVIDIA H100
80GB HBM3
vultr-gpu-server — bash — 80×24
$vultr compute instance create
  --plan vcg-a100-2c-16gb-1gpu
  --region ewr # New York
✔ Instance created successfully!
# GPU: NVIDIA A100 SXM4 80GB
# VRAM: 80GB HBM2e
# TFLOPS: 312 FP16
✔ IP: 149.28.xxx.xxx
✔ Ready in: 43 seconds
GPU Utilization94%
VRAM Used76GB / 80GB
$
🎁heroVisual.bonusBadge
حالات استخدام GPU

ماذا يمكنك بناء باستخدام وحدات GPU السحابية؟

من أبحاث الذكاء الاصطناعي إلى الاستدلال في الإنتاج — تفتح GPU السحابية قدرات حوسبة هائلة لكل حمل عمل

استضافة نماذج LLM (LLaMA، Mistral، أسلوب GPT)

تشغيل نماذج اللغة الكبيرة مفتوحة المصدر مثل LLaMA 3 و Mistral 7B و Falcon و Mixtral على نسخ GPU مخصصة. خدمة آلاف الرموز في الثانية مع التحكم الكامل في النموذج.

تدريب نماذج تعلم الآلة

تسريع تشغيلات تدريب PyTorch و TensorFlow على وحدات معالجة الرسومات NVIDIA A100/H100. تقليل وقت التدريب من أيام إلى ساعات مع التوازي متعدد GPU و NVLink.

توليد الصور باستخدام Stable Diffusion

نشر خطوط أنابيب Stable Diffusion XL و ControlNet و LoRA على نطاق واسع. توليد آلاف الصور في الساعة مع تسريع GPU.

واجهات برمجة تطبيقات الاستدلال في الوقت الفعلي

بناء نقاط نهاية استدلال AI منخفضة الكمون باستخدام vLLM أو TensorRT أو ONNX Runtime. خدمة نماذج ML كـ APIs REST مع خلفيات GPU قابلة للتوسع التلقائي.

توليد الفيديو بالذكاء الاصطناعي

تشغيل نماذج توليد الفيديو Wan2.1 و CogVideoX وفئة Sora. معالجة وعرض فيديو AI على نطاق واسع مع خطوط أنابيب محسّنة لـ GPU.

الضبط الدقيق للنماذج مفتوحة المصدر

استخدام تقنيات QLoRA و LoRA والضبط الدقيق الكامل لتخصيص نماذج LLaMA أو Mistral أو Phi على مجموعات بياناتك الخاصة بكفاءة VRAM.

التصيير ثلاثي الأبعاد (Blender، Unreal)

تسريع عمليات تصيير Blender Cycles و Unreal Engine Lumen و V-Ray باستخدام حوسبة GPU. تقليل أوقات التصيير من ساعات إلى دقائق على وحدات GPU المدعومة بـ CUDA.

مجموعات أبحاث الذكاء الاصطناعي

بناء مجموعات GPU موزعة للتعلم المعزز وأبحاث NLP ورؤية الحاسوب وتجارب AI متعددة الوسائط مع شبكات منخفضة الكمون.

تسريع قاعدة البيانات المتجهية

تسريع البحث المتجهي Faiss و Milvus و Qdrant مع فهرسة GPU. التعامل مع مليارات التضمينات لخطوط أنابيب RAG والبحث الدلالي على نطاق واسع.

المحاكاة العلمية

تشغيل ديناميكيات جزيئية ومحاكاة الموائع ونمذجة المناخ ومحاكاة مونت كارلو المالية مع مكتبات حوسبة مسرّعة بـ CUDA.

خلفية SaaS لشركات AI الناشئة

بناء خلفية GPU لمنتج SaaS للذكاء الاصطناعي. من روبوتات المحادثة إلى محررات الصور إلى مساعدي الكود — نشر بنية تحتية GPU قابلة للتوسع بسرعة.

أحمال عمل CUDA

تشغيل نوى CUDA مخصصة وتدريب مسرّع بـ cuDNN وخطوط أنابيب معالجة البيانات المحسّنة لـ GPU. وصول كامل لمجموعة أدوات CUDA على نسخ bare metal.

هل أنت مستعد لنشر حمل عمل GPU الخاص بك؟

احصل على وصول إلى بنية تحتية GPU عالية الأداء لأي من حالات الاستخدام هذه. اعتمادات الإحالة خاضعة لشروط برنامج Vultr الرسمية.

معمارية GPU

فهم فئات GPU للذكاء الاصطناعي

اختر بنية GPU المناسبة لحمل عملك وميزانيتك

AMPERE ARCHITECTURE

وحدات GPU فئة A100

توفر وحدات GPU NVIDIA A100 حوسبة FP16 بسرعة 312 TFLOPS مع 80 جيجابايت من ذاكرة HBM2e VRAM. المعيار الصناعي لتدريب LLM والضبط الدقيق للنماذج التي تزيد عن 70 مليار معامل.

FP16 Performance
312 TFLOPS
VRAM
80GB HBM2e
Bandwidth
2.0 TB/s
Architecture
Ampere
أحدث جيل
HOPPER ARCHITECTURE

وحدات GPU فئة H100

يمثل NVIDIA H100 ذروة حوسبة الذكاء الاصطناعي الحالية مع تسريع Transformer Engine. مبني خصيصًا لتدريب LLM واسع النطاق والاستدلال فائق الانخفاض في الكمون.

FP8 Performance
3,958 TFLOPS
VRAM
80GB HBM3
Bandwidth
3.35 TB/s
Architecture
Hopper

وحدات GPU لمراكز البيانات

مصممة لأحمال العمل الحوسبية على مدار الساعة، توفر وحدات GPU لمراكز البيانات مثل NVIDIA A100 و H100 ذاكرة ECC وإمكانية اتصال NVLink وتسريع Tensor Core المبني للذكاء الاصطناعي.

وحدات GPU الاستهلاكية

توفر وحدات GPU الاستهلاكية (سلسلة RTX) أداءً ممتازًا مقابل السعر للتطوير والاختبار والاستدلال للنماذج الأصغر. مثالية للنماذج الأولية قبل التوسع.

VRAM مهمة لنماذج LLM

نموذج بـ 7 مليارات معامل يحتاج ~14 جيجابايت VRAM في FP16. نموذج بـ 70 مليار يحتاج ~140 جيجابايت. المزيد من VRAM يمكّن نماذج أكبر ونوافذ سياق أطول.

Bare Metal مقابل الافتراضية

توفر نسخ GPU bare metal وصولاً مباشرًا للأجهزة بدون عبء المشرف الافتراضي — ضروري لأقصى إنتاجية تدريب. وحدات GPU الافتراضية توفر المرونة.

برنامج الإحالة

كيف يعمل برنامج الإحالة

الوصول إلى بنية Vultr التحتية من خلال رابط الإحالة الخاص بنا وكسب اعتمادات محتملة

1

انقر على رابط الإحالة

استخدم رابط الإحالة على هذا الموقع للوصول إلى صفحة تسجيل Vultr. يتم تضمين رمز الإحالة تلقائيًا.

2

إنشاء حساب جديد

سجّل للحصول على حساب Vultr جديد. تنطبق اعتمادات الإحالة فقط على الحسابات الجديدة المنشأة من خلال رابط الإحالة.

3

البقاء نشطًا لمدة 30 يومًا أو أكثر

يجب أن يبقى حسابك نشطًا وفي وضع جيد. استوفِ متطلبات أهلية Vultr للتأهل للحصول على اعتمادات الإحالة.

4

كسب اعتمادات الإحالة

تُصدر الاعتمادات وفقًا لشروط برنامج Vultr الرسمية. قد تختلف المبالغ والشروط. راجع شروط Vultr للحصول على تفاصيل البرنامج الحالية.

إخلاء مسؤولية مهم

اعتمادات الإحالة خاضعة لشروط برنامج Vultr الرسمية ومتطلبات الأهلية.

باستخدام هذا الرابط، تقر بأن مكافآت الإحالة خاضعة للتغيير وفقًا لشروط Vultr الرسمية.

استكشف أدلة البنية التحتية السحابية

أدلة تقنية متعمقة لـ GPU cloud وتدريب الذكاء الاصطناعي وKubernetes والتخزين والمزيد.

FAQ

الأسئلة الشائعة

كل ما تحتاج معرفته عن وحدات GPU السحابية وبرنامج الإحالة

عرض لفترة محدودة

ctaSection.headline

الوصول إلى بنية تحتية عالية الأداء من NVIDIA A100/H100.نشر في دقائق. بدون عقود. الدفع حسب الاستخدام.

ابدأ خادم GPU الآن
بدون عقد  ·  ✅ إلغاء في أي وقت
A100/H100
وحدات معالجة NVIDIA
9+
مناطق عالمية
43s
متوسط النشر
24/7
الدعم