《إنفيديا تتراجع إلى 48% من الحصة، أين تكمن فرص عصر الاستدلال؟》


هذه هي المقالة التاسعة من سلسلة 100 مقال عن استثمار الذكاء الاصطناعي، وتبلغ حوالي 20 ألف كلمة، يُنصح أولاً بحفظها، وقليلون هم من يستطيعون قراءتها كاملة.
لقد قرأت في السابق عن إنتل، AMD، ARM. كانت أسعار أسهمها خلال العام الماضي مرتفعة بشكل كبير — مضاعفة لـ AMD، ثلاث أضعاف لإنتل، وARM وصلت إلى أعلى مستوى تاريخي. بعد الارتفاع، ظهرت سؤال بسيط: هل لا زالت هذه الأسهم التي ارتفعت يمكن الاحتفاظ بها؟ وهل هناك فرص في الشركات التي لم ترتفع بعد؟
للإجابة على هذا السؤال، لا بد من التركيز على كلمة أساسية — الاستدلال. في التحليلات السابقة، كانت هاتان الكلمتان تتكرر بشكل متكرر عند ارتفاع أسعار تلك الشركات.
إذن: كم هو كبير مسار الاستدلال؟ في أي مرحلة هو حالياً؟ أي الشركات ستستفيد وكيف؟ وأيها تم تسعيره في السوق، وأيها لا؟
هذه هي الأمور التي يجب فهمها أولاً.
واحد، مدى المسار
تدريب النماذج هو «كتابة البرامج»، والاستدلال هو «عملية استدعاء هذا البرنامج يومياً». بعد تدريب GPT، يستخدمه مئات الملايين يومياً لطرح الأسئلة، وكل استعلام يستهلك قدرة حسابية للاستدلال. عند تشغيل Claude Code لمهمة، يقوم الوكيل بنفسه بتشغيل مئة دورة، وكل دورة هي استدلال.
تشير العديد من الدراسات الصناعية ووسائل الإعلام إلى اتجاه واحد: بعد دخول النماذج إلى بيئة الإنتاج، سيصبح الاستدلال هو الجزء الأكبر من تكلفة دورة الحياة، وتقديرات النطاق الشائعة تتراوح بين 80-90%. بمعنى أن، في مستقبل عصر الذكاء الاصطناعي، سيكون 8 من كل 10 وحدات من تكلفة الحوسبة مخصصة للاستدلال.
لكن السوق خلال الثلاث سنوات الماضية كان يركز تقريباً على التدريب، لأنه أكثر «إثارة» — سواء كان ذلك بعدد وحدات H100، أو حجم المعلمات، أو سرعة تدريب النموذج التالي. وكان يُنظر إلى الاستدلال على أنه أمر ثانوي بعد التدريب.
هذا الانحراف في الإدراك بدأ يتغير، وهو السبب الجوهري وراء إعادة تقييم قيمة شركات أشباه الموصلات خلال العام الماضي.
لكن، مدى مسار الاستدلال كبير، فهل هو كبير فعلاً؟ يمكن قياسه من خلال خمسة جوانب.
الأول هو عدد المستخدمين. ChatGPT لديه 900 مليون مستخدم نشط أسبوعياً، و50 مليون يدفعون اشتراكاً. أما المقارنة المباشرة مع الصين فهي أكثر وضوحاً — حيث ارتفع متوسط استدعاء الرموز يومياً من 100 مليار في بداية 2024 إلى 140 تريليون في 2026، بزيادة 1400 مرة. هذا المجال لا يزال بعيداً عن التشبع.
الثاني هو كثافة الاستخدام. حجم معالجة الرموز من قبل OpenAI كان 6 مليارات في الدقيقة في أكتوبر 2025، ووصل إلى 15 مليار في أبريل 2026 — أي تضاعف بمقدار 2.5 خلال نصف سنة. إيرادات النسخة التجارية تتجاوز 40%، واستخدام الشركات أكبر بكثير من المستخدمين الأفراد.
الثالث هو طول الحوار. طول السياق من مئات الرموز في البداية، إلى أن وصل في وثائق API لـ DeepSeek إلى V4 Pro / Flash بطول سياق يصل إلى مليون، وأقصى إخراج 384 ألف. كلما زاد طول النص، زادت استهلاك الذاكرة والحساب في الاستدلال.
الرابع هو أن النموذج نفسه يستهلك المزيد من القدرة الحسابية. نماذج مثل OpenAI o1، DeepSeek R1، Claude Thinking، قبل الإجابة، تقوم بـ«التفكير» داخلياً لآلاف أو عشرات الآلاف من الرموز. على سبيل المثال، ذكر Jensen Huang أن نموذج DeepSeek R1 قد يحتاج إلى حسابات أعلى بكثير، حتى مئة ضعف.
في السابق، عندما تسأل الذكاء الاصطناعي سؤالاً، يعطيك الإجابة مباشرة؛ الآن، عندما تطرح عليه سؤالاً معقداً، يبدأ بـ«التفكير» لنصف دقيقة قبل أن يعطيك الإجابة. هذا «التفكير» هو استهلاك إضافي للقدرة الحسابية.
الخامس هو الوكيل (Agent). عادةً، يحتاج الوكيل إلى استدعاء النموذج من 10 إلى 100 مرة. وقد تجاوز عدد المستخدمين النشطين لـ OpenAI Codex 3 ملايين — وهو مجرد منتج واحد لشركة واحدة. وتقدير أحد خبراء سلسلة التوريد للذكاء الاصطناعي أن استهلاك القدرة الحسابية الإجمالي للذكاء الاصطناعي قد يتجاوز 10 أضعاف حجم النماذج اللغوية الكبيرة ذات المعلمات المماثلة.
عند ضرب هذه العوامل الخمسة، فإن الطلب الإجمالي على الاستدلال خلال ثلاث إلى خمس سنوات سيشهد توسعاً هائلاً، وليس مجرد سرد مبالغ فيه، بل هو تقييم يقترب أكثر من أن يكون هو الرأي السائد.
هناك ظاهرة اقتصادية قديمة تُعرف بـ «مفارقة جيفون» — حيث أن زيادة كفاءة الاستخدام لوحدة من شيء معين تؤدي في النهاية إلى زيادة الاستهلاك الإجمالي، لأنها أصبحت أرخص، وأصبح من الآمن استخدامها في مزيد من السيناريوهات. بعد تحسين كفاءة محرك البخار، زاد استهلاك الفحم في بريطانيا بشكل كبير؛ وبعد انخفاض سعر رموز الاستدلال، زاد عدد استدعاءات الذكاء الاصطناعي بشكل هائل. وهو نفس السيناريو. وفقاً لوكالة الطاقة الدولية، من المتوقع أن تستهلك مراكز البيانات العالمية 1.5% من إجمالي استهلاك الكهرباء في 2024، وتضاعف إلى 945 تريليون واط ساعة بحلول 2030 — وهو تقريباً يعادل استهلاك الكهرباء السنوي لألمانيا وفرنسا معاً.
وعلاوة على ذلك، يمكن أن تؤكد الإجراءات الميدانية في الصناعة على صحة هذا التحليل:
شركة Anthropic زادت إيراداتها السنوية من 1 مليار دولار في نهاية 2024 إلى 30 مليار دولار في بداية 2026 — أي خلال 14 شهراً. لدعم هذا النمو، قامت الشركة بحجز أكثر من 11 جيجاوات من القدرة الحسابية في نهاية 2025 وبداية 2026، وطلبت من Broadcom شراء 21 مليار دولار من وحدات TPU. أما OpenAI، فقد وعدت بنشر 10 جيجاوات من الشرائح المخصصة. ورفعت Google هدف شحن وحدات TPU لعام 2026 بنسبة 50% إلى 6 ملايين وحدة.
أما الإنفاق الرأسمالي لمزودي الخدمات السحابية فهو أكثر وضوحاً. تخطط Google لإنفاق بين 175 مليار و185 مليار دولار في 2026، وهو تقريباً ضعف ما أنفقته في 2025؛ أما Amazon فستستثمر 200 مليار دولار؛ وMeta تخطط لزيادة إنفاقها بنسبة 65% إلى 118 مليار دولار. مجتمعة، ستصل نفقات البنية التحتية السحابية في 2026 إلى أكثر من 600 مليار دولار، بزيادة سنوية قدرها 40%.
عند جمع كل هذه المعطيات، فإن الاستنتاج بسيط — الطلب على الاستدلال في الذكاء الاصطناعي قد تجاوز قدرة أي شركة على تزويد الأجهزة.
هذه هي الخلفية الأساسية لمسار الاستدلال: في عصر التدريب، الهدف هو «خلق إله»، أما في عصر الاستدلال، فالأمر هو «هذا الإله يُطلب منه أن يُستخدم من قبل مئات الملايين يومياً، وأن يستدعي كل وكيل مئات المرات، وأن يفكر في عشرات الآلاف من الرموز في كل مرة». من المرحلة الأولى إلى الثانية، استهلاك القدرة الحسابية لا يزيد بشكل خطي، بل يقفز بشكل هندسي.
ثانياً، أي الأسهم ستستفيد؟
مدى المسار لا يعني أن كل الشركات ستستفيد، وأيضاً، أن الهيمنة التي كانت لــ إنفيديا بدأت تتغير بشكل واضح من خلال البيانات!
بحلول 2026، من المتوقع أن تكون حصة إنفيديا في سوق شرائح الاستدلال للذكاء الاصطناعي العالمية حوالي 48.2%، بينما AMD حوالي 16.7%، وقطاع ASIC مجتمعة حوالي 18.5% (حيث Google TPU بنسبة 7.8%، وAWS Inferentia بنسبة 5.2%، وASIC أخرى بنسبة 5.5%)، والصناعة المحلية من شرائح الاستدلال تصل مجتمعة إلى 16.6%.
لا تزال إنفيديا تسيطر على أكثر من 80% من سوق التدريب، لكن في سوق الاستدلال، تراجعت حصتها إلى أقل من النصف، لتصل إلى 48.2%.
لماذا حدث ذلك؟
في عصر التدريب، كانت إنفيديا تعتمد على القوة الشاملة — معالج رسومات عالي الأداء + ربط عالي السرعة NVLink + بيئة CUDA. هذه المجموعة كانت بمثابة هجوم مبسط على التدريب.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت