شكرا لقرائتكم خبر عن الذهب يستقر سلبياً ليسجل خسائر أسبوعية والان مع بالتفاصيل
دبي - بسام راشد - أخبار الفوركس اليوم تفوقت إنفيديا على جميع التوقعات، إذ أعلنت يوم الأربعاء عن أرباح مرتفعة بفضل وحدات معالجة الرسوميات (GPU) التي تبرع في تشغيل مهام الذكاء الاصطناعي. لكن فئات أخرى من شرائح الذكاء الاصطناعي بدأت تكتسب زخماً متزايداً.
فجميع الشركات السحابية العملاقة باتت تصمّم الآن دوائر متكاملة مخصّصة للتطبيقات (ASICs)، من وحدة TPU الخاصة بجوجل، إلى Trainium من أمازون، وصولاً إلى خطط OpenAI مع Broadcom. وتمتاز هذه الشرائح بأنها أصغر حجماً وأقل تكلفة وأسهل استخداماً، كما أنها قد تقلّل اعتماد تلك الشركات على وحدات إنفيديا الرسومية. وقال دانييل نيومان من مجموعة Futurum لقناة CNBC إنه يتوقع أن تنمو شرائح ASIC “بسرعة تفوق سوق وحدات GPU خلال السنوات المقبلة”.
وبالإضافة إلى وحدات GPU وشرائح ASIC، هناك أيضاً مصفوفات البوابات القابلة للبرمجة ميدانياً (FPGAs)، والتي يمكن إعادة تهيئتها عبر البرمجيات بعد تصنيعها لاستخدامات متعددة، مثل معالجة الإشارات والشبكات والذكاء الاصطناعي. وهناك أيضاً جيل كامل من شرائح الذكاء الاصطناعي المخصّصة للعمل على الأجهزة نفسها بدلاً من السحابة، وقد تصدرت شركات مثل كوالكوم وآبل مجال الشرائح المدمجة داخل الأجهزة.
وتحدثت CNBC مع خبراء ومطلعين داخل شركات التكنولوجيا الكبرى لشرح هذا المجال المتزاحم وأنواع شرائح الذكاء الاصطناعي المختلفة.
وحدات GPU للحوسبة العامة
كانت وحدات معالجة الرسوميات تُستخدم في السابق بشكل أساسي لألعاب الفيديو، لكنها جعلت إنفيديا الشركة العامة الأعلى قيمة في العالم بعدما تحولت لاستخدامها في مهام الذكاء الاصطناعي. وقد شحنت الشركة حوالي 6 ملايين وحدة GPU من الجيل الحالي “Blackwell” خلال العام الماضي.
بدأ التحول من الألعاب إلى الذكاء الاصطناعي عام 2012، عندما استخدم الباحثون وحدات إنفيديا لبناء شبكة AlexNet، والتي يعتبرها كثيرون لحظة الانطلاق الكبرى للذكاء الاصطناعي الحديث. دخلت AlexNet في مسابقة بارزة للتعرف على الصور، واعتمدت على وحدات GPU بدلاً من وحدات CPU التقليدية، مما منحها دقة مذهلة وتفوقاً ساحقاً.
واكتشف مبتكرو AlexNet أن المعالجة المتوازية نفسها التي تسمح لوحدات GPU بإنتاج رسوميات واقعية للغاية مفيدة أيضاً في تدريب الشبكات العصبية، حيث تتعلم الحواسيب من البيانات بدلاً من الاعتماد على برمجيات صريحة. وبرزت حينها قدرات وحدات GPU.
اليوم، تُباع وحدات GPU غالباً ضمن أنظمة مراكز البيانات حيث تقترن بوحدات CPU لتشغيل مهام الذكاء الاصطناعي عبر السحابة. وتحتوي وحدات CPU على عدد قليل من الأنوية القوية لتنفيذ المهام المتسلسلة، بينما تمتلك وحدات GPU آلاف الأنوية الصغيرة المتخصصة في العمليات الحسابية المتوازية مثل ضرب المصفوفات.
وبفضل قدرتها على تنفيذ العديد من العمليات في الوقت نفسه، تُعد وحدات GPU مثالية للمرحلتين الرئيسيتين في الحوسبة الخاصة بالذكاء الاصطناعي: التدريب والاستدلال. وتُدرّب نماذج الذكاء الاصطناعي على التعرف على الأنماط في كميات هائلة من البيانات، بينما يستخدم الاستدلال تلك النماذج لاتخاذ قرارات بناءً على معلومات جديدة.
وتعتبر وحدات GPU المحرك الأساسي لدى إنفيديا ومنافستها الأكبر AMD. ويُعد البرنامج جانباً حاسماً في التمييز بينهما؛ فبينما تعتمد وحدات إنفيديا على منصتها البرمجية الخاصة CUDA، تستند وحدات AMD إلى منظومة برمجية مفتوحة المصدر إلى حد كبير.
وتبيع الشركتان وحداتهما السحابية لمزوّدي الخدمات، مثل أمازون ومايكروسوفت وجوجل وأوراكل وCoreWeave، التي تقوم بدورها بتأجيرها لشركات الذكاء الاصطناعي.
ويتضمن اتفاق Anthropic البالغة قيمته 30 مليار دولار مع إنفيديا ومايكروسوفت مثلاً قدرة حوسبة تعادل 1 غيغاواط على وحدات إنفيديا. كما حصلت AMD على التزامات كبيرة مؤخراً من OpenAI وأوراكل.
كما تبيع إنفيديا مباشرة لشركات الذكاء الاصطناعي، مثل صفقتها الأخيرة لبيع 4 ملايين وحدة GPU على الأقل لـ OpenAI، إضافة إلى بيعها لحكومات أجنبية مثل كوريا الجنوبية والسعودية والمملكة المتحدة.
وأبلغت الشركة CNBC أنها تتقاضى نحو 3 ملايين دولار مقابل كل خزانة خوادم تضم 72 وحدة Blackwell تعمل كوحدة واحدة، وتشحن نحو 1000 خزانة أسبوعياً.
وقال ديون هاريس، المدير الأول للبنية التحتية للذكاء الاصطناعي في إنفيديا، إنه لم يكن ليتخيل هذا الكم من الطلب عندما انضم إلى الشركة قبل ثماني سنوات.
وأضاف: “عندما كنا نتحدث مع الشركات عن بناء نظام يحتوي على ثماني وحدات GPU، كانوا يعتقدون أن ذلك مبالغ فيه”.
شرائح ASIC للذكاء الاصطناعي السحابي المخصص
كان التدريب على وحدات GPU أساسياً في مرحلة الطفرة الأولى للنماذج اللغوية الكبيرة، لكن الاستدلال أصبح أكثر أهمية مع نضوج النماذج. ويمكن تنفيذ الاستدلال على شرائح أقل قوة مبرمجة لمهام أكثر تحديداً، وهنا يأتي دور شرائح ASIC.
ففي حين يشبه GPU “السكين السويسري” الذي يؤدي مختلف العمليات المتوازية، يبدو ASIC أشبه بأداة أحادية الغرض: سريعة وفعّالة للغاية، لكنها مهيأة مسبقاً على نوع واحد من الرياضيات ولا يمكن تغييرها بعد تصنيعها.
وقال كريس ميلر، مؤلف كتاب “حرب الشرائح”: “لا يمكنك تغيير هذه الشرائح بمجرد نقشها في السيليكون، وهناك مقايضة بين الكفاءة والمرونة”.
وتتميز وحدات إنفيديا بالمرونة الكافية لتلبية احتياجات مختلف شركات الذكاء الاصطناعي، لكنها مكلفة (حتى 40 ألف دولار للوحدة) وصعبة التوفير. ومع ذلك، تعتمد الشركات الناشئة عليها بسبب كلفة تصميم ASIC الخاصة، والتي قد تبلغ عشرات الملايين.
إلا أن شركات السحابة الكبرى ترى أن شرائح ASIC تحقق وفورات كبيرة على المدى الطويل. وقال نيومان: “هذه الشركات تريد مزيداً من التحكم في المهام التي تبنيها. لكنها ستستمر في العمل مع إنفيديا وAMD، لأنها تحتاج إلى القدرة الحوسبية. فالمطلوب هائل للغاية”.
كانت جوجل أول شركة كبرى تصنع شريحة ASIC مخصّصة لتسريع الذكاء الاصطناعي، فأطلقت وحدة معالجة التنسور TPU عام 2015. وفكرت جوجل بتطوير TPU منذ عام 2006، لكنها اعتبرته ضرورة ملحّة عام 2013 عندما أدركت أن الذكاء الاصطناعي سيضاعف عدد مراكز بياناتها. وفي 2017، ساهمت TPU في ابتكار بنية Transformer، التي تشغّل معظم أنظمة الذكاء الاصطناعي الحديثة.
وبعد عقد من إطلاق أول TPU، كشفت جوجل عن الجيل السابع في نوفمبر. وأعلنت Anthropic أنها ستدرب نموذج Claude على مليون وحدة TPU. ويعتقد البعض أن وحدات TPU تضاهي وحدات إنفيديا تقنياً أو تتفوق عليها.
وقال ميلر: “تقليدياً، جوجل كانت تستخدمها داخلياً فقط. لكن هناك توقعات بأنها قد تتيح استخدامها خارجياً على نطاق أوسع”.
وكانت AWS ثاني مزود سحابي يطور شرائح ذكاء اصطناعي خاصة به، بعد استحواذها على Annapurna Labs عام 2015. وأطلقت شريحة Inferentia عام 2018، ثم Trainium عام 2022، ومن المتوقع إطلاق الجيل الثالث قريباً.
وقال رون ديامانت، كبير مهندسي Trainium، إن شريحة أمازون توفر أداءً سعرياً أعلى بنسبة 30% إلى 40% مقارنة بالمورّدين الآخرين.
وأضاف: “مع الوقت، رأينا أن شرائح Trainium يمكنها تنفيذ التدريب والاستدلال بكفاءة”.
وفي أكتوبر، زارت CNBC أكبر مركز بيانات للذكاء الاصطناعي لدى أمازون في إنديانا، حيث تستخدم Anthropic نصف مليون وحدة Trainium2 لتدريب نماذجها. وتملأ AWS مراكز بياناتها الأخرى بوحدات إنفيديا لتلبية الطلب من عملاء مثل OpenAI.
وتواجه عملية تصنيع ASIC تحديات كبيرة، ولهذا تلجأ الشركات إلى شركات تصميم الرقائق مثل Broadcom و Marvell. وقال ميلر إنهما توفران "الملكية الفكرية والمعرفة والخبرة الشبكية".
وأضاف: “لهذا أصبحت Broadcom من أكبر المستفيدين من طفرة الذكاء الاصطناعي”.
وساعدت Broadcom في بناء وحدات TPU الخاصة بجوجل ومسرّعات ميتا التي أطلقت عام 2023، كما لديها اتفاق جديد لمساعدة OpenAI على بناء شرائحها بدءاً من 2026.
كما دخلت مايكروسوفت هذا المجال بشريحة Maia 100، وهي مستخدمة حالياً في مراكز بياناتها. وهناك أيضاً شرائح Qualcomm A1200، ومسرّعات Intel Gaudi، وشريحة Tesla AI5، إضافة إلى شركات ناشئة مثل Cerebras و Groq.
وفي الصين، تطور شركات مثل هواوي وبايتدانس وعلي بابا شرائح ASIC خاصة بها، رغم التحديات الناتجة عن قيود التصدير الأميركية.
ذكاء اصطناعي على الأجهزة مع شرائح NPU وFPGA
الفئة الثالثة الكبرى من شرائح الذكاء الاصطناعي هي تلك المخصصة للعمل على الأجهزة نفسها، وليست على السحابة. وغالباً ما تكون مدمجة داخل أنظمة المعالجة الشاملة (SoC)، وتُعرف باسم شرائح الذكاء الاصطناعي على الأطراف أو Edge AI. وتسمح هذه الشرائح للأجهزة بتشغيل نماذج الذكاء الاصطناعي بكفاءة مع توفير استهلاك البطارية.
وقال سيف خان، مستشار الذكاء الاصطناعي والسياسات التقنية في البيت الأبيض سابقاً:
“ستتمكن من تنفيذ مهام الذكاء الاصطناعي مباشرة على هاتفك بزمن استجابة منخفض جداً، دون الحاجة إلى الاتصال بمركز بيانات… كما ستحافظ على خصوصية بياناتك”.
وتُعد وحدات NPU أحد أهم أنواع شرائح Edge AI. وتطوّر شركات مثل كوالكوم وإنتل وAMD وحدات NPU تتيح قدرات الذكاء الاصطناعي على الحواسيب الشخصية.
ورغم أن آبل لا تستخدم مصطلح NPU، فإن شرائح M-series داخل أجهزة ماك تضم “محركاً عصبياً” مخصصاً، إضافة إلى المسرّعات العصبية داخل أحدث شرائح هواتف A-series.
وقال تيم ميليت، نائب رئيس هندسة منصات آبل، في مقابلة مع CNBC في سبتمبر: “هذا النهج فعّال بالنسبة لنا… فهو سريع ويمنحنا تحكماً أكبر في التجربة”.
كما تحتوي أحدث هواتف أندرويد على وحدات NPU داخل شرائح Snapdragon، وتضم أجهزة سامسونغ وحدتها الخاصة. وتستخدم شركات مثل NXP وإنفيديا شرائح NPU لتشغيل الذكاء الاصطناعي داخل السيارات والروبوتات والكاميرات والأجهزة المنزلية الذكية وغيرها.
وقال ميلر: “صحيح أن معظم الإنفاق حالياً يتجه نحو مراكز البيانات، لكن هذا سيتغير مع انتشار الذكاء الاصطناعي داخل الهواتف والسيارات والأجهزة القابلة للارتداء وغيرها”.
ثم هناك شرائح FPGA، وهي قابلة للبرمجة بعد التصنيع، ما يمنحها مرونة أكبر من NPU وASIC، لكنها أقل أداءً وكفاءة طاقية في مهام الذكاء الاصطناعي.
أصبحت AMD أكبر منتج لشرائح FPGA بعد استحواذها على Xilinx مقابل 49 مليار دولار عام 2022، بينما تأتي إنتل في المركز الثاني بعد شراء Altera مقابل 16.7 مليار دولار عام 2015.
الخلاصة: إنفيديا ما تزال بعيدة عن المنافسة
تعتمد جميع هذه الشركات التي تصمم شرائح الذكاء الاصطناعي على مصنع واحد لإنتاجها: شركة TSMC التايوانية.
وتبني TSMC مصنعاً ضخماً في أريزونا، الذي ستنقل آبل إليه جزءاً من إنتاجها. وقال الرئيس التنفيذي لإنفيديا، جنسن هوانغ، في أكتوبر إن وحدات Blackwell دخلت “مرحلة الإنتاج الكامل” في أريزونا أيضاً.
وعلى الرغم من الازدحام في سوق شرائح الذكاء الاصطناعي، فإن الإطاحة بإنفيديا لن تكون سهلة.
وقال نيومان: “إنفيديا في هذا الموقع لأنها استحقته… لقد بنت هذا النظام البيئي للمطورين على مدار سنوات، وهي من فازت به”.
