قامت Microsoft ببناء كمبيوتر عملاق لبدء التشغيل البحثي للذكاء الاصطناعي (AI) OpenAI لتدريب مجموعات كبيرة من النماذج ، ودمج الآلاف من رقائق الرسومات Nvidia A100 لدعم ChatGPT و Bing AI chatbot.
استثمر صانع Windows مليار دولار في OpenAI في عام 2019 ، ووافق على بناء “كمبيوتر عملاق كبير ومتقدم.”
لماذا قامت Microsoft ببناء كمبيوتر عملاق؟
الغرض من بناء هذا الكمبيوتر العملاق هو توفير قوة حاسوبية كافية لتدريب وإعادة تدريب مجموعة من نماذج الذكاء الاصطناعي التي تحتوي على كميات كبيرة من البيانات لفترة طويلة من الزمن.
قال Nidhi Chappell ، رائد منتجات Microsoft للحوسبة عالية الأداء و Azure AI.
“لذلك كان هناك بالتأكيد حافز قوي لتدريب نماذج أكبر على مدى فترة زمنية أطول ، مما يعني أنه ليس عليك فقط امتلاك أكبر بنية تحتية ، ولكن عليك أيضًا أن تكون قادرًا على تشغيلها بشكل موثوق لفترة طويلة.”
في مؤتمر مطوري البناء لعام 2020 ، أعلنت Microsoft أنها تقوم ببناء كمبيوتر عملاق مستضاف على Azure – بشكل تعاوني وحصري لـ OpenAI – مصمم خصيصًا لتدريب نماذج الذكاء الاصطناعي.
إقرأ أيضا:متصفح Arc الجديد قادم لآيفون.. لكنه لن يحل محل سفاريقال جريج بروكمان ، الرئيس والمؤسس المشارك لـ OpenAI: “كان التصميم المشترك لأجهزة الكمبيوتر العملاقة مع Azure أمرًا بالغ الأهمية لتوسيع نطاق احتياجاتنا التدريبية الحاسمة في مجال الذكاء الاصطناعي ، مما يتيح البحث والمواءمة لدينا على أنظمة مثل ChatGPT.
بنية الكمبيوتر العملاق لـ Microsoft؟
جمعت Microsoft عشرات الآلاف من رقائق الرسومات Nvidia A100 لتدريب نماذج الذكاء الاصطناعي وغيرت طريقة تصميم الخوادم لتجنب انقطاع التيار الكهربائي.
لقد أنشأنا بنية نظام يمكن أن تعمل على نطاق واسع جدًا ويمكن الاعتماد عليها ، وهذا ما جعل ChatGPT ممكنًا. هذا هو النموذج الذي خرج منه.
وبحسب بلومبرج ، قال تشابيل: “سيكون هناك الكثير والكثير”.
من حيث السعر ، قال سكوت جوثري ، نائب الرئيس التنفيذي لمايكروسوفت الذي يشرف على الذكاء الاصطناعي والسحابة ، إن المشروع سيكلف “ربما أكثر” من بضع مئات من ملايين الدولارات.
لمعالجة النماذج وتدريبها ، يتطلب OpenAI أكثر من مجرد كمبيوتر فائق – إعداد سحابي قوي.
إقرأ أيضا:هياكل قديمة فى الصحراء العربية تكشف أجزاء من طقوس غامضة!تعمل Microsoft الآن على جعل قدرات Azure Cloud AI أكثر قوة مع الأجهزة الافتراضية الجديدة التي تستخدم وحدات معالجة رسومات Nvidia’s H100 و A100 Tensor Core جنبًا إلى جنب مع شبكة Quantum-2 InfiniBand.
تقوم Microsoft بتمكين OpenAI والشركات الأخرى – التي تستخدم الآن روبوتات الدردشة بالذكاء الاصطناعي – للاعتماد على Azure لتدريب نماذج الذكاء الاصطناعي الأكبر والأكثر تعقيدًا.
لقد رأينا الحاجة إلى بناء أجنحة ذات أغراض خاصة تركز على توليد أحمال تدريب كبيرة ، وكانت OpenAI واحدة من أولى إثباتات المفاهيم.
أضاف إريك بويد ، نائب رئيس Microsoft Azure AI: “لقد عملنا معهم عن كثب لفهم الأشياء الأساسية التي كانوا يبحثون عنها وما يجب عليهم فعله عند بناء بيئات التعلم الخاصة بهم”.