بيت التفكير إلى الأمام تغير وحدات معالجة الموتر من Google القواعد الخاصة بالتعلم الآلي

تغير وحدات معالجة الموتر من Google القواعد الخاصة بالتعلم الآلي

فيديو: بنتنا يا بنتنا (سبتمبر 2024)

فيديو: بنتنا يا بنتنا (سبتمبر 2024)
Anonim

أحد أكثر الإعلانات إثارة للاهتمام - وغير المتوقعة - التي أصدرتها Google في مؤتمرها لمطوري I / O الأسبوع الماضي هي أنها صممت ونفذت رقائقها الخاصة لتعلم الآلة. خلال عرضه الرئيسي ، قدم الرئيس التنفيذي لشركة Google Sundar Pichai ما أطلق عليه وحدات معالجة Tensor ، قائلاً إن الشركة استخدمت هذه الأجهزة في آلات AlphaGo ، التي هزمت بطل Go Go Lee Sedol.

وقال Pichai: "TPUs هي أداء أعلى من حيث الحجم لكل واط من FPGAs و GPUs التجارية". بينما لم يعطِ الكثير من التفاصيل ، أوضح مهندس الأجهزة المتميز من Google نورم جوبي في منشور بالمدونة أن TPU عبارة عن ASIC مخصص (دائرة متكاملة خاصة بالتطبيقات). بمعنى آخر ، إنها شريحة مصممة خصيصًا لتشغيل التعلم الآلي ومصممة بشكل خاص لـ TensorFlow ، إطار عمل Google للتعلم الآلي.

صورة

في هذا المنصب ، قال جوبي إنه "أكثر تسامحًا" من الدقة الحسابية المنخفضة ، مما يعني أنه يتطلب عددًا أقل من الترانزستورات لكل عملية. يتيح ذلك لـ Google الحصول على مزيد من العمليات في الثانية ، مما يتيح للمستخدمين الحصول على النتائج بسرعة أكبر. وقال إن لوحة مزودة بـ TPU تتناسب مع فتحة محرك الأقراص الثابتة في رفوف مركز البيانات الخاص بها ، وأظهرت صورة لخوادم الرفوف المملوءة بـ TPU ، والتي قال إنها استخدمت في أجهزة AlphaGo الخاصة بالشركة.

بالإضافة إلى ذلك ، قال جوبي إن TPUs تعمل بالفعل على عدد من التطبيقات في Google ، بما في ذلك RankBrain ، والتي تستخدم لتحسين ملاءمة نتائج البحث ، وميزة التجوّل الافتراضي ، لتحسين دقة وجودة الخرائط والملاحة.

في مؤتمر صحفي ، أكد نائب رئيس Google للبنية التحتية التقنية Urs Hölzle أن الـ TPU يعمل باستخدام رياضيات عدد صحيح من 8 بت ، بدلاً من الرياضيات ذات الفاصلة العائمة العالية الدقة التي تم تصميم معظم وحدات المعالجة المركزية ووحدات معالجة الرسومات الحديثة بها. يمكن لمعظم خوارزميات التعلم الآلي الحصول على بيانات دقيقة بدقة أقل ، مما يعني أن الشريحة يمكنها معالجة المزيد من العمليات في منطقة معينة ومعالجة النماذج الأكثر تعقيدًا بكفاءة. هذه ليست فكرة جديدة ؛ وحدة Nvidia Drive PX 2 ، التي تم الإعلان عنها في وقت سابق من هذا العام في CES ، قادرة على 8 ترافلوبس بدقة 32 بت بدقة عائمة لكنها تصل إلى 24 "تيراوبز" للتعلم العميق (مصطلح الشركة لمدة 8 بت صحيح الرياضيات).

على الرغم من رفض Hölzle الخوض في التفاصيل ، تقول التقارير إنه أكد أن Google تستخدم كلاً من TPU و GPUs اليوم. وقال إن هذا سيستمر لبعض الوقت ، لكنه اقترح أن تنظر Google إلى وحدات معالجة الرسومات على أنها عامة جدًا ، مفضلًا رقاقة أكثر تحسينًا للتعلم الآلي. وقال إن الشركة ستصدر ورقة تصف فوائد الشريحة في وقت لاحق ، لكنه أوضح أن هذه مصممة للاستخدام الداخلي فقط ، وليس للبيع لشركات أخرى. تطبيق آخر وصفه هو استخدام الرقائق للتعامل مع جزء من الحوسبة وراء محرك التعرف على الصوت المستخدم على هاتف Android.

اختيار استخدام ASIC هو رهان مثير للاهتمام من Google. كانت أكبر التطورات في التعلم الآلي في السنوات الأخيرة - التكنولوجيا التي تقف وراء الدفع الكبير للشبكات العصبية العميقة - اعتماد وحدات معالجة الرسومات ، وخاصة خط Nvidia Tesla ، لتدريب هذه الطرز. في الآونة الأخيرة ، اشترت Intel Altera ، الشركة الرائدة في مجال FPGAs (صفائف بوابة قابلة للبرمجة ميدانيًا) ، والتي توجد في مكان ما في الوسط ؛ ليست غرض عام مثل GPUs أو مصممة خصيصًا لـ TensorFlow مثل شريحة Google ، ولكن يمكن برمجتها للقيام بمجموعة متنوعة من المهام. قامت Microsoft بتجربة Altera FPGAs للتعلم العميق. تقوم IBM بتطوير شريحة TrueNorth Neurosynaptic المصممة خصيصًا للشبكات العصبية ، والتي بدأت مؤخرًا في استخدامها في مجموعة متنوعة من التطبيقات. تقوم Cadence (Tensilica) و Freescale و Synopsys بدفع DSPs (معالجات الإشارة الرقمية) لتشغيل هذه النماذج ؛ أعلنت Mobileye و NXP مؤخراً عن رقائق مصممة خصيصًا لـ ADAS والسيارات ذاتية القيادة ؛ وأعلنت العديد من الشركات الأصغر بما في ذلك Movidius و Nervana عن خطط للرقائق المصممة خصيصًا لـ AI.

من السابق لأوانه معرفة النهج الذي سيكون أفضل على المدى الطويل ، ولكن وجود بعض الخيارات المختلفة يعني أنه من المحتمل أن نرى بعض المنافسات المثيرة للاهتمام في السنوات القليلة المقبلة.

تغير وحدات معالجة الموتر من Google القواعد الخاصة بالتعلم الآلي