بيت التفكير إلى الأمام تواجه تحديات صناعة الرقاقات قانون مور

تواجه تحديات صناعة الرقاقات قانون مور

فيديو: بسم الله Official CLIP BISMILLAH Edition 2013 ARABE (سبتمبر 2024)

فيديو: بسم الله Official CLIP BISMILLAH Edition 2013 ARABE (سبتمبر 2024)
Anonim

كل بضع سنوات هناك قصص حول كيف أن قانون مور - المفهوم الذي يتضاعف عدد الترانزستورات في منطقة معينة يتضاعف كل عامين أو نحو ذلك - يموت. كانت مثل هذه القصص موجودة منذ عقود ، لكننا ما زلنا نرى شرائح جديدة بها المزيد من الترانزستورات كل بضع سنوات ، إلى حد كبير في الموعد المحدد.

على سبيل المثال ، قدمت إنتل في فبراير رقاقة ترانزستور بقيمة 4.3 مليار تدعى Xeon E7v2 أو Ivytown على مساحة 541 ملليمتر مربع باستخدام عملية 22nm. قبل عقد من الزمان ، كانت Xeon الراقية من Intel ، والمعروفة باسم Gallatin ، عبارة عن شريحة تبلغ 130 نانومتر مع 82 مليون الترانزستورات التي تموت على مساحة 555 مليمتر مربع. هذا ليس مواكبة مضاعفة كل عامين ، لكنه قريب.

بالطبع ، هذا لا يعني أنه سيستمر في العمل إلى الأبد ، وفي الواقع ، تمر صناعة الرقائق ببعض التغييرات الكبيرة التي تؤثر على كل من تصنيع الرقائق وتصميمها ، وسيكون لكل هذه التأثيرات الدائمة على المستخدمين.

الأكثر وضوحًا ، لقد كان واضحًا لفترة طويلة أن سرعات الساعة لا تزداد سرعة. بعد كل شيء ، قدمت إنتل رقائق بنتيوم في عام 2004 والتي تعمل عند 3.6 جيجاهيرتز. اليوم ، يعمل Core i7 المتطور للشركة عند 3.5 جيجا هرتز مع سرعة توربو قصوى تبلغ 3.9 جيجاهيرتز. (بالطبع ، هناك بعض الأشخاص الذين فيركلوك ، ولكن هذا ما كان عليه الحال دائمًا.)

بدلاً من ذلك ، كان رد فعل المصممين هو إضافة المزيد من النوى إلى الرقائق وزيادة كفاءة كل نواة فردية. اليوم ، حتى الشريحة الأقل نهاية التي يمكنك الحصول عليها لسطح المكتب أو الكمبيوتر المحمول هي شريحة ثنائية النواة ، والإصدارات رباعية النوى شائعة. حتى في الهواتف ، نشهد الآن الكثير من الأجزاء رباعية النوى وحتى الثماني النواة.

هذا أمر رائع لتشغيل تطبيقات متعددة في نفس الوقت (تعدد المهام) أو للتطبيقات التي يمكنها بالفعل الاستفادة من النوى والخيوط المتعددة ، لكن معظم التطبيقات لا تزال لا تفعل ذلك. قضى المطورون - وخاصة أولئك الذين يصنعون أدوات المطور - الكثير من الوقت في جعل تطبيقاتهم تعمل بشكل أفضل مع مراكز متعددة ، لكن لا يزال هناك الكثير من التطبيقات التي تعتمد في الغالب على الأداء المفرد.

بالإضافة إلى ذلك ، يضع مطورو المعالج المزيد من النوى الرسومية وغيرها من النوى المتخصصة (مثل تلك التي تقوم بترميز الفيديو أو فك تشفيره أو تشفير البيانات أو فك تشفيرها) داخل معالج التطبيقات ، في ما يطلق عليه الكثير من الصناعة المعالجة غير المتجانسة. لقد دفعت AMD و Qualcomm و MediaTek جميعها هذا المفهوم ، الأمر الذي يجعل الكثير من الشعور ببعض الأشياء. يساعد بالتأكيد في التكامل - جعل رقائق أصغر وأقل جائع الطاقة ؛ ويبدو أنه من المنطقي تمامًا في معالجات الأجهزة المحمولة - مثل مقاربة big.LITTLE التي اتبعتها ARM حيث تجمع بين النوى الأكثر قوة ولكن المتعطشة للطاقة مع تلك التي لا تأخذ سوى القليل من الطاقة. بالنسبة للكثيرين منا ، فإن الحصول على رقائق تستخدم طاقة أقل لنفس الأداء - وبالتالي فإن الأجهزة المحمولة التي تدوم أطول لشحن البطارية ، يعد أمرًا كبيرًا.

إن استخدام عدد هائل من النوى - سواء كانت نوى الرسومات أو النوى x86 المتخصصة - له بالتأكيد تأثير كبير على الحوسبة عالية الأداء ، حيث يكون لأشياء مثل لوحات Tesla من Nvidia أو Xeon Phi من إنتل تأثير كبير. في الواقع ، فإن معظم أجهزة الكمبيوتر العملاقة اليوم تستخدم أحد هذه الأساليب. ولكن لا يزال يعمل فقط مع أنواع معينة من الاستخدامات ، في المقام الأول للتطبيقات في المقام الأول للتطبيقات التي تستخدم أوامر SIMD (تعليمات واحدة ، بيانات متعددة). لأشياء أخرى ، هذا النهج لا يعمل.

وليس فقط الرقائق التي لا يمكن تشغيلها بشكل أسرع. على جانب التصنيع ، هناك عقبات أخرى أمام وضع المزيد من الترانزستورات في طريقها إلى الموت. على مدى العقد الماضي ، رأينا كل أنواع التقنيات الجديدة لصناعة الرقائق ، والانتقال من المزيج التقليدي من السيليكون والأكسجين والألمنيوم إلى التقنيات الجديدة مثل "السيليكون المجهد" (حيث يمد المهندسون ذرات السيليكون) ، لتحل محل البوابات ذات المواد ذات البوابة المعدنية العالية ، والانتقال مؤخرًا من البوابات المستوية التقليدية إلى البوابات ثلاثية الأبعاد المعروفة باسم FinFETs أو "TriGate" في لغة Intel. يتم الآن استخدام أول تقنيتين من قبل جميع صانعي الرقائق المتقدمين ، حيث تخطط المسابك لتقديم FinFETs في العام المقبل أو نحو ذلك ، بعد تقديم Intel لعام 2012.

يُطلق على أحد البدائل FD-SOI (عازل السيليكون المنضب بالكامل) ، وهي تقنية دفعتها ST Microelectronics على وجه الخصوص ، والتي تستخدم طبقة عازلة رقيقة بين ركيزة السيليكون والقناة لتوفير تحكم كهربائي أفضل في الترانزستورات الصغيرة ، في نظرية تقديم أداء أفضل وانخفاض الطاقة. لكن حتى الآن ، لا يبدو أن هناك زخم تقريبًا من الشركات المصنعة الكبرى التي تملكها FinFETs.

في الآونة الأخيرة ، حققت إنتل الكثير من التقدم في صناعة الرقائق ، وبدأت بالفعل في إنتاج كميات كبيرة من المعالجات الدقيقة Core من خلال عملية 22nm مع تقنية TriGate قبل حوالي عامين وتخطط لشحن منتجات 14nm في النصف الثاني. من هذا العام. وفي الوقت نفسه ، تخطط مسابك الرقائق الكبيرة لإنتاج 20nm من حيث الحجم في وقت لاحق من هذا العام باستخدام الترانزستورات المستوية التقليدية ، مع 14 أو 16nm المنتجات مع FinFETs المقرر للعام المقبل.

تعرض Intel شرائح عرضية توضح مدى التقدم الذي أحرزته على كثافة الرقاقات ، مثل هذه الشريحة منذ يوم المحللين:

لكن المسابك تختلف. فيما يلي شريحة من أحدث دعوة للمستثمر في شركة TSMC ، قائلة إنها يمكن أن تغلق الفجوة في العام المقبل.

من الواضح ، فإن الوقت فقط سوف اقول.

في هذه الأثناء ، يكون الحصول على أحجام أصغر للقالب أكثر صعوبة مع أدوات الطباعة الحجرية التقليدية المستخدمة في حفر الخطوط في رقاقة السيليكون. وصلت الطباعة الحجرية الغاطسة ، التي استخدمتها الصناعة لسنوات ، إلى الحد الأقصى ، لذلك يتجه البائعون الآن إلى "نقش مزدوج" أو حتى المزيد من التمريرات للحصول على أبعاد أدق. على الرغم من أننا شهدنا بعض التقدم في الآونة الأخيرة ، إلا أن الحركة التي طال انتظارها نحو الطباعة الحجرية فوق البنفسجية المتطرفة (EUV) ، والتي من المفترض أن توفر تحكمًا أدق ، لا تزال قائمة بعد سنوات.

تساعد أشياء مثل FinFETs وأنماط متعددة في صنع الجيل التالي من الرقائق ، ولكن بتكاليف متزايدة. في الواقع ، يقول عدد من المحللين أن تكلفة ترانزستور الإنتاج عند 20nm قد لا يكون تحسنا على التكلفة في 28nm ، بسبب الحاجة إلى نمط مزدوج. ومن المرجح أن تكون الهياكل الجديدة مثل FinFETs أكثر تكلفة ، على الأقل في البداية.

نتيجة لذلك ، يبحث العديد من صانعي الرقائق عن طرق أكثر غرابة لتحسين الكثافة حتى لو لم تنجح تقنيات قانون مور التقليدية.

تستخدم ذاكرة فلاش NAND تقنية العمليات الأكثر تقدمًا ، لذا فهي تعمل بالفعل على حل مشاكل خطيرة تتعلق بالقياس الأفقي التقليدي. الحل هو إنشاء سلاسل NAND العمودي. لن تصبح خلايا الذاكرة الفردية أصغر ، ولكن لأنه يمكنك تكديس الكثير من بعضها البعض - كل ذلك على الركيزة نفسها - ستحصل على كثافة أكبر بكثير في نفس المساحة. على سبيل المثال ، ستكون رقاقة NAND ثلاثية الأبعاد المكونة من 16 طبقة والتي تم تصنيعها في عملية تبلغ 40 نانومتر مكافئة تقريبًا لشريحة 2D NAND التقليدية المصنوعة في عملية 10 نانومتر (العملية الأكثر تقدما المستخدمة الآن هي 16 نانومتر). تقول شركة Samsung إنها تقوم بالفعل بتصنيع V-NAND (Vertical-NAND) ، وستتبع Toshiba و SanDisk ما تسميه p-BiCS. تقوم Micron و SK Hynix أيضًا بتطوير 3D NAND ، ولكن يبدو أنهما يركزان على المعيار 2D NAND للعامين المقبلين.

لاحظ أن هذا ليس هو نفسه تكديس شرائح ثلاثية الأبعاد. تصل ذاكرة DRAM أيضًا إلى جدار التحجيم ، ولكنها تتميز بهندسة معمارية مختلفة تتطلب ترانزستورًا واحدًا ومكثفًا واحدًا في كل خلية. الحل هنا هو تكديس شرائح ذاكرة DRAM متعددة ملفقة فوق بعضها البعض ، وحفر الثقوب من خلال الركائز ، ومن ثم توصيلها باستخدام تقنية تسمى من خلال السيليكون فياز (TSVs). والنتيجة النهائية هي نفسها - الكثافة الأعلى في مساحة أصغر - لكنها عملية تغليف متقدمة أكثر من عملية تصنيع جديدة. تخطط الصناعة لاستخدام هذه التقنية نفسها لتكدس الذاكرة فوق المنطق ، ليس فقط لتقليص البصمة ، ولكن أيضًا لتحسين الأداء وتقليل الطاقة. أحد الحلول التي حظيت بالكثير من الاهتمام هو مكعب الذاكرة الهجينة Micron. في نهاية المطاف ، يمكن استخدام تكديس الرقاقات ثلاثية الأبعاد لإنشاء شرائح متنقلة قوية تجمع بين وحدات المعالجة المركزية والذاكرة وأجهزة الاستشعار والمكونات الأخرى في حزمة واحدة ، ولكن لا تزال هناك العديد من المشكلات التي يجب حلها مع تصنيع واختبار وتشغيل ما يسمى بالتغاير غير المتجانسة مكدسات 3D.

ولكن هذا هو الجيل التالي من التقنيات التي تحدث عنها صانعو الرقاقات ، والتي تبدو أكثر غرابة. في مؤتمرات الرقاقات ، تسمع الكثير عن التجميع الذاتي المباشر (DSA) ، حيث ستقوم المواد الجديدة بتجميع نفسها فعليًا في نمط الترانزستور الأساسي - على الأقل لطبقة واحدة من الشريحة. هذا يشبه الخيال العلمي إلى حد ما ، لكنني أعرف عددًا من الباحثين الذين يعتقدون أن هذا ليس بعيدًا على الإطلاق.

وفي الوقت نفسه ، يبحث باحثون آخرون في فئة من المواد الجديدة - المعروفة باسم أشباه الموصلات من الثالث إلى الخامس في أنماط التصنيع التقليدية ؛ بينما يبحث الآخرون في هياكل مختلفة لأشباه الموصلات لتكملة أو استبدال FinFETs ، مثل الأسلاك النانوية.

طريقة أخرى لخفض التكاليف هي جعل الترانزستورات على رقاقة أكبر. لقد مرت الصناعة بمثل هذه التحولات قبل أن تنتقل من رقائق بحجم 200 مم إلى رقائق بحجم 300 مم (قطرها حوالي 12 بوصة) قبل عقد من الزمن. الآن ، هناك الكثير من الحديث عن الانتقال إلى رقائق بسعة 450 مم ، مع قيام معظم الشركات المصنعة الكبرى للرقائق وموردي الأدوات بإنشاء اتحاد للنظر في التقنيات اللازمة. مثل هذا الانتقال من شأنه أن يقلل من تكاليف التصنيع ، لكنه سيحمل تكلفة رأسمالية عالية حيث سيتطلب مصانع جديدة وجيلًا جديدًا من أدوات تصنيع الرقاقات. يوجد لدى شركة إنتل مصنع في أريزونا يكون قادرًا على إنتاج 450 ملم ، لكنه أرجأ طلب الأدوات ، كما أن العديد من بائعي الأدوات يؤخرون عروضهم أيضًا ، مما يجعل من المرجح أن أول إنتاج حقيقي للرقائق 450 ملم لن يكون حتى 2019 أو 2020 في أقرب وقت ممكن.

يبدو أن كل شيء يزداد صعوبة وأكثر تكلفة. ولكن كان هذا هو الحال بالنسبة لصناعة أشباه الموصلات منذ البداية. السؤال الكبير هو دائمًا ما إذا كانت التحسينات في الأداء والكثافة الإضافية تستحق التكلفة الإضافية في التصنيع.

ISSCC: تمديد قانون مور

كانت كيفية تمديد قانون مور موضوعًا رئيسيًا في مؤتمر دوائر الحالة الصلبة الدولي (ISSCC) الذي انعقد الشهر الماضي. أشار مارك هورويتز ، أستاذ بجامعة ستانفورد ومؤسس شركة رامبوس ، إلى أن السبب وراء امتلاكنا للحوسبة في كل شيء اليوم هو أن الحوسبة أصبحت رخيصة بسبب قواعد قانون مور وقواعد دنارد في القياس. وقد أدى ذلك إلى توقع أن تصبح أجهزة الحوسبة أرخص وأصغر وأكثر قوة. (قام ستانفورد برسم أداء المعالجات بمرور الوقت على cpudb.stanford.edu).

لكنه أشار إلى أن تردد الساعة من المعالجات الدقيقة توقف عن التوسع في عام 2005 لأن كثافة الطاقة أصبحت مشكلة. حقق المهندسون حدًا فعليًا للطاقة - لأنهم لم يتمكنوا من جعل الرقائق أكثر سخونة ، لذلك أصبحت جميع أنظمة الحوسبة محدودة الطاقة. كما لاحظ ، يتغير حجم الطاقة - الجهد الكهربائي لإمدادات الطاقة - ببطء شديد.

أول ميل للصناعة لحل هذه المشكلة هو تغيير التكنولوجيا. وقال "لسوء الحظ لست متفائلاً بأننا سنجد تقنية لتحل محل CMOS للحوسبة" للمشاكل الفنية والاقتصادية على حد سواء. وقال إن الطريقة الوحيدة لزيادة العمليات في الثانية الواحدة هي بالتالي تقليل الطاقة لكل عملية ، مشيرًا إلى أن هذا هو السبب في أن كل شخص لديه معالجات متعددة النواة اليوم ، حتى في هواتفهم المحمولة. ولكن المشكلة هي أنه لا يمكنك الاستمرار في إضافة النوى لأنك سرعان ما وصلت إلى نقطة من العوائد المتناقصة من حيث الطاقة الأداء ومنطقة الموت. لقد عرف مصممو وحدة المعالجة المركزية هذا عن بعض الوقت وقاموا بتحسين وحدات المعالجة المركزية لفترة طويلة.

قال هورويتز إنه لا ينبغي لنا أن ننسى الطاقة التي تستخدمها الذاكرة. في عرضه التقديمي ، أظهر تعطل الطاقة للمعالج الحالي ذي 8 النواة والذي لم يتم تحديد هويته والذي استخدمت فيه نوى وحدة المعالجة المركزية حوالي 50 في المائة من الطاقة والذاكرة عند الموت (ذاكرة التخزين المؤقت L1 و L2 و L3) التي استخدمت 50 في المائة أخرى. هذا لا يشمل حتى ذاكرة نظام DRAM الخارجية ، والتي قد تصل إلى 25٪ من إجمالي استخدام الطاقة في النظام.

يتحدث الكثير من الناس عن استخدام أجهزة متخصصة (مثل ASICs) ، والتي يمكن أن تكون أفضل ألف مرة من حيث الطاقة لكل عملية مقارنة بوحدة المعالجة المركزية للأغراض العامة. ولكن كما لاحظ هورويتز ، فإن الكفاءة هنا تأتي جزئيًا لأنها تستخدم لتطبيقات معينة (مثل معالجة المودم ومعالجة الصور وضغط الفيديو وإلغاء الضغط) التي لا تصل إلى الذاكرة بشكل أساسي. هذا هو السبب في أنها تساعد في الكثير من الطاقة - ليس الكثير عن الأجهزة ، بل تتعلق بنقل الخوارزمية إلى مساحة أكثر تقييدًا.

الأخبار السيئة هي أن هذا يعني أن التطبيقات التي يمكنك إنشاؤها مقيدة. والخبر السار هو أنك قد تكون قادرًا على إنشاء محرك أكثر عمومية يمكنه التعامل مع هذه الأنواع من التطبيقات بـ "محلية عالية" ، مما يعني أنها لا تحتاج إلى الوصول إلى الذاكرة. ويشير إلى هذا باسم "نموذج الحوسبة المحلية العالية" و "تطبيقات الاستنسل" التي يمكن تشغيلها عليه. هذا بالطبع يتطلب نموذج برمجة جديد. طورت Stanford لغة خاصة بالمجال ، ومترجم يمكنه إنشاء تطبيقات الاستنسل هذه وتشغيلها على FPGAs و ASIC.

وفي مؤتمر ISSCC أيضًا ، قال مينغ كاي تساي ، رئيس مجلس الإدارة والرئيس التنفيذي لشركة MediaTek ، إن الناس يسألون منذ أوائل التسعينيات عن المدة التي سيستغرقها قانون مور بالفعل. ولكن كما قال غوردون مور في ISSCC في عام 2003 ، "لا يوجد الأسي إلى الأبد. لكننا نستطيع تأخيره إلى الأبد." وقال إن الصناعة قامت بعمل رائع في الحفاظ على قانون مور أكثر أو أقل. واصلت تكلفة الترانزستور انخفاضها التاريخي. بتكلفة 100 جرام من الأرز (حوالي 10 سنتات) ، يمكنك شراء 100 الترانزستورات فقط في عام 1980 ، ولكن بحلول عام 2013 يمكنك شراء 5 ملايين الترانزستورات.

قال تساي إن الأجهزة المحمولة بلغت سقفًا لأن المعالجات لا يمكنها العمل بكفاءة بسرعات تتجاوز 3 جيجا هرتز ولأن تقنية البطارية لم تتحسن كثيرًا. تعمل MediaTek على هذه المشكلة باستخدام وحدات المعالجة المركزية متعددة النواة والمعالجات غير المتجانسة (HMP). وقال إن الشركة قدمت أول معالج HMP ذي 8 نواة في عام 2013 ، وفي وقت سابق من هذا الأسبوع ، أعلنت عن معالج رباعي النواة يستخدم تقنية PTP (الأداء والحرارية والطاقة) لزيادة الأداء وتقليل الطاقة. تحدث أيضا عن التقدم السريع في الاتصال. وقال إن العديد من تطبيقات الهاتف المحمول التي كانت مستحيلة في السابق أصبحت قابلة للتطبيق الآن بسبب هذه التحسينات في شبكات WLAN و WWAN.

يعمل MediaTek على تقنيات مختلفة لـ "Cloud 2.0" بما في ذلك حلول الشحن اللاسلكي ، و "Aster" SoC للحواسب القابلة للارتداء (بقياس 5.4x6.6 ملليمتر فقط) ، والأنظمة غير المتجانسة كجزء من مؤسسة HSA. سيتم تمييز Cloud 2.0 ، حسب تساي ، بالعديد من الأجهزة - وخاصة الأجهزة القابلة للارتداء - مع الكثير من أجهزة الراديو ؛ أكثر من 100 جهاز لاسلكي لكل شخص بحلول عام 2030.

وقال تساي إن التحديات الكبيرة التي تواجه تطبيق Cloud 2.0 ستكون الطاقة وعرض النطاق الترددي. الأول يتطلب أنظمة متكاملة مبتكرة ، وحلول الأجهزة والبرامج ؛ أفضل تكنولوجيا البطارية. وشكل من أشكال حصاد الطاقة. سيتطلب الثاني استخدامًا أكثر كفاءة للطيف المتوفر والشبكات التكيفية وإمكانية اتصال أكثر موثوقية.

مهما حدث في صناعة الرقائق ، فمن المؤكد أن تؤدي إلى تطبيقات جديدة وقرارات جديدة يواجهها صانعو الرقائق ومصممو المنتجات والمستخدمون النهائيون.

تواجه تحديات صناعة الرقاقات قانون مور