|
Введение
В
Узкие временные рамки
Любая маркетинговая программа имеет срок жизни. Каждая технология тоже, рано или поздно, становится устаревшей. Многоядерные вычисления, которые сегодня только появляются, когда-нибудь тоже устареют. И уже возникли предположения по поводу вероятного наступления этого момента - примерно через десять лет.
Ну, а пока инженеры Intel продумывают радикально новые концепции производства, включая трёхмерные процессы, описанные
"Если работа нескольких потоков на нескольких ядрах поднимает проблему процессорных задержек, - сказал Раттнер на IDF, - чистая вычислительная мощность нескольких ядер, а в будущем и многих ядер, приводит к повышению требований по пропускной способности памяти. ... Фундаментальной проблемой здесь является ограничение по количеству ножек. Мы просто не можем продолжить достаточное число контактов к чипу, чтобы отсылать и получать весь необходимый объём информации". Трёхмерные архитектуры, как предполагает Раттнер, могут на долгое время решить проблему с пропускной способностью памяти.
Раттнер не захотел чётко изложить развитие технологий Intel на пять лет вперёд или дальше, вплоть до так называемой Представитель Intel Манни Вара (Manny Vara) прояснила мысль Раттнера для Tom's Hardware Guide: "Что касается производственных возможностей, то мы меняем оборудование примерно каждые два года, так как внедряем новый техпроцесс тоже каждые два года. Так, наш 65-нм техпроцесс в целом уже готов, и в этом году мы будем принимать решение, какое оборудование будем использовать в нашем 45-нм техпроцессе, который будет внедрён в 2007 году. То есть примерно за два года до производства нам приходится продумывать оборудование, чтобы быстро внедрить его в работу." Как сообщила нам Вара, "пока ещё непонятно, закончится ли в 2015 году действие закона Мура".
На основе простой арифметики из слов Раттнера можно сделать такое заключение: у Intel остался в запасе только один цикл R&D, прежде чем компания займётся разработкой следующей революционной архитектуры CPU, которая обойдёт барьеры, связанные с физикой.
"Я также предполагаю, что AMD и другие лидирующие компании в производстве полупроводников, - продолжает Сандер, - выпустят схожие техпроцессы с временным промежутком от шести месяцев до года друг от друга. Это обусловлено двумя причинами: конкуренцией и зависимостью производителей полупроводников от литографического оборудования, позволяющего уменьшать техпроцесс".
Но доктор Кришна Палем (Dr. Krishna Palem) предупреждает, что должны произойти фундаментальные изменения, чтобы литографический техпроцесс спустился ниже отметки 45 нм. Проблема заключается в том, что хотя процесс миниатюризации и кажется бесконечным, размер электрона постоянен. "У крошечных устройств размером 45 нм или меньше, - сказал доктор Палем, - вам придётся преодолевать явление "шума" и другие типы погрешностей. Под погрешностями мы понимаем нестабильность, в результате чего устройство начинает работать вероятностно". Это противоречит детерминированному подходу, которому до сих пор соответствуют компьютеры, - от дизайна Неймана до наших дней.
Возможным решением, над которым работают доктор Палем и CREST, является концепция вероятностных вычислений. При этом транзисторы настолько малы, что в них возникают ошибки, но для решения некоторых проблем, где некоторая погрешность допустима, эта техника вполне подходит. Вероятностные вычисления, по словам Палема, пытаются построить "каркас, который будет прочно поддерживать закон Мура. Такие чипы, с крошечным размером и огромным числом транзисторов, расшатают основу детерминированного мира - мы получим шаткий мир, где каждый выпускаемый чип будет отличаться от любого другого".
Команда Палема сегодня исследует возможности механизма коррекции ошибок, который сможет посчитать их количество на уровне вероятностных битов (Pbits). В недавнем документе Комментарии
Прелесть закона Мура заключается в том, что он обеспечивает быстрые архитектурные улучшения систем, обеспечивая снижение себестоимости каждого транзистора, что нивелирует затраты. Закон не учитывает физические границы, которые должны означать конец эволюционного пути развития, хотя все границы, появлявшиеся в прошлом, были успешно преодолены. Впрочем, понятно, что в какой-то момент будет невозможно обеспечивать рост производительности через продолжающуюся миниатюризацию, и закон Мура перестанет соответствовать полупроводниковой индустрии в том виде, в котором мы его знаем.
Что станет потом? Так как наблюдения Гордона Мура за 40 лет продолжают оставаться верными, вряд стоит беспокоиться и за ближайшие 10 лет. Но что же будет потом? Возможно, будет сделано не менее важное наблюдение, которое появится в журнале, эквивалентном Electronics. (Будем надеяться, что им станет Tom's Hardware Guide!)
Но даже если индустрия и перерастёт закон Мура, некоторые фундаментальные принципы, открытые в самом начале, будут работать годами точно так же хорошо, как они работают и сегодня. Itanium обеспечил элегантную и эффективную (хотя и не безошибочную) архитектуру, а также путь миграции, который позволил потребителям адаптировать новую технологию с минимальными затратами на программное обеспечение. Однако архитектуры Itanium EPIC и IA-64 не обеспечивают прямой совместимости с существующим откомпилированным кодом x86, то есть программным разработчикам придётся устранять этот зазор. Впрочем, что касается Linux, здесь большинство программ поставляется с исходным кодом, так что особых проблем возникнуть не должно. Для производителей программ под Windows новая версия ПО означает новую коробку (пусть и виртуальную), а также новые услуги и поддержку. Производители программ вряд ли будут уделять внимание Itanium, пока он не докажет свою выносливость на рынке.
Рынку нужен чёткий и прочный путь между архитектурами - не только чтобы старые программы работали на новых машинах, но и чтобы производители, продавцы, персонал поддержки избежали проблем совместной работы множества версий. AMD рисует цельную платформу, в то время как Intel тоже пытается дать такую же картинку с SIPP, но здесь слово "Single" относится только к одной части процессорных планов.
На данный момент истории AMD и Intel являются сильными компаниями, способными идти собственным путём в инновациях. AMD сегодня опирается на внедрение HyperTransport, а Intel остаётся приверженной (пока что) шине FSB, поэтому в дальнейшем мы должны увидеть продолжающееся разделение архитектур Intel и AMD. Но если через десять лет нас ждут технологические барьеры, то рано или поздно компании к ним подойдут - и неважно, каким путём. Ну, а пока что в процессорных планах обеих компаний должны присутствовать чёткие и понятные пути перехода существующих программ и приложений.
Мы можем бесконечно говорить, писать статьи и выпускать рекламные брошюры о том, как новая технология приведёт к появлению совершенно новых сфер и областей применения. Или мы можем использовать брошюры десятилетней давности практически без изменений. Все эти новые сферы применения - виртуальная реальность, автоматизированный дом, биоуправление - связаны с потребителями. Они должны привести потребителей в лучший и более удобный мир. Подобный переход уже был запланирован (а потом отсрочен) для пользователей Macintosh ещё два десятилетия назад. В то же время, скажем, коммерческие банки придерживаются архитектуры мейнфрейма. И всё дело в том, что сегодня нет хорошего пути для переноса бизнес-логики, появившейся примерно в то же время, когда Гордон Мур опубликовал свой закон, на более эффективную платформу XXI века.
Ключевое слово здесь "прозрачность". Какие бы изменения AMD и Intel ни производили в ближайшие десять лет и дальше, залог их успеха в том, насколько мало мы это почувствуем.
Дополнения (6 апреля)
31 марта менеджер Intel Desktop Platform Group Джеф Остин (Jeff Austin) пояснил Tom's Hardware Guide, что технология Hyper-Threading не будет продолжаться в будущих процессорах Itanium 2, но существует возможность, что в них будет использоваться другая форма неявной многопоточности. Эту форму многопоточности, по утверждению Остина, ещё предстоит создать. Напомним, что до 31 марта Intel отказывалась давать комментарии по этому вопросу.
Остин также объяснил, что пока у Intel нет планов оснащать двуядерные процессоры Pentium D технологией HT, хотя использование HT продолжится в новом многоядерном Pentium Extreme Edition.
Что касается будущей роли HT, то Остин отметил, что он прогнозирует долгую жизнь этой технологии, поскольку она даёт 25% прирост на некоторых серверных тестах. "Учитывая тот объём кремния, который используется для обеспечения этого прироста, - сказал Остин, - стоимость внедрения HT практически ничтожна".
Hyper-Threading не предусматривает, что программа будет точно указывать процессору, где и когда следует начинать и заканчивать новые потоки. Однако и Остин, и представитель Intel Джордж Альфс (George Alfs) указывают, что преимущества HT будут явно более заметны, как только разработчики ПО научатся их использовать. "Самое важное преимущество HT можно использовать уже сегодня, - указал Альфс, - опираясь на существующую многозадачность операционных систем типа Windows XP и привязывая один поток к одной задаче. Если посмотреть в "Диспетчер задач", то там мы увидим множество задач, которые являются прекрасными кандидатами для многопоточности, включая HT. Это имеет смысл... и мы подготовили соответствующий продукт".
Но если многоядерный процессор будет также поддерживать Hyper-Threading для каждого логического ядра, эффективно разделяя физические потоки на логические, то насколько эффективно операционная система будет поддерживать такое разбиение? По мнению Остина, ответ не такой очевидный. Хотя он сказал нам: "Если приложение способно работать с двумя потоками, а операционная система (такая, например, как Windows XP) поддерживает многозадачность, то ОС, безусловно, запустит приложение, разобьёт его на два из четырёх потоков, а затем будет планировать на двух оставшихся потоках какие-то другие задачи".
Однако ещё предстоит увидеть, как операционная система будет планировать потоки для двухпоточных приложений. Будет ли каждый поток приложения выполняться на разных физических процессорах, или на одном с помощью Hyper-Threading?
Также Остин прокомментировал наш материал по двуядерным процессорам. Первый 65-нм настольный процессор должен выйти в первой половине 2006 года под названием Presler, однако он не входит в линейки Smithfield. Технически, сказал Остин, "линейки Smithfield" вообще нет. Так же и мобильная платформа Yonah не будет связана со Smithfield. Вывод здесь таков, что Presler может не получить название "Pentium D" - для него на рынок может быть выведена новая торговая марка.
Presler (для настольных ПК) и Dempsey (для серверов Xeon) будут использовать двухпроцессорные упаковки, ранее называемые "DP", что отличается от упаковок "DC" (dual-core - два ядра). Но, как сообщил Остин, Intel на данный момент классифицирует многопроцессорные упаковки как многоядерные, если они используют ту же раскладку ножек. В нашей статье мы сказали, что технически назвать Dempsey двуядерным сложно - такого же мнения придерживаются некоторые инженеры вне Intel, хотя это, конечно, противоречит точке зрения Intel. Хотя по предыдущим объявлениям Intel планировала упаковывать два процессора Smithfield в одну упаковку Presler, Остин пояснил, что ядра Presler не будут связаны со Smithfield (Pentium D).
Остин добавил, что мы должны понимать, что Bensley и Glidewell - это платформы для рабочих станций, которые используют процессор Dempsey. Он также сообщил, что бизнес-платформа Intel Lyndon, использующая чипсеты 945 и 955X, будет поддерживать большой ассортимент процессоров, включая текущие модели Pentium 4, а также и грядущие Pentium D. В будущем платформа Truland будет использовать процессор Paxville, но Tulsa будет процессором-преемником Paxville, а не преемником платформы Truland. Название платформы для процессоров Tusla пока ещё не объявлено.