Гонка за удвоение производительности CPU
Сегодня уже становится понятно, что 64-битные многоядерные CPU – процессоры с одним или большим числом ядер, между которыми распределяется нагрузка, – будут повсеместно распространены в серверах, рабочих станциях и даже в обычных настольных ПК и мобильных решениях уже в 2007 году. То есть компьютер, который вы будете покупать через два года, будет полностью отличаться от сегодняшних моделей. И причина вряд ли вызовет удивление: эволюция одноядерных микропроцессоров подходит к своему концу, так как законы физики ещё никто не отменял. Теперь началась другая гонка: производителям нужно создать такой двуядерный процессор, который стал бы стандартом индустрии, и здесь их не остановит ни падение производительности, ни прибыльности.
Обе компании, Intel и AMD, сейчас находятся в состоянии вывода на рынок нового индустриального стандарта. Но, впервые в истории, Intel чуть отстаёт, а её конкурент AMD получает равные шансы (по некоторым данным, даже лучшие), чтобы стать родоначальником нового стандарта. Ещё в августе прошлого года, как мы сообщали на сайте Tom’s Hardware Guide, AMD успешно продемонстрировала первую x86-совместимую 64-битную двуядерную платформу, которая должна выйти во втором квартале 2005 года. Кроме того, отметим и демонстрацию этой платформы на конференции LinuxWorld в феврале. В ответ Intel объявила планы по выводу нового процессора Pentium Extreme Edition и двуядерной линейки Pentium D, чьи 64-битные инструкции EM64T будут совместимы – то есть идентичны – набору AMD64, который AMD ввела с выпуском Opteron и Athlon 64.
Чтобы сбросить необычный для себя имидж догоняющей компании, Intel заявляет не о борьбе с конкурентом, а об экономических причинах. Направляющей темой последнего весеннего Форума Intel для разработчиков IDF был закон Мура. Как указал один из основателей Intel Гордон Мур в статье, опубликованной в 1965 году, число транзисторов CPU, которые выгодно производить, будет удваиваться каждые два года (на самом деле, в 1965 был указан меньший временной промежуток, который был затем увеличен).
Преподнесение этого закона публике можно сравнить с формулой E=mc² – её можно “прилепить” для доказательства почти любого известного факта. Закон Мура менял форму за свою 40-летнюю историю много раз – его соотносили с увеличением производительности, тактовых частот процессоров, а в последние годы даже с продуктивностью американских “белых воротничков”. На весеннем IDF Intel буквально раболепствовала закону Мура – разве что до молитв дело не дошло.
На последнем IDF вице-президент Intel Патрик Гелсингер сказал: “Всё дело в законе Мура”. Впрочем, затем корректно добавив: “И удвоение числа транзисторов каждые 18-24 месяца продолжается и до сих пор. Это позволило увеличивать частоту и улучшать производительность, но сегодня применение закона меняется – рынку нужны процессоры, у которых тепловые пакеты не будут увеличиваться”. В целом, это можно достичь, понижая требования процессоров по напряжению, что возможно при дальнейшей миниатюризации.
“Для нас, – продолжал Гелсингер, – вся суть заключается в многоядерных архитектурах. … Используя закон Мура во время перехода на несколько ядер, перехода от Hyper-Threading к двуядерности и многоядерности, мы обеспечим более высокий темп прироста производительности.” Существует возможность, отметил Гелсингер, что производительность процессоров за ближайшие четыре года возрастёт в 10 раз – “захватывающий прирост производительности через параллелизм”.
Почему параллелизму уделяется столь много внимания? Причина проста: новые одноядерные процессоры, даже с учётом уменьшения шага литографии, нельзя заставить работать на частотах выше 3,5-4,0 ГГц, не “поджарив” их. Поэтому единственным способом дальнейшего увеличения производительности для AMD и Intel (к которому, кстати, мы привыкли) является параллелизм. Если говорить простыми словами, то новые процессоры будут распределять нагрузку по двум или большему числу процессорных ядер. Эффективность работы этой системы, а также успех на рынке будут зависеть от того, насколько хорошо будет распределяться нагрузка, и каким способом будет реализован параллелизм.
Натан Бруквуд (Nathan Brookwood) из Insight 64.
Как мы уже отмечали в нашем репортаже с весеннего IDF, Intel практически одновременно выводит на рынок в этом году четыре дизайна двухпроцессорных платформ. Хотя, конечно, они нацелены на разные секторы рынка. Несмотря на такое позиционирование, Intel оставит за покупателями выбор того решения, которое окажется наиболее интересным. Ниже мы приведём информацию аналитика Натана Бруквуда (Nathan Brookwood) из Insight 64, которая позволит отличить новые двуядерные платформы Intel друг от друга и внести ясность в этот вопрос.
- Для своей новой линейки Pentium D (“D” означает “два ядра/dual-core” и заменяет четвёрку в названии) Intel припасла долгожданное ядро Smithfield, которое будет первой двуядерной платформой, поддерживающей как Hyper-Threading, так и EM64T. Первой реинкарнацией ядра в 2005 будет Lyndon, который будет производиться по 90-нм техпроцессу и содержать целый набор технологий Intel, включая поддержку технологии самоконтроля Active Management Technology (IAMT). В 2006, как ожидается, появится обновлённая версия Averill, которая, по информации Патрика Гелсингера из Intel, “будет именно тем процессором, который сможет перенести два ядра на массовый корпоративный рынок”. Smithfield также знаменует начало инициативы Stable Image Platform Program (SIPP), которая, по словам Гелсингера, обеспечит “цельную платформу для корпоративных отделов ИТ, и им не придётся менять программное обеспечение при обновлении платформы”. Мобильный процессор Yonah (производная Smithfild) будет ждать своих улучшений по тепловыделению, прежде чем он появится на рынке в первой половине 2006. Но самым лакомым куском линейки Smithfield, значимой в планах, будет Presler, настольная версия процессора, производимая по новой 65-нм технологии.
- Что касается линейки Itanium 2, то платформа Montecito будет использовать два процессорных ядра (движка), находящихся на одном кристалле кремния, изготовленного по новому 90-нм техпроцессу. Все соединительные линии между двумя ядрами тоже нанесены на чип. Но здесь ядра 0 и 1 не имеют общих ресурсов – они связываются между собой посредством традиционной системной шины. Первыми производными архитектуры Montecito в 2005 году будут двухсокетный Millington с пониженным напряжением, а также двух- и четырёхсокетная линейка Montvale со стандартным напряжением.
- Что касается серверной платформы Xeon, то здесь Intel планирует вывести линейку Dempsey, которая изначально будет использовать два процессорных ядра на двух отдельных кристаллах, имеющих единую упаковку. И хотя технически назвать такой процессор двуядерным сложно, CPU 0 и CPU 1 у Dempsey будут связываться с собой точно так же, как и в Montecito. Dempsey также представит новую технологию Intel I/O Acceleration Technology (I/OAT), которая должна увеличить производительность сети путём аппаратного ускорения обработки пакетов TCP/IP. Двуядерные производные Dempsey, Bensley для серверного рынка и Glidewell для рабочих станций, появятся в первой половине 2006. Скорее всего, они будут использовать серверные технологии Dempsey, включая I/OAT и IAMT.
- Что касается 4-сокетных систем Xeon MT, то здесь Intel предложит в 2005 году линейку Paxville, наиболее амбициозную из трёх двуядерных платформ. Здесь оба ядра не только располагаются на одном кристалле, но они имеют и общий буфер памяти, через который ядра обмениваются информацией, полностью минуя системную шину. Буфер имеет единый выход на FSB – в отличие от раздельного подключения ядер к FSB у Montecito и Dempsey. 4-сокетная (MT) версия с кодовым названием Truland, возможно, станет первой производной Paxville с поддержкой EM64T, в то время как Tulsa станет преемником Truland в тот момент, когда Intel перейдёт на 65-нм, – возможно, уже в следующем году.
Дилемма Hyper-Threading
Всем новым технологиям нужен как можно более лёгкий способ их внедрения. Как через технологию-посредника, так и через что-то очень простое, типа стимуляции потребителей. Когда Intel (в конце концов) выпустила оригинальный Itanium в 2001 году, его архитектура IA-64 встретила не очень радушный приём. И дело здесь не столько в каких-то недостатках производительности (хотя в Itanium были обнаружены ошибки), сколько в сложном переходе с x86 на IA-64 – существующие приложения не работали на новом процессе без перекомпиляции.
Учитывая прошлый опыт, Intel на этот раз решила бороться серьёзно. В октябре прошлого года Microsoft изменила схему лицензирования Windows по процессорам, начав рассматривать двуядерные процессоры как один CPU при расчёте лицензии. Хорошая новость для Intel. В это же время Intel высказала мнение, что двуядерные серверные решения могут оказаться дороже одноядерных Itanium.
В январе, как ушат холодной воды, появилась новость: Microsoft отказалась от своих планов портирования Windows XP на Itanium. Хотя XP является системой потребительского уровня, а Itanium предназначается для серверного рынка, этот отказ можно было рассматривать как отход Microsoft от Itanium. Наконец, незаметно в феврале Microsoft высказала желание выпустить версию Datacenter Edition Windows Server 2003 для архитектур x64. Новость появилось так незаметно, что почти месяц её не замечали. Под “x64” следует понимать технологии AMD64 и EM64T, так что Intel напрямую не упоминается.
Чтобы не наступить дважды на одни и те же грабли, Intel на этот раз вывела на рынок промежуточную технологию, которая должна была облегчить переход с одноядерной системы x86 на двуядерную EM64T. В 2002 году Intel представила технологию Hyper-Threading (HT). Довольно любопытно, но в то время мало кто понимал, что эта технология сможет вести потребителей вперёд: к многоядерной обработке.
Технология HT явилась, по сути, одним из многих улучшений, которые инженеры Intel ввели для преодоления потенциальных проблем задержек, когда одноядерные процессоры тратили больше половины тактов вхолостую. В середине 90-х годов Intel обнаружила, что традиционные однопоточные программы используют только около 35% ресурсов процессора. Проблема была решена путём добавления нового уровня абстракции, когда процессор мог выполнять хотя бы ещё один поток в неиспользованное время. Но при этом каждый поток должен “верить”, что он монопольно владеет процессором, включая регистры, кэш и доступ к шине процессора. Так что HT выполняет два потока (пока что) попеременно: несколько тактов для потока 1, ещё несколько – для потока 2. Но только тогда, если работа одного потока не повлияет на работу другого. Другими словами, HT может попеременно выполнять только те инструкции, которые не будут друг другу мешать.
Важным преимуществом параллелизма HT является то, что он не требует программной поддержки. Программы, находящиеся в каждом из потоков, могут “не знать” ни о каком параллелизме вообще. Каждый поток, “не зная”, что он работает в разделённом окружении, “верит”, что процессор весь принадлежит только ему. В результате программное обеспечение, изначально скомпилированное для стандартных одноядерных процессоров типа Pentium 4 и Xeon, не нужно перекомпилировать для работы в параллельном окружении. В итоге мы получим рост суммарной производительности без увеличения тактовой частоты.
Архитектура Itanium IA-64, напротив, подразумевает (если не вдаваться в подробности), что код программы сам будет определять, когда и где происходит деление на потоки. Такой подход, который продолжен в процессоре Itanium 2, назван Explicitly Parallel Instruction Set (EPIC). Термин “explicitly” здесь подразумевает, что программное обеспечение “знает”, когда и где разделять потоки.
Мы побеседовали с доктором Кришной Палемом (Dr. Krishna Palem), начальником центра исследований встроенных систем (Director of the Center for Research in Embedded Systems, CREST) Технического университета Джорджии. Кришна является экспертом в области параллелизма и одним из трёх создателей прототипа компилятора Trimaran для EPIC и IA-64. Если не вдаваться в детали, доктор Палем объяснил, что для увеличения производительности через параллелизм существует две возможности. Первая касается функциональных и исполняющих блоков процессора, а вторая – прохождения данных в память и из неё. “В зависимости от того, где вы будете реализовывать эти возможности, вы получите различные типы вычислений. … Как убедиться, что указанные функции эффективно реализованы? Нужно либо использовать их статически – в компиляторе, либо положиться на аппаратные блоки, которые будут реализовывать их “на лету”. Цена последнего решения не увеличивается линейно с добавлением ядер на чип.”
“Но если аппаратные решения типа HT экономически выгодны, – отметил доктор Палем, – на практике прирост производительности может ощутимо меняться. Не все оптимально скомпилированные потоки подходят для разделения. Очень легко установить на процессор сто вычислительных блоков, но очень трудно найти поток с таким же количеством инструкций ADD, которые бы выполнялись “на лету”.
Аналитик Натан Бруквуд из Insight 64 соглашается: “Я думаю, что Hyper-Threading, по своей сути, ограничена по возможному приросту производительности. И причина здесь в том, что если поток HT “видит”, что ему предоставлены все доступные ресурсы процессора, на самом деле эти ресурсы общие. К примеру, так как процессор часто обращается к кэшу процессора, HT разделяет кэш напополам и закрепляет за каждым потоком свою половину. Сужение кэша приводит к уменьшению окна, через которое процессор “смотрит в память”, в результате чего данные приходится запрашивать из памяти чаще. Поэтому двуядерные системы подходят намного ближе к тому, чтобы дать 100% прирост производительности, в то время как HT обычно даёт 15-20% прироста”.
Хотя технология HT может появиться и в архитектуре Itanium, доктор Палем утверждает, что между HT и стилем многопоточности в Itanium существует принципиальная разница. Судя по опыту доктора Палема, в архитектуре EPIC короткие инструкции могут быть скомпилированы таким образом, чтобы они группировались вместе, чтобы соответствовать 64-битной пропускной способности. Определённые сигнальные слова (отсюда буква “E” в EPIC) указывают процессору, где начинается и кончается группа. В отличие от HT, потоки EPIC планируются ещё на стадии компиляции программы. Поэтому наличие явной многопоточности в коде EPIC для Itanium 2 несовместимо (или, по крайней мере, условно-совместимо) с неявной многопоточностью HT, если бы мы добавили её к Itanium 2.
Поэтому у Intel сегодня появилась проблема – действительно ли HT можно считать промежуточной технологией для перехода на два ядра? И проблемы здесь следующие.
- Несмотря на добрые побуждения Intel по ускорению существующего однопоточного ПО, компания просит разработчиков использовать ключи компилятора, чтобы оптимизировать использование Hyper-Threading. Но если прирост производительности составляет в среднем около 15%, то стимул невелик.
- Тот факт, что AMD использует более короткие конвейеры, то есть имеет меньше доступных ресурсов для распределения между потоками, давно рассматривался Intel как недостаток дизайна. Но когда AMD продемонстрировала рабочий двуядерный процессор Opteron и данные тестов, где Opteron обходил конкурента от Intel с включённым HT, стало понятно, что Hyper-Threading для AMD64 не нужен.
- HT не ведёт потребителей напрямую к технологии Itanium 2. По сути, между подходами к параллелизму HT и Itanium 2 EPIC существуют явные технические различия. Конечно, оба подхода могут сосуществовать вместе – теоретически, код EPIC можно выполнять на процессоре с HT. Но так как распределение потоков уже происходит на определённом уровне, как программно, так и с помощью аппаратного агента, дальнейшее деление становится намного более трудным, если вообще возможным. Так что комбинация EPIC и HT приведёт к ничтожному приросту производительности, или даже к её потере. Это ещё одна помеха в решении Intel, которое прозвучало во многих изданиях (будь это утечкой информации или ошибкой журналистов), поддержке HT в будущих версиях Itanium 2. На момент выхода этого материала многие источники в Intel отказались комментировать этот вопрос.
Если обратиться к третьему кварталу 2005, то Intel официально будет использовать технологию HT на уровне настольных ПК в одноядерных процессорах Pentium 4 с частотой до 3,8 ГГц с FSB 800 МГц и 1 Мбайт кэша L2. Также в третьем квартале нам можно ожидать новый Pentium 4 Extreme Edition, у которого тактовые частоты будут снижены. Модели Extreme Edition будут работать с частотой 3,5 ГГц (снижение по сравнению с 3,7 ГГц), будут использовать опциональную 1066-МГц шину FSB и 2 Мбайт кэша L3. Вероятно, кэш L3 призван компенсировать проблемы при разделении L1 (во время включения HT), на которые указал Натан.
AMD идёт своим путём параллелизации
AMD соглашается с Intel насчёт наступления многоядерной эры, но параллелизм здесь реализуется не через Hyper-Threading. Поэтому маркетинговая информация AMD упоминает путь Intel к многопоточности, который AMD считает слабым местом Intel.
“Hyper-Threading хорошо работает, только если процессор обладает длинным конвейером, и вы не можете эффективно наполнять его данными”, – сообщила Маргарет Люис (Margaret Lewis) из AMD. Она же считает короткий конвейер AMD важным преимуществом дизайна.
Маргарет Люис (Margaret Lewis), стратег по коммерческому ПО от AMD.
Люис сказала, что нет ни архитектурных, ни экономических причин для появления Hyper-Threading в процессорах AMD, поэтому компания не будет отражать эту технологию в процессорах Opteron в ответ на шаг Intel. “Если вернуться ближе к реальности, – сказала Люис, – Hyper-Threading не был правильным подходом. Наша архитектура AMD64 с 1999 года разрабатывается с учётом возможности работы двух ядер. Два физических ядра дают намного более высокий прирост производительности, чем одно физическое ядро, разделённое на два логических, что, собственно, и делает Hyper-Threading”.
Стратегия AMD заключается в том, чтобы доказать, что Hyper-Threading не нужен для перехода на два ядра. Как аргументирует Натан Бруквуд, Intel будет объяснять разработчикам ПО совершенно обратное: Intel уже сделала шаг в этом направлении. “За последние два года вся работа Intel по адаптации программного обеспечения для Hyper-Threading напрямую связана с работой, которую пришлось бы проводить для адаптации к многоядерным процессорам. Так что инициатива Hyper-Threading от Intel просто запустила процесс, позволяя разработчикам втянуться в новую технологию и, во многих случаях, сделать первые шаги к её использованию”.
Пат Патла (Pat Patla), коммерческий директор направления процессоров для серверов и рабочих станций AMD.
Пат Патла, коммерческий директор направления процессоров для серверов и рабочих станций AMD, сообщил нам, что компания рассматривает успех AMD64 как возможность продвижения полностью новой системной архитектуры. “С выходом Opteron и AMD64 мы превратились в архитекторов систем. Так, теперь мы внедрили технологию ввода/вывода, технологию памяти, ряд функций северного моста, кроме, непосредственно, CPU. Поэтому те, кто занимаются дизайном систем, понимают, что мы меняем восприятие систем”.
Возможно, самым серьёзным доказательством продуманности дизайна AMD и твёрдости планов по разработке можно считать тот факт, что линейки Opteron и Athlon 64 ещё с 1999 года разрабатывались с учётом двуядерного дизайна, – просто второе ядро отсутствовало на кристалле. Как сообщил нам Натан Бруквуд, AMD с самого начала разделила архитектуру Athlon 64 на две части: отвечающие за связь и за вычисления. Первая часть содержит контроллер памяти и в будущем будет отвечать за архитектуру HyperTransport, в то время как вычислительная часть процессора отвечает за внутреннюю обработку. (Что интересно, эти части коррелируют с двумя возможностями параллелизма доктора Палема). “Между двумя этими частями, – сообщил Бруквуд, – AMD расположила высокопроизводительный коммутатор (crossbar switch). И на протяжении всего первого поколения Opteron и Athlon 64 одно ядро на чипе “общалось” с контроллером памяти через этот высокоскоростной коммутатор. И ему приходилось довольно легко – вся информация приходила и уходила через один порт. Но сейчас у нас используются два ядра, и мы, наконец, сможем нагрузить этот коммутатор”.
“Тот факт, что это было сделано в самом начале, – продолжал Бруквуд, – действительно доказывает, что AMD думала об этих проблемах в конце 90-х годов, в то время как многие просто не понимали их мысли и те пути дизайна, которыми они следовали”.
HyperTransport, в то же время, является механизмом ввода/вывода с пропускной способностью 22,4 Гбит/с, который можно адаптировать ко многим целям. В новой архитектуре AMD он заменил системную шину между процессором и контроллером памяти. Это не собственная технология AMD, поскольку её разрабатывает целый консорциум. Но именно поддержка этих открытых стандартов и отличает двуядерный подход AMD от Intel, особенно в связи с тем, что AMD необходимо получить широкую поддержку индустрии, чтобы AMD64 стал стандартом 64-битных многоядерных систем.
“Мы устали повторять людям, – объяснил Пат Патла из AMD, – что мы ждали 90-нм техпроцесс, который позволил бы производить недорогие двуядерные чипы в больших объёмах. Два года назад мы запустили 64-битные вычисления в массы, с выпуском Opteron, и сегодня мы планируем сделать то же самое с двуядерными системами. Мы считаем, что это правильный путь для обеспечения нового уровня производительности конечному пользователю. И наш путь не касается Hyper-Threading, так как эта технология решает лишь некоторые проблемы, связанные с лучшим обеспечением многозадачности и многопоточности.”
Во второй части нашей статьи мы посмотрим в будущее и оценим планы компаний на ближайшие десять лет и дальше. Мы также обсудим возможные последствия ограничений закона Мура, а также удивительный потенциал вероятностных вычислений.
Дополнения (6 апреля)
31 марта менеджер Intel Desktop Platform Group Джеф Остин (Jeff Austin) пояснил Tom’s Hardware Guide, что технология Hyper-Threading не будет продолжаться в будущих процессорах Itanium 2, но существует возможность, что в них будет использоваться другая форма неявной многопоточности. Эту форму многопоточности, по утверждению Остина, ещё предстоит создать. Напомним, что до 31 марта Intel отказывалась давать комментарии по этому вопросу.
Остин также объяснил, что пока у Intel нет планов оснащать двуядерные процессоры Pentium D технологией HT, хотя использование HT продолжится в новом многоядерном Pentium Extreme Edition.
Что касается будущей роли HT, то Остин отметил, что он прогнозирует долгую жизнь этой технологии, поскольку она даёт 25% прирост на некоторых серверных тестах. “Учитывая тот объём кремния, который используется для обеспечения этого прироста, – сказал Остин, – стоимость внедрения HT практически ничтожна”.
Hyper-Threading не предусматривает, что программа будет точно указывать процессору, где и когда следует начинать и заканчивать новые потоки. Однако и Остин, и представитель Intel Джордж Альфс (George Alfs) указывают, что преимущества HT будут явно более заметны, как только разработчики ПО научатся их использовать. “Самое важное преимущество HT можно использовать уже сегодня, – указал Альфс, – опираясь на существующую многозадачность операционных систем типа Windows XP и привязывая один поток к одной задаче. Если посмотреть в “Диспетчер задач”, то там мы увидим множество задач, которые являются прекрасными кандидатами для многопоточности, включая HT. Это имеет смысл… и мы подготовили соответствующий продукт”.
Но если многоядерный процессор будет также поддерживать Hyper-Threading для каждого логического ядра, эффективно разделяя физические потоки на логические, то насколько эффективно операционная система будет поддерживать такое разбиение? По мнению Остина, ответ не такой очевидный. Хотя он сказал нам: “Если приложение способно работать с двумя потоками, а операционная система (такая, например, как Windows XP) поддерживает многозадачность, то ОС, безусловно, запустит приложение, разобьёт его на два из четырёх потоков, а затем будет планировать на двух оставшихся потоках какие-то другие задачи”.
Однако ещё предстоит увидеть, как операционная система будет планировать потоки для двухпоточных приложений. Будет ли каждый поток приложения выполняться на разных физических процессорах, или на одном с помощью Hyper-Threading?
Также Остин прокомментировал наш материал по двуядерным процессорам. Первый 65-нм настольный процессор должен выйти в первой половине 2006 года под названием Presler, однако он не входит в линейки Smithfield. Технически, сказал Остин, “линейки Smithfield” вообще нет. Так же и мобильная платформа Yonah не будет связана со Smithfield. Вывод здесь таков, что Presler может не получить название “Pentium D” – для него на рынок может быть выведена новая торговая марка.
Presler (для настольных ПК) и Dempsey (для серверов Xeon) будут использовать двухпроцессорные упаковки, ранее называемые “DP”, что отличается от упаковок “DC” (dual-core – два ядра). Но, как сообщил Остин, Intel на данный момент классифицирует многопроцессорные упаковки как многоядерные, если они используют ту же раскладку ножек. В нашей статье мы сказали, что технически назвать Dempsey двуядерным сложно – такого же мнения придерживаются некоторые инженеры вне Intel, хотя это, конечно, противоречит точке зрения Intel. Хотя по предыдущим объявлениям Intel планировала упаковывать два процессора Smithfield в одну упаковку Presler, Остин пояснил, что ядра Presler не будут связаны со Smithfield (Pentium D).
Остин добавил, что мы должны понимать, что Bensley и Glidewell – это платформы для рабочих станций, которые используют процессор Dempsey. Он также сообщил, что бизнес-платформа Intel Lyndon, использующая чипсеты 945 и 955X, будет поддерживать большой ассортимент процессоров, включая текущие модели Pentium 4, а также и грядущие Pentium D. В будущем платформа Truland будет использовать процессор Paxville, но Tulsa будет процессором-преемником Paxville, а не преемником платформы Truland. Название платформы для процессоров Tusla пока ещё не объявлено.
Перейти ко второй части статьи.