РЕКЛАМА
ПОИСК И ЦЕНЫ
Поиск по сайту THG.ru


Поиск по ценам в Price.ru




ИНФОРМАЦИЯ
ПОЛЕЗНЫЕ ССЫЛКИ
AMD A10-4600M: тест и обзор мобильного процессора на базе архитектуры Trinity

Настольные APU Trinity: обновлённые тесты с Core i3 и A8-3870K

AMD Trinity: тесты настольных APU A10, A8, и A6

AMD A8-3850: обзор процессора Llano для недорогих настольных компьютеров

AMD A8-3500M: обзор APU Llano

AMD Fusion: с чего все начиналось и чего ждать в будущем

Rambler's Top100 Рейтинг@Mail.ru
bigmir)net TOP 100

ПРОЦЕССОРЫ

AMD Fusion: с чего все начиналось и чего ждать в будущем
Краткое содержание статьи: Все давно хорошо знакомы с APU и, возможно, у некоторых он уже является сердцем их ноутбука или настольного ПК. Путь к созданию APU был полон трудностей и незамеченных достижений. Это история о том, как в AMD были созданы гибридные чипы и о том, какие перспективы у этой технологии сейчас.

AMD Fusion: с чего все начиналось и чего ждать в будущем


Редакция THG,  23 августа 2012


AMD Fusion | С чего началась история

"Нет ничего более сложного, чем искусство маневра. Сложность в том, чтобы сделать обходной путь главным направлением, а неудачи обратить в преимущества".

- Сунь Цзы. Искусство войны.

Когда мы брали интервью у Дэйва Ортона (Dave Orton), президента ATI Technologies, в 2002 году, он сказал нам: "В бизнесе возможности всегда определяют планы". В свете последующего слияния его компании и производителя процессоров AMD эта фраза выглядит пророческой. Но вопрос не в том, что именно возможно, и материализуются ли возможности в реальную жизнь. Вопрос – произойдёт ли это достаточно скоро.


Дейв Ортон

Ортон провёл большую часть 90-х в Silicon Graphics, а в 1999 году, когда в сфере IT всё казалось возможным, покинул SGI и пришёл в небольшой стартап по производству процессоров, который назывался ArtX. Эта начинающая компания выиграла контракт на развитие проекта GameCube от Nintendo, что привело её к успеху. Той осенью ArtX показала на Comdex первый интегрированный чипсет – это моментально сделало её одним из самых желанных целей для поглощения.

Сделку совершила компания ATI, после чего Ортон стал президентом и исполнительным директором объединённой компании. Потом был бум технологий, а на его фоне – многочисленные проблемы с драйверами и другие неурядицы. Первое время казалось, что ATI попросту всё делает неправильно.

Чтобы повернуть обратно на дорогу славы, Ортон объединил две команды разработчиков. Он по-новому организовал рабочий процесс внутри компании: 12 месяцев давалось на разработку конечного продукта, и 6-9 месяцев – на тесты и проверки. Плюс к этому, он увеличил контроль и ответственность участников команды. И вот, после первого цикла разработки, который длился 18 месяцев, ATI смогла нанести удар по конкуренту – несмотря на то, что всё это время казалось, что на каждом шагу побеждают разработчики из Nvidia. ATI придумала, что нужно делать.

"Просто отойти назад, чтобы понять, откуда ты растёшь", – говорил Ортон, – "и оценить то, что уже сделано. Никогда нельзя удовлетвориться тем, что есть сейчас. Нужно увидеть, на что ты способен, и идти к этому".

Находясь в авангарде, Ортон тогда, в 2002 году, понимал – нужно двигаться вперёд. Но куда именно? ATI тогда была лидером на рынке интегрированных графических процессоров. Intel – скорее партнёр, чем конкурент – уже тогда считала, что единственная сфера применения интегрированных графических процессоров – обслуживание бизнес-приложений.

Но уже тогда Ортон предвидел, как будут развиваться события. Он сказал нам: "Думаю, что я бы изменил всего одну вещь в компьютерных вычислениях. Я бы хотел, чтобы эта сфера была более открытой для инноваций. Думаю, что единственная польза от стандартов в том, что они порождают новые возможности".

В том же разговоре Ортон говорил, что ему будет жаль уезжать из Силиконовой долины, а также о том, что если он и хотел бы изобрести что-нибудь, то разве что транспорт в духе Star Trek. Можно поймать его на слове: в 2007 году он покинет пост исполнительного вице-президента AMD, чтобы проводить больше времени со своей семьёй. Но не будем забегать так далеко вперёд. Сначала Ортон совершает другую поездку – в Техас.

AMD Fusion | Взгляд с другой стороны

Примерно в то же время основатель AMD Джерри Сандерс отошёл от дел, заработав достаточно для комфортного уединения. С момента основания компании в 1969 году он провёл её через три периода взлётов и падений и превратил в единственного серьёзного конкурента Intel на мировом компьютерном рынке. В 2000 году Сандерс нанял в качестве президента компании и исполнительного директора Гектора Руиза, который работал тогда в Motorola Semiconductor. Фактически, Сандерс подготовил для Руиза кресло CEO – и через два года Руиз принял управление компанией.


Джерри Сандерс

Тем временем Дирк Мейер, бывший разработчик процессоров из Intel, делает в AMD неплохую карьеру. Мейер стал сотрудником AMD в 1998, а через год компания выпустила Athlon (K7). Этот процессор, созданный с использованием разработок DEC (где Мейер принимал участие в создании микропроцессоров Alpha), был настолько успешным, что фактически уничтожил лидера того момента – Pentium III: кроме того, именно благодаря ему AMD первой взяла значимый барьер в 1 ГГц тактовой частоты.


Гектор Руиз

В 2003 году AMD повторила успех первого Athlon с моделью K8 (Hummer), которая быстро потеснила Intel на рынке серверов. NetBurst от Intel, которая и близко не подошла к запланированным 10 ГГц, оказалась крупной неудачей компании. Intel снова представила конкурентоспособный продукт только в 2006 году, когда был выпущен первый процессор линейки Core.

Мы знаем, что в мире технологий нет ничего постоянного. Все приходит и уходит. Athlon зажёг фитиль, Hummer – запустил компанию AMD на орбиту. В 2005 году Руиз понял, что настало время, чтобы атаковать противника с фланга. В декабре он повысил Дирка Мейера до директора подразделения по разработке микропроцессоров (фактически, сделал его "номером 2" в компании). И спустя короткое время оба понимают – производство графических процессоров, встраиваемых в MCH, это хорошо... но недостаточно хорошо.

Если верить Forbes, AMD в 2006 году была близка к тому, чтобы пойти на слияние с Nvidia. Как бы сложилась судьба компании в этом случае? Ответ – в позиции CEO Nvidia Дженсена Хуана (Jen-Hsun Huang): он полагал, что в случае объединения возглавит новообразованную компанию. Руиз, на тот момент – один из первых людей в мире микропроцессоров, понял это и пошёл искать другие пути.


Дирк Мейер

В июле 2006 года AMD заявила, что купит компанию ATI за невероятные 5,4 млрд. долларов – в то время как сама AMD на тот момент оценивалась в 9 млрд. По словам Джо Макри, ещё одного выходца из Silicon Graphics и тогдашнего директора инженерного подразделения AMD, это было "великое предвидение", рождённое совместно Ортоном и Мейером.

"Мы здорово рисковали с AMD", – говорит Макри, который сейчас является главой отдела технологий в AMD. – "Но у Дирка и Дэйва рождались отличные идеи. Они хотели создать единую модель вычислений для графического и центрального процессора. И на словах это выглядело просто. А после проведённой сделки они возглавили компанию и сказали нам: "Сделайте это!"

Слияние и хаос

Летом 2006 года большая часть людей не могла понять стратегию Fusion – объединение центрального и графического процессоров в одном кристалле. Как и другие, издание Ars Technica рассматривала этот проект не более чем как способ расширить портфолио компании. О том, что данный проект может когда-либо выйти на рынок мобильных устройств и цифрового TV, не думал никто.

AMD и ATI никак не комментировали происходящее. Возможно, причины молчания кроятся в длительном судебном процессе, сопровождавшем слияние двух компаний. Однако, более реалистичным выглядит другое объяснение: таким образом они старались сохранить достигнутый уровень продаж.

"В любой момент времени ты находишься в браке со множеством своих партнёров", – говорит Макри. – "Я использую это слово, так как это очень глубокие отношения, как на деловом, так и на персональном уровне. Бизнес вообще неотделим от личных отношений. Партнёры дают друг другу обязательства. Можно заключать коммерческие сделки, но большая часть того, что мы делаем – это личный вклад. И ты хорош ровно настолько, насколько хороши твои слова. Если у тебя есть видение бизнеса, но ты не можешь передать его партнёрам – ты потеряешь всех своих партнёров. На тот момент самым сильным нашим партнёром в области графических процессоров была компания Nvidia. Такие отношения нельзя просто так менять по щелчку. Но мы не могли объяснить им своё видение того, как всё будет разворачиваться дальше".

В начале 2006 года акция AMD стоила $40. Годом позже, когда рынок замер в ожидании рецессии, цена упала до $15. Ещё два года спустя она преодолела значение в $2. Пятилетнее противостояние AMD и Intel хорошо отражается в графиках рыночной цены акций компаний. Если Intel идёт почти ровно, то AMD переживает волнующие периоды взлётов и падений.

Итак, забудем о кризисе. Что произошло? В конце 2006 года AMD вступает в первый из семи кварталов сплошных убытков, предшествующих отставке Гектора Руиза. У Intel в это же время выходят крайне удачные на рынке процессоры линейки Core. GeForce 7 от Nvidia, запущенная в 2005 году, оказалась достойна самой высокой оценки, открыв в 2006 году дорогу еще более удачному поколению GeForce 8. Что делает AMD? В 2005 году с большой задержкой вышла видеокарта Radeon X1000. В следующем году обновления серии не было. Следующее поколение – Radeon X2000, вышло только в апреле 2007 года; и хотя по характеристикам карты почти догоняли конкурирующие продукты от Nvidia, момент для борьбы на рынке был упущен.

И это – только вершина айсберга. В закрытых комнатах, где две компании обсуждали, как им сосуществовать, вопросы были ещё более запутанными.

AMD Fusion | Латаем дыры

Команда разработчиков AMD обнаружила себя между двух фундаментальных проблем: технической и философской. Причём обе должны были быть решены перед тем, как приступать к новому этапу производства.

"Если говорить о технической стороне на уровне кристалла, то мы должны были решить сложную задачу", – говорит Макри. – "Технологии и решения, что заставляли быстро работать CPU, на стороне GPU заканчивались невероятным излишним потреблением энергии. И то, что ускоряло работу GPU, начинало тормозить CPU. Но первое, что нужно было сделать – это обеспечить стабильную совместную работу CPU и GPU на одном кристалле. Для CPU требуется высокоскоростной транзистор и оболочка с низким сопротивлением; GPU, напротив, требовал среднескоростного транзистора и плотной металлизированной оболочки с высоким сопротивлением. Посмотрите, как выглядит транзисторный модуль в GPU: он напоминает букву "Т". В CPU он выглядит как "Z". Первый – коробка с низким сопротивлением, второй – более плотно металлизированный и с большим сопротивлением. Нам нужно было сделать так, чтобы оба процессора работали в одном кристалле и давали нормальную производительность. Понятно, что нельзя выходить на рынок с недоделанной технологией: никому не нужно чрезмерное энергопотребление процессора или сильно урезанная в возможностях видеокарта. Мы должны были сделать хорошо и то, и другое. Это мы поняли очень быстро".

Представьте себе уровень давления на эту команду. Ставка – миллиарды долларов и само существование компании. К тому же, вскоре стало ясно, что гибридное решение не может быть выполнено на основе распространённого в то время 45-нм технологического процесса. 45-нм процесс был оптимизирован под CPU. Это значило, что нужно было подогнать 32-нм SOI (silicon-on-insulator) под работу сразу двух процессоров. Конечно, на тот момент 32-нм чипов не существовало за пределами лаборатории. Испытания этой технологии в итоге выросли в проект Fusion.

К сожалению, на решение проблемы с переходом на новый стандарт ушёл целый год. Только по его истечении можно было приступать к проектированию.

Как мы помним, параллельно команда разработчиков Fusion решала философскую дилемму. На "транзисторном" фронте были серьёзные проблемы, но, в конце концов, стало ясно, куда двигаться. Однако техническая сторона не давала ответа на вопрос, какова должна была быть архитектура APU.

"С одной стороны, казалось логичным использовать графический процессор для визуализации, а CPU – для вычислений", – говорит Макри. – "С другой стороны, не хотелось терять простаивающую мощность графического ядра. Но в этом случае нужно было разделить устройство надвое. Мы разделились на два лагеря в споре о том, как должен выглядеть процессор с CPU и GPU, интегрированными в одной архитектуре. В итоге продолжительных работ по моделированию мы выяснили, что преимущество, благодаря параллелизму кода, будет у векторного процессора".

Это может показаться очевидным ответом, если вспомнить о другом проекте AMD – Stream. Однако здесь всё было не так просто. Графический процессор оптимизирован для визуализации. Конечно, он может эффективно работать с традиционным кодом, но это сильно влияет на визуализацию. И чем больше загрузка – тем большими оказываются издержки. Проблема решается простым добавлением транзисторов на кристалл. Правда, потребуются сотни миллионов транзисторов.

Макри говорит о том, что все существующие приложения можно представить расположенными между двух полюсов. С одного края – приложения с наименьшим параллелизмом, с другого – с наибольшим. Здесь нужен комментарий: для обработки команд блоки памяти захватываются последовательно. Тут нет речи о параллелизме. Единственный шанс что-то выполнять параллельно – добавить предсказание ветвлений. А на другом полюсе – матрицы умножения – отличный пример параллельного кода. Там нет никакой неоднозначности, а потоки чтения и записи ведутся независимо друг от друга. Этот код можно просто брать как он есть и передавать графическому процессору, причём на это почти не тратятся дополнительные ресурсы. Но для того, чтобы подготовить приложения, расположенные ближе к "непараллельному" полюсу, нужна подсистема памяти с низкими задержками, а это означает, что графическому процессору придётся решать попросту все имеющиеся задачи подряд – здесь не поможет даже очень высокая пропускная способность памяти.

Грубо говоря, философскую дискуссию можно свести к тому, как именно сохранить имеющуюся мощность графического процессора в новой технологии. Ну а пока ведётся эта дискуссия – рынок усиливает давление на компанию.

AMD Fusion | Возрождение из пепла

Битвы за ответы на все эти вопросы происходили без свидетелей. Сторонние наблюдатели могли видеть только непроницаемые лица руководителей и срыв всех возможных сроков. Из-за проводимых исследований задерживался выход всех чипов AMD, включая процессоры, чипсеты и GPU. А потом, в июле 2007 года, из компании увольняется Дэйв Ортон – возможно, один из самых светлых умов в мире гибридных процессоров. В сентябре его примеру следует директор отдела продаж компании Генри Ричард.

Многие связывали финансовый крах компании с решением Гектора Руиза о покупке ATI. TheStreets.com пишет, что Руиз, скорее всего, также уйдёт в отставку, несмотря на то, что его контракт утверждён до 26 апреля 2008 года. Руиз остаётся в компании ещё в течение трёх месяцев после окончания действия контракта и, наконец, в июле 2008 года также увольняется.

Гектор Руиз впоследствии стал CEO в GlobalFoundaries. Немаловажно, что эта компания ранее являлась дочерним предприятием AMD, но к этому моменту она уже не могла себе позволить держать столько производственных мощностей. Самым крупным (и, как мы надеемся, последним) случаем разделения компании стала продажа отдела ATI, который занимался чипами для смартфонов. Покупателем была компания Qualcomm, и вместе с подразделением "ушли" все разработки мультимедийной графики и права на интеллектуальную собственность. Компания AMD к этому моменту оценивается уже в $3,2 млрд.

Конечно, пока в "теле" есть движение, есть и надежда на то, что ситуация улучшится. Сейчас AMD является научно-исследовательской компанией, сконцентрированной на интернет-коммуникациях. Она стала меньше, легче и более гибкой, чем раньше. Но разве этого достаточно? Руководство компании так не думает. В январе 2011 года последний из "старой гвардии", Дирк Мейер, был отодвинут в сторону. Согласно пресс-релизу, нужно было "консолидировать возможности компании", чтобы "добиться устойчивого роста, лидерства на рынке и превосходных финансовых результатов".

Кто-то может сказать, что с Мейером, который провёл AMD от грани банкротства к жизнеспособному состоянию (и к тому же стоял у истоков проекта Fusion, который только теперь добрался до рынка), обошлись несправедливо. Другие считают, что не стоит поспешно видеть в Мейере спасителя — ведь он сделал неплохое состояние во время краха компании.

Как бы то ни было, его сменил на посту президента Рори Рид (Rory Reed). Рид провёл 23 года в IBM на различных управленческих должностях. В 2006 году вместе с IBM PC он "переехал" в Lenovo. Здесь он делает хорошую карьеру и в 2009 году становится президентом и исполнительным директором компании. В это время Lenovo становится третьим в мире поставщиком ПК. 25-го августа 2011 года Рид становится генеральным директором AMD. С того момента прошёл почти год, но всё ещё рано выносить вердикт по его деятельности. Во всяком случае, если в AMD рассчитывали на человека, который принесёт крупные сделки и новые направления в деятельности, то Рид – то, что им нужно.

Работа над Fusion

Пока велись перестановки в руководстве компании, инженеры AMD продолжали упорно работать над Fusion. Ядром команды было четыре человека – Джо Макри из бывшей ATI, ныне покойный сотрудник AMD Чак Мур, Эрик Деммерс (сейчас работает в Qualcomm) и Фил Роджерс, также сотрудник AMD, технический директор группы. Над проектом трудились все инженеры компании, как специалисты по CPU, так и по GPU. Макри, вспоминая об этом, описывает тот период как "самые весёлые пять месяцев в его жизни". Первые 90% проекта являлись набросками исполнительного инженера. "Другие 10% – это была сплошная мучительная боль".

"Мы добились двух вещей", – добавляет Макри. – "Во-первых, мы получили лучший на тот момент процессор, в котором скалярные и векторные вычисления производятся в одной архитектуре. Мы оставили Intel с их Larrabee далеко позади. Они решили только часть проблем, но не добились совместимости со средами распределённых вычислений. Это всё равно неплохо, скажем, для человека, у которого одна рука привязана за спиной. Мы с Fusion реализовали максимум возможностей в коммуникациях, и это действительно первая унифицированная архитектура от начала и до конца".

Помимо новой архитектуры процессора, AMD добилась ещё одного: теперь у компании была единая сплочённая команда. Когда проект, наконец, был реализован, давление на команду исчезло, и теперь вместо "красных" и "зеленых" команд появилась одна целая.

"Это было похоже на кулачный поединок один на один", – говорит Макри. – "Я думаю, что это была справедливая битва, и обе компании сравнимы по своим ресурсам (ATI и Nvidia) . Однако, противостояние оказало немалое влияние на наши схемы производства и циклы работы. Сейчас, когда AMD одержала несколько побед, это выглядит, словно победа Давида над Голиафом (Intel). Это было как: "Вау, мы победили Голиафа!". Ну а ATI конкурирует с Nvidia много лет, и мы побеждали не меньше раз, чем проигрывали. У нас просто другое отношение к победе. AMD должна понять, что и она может быть Голиафом. Благодаря слиянию, обе компании получили новый опыт организации рабочего процесса – циклы производства стали куда короче. Это серьёзное преимущество – мы можем успешно противостоять не только традиционным конкурентам, но и компаниям из других сегментов рынка. Новые компании, как я думаю, не будут большими по размеру. Все они будут по размеру примерно как AMD. И я не думаю, что без влияния ATI AMD может выбрать правильную стратегию борьбы с компаниями такого класса. И точно так же, ATI сможет противостоять превосходящим её по размеру компаниям только благодаря воздействию AMD".

По мере завершения слияния на внутреннем уровне, проект Fusion постепенно подходил к последней стадии. AMD впервые представила его широкой публике в начале 2011 года на CES, и уже вскоре после этого в продажу поступили первые партии. Для потребителя платформа Llano с ядром K10 на базе 32-нм технологического процесса была доступна в сериях APU A4, A6, A8 и Е2. Ещё одной новостью, прозвучавшей на CES 2011, было то, что архитектура Fusion отныне будет именоваться не иначе, как Гетерогенная Системная Архитектура (HSA, Heterogeneous System Architecture). По словам руководства, компания хотела превратить HSA в открытый промышленный стандарт, и название, которое не будут связывать с собственным проектом-долгостроем AMD, поможет лучше это сделать.

Корни гетерогенных технологий

Но что изменил Fusion? Грубо говоря, он изменил облик современных компьютерных вычислений. Сейчас все согласны в том, что дискретная графика остаётся на переднем крае технологий. Как предсказывала IDC, к концу 2011 года каждые три из четырёх проданных компьютера были оборудованы гибридными процессорами – APU, как назвали их в AMD. В самой компании добавляют, что уже на момент выхода Fusion это соотношение составляло 1/1 – если брать в рассмотрение всё, включая смартфоны.

Но повсеместное применение гибридных процессоров – это не конец игры, а только её начало. На стартовой точке два ядра, объединённых в одном кристалле, могут уменьшить задержку при обработке. Однако истинная цель проекта Fusion – использовать гетерогенные вычисления для максимального увеличения эффективности. Например, наличие двух ядер позволит достичь высокого соотношения производительности относительно затраченной энергии. Правда, для этого необходимо, чтобы программы были написаны в соответствии со спецификой гетерогенной модели обработки информации.

Ageia была одной из первых компаний в мире, которая обратилась к этой проблеме. В 2004 году недавно образованная компания по производству полупроводников (Ageia) купила другую небольшую компанию – NovodeX. Получившийся в итоге этой сделки производитель некоторое время поставлял на рынок микропроцессоры PPU (physics processing units). Доступная на рынке модель PhysX использовалась некоторыми производителями в специальных PCIe-картах. В играх, которые были специально написаны под процессор от Ageia, имело место радикальное улучшение симуляции физики и движения. Этот проект заинтересовал многих разработчиков. В 2008 году компанию Ageia купила Nvidia, которая через короткое время приостановила выпуск PPU и использовала PhysX в своих видеокартах с процессорами CUDA (8-я серия GeForce и последующие).

Слава Ageia привлекла внимание Дэйва Ортона и других сотрудников AMD. Нужно сказать, что ATI ещё до слияния с AMD работала над проектом создания графического процессора общего назначения (GPGPU) в своей линейке Radeon. Вышедшая в 2006 году модель Radeon 580 была первой с поддержкой GPGPU. Проект получил название Stream. Запутанная номенклатура Stream, FireStream, stream processors и т.п. показала отсутствие сплоченности и согласованности при запуске. Однако стэндфордский проект folding@home был первым, который продемонстрировал, насколько могут быть велики преимущества использования GPGPU.

Проблема была в том, что Stream не смог найти себе нишу на рынке. Nvidia в 2006/2007 годах – когда AMD переживает первый период краха – разрабатывает собственную технологию, аналогичную GPGPU. Это CUDA, которую Nvidia позиционирует как готовую к использованию на своих видеокартах. Однако, говорить о GPGPU – всё равно, что описывать золотую рыбку как самую большую в аквариуме, в котором все остальные рыбы – гуппи. Несмотря на широкую известность в узких кругах геймеров и учёных, технология так и не нашла дороги к потребителю.

"AMD продвигала вычисления GPU в течение очень долгого времени" – говорит Манджу Хедж, бывший генеральный директор Ageia, который сейчас занимает должность вице-президента отделения гетерогенных вычислений и решений для разработчиков в AMD. – "Восемь лет назад это не было востребовано. Пять лет назад это не было востребовано. Но сейчас, на фоне взрыва энергоэффективных вычислений, смартфонов и планшетов, это востребовано. Это интересно как разработчикам, так и обычным пользователям – но для того, чтобы это пользовалось успехом, нужно что-то действительно лёгкое в работе – как HSA".

OpenCl и HSA

Медленное развитие технологий GPGPU связано не столько со спецификой рынка, сколько со сложностями в программировании. Грубо говоря, большая часть существующих в мире программ написана для CPU, и переделать их под GPU оказалось трудоёмкой задачей.

"Различные специализированные архитектуры, как Cell, GPGPU и MIC, развивались как альтернативные схемы вычислений, и они, зачастую, приводят к лучшим результатам, чем стандартные устройства", – отмечает автор IEEE Д.М. Кунцман в статье "Программирование гетерогенных систем". – "Однако у них есть существенный недостаток – у программиста появляется дополнительная задача. Он должен обеспечивать соответствие кода требованиям этих процессоров. Кроме того, представляется затруднительным распределять нагрузку между двумя ядрами, особенно в вычислениях, которые задействуют оба ядра, оперируя вариативными характеристиками производительности".

Неудивительно, что все традиционные интерфейсы построены так, чтобы графический процессор занимался обработкой графики. Для того, чтобы GPU мог выполнять математические вычисления, они должны иметь вид операций с текстурами и фигурами. Шаг вперёд, который сделан с OpenCL, в том, что он отбрасывает всю лишнюю работу, предоставляя прямой интерфейс для графического процессора. Разработкой проекта OpenCL занималась некоммерческая организация Khronos Group, а сейчас поддержку проекта осуществляют AMD, ARM, Intel и Nvidia.

Но, несмотря на то, что OpenCL предоставляет программную оболочку для гетерогенных вычислений, это по-прежнему не решает "железной" стороны вопроса. Говорим ли мы о сервере, настольном компьютере или смартфоне – как именно платформа (отличная от CPU, GPU и/или APU) будет выполнять гетерогенные вычисления? Определённо, в прошлом устройства не создавались с этой целью. Обычно у вычислительного устройства был единый системный пул памяти, и программист перемещал данные из памяти центрального процессора в память графического процессора перед тем, как запустить приложение. То же самое верно при обратном процессе. В системах с единым системным пулом памяти повторное копирование данных создаёт значительную дополнительную нагрузку на процессор.

Именно здесь в игру вступает HSA. В HSA GPU работает с CPU в качестве сопроцессора, используя общую память. Приложения, обращаются к GPU точно так же, как они обращаются к CPU. Два ядра работают совместно с одними и теми же пакетами данных. Когда используется общая память, оба процессора используют одни и те же адреса, что увеличивает эффективность работы за счёт исключения затрат на перенос массивов данных из одной памяти в другую.

В добавление к объединённой памяти, HSA обладает ещё одним значимым преимуществом. В нём устанавливается когерентность кэша между CPU и GPU, что исключает необходимость для пользователя устанавливать общий доступ к памяти каждый раз, когда требуется перемещать данные между CPU и GPU. К тому же графический модуль получает доступ к страничной адресации, что делает доступной всю виртуальную память. Ещё одна полезная функция в HSA – переключение контекста. Все эти вещи, реализованные на аппаратном уровне, делают платформу HSA очень похожей по стилю программирования на обычный CPU.

"Общая память позволяет очень сильно упростить программирование", – говорит сотрудник AMD Фил Роджерс. – "Одним из препятствий на пути к повсеместному использованию GPU является то, что многие программисты считают его слишком сложным в программировании. Нужно осваивать новые интерфейсы (API) для создания приложений. Нужно учиться ориентироваться в новом адресном пространстве. Понимать, в какой момент копировать данные. Но, когда мы устраним все эти препятствия и подключим высокоуровневые языки программирования, на этой платформе смогут работать десятки тысяч программистов – а не десятки и сотни, как сейчас".

AMD Fusion | С точки зрения программиста

"У каждого программиста есть свой любимый язык", – говорит Фил Роджерс. – "Они как будто религиозны в этом смысле. Нельзя объяснить программисту, что есть более эффективные методы разработки приложений, чем те, которые он использует. Именно поэтому HSA делает гетерогенные вычисления доступными для всех высокоуровневых языков программирования".

Для большинства вполне достаточно совместимости с C и C++, однако AMD хочет, чтобы доступ к продукту имел каждый. Для этого настроена совместимость с C#, Java и другими функциональными языками. Поскольку для AMD это составляет чрезмерно большой труд, компания решила сделать из HSA открытый стандарт – для этого был создан HSA Foundation, в куда входят члены ARM, MediaTek, TexasInstruments и т.д. Официальный запуск проекта состоялся в июле 2012 года, его цель – обеспечить совместимость с HSA актуальных платформ и ПО на всех уровнях. Для этого был открыт свободный доступ к инструментам разработки, библиотекам, обучающим программам и прочим ресурсам. С точки зрения разработчика, преимущества HSA заключаются в том, что программисты могут воспользоваться гетерогенными вычислительными моделями в свободном режиме вне зависимости от того, на каком языке они пишут.

"Программисты не просто программируют железо", – говорит Манджу Хедж. – "Им нужны правильные компиляторы, профили, инструменты оптимизации, библиотеки. Предоставить всё это – наша задача, и для её решения мы создали HSA Foundation. Большая часть инструментов, которые мы делаем, будет доступна в свободном режиме. Это даст нашим партнёрам быстрее войти в рынок и избежать финансовых затрат. Тогда, с точки зрения софтверных экосистем, станет понятно, что индустрия делает нечто полезное для них. Ведь это едва ли не первый случай в промышленности, когда аппаратный разработчик вносит изменения в структуре чипа для того, чтобы облегчить процесс разработки программного обеспечения. Многие компании поступают подобным образом, потому что видят в этом возможности для себя. Но мы сделали это для того, чтобы облегчить задачу программистам. А именно это требуется для повсеместного распространения стандарта".

Важно помнить о том, что HSA и OpenCL – это разные вещи. И вторая будет развиваться для того, чтобы идти в ногу с первой. Но даже в том виде, как она есть сейчас, OpenCL предоставляет куда более разнообразные возможности для программирования, чем ещё два года назад. Например, в OpenCL 1.2 значительно сокращён код инициализации, который требовался в предыдущей версии. С HSA движение к простоте и эффективности, намеченное с отказом от использования двух пулов памяти, продолжается.


Объем кода и производительность (оранжевые столбцы) в зависимости от средства разработки.

"Сегодня, если программист хочет написать приложение на C++, он может, например, использовать Visual Studio", – говорит Фил Роджерс. – "Так делают сотни тысяч программистов. Для них мы реализуем технологию, которая называется C++ AMP (Advanced Massively Parallel). Она работает так: в язык добавляются всего лишь две новые команды – restrict и array_view, и благодаря этому появляется возможность программировать GPU. Незначительно изменение создаст целые куски параллельного кода, что обеспечит значительный прирост эффективности. Переход будет куда легче, чем кто-либо мог ожидать".

AMD Fusion | HSA в перспективе

Пока мы говорили об APU и GPGPU, легко было позабыть о кое-чём более жизненном, помимо параллельного кода. Процессор по-прежнему выполняет существенную роль, когда речь идёт о гетерогенных вычислениях. Большая часть кода в современных приложениях имеет последовательный и скалярный характер, и они могут работать только на мощных процессорах. А мы знаем, что сегодня существует огромное количество различных рабочих станций. Некоторые оснащены очень быстрыми процессорами, но существует также много маломощных машин. Кроме того, о каких бы процессорах мы не говорили, существуют различные типы рабочих нагрузок. Во всяком случае, приложения должны быть адаптированы к архитектуре конкретного устройства. И APU постепенно развивается так, что может работать со всеми задачами, с которыми ранее работал CPU. Разница – в том, что APU будет подходить для большего количества задач, одинаково хорошо справляясь как со скалярными, так и с векторными задачами.

Я присутствовал на Fusion Developer Summit 2012 (AFDS) в Сиэттле, и там можно было сделать вывод: в мире компьютеров настольные системы больше не играют значительной роли. Там много говорили о том, что AMD готовит HSA к выходу на рынок мобильных устройств. Крупнейшей новостью была та, что ARM – известнейшее имя в мире ультрамобильных процессоров – присоединилась к HSA Foundation. Это ведёт ко многим серьёзным последствиям.

Как известно, рынок мобильных устройств – "горячий", а рынок ПК – стагнирует. К тому же настольные компьютеры не так сильно зависят от схем электропитания – а ведь именно в этом отношении сосредоточены преимущества, которые несёт в себе HSA. Поэтому, когда я сидел на конференции рядом с Филом Роджерсом, я спросил его о том, насколько вероятно, что HSA постепенно будет отходить от рынка настольных компьютеров, всё больше склоняясь в сторону устройств с питанием от батарей.

"Думать так – это распространённое заблуждение", – ответил он. – "Конечно, питание значимо для целого ряда платформ, – по сути, везде, где есть аккумулятор. Однако, если говорить о настольных компьютерах, то они сейчас стали весьма похожи на устройства класса "всё-в-одном". Пользователи интересуются не только мощностью машины и скоростью вычислений, но и тишиной работы, а также тем, насколько она привлекательна как продукт. Ясно, что геймеры не хотят, чтобы во время игрового процесса их обдувал горячий воздух. Что им на самом деле нужно – это экран диагональю 30 дюймов, в который встроена вся начинка компьютера, который работает на фантастической скорости. И даже если вас не волнуют вопросы энергопотребления, все равно вам не понравится перспектива шума от вентиляторов и нагрева оборудования".

Серверы – противоположный полюс компьютерного рынка – также могут получить значительные выгоды от использования HSA. Здесь в поле нашего внимания попадают центры обработки данных и облачные вычисления. Даже самые маленькие центры обработки данных обычно задействуют десятки тысяч серверов. И в этом случае вопрос энергоэффективности встает особенно остро. Говоря по существу – стоимость оборудования составляет лишь треть затрат на обслуживание сервера. Ещё треть – это затраты на электропитание, и ещё одна треть – это стоимость систем охлаждения. С помощью HSA, возможно, удастся повысить эффективность вычислений, – огромное количество блоков больше не понадобятся, и эффективность энергопотребления резко увеличится.

"С помощью HSA можно сделать вычисления эффективнее, сократив при этом потребление энергии", – говорит Хедж. – Не буду говорить о том, во что превратились высокопроизводительные компьютерные приложения (HPC) под влиянием CUDA. Но с HSA все эти приложения могут стать куда проще, благодаря гетерогенным вычислениям, распределенным между CPU и GPU. Nvidia всегда делала упор на графические процессоры. Конечно, есть немного приложений с параллельным кодом, с которыми CUDA работает очень хорошо. Но большинство приложений, в том числе, большая часть HPC-приложений, остаётся за бортом. Так что я не думаю, что HSA — это клиентская архитектура... это архитектура, которая охватывает сразу много платформ".

AMD Fusion | Больше о перспективе

Для большинства пользователей ПК "интегрированный" является синонимом слова "низкопроизводительный". Возможно, что такое восприятие уйдёт в прошлое вместе с устареванием графических процессоров, которые встраивались в северные мосты чипсетов. Последние, скорее всего, вскоре исчезнут. Сейчас у нас нет точных данных, чтобы последовательно сравнить производительность процессора в двух версиях архитектуры. Но можно с уверенностью утверждать: в гетерогенной вычислительной среде работа приложений, если они оптимизированы для процессоров APU-типа, будет производительнее, чем в системе, где ядра CPU и GPU разделены между собой. Если бы это было не так, индустрия не стала бы так быстро переходить на новый стандарт.

Согласно тестированиям в лаборатории THG, в битве между компаниями AMD и Intel, как правило, побеждает последняя. Но лишь до тех пор, пока мы рассматриваем производительность x86 систем. Что произойдёт, когда в игру вступит гетерогенная графика? Intel делает мощные CPU, но AMD производит мощные графические карты. Кто будет на коне, когда индустрия сделает шаг по направлению к OpenCL и другим гетерогенным системам?

"Сегодня процессоры нашего производства могут уступать в производительности устройствам Intel", – говорит Хедж из AMD. – "Но это — не показатель того, куда мы развиваемся. В будущем мы будем производить процессоры с хорошей производительностью и крайне низким потреблением энергии. И когда мы говорим: "сбалансированная платформа", то мы не имеем в виду, что в ней хорошо одно или другое, – в ней хороши обе стороны. Подход Intel, сосредоточенный на максимизации вычислительной мощности процессора, представляется нам неправильным просто потому, что попытка возложить нагрузку на CPU ведёт к чрезмерному энергопотреблению чипа. Наступает время, когда работа каждого приложения будет оцениваться не только соответственно с требуемыми ресурсами аппаратуры, но и по количеству энергии, которая тратится на работу".

В AMD прекрасно понимают, что HSA будет пользоваться большим успехом на смартфонах и планшетах, поскольку поможет обеспечить меньшую зависимость от ёмкости аккумулятора. HSA преследует две цели: лёгкость программирования и большую энергоэффективность. Исследования показывают, что графические процессоры предоставляют производительность относительно затраченных ватт в 4-6 раз большую, чем CPU. Что касается смартфонов, то большая часть этого "пирога" достанется компании ARM — крупнейшему разработчику чипов для мобильной техники. Однако и в этой области AMD может претендовать на звание игрока номер 2. Ну а для Intel исход в этом поединке, кажется, предрешён.

AMD Fusion | HSA завтра

Финальный вопрос к Манджу Хеджу звучал примерно так: какие размышления о HSA не дают ему уснуть по ночам? Он ответил:

"Меня беспокоит то, как мы сможем добиться преемственности. Наш план — идти в открытую. И ставка на HSA Foundation очень велика. Я не знаю, сколько миллионов долларов мы в это вложили. Что нами двигало? Мы хотим отыграть всё. И я думаю, что когда в игру вступят софтверные экосистемы, преемственность будет легко установить".

AMD крайне серьёзна по этому поводу. Сегодня все инструменты OpenCL доступны в бесплатном режиме. Насколько мне известно, все другие компании в мире гетерогенных вычислений не проводят такой политики. AMD хочет, чтобы все разработчики, от крупнейших фирм до одиночек, могли не волноваться об экономической стороне вопроса.

Завершит ли проект HSA полосу бедствий и вернёт ли компании былую славу? Циник может ответить: по крайней мере, он ей не повредит. Но, если вдуматься, следует признать, что HSA – это кульминационная точка реализации стратегии, которая зародилась около 10 лет назад. Изначальная идея предполагала, что разработками компании будет пользоваться едва ли не каждый. Принимая во внимание то, что сейчас мир IT решительно развернулся в сторону открытых стандартов, можно сказать — AMD всерьёз намерена победить в этой битве, и подготовка к ней была очень долгой.

"В конце концов, нельзя сказать, что мы маниакально хотим нанести поражение одной компании", – говорит Джо Макри. – "Мы маниакально хотим другого: качественно повысить уровень техники для всех потребителей. Когда мы это сделаем, многие наши конкуренты выйдут из игры. Возможно, часть из них будут объединяться друг с другом. Intel – другое дело. Можно не переживать по их поводу — это мощная компания, в которой работают светлые умы. Но, когда ты являешься чем-то вроде общепризнанного лица, очень трудно пойти на изменения. Ты хочешь только таких изменений, за которые не придётся платить. Я не хотел бы быть на их месте сейчас. Но, знаете, многие сотрудники Intel говорили мне, что их идеи и исследования не были реализованы только потому, что менеджер говорил: "Эй, это стоит денег. Возможно, мы используем эти разработки — но не сейчас, а лет через десять". Это убийственно для инженеров".

В то время, как Закон Мура становится всё менее актуален, а затраты при переходе на новые технологические стандарты при производстве процессоров увеличиваются, – промышленность, если она хочет сохранить достигнутые объемы, должна подумать об оптимизации эффективности. И, определённо, это именно то, что могут дать GPGPU и HSA. Со старыми методами — сколько нужно времени на развитие технологий CPU, чтобы совершить прирост производительности в 5 раз? Сейчас такой скачок возможен благодаря простому переходу разработчиков ПО и "железа" на готовые платформы, подобные HSA. Без новых физических исследований, без открытия новых заводов — новая технология уже готова к использованию. И, возможно, с её помощью компьютерный мир совершит квантовый скачок вперёд.

P.S. Комментарий от российской редакции:

Данный материал, несомненно, раскрывает некоторые детали относительно постигших компанию AMD многочисленных неудач за последние 6-8 лет. Очевидно, что при попытке объединения разных архитектур (CPU и GPU) в одном кристалле, рассчитанных на разные техпроцессы, менеджмент не учел голоса инженеров, которые наверняка предупреждали о возможных проблемах. И вот, спустя годы, победив часть трудностей, компания опять запела старую песню, которую мы слышим на протяжении нескольких лет, – о перспективности параллельных вычислений и о том, что максимальная производительность никому не нужна. В данном материале идет попытка доказать, что у вычислений на GPU есть большое будущее. Несомненно, что в этом есть доля правды, но заметьте, что компания ни разу не упомянула о конкретных сегментах применения такого рода вычислений и реального выигрыша от них, а также о проценте таких задач в быту. Кроме аналогов проекта folding@home упомянут лишь не совсем понятно к чему относящийся прирост в 5 раз. При этом традиционно и безапелляционно был спет реквием своему прямому конкуренту, при "звуках" которого мы улыбались также как и в течение последних 7 лет.

Посему, хочется теоретические рассуждения разбавить практикой и напомнить, что в мае наши коллеги из американского офиса уже пытались дать оценку этим самым потоковым вычислениям на GPU, посвятив им немалую часть в статье "AMD A10-4600M: тест и обзор мобильного процессора на базе архитектуры Trinity". На восьмой странице того обзора приведены примеры реальных приложений, использующих GPU AMD, а также пара тестовых примеров в сравнении с бюджетным чипом от Intel. Как нам кажется, дальнейшие комментарии пока излишни.




Свежие статьи
RSS
Обзор игрового кресла ThunderX3 Eaze Mesh: надежность и комфорт Обзор планшета HUAWEI MatePad Pro 13,2: флагман с великолепным дисплеем Лучший процессор для игр: текущий анализ рынка Иерархия процессоров Intel и AMD: сравнительная таблица Лучшие мониторы для игр: текущий анализ рынка
Обзор игрового кресла ThunderX3 Eaze Mesh Обзор планшета HUAWEI MatePad Pro 13,2 Лучший процессор для игр Иерархия процессоров Intel и AMD: сравнительная таблица Лучший монитор
РЕКЛАМА
РЕКОМЕНДУЕМ ПРОЧЕСТЬ!

История мейнфреймов: от Harvard Mark I до System z10 EC
Верите вы или нет, но были времена, когда компьютеры занимали целые комнаты. Сегодня вы работаете за небольшим персональным компьютером, но когда-то о таком можно было только мечтать. Предлагаем окунуться в историю и познакомиться с самыми знаковыми мейнфреймами за последние десятилетия.

Пятнадцать процессоров Intel x86, вошедших в историю
Компания Intel выпустила за годы существования немало процессоров x86, начиная с эпохи расцвета ПК, но не все из них оставили незабываемый след в истории. В нашей первой статье цикла мы рассмотрим пятнадцать наиболее любопытных и памятных процессоров Intel, от 8086 до Core 2 Duo.

ССЫЛКИ
Реклама от YouDo
erid: LatgC7Kww