Серверы: мир без них не мог бы существовать
Редакция THG,  1 апреля 2005


Взрыв технологий

Информация не самодостаточна и потому не стоит даже ломаного гроша без соответствующего её анализа, интерпретации и правильного применения. Также ясно, что для того, чтобы иметь возможность производить какие бы то ни было операции над информацией, необходимо где-то её сохранять и накапливать. Причём, в этом процессе важна не только вместимость хранилища, но и скорость доступа к любому его сегменту, правильность организации "памяти" и её предварительная обработка и структуризация. Именно для работы с огромными массивами информации и существуют системы, называемые серверами.

Серверы не существовали бы как класс, если с появлением "цифровых" технологий не начался бы лавинообразный рост массы данных. В цифровую форму переводится всё - книги, произведения искусства, научная литература, видео, фотографии. Корпорации хранят свои разработки в цифровом виде, а НИИ по всему миру давно уже перешли на использование компьютеров. И конечно, не только и не столько наука и производители создают основной контент серверов - миллионы людей в мире ежедневно заполняют блоги (онлайновые дневники), снимают своих друзей и знакомых на цифровые камеры, создают тысячи и тысячи сайтов.

Рост количества пользователей Интернета влечёт за собой переход в него основных информационных источников. Большинство СМИ давно и прочно обосновались в Сети, а в России уже создана и работает в тестовом режиме система цифрового телевидения "по заказу" ("video on demand" под эгидой МТУ "СТРИМ").

Взрыв технологий

Кстати, база данных нашего сайта давно перевалила за несколько десятков гигабайт, а ежемесячная аудитория во всём мире превышает 5 миллионов читателей каждый месяц, которые запрашивают ежемесячно более 70 миллионов(!) страниц текста. Справиться с таким потоком запросов к серверу может только очень мощное "железо", но и его пределы не безграничны. Так, русский Tom's Hardware Guide за последний год увеличил свою посещаемость более чем в два раза, и, соответственно, возросла нагрузка на сервер провайдера. Сегодня наш сайт ежедневно(!) выдаёт читателям более 12 гигабайт данных и выполняет ежесуточно несколько миллионов запросов в базу.

Взрыв технологий

Каждый наш читатель хотел бы, чтобы информация ему предоставлялась на максимальной скорости его интернет-соединения, чтобы не было задержек при обращении к страницам, и именно по этой причине мы систематически обновляем "железо" нашего web-сервера. Кстати, о слове "сервер" - позволим себе краткую справку об истории этого термина.

Собственно, впервые "web-сервером" назвали компьютер, на котором хранились HTML документы ещё тогда, когда Интернета в современном понимании не существовало. Не было ни модемов на 56K, никакого ADSL, а Intel ещё не представила даже свой первый серверный процессор. Первым в мире "web-сервером" принято считать головной компьютер, установленный в CERN. Само словосочетание "web-сервер" происходит, по понятным причинам, из английского языка - компьютер называли "web server" от "to serve" (англ.: служить, работать, управлять), так как он "обслуживал web".

В CERN находился всего один сервер, но уже к концу 1992 года в мире(!) существовало 50 серверов. Подавляющее большинство из них располагались в помещениях университетов и центров разработок. Прошло всего семь лет, и в июне 1999 года в мире было уже 720 тысяч web-серверов. По итогам исследований, проведённых в апреле 2001 года, число серверов во всём мире составило 24 миллиона(!). На текущий момент у нас нет данных о количестве web-серверов во всём мире, но несложно предположить, насколько увеличилось их количество за прошедший с 2001 года период, ознаменовавшийся значительным ростом аудитории Интернета и снижением стоимости как серверного оборудования, так и его обслуживания.

История десятки в сотой степени

Нужно ли сегодня кому-то говорить, что такое Google? Известнейший поисковый сервер и каталог, обеспечивающий массу сервисов, появился тогда, когда рынок уже был переполнен аналогичными службами. Его резкий старт и динамичное развитие являют собой пример того, как эффективная модель может вывести бизнес вверх даже в заполненной конкурентами нише. Google появился внезапно и не мог бы существовать без мощной аппаратной составляющей.

История десятки в сотой степени

На фото выше вы видите "железо", на котором работал основной движок Google. На фото можно заметить два двухпроцессорных сервера на базе процессора Intel Pentium II с 512 мегабайтами памяти в каждом. Оба оснащены системами хранения данных с совокупным объёмом 81 гигабайт (9 дисков по 9 гигабайт). Серверы подарены Google компанией Intel. Кстати, Google это несколько видоизменённое слово "googol", а гугол, в свою очередь, это десять в сотой степени. Почему для поисковой системы было выбрано именно это название? Дело в том, что во вселенной не существует гугол чего-нибудь, и именно этим создатели поисковой системы хотели дать понять, что их цель - создание бесконечной базы данных для поиска в ней любого рода информации.

Основателями компании Google являются двое аспирантов Стэндфордского университета: Ларри Пейдж и россиянин Сергей Брин. 10 сентября 1998 года два этих человека встретились с Энди Бехтольшаймом (основателем Sun Microsystems) и после краткой демонстрации поискового движка, получили чек на сто тысяч долларов на имя тогда ещё не существующей компании Google Inc.

История десятки в сотой степени

До первой половины 1998 года Сергей Брин и Ларри Пейдж совершенствовали технологию и собирали инвестиции для запуска в строй компании. Для создания действительно огромной поисковой базы данных они приобрели невероятное количество жёстких дисков - в совокупности, удалось организовать массив, объёмом в 1 терабайт (1024 гигабайта). Вдумайтесь, что такое был терабайт в 1998 году (передовая модель Seagate в конце 1998 года обладала ёмкостью 17 гигабайт), и чем он является сегодня, когда можно приобрести в магазине жёсткий диск для домашнего компьютера объёмом 500 Гбайт. Два таких диска обеспечат вам в домашнем ПК как раз один терабайт данных, на который основатели Google всего семь лет назад потратили просто неприличную сумму. И... первый центр данных Google обосновался в комнате Ларри Пейджа в общежитии. Да, воистину, гаражи и комнаты в общежитиях - это, своего рода, родильные дома для современной ИТ-индустрии.

В это же время Сергей организовывает деятельность делового центра и обращается к потенциальным партнерам, готовым запатентовать новую технологию поиска, а к концу 1998 года партнёрам удаётся собрать миллион долларов инвестиций и, наконец, официально открыть компанию Google Inc.

История десятки в сотой степени

На фото: подарок IBM - сервер F50 IBM RS6000 на базе четырёх процессоров Intel Pentium III Xeon с 72 гигабайтами дисковой подсистемы на 8 накопителях, с 512 мегабайтами ОЗУ.

Ещё находясь в процессе бета-тестирования, сервис Google обрабатывал более десяти тысяч запросов в сутки. После того, как СМИ обратили внимание на высокую релевантность поиска и было опубликовано немало лестных отзывов о новом поисковике, начался динамичный рост рейтинга и посещаемости сервиса. Уже к февралю 1999 года серверы поисковой системы отвечали каждые сутки на 500 000 запросов, а после того, как AOL/Netscape выбрал эту систему в качестве своего поискового сервиса, была преодолена отметка в 3 миллиона запросов ежедневно. В апреле 2000 года, то есть всего пять лет назад, Google стал считаться самым крупным поисковым сервером в мире, а в его базе скопилось более миллиарда проиндексированных страниц. Уже к лету 2000 года Google обрабатывал ежедневно 18 миллионов запросов, а к концу года это число превысило 100 миллионов(!). В феврале Google взялся за трудную задачу преобразования наибольшего в Интернете архива Usenet в поисковый формат. Для этого вычислительные комплексы поисковой системы проиндексировали свыше 500 миллионов сообщений, оставленных за многие годы на досках Usenet. Глобальная аудитория Google росла, и появилась возможность по сохранённым поисковым запросам составить "Дух времени Google" (Google Zeitgeist) - снимок желаний человечества. "Дух времени Google" отражает изменения наших интересов. И кстати, только в 2001 году Google удалось объявить о самоокупаемости проекта. Вы видите, насколько немалый срок понадобился компании, чтобы при всей перспективности и росте преодолеть этот важный порог.

База данных поисковой системы продолжала расти, и к концу 2001 года в БД Google скопилось уже более 3 миллиардов доступных для поиска страниц. Есть и ещё одна интересная деталь - чтобы помогать решать ресурсоёмкие научные задачи, Google использует неактивные промежутки на компьютерах пользователей, установивших Google Toolbar. Именно таким образом подключился Стэндфордский университет с некоммерческой научно-исследовательской работой Folding@home, в которой, используя ресурсы миллионов компьютеров, анализируется структура белков глаза для улучшенного лечения множества болезней.

К чему этот рассказ про историю одного поискового сервера, пусть и успешного, но одного из многих? Успех Google не был бы возможен, если вычислительные системы продолжали бы оставаться безумно дорогими - такими же, как и в начале развития техники. Рыночную ситуацию формирует конкуренция, и в сфере ИТ она самым положительным образом сказывается на массовом распространении высокопроизводительных решений. Вместе с тем, и дальнейшее развитие Google возможно лишь в том случае, если оно будет экономически оправданным. Никто не хочет строить бизнес себе в убыток. Будет расти и посещаемость Google, и количество запросов к нему. Будут появляться новые сервисы, например, однажды может появиться поиск информации в видеороликах или аудиозаписях. Всё это означает, что со временем потребуется существенная модернизация аппаратной базы. И от того, насколько резонно с экономической точки зрения будет осуществляться модернизация аппаратной части и ПО, и от того, насколько дорогим будет "железо", позволяющее реализовать передовые функции, будет зависеть развитие сервиса.

Сервер становится доступным

Миллион долларов - это не так уж и много, как может показаться на первый взгляд. Посетите салон крупного дилера компании BMW, например компанию "Автодом" на улице Зорге в Москве. Оглянитесь. Вокруг стоит больше миллиона долларов. Пентхаус в новой столичной высотке стоит дороже. Десять автомобилей BMW седьмой серии стоят больше миллиона. Постройка одного шоу-рума для авторизованного автосервиса стоит больше миллиона, а с "Джеймса Бонда" и известного актёра Шона Коннери соседи пытаются в судебном порядке потребовать тридцать миллионов долларов на ремонт квартиры. Начать создавать сложную поисковую систему всего с одним миллионом долларов в кармане было бы сложно, если современная техника не дешевела бы с каждым днём. Когда-то каждый компьютер обходился заказчику в суммы, значительно превышающие миллион долларов. Но, с выходом платформы x86 на серверный рынок, цены начали изменяться в лучшую для массового потребителя в сторону. Этот процесс не останавливается и сегодня. Сегодня есть повод поговорить об этом, потому что именно в этом году исполняется 10 лет с того дня, как корпорация Intel представила свой первый продукт, предназначенный для серверного рынка - процессор Intel Pentium Pro. Многопроцессорные решения на этом чипе смогли стать для рынка катализаторами снижения цен. Обеспечивая достаточно высокую производительность, они стоили намного дешевле аналогов на RISC-процессорах. Собственно, именно это, а не скоростные показатели процессоров, послужили причиной массового распространения процессоров Intel в серверном сегменте рынка. По оценкам IDC, с 1996 года по всему миру было установлено более 30 миллионов(!) серверов на базе архитектуры Intel, которая уверенно лидирует и на российском серверном рынке: здесь рыночная доля серверов на базе архитектуры Intel равна 93,5% (в штуках) или 57% - в долларах. Обратите внимание на эту разницу - в рыночной доле, и в цене решений.

Сервер становится доступным
Александр Александрович Палладин: открытие мероприятия, посвящённого десятилетию серверного направления Intel.

К десятилетнему юбилею серверного направления компания Intel приурочила международный анонс нескольких новых серверных процессоров и нового чипсета. Нас пригласили на специальное мероприятие в зал отеля "Олимпик Пента Ренессанс", где представители Intel рассказали об истории серверного направления компании и представили новинки, а представители компании Microsoft обрисовали картину с точки зрения экономической выгоды, показав, как современное серверное ПО и приложения баз данных становятся более доступными потребителю. Прежде чем перейти к этой теме, позволим себе небольшой экскурс в историю.

Сервер становится доступным

Передовой для 1995 года продукт - процессор Pentium с недвусмысленной приставкой "Pro" стал, своего рода, отправной точкой в реализации перспективного плана по выпуску процессоров Intel для серверов и рабочих станций. Это был не просто чип шестого поколения, но и радикально отличный от использующихся в настольных системах процессор, ставший основой всего дальнейшего ряда микропроцессоров. Изначально Pentium Pro разрабатывался как мощное средство для наращивания быстродействия 32-разрядных приложений для серверов и рабочих станций, систем автоматизированного проектирования, программных пакетов, используемых в машиностроении и научной работе.

Среди уникальных технологических особенностей Pentium Pro можно отметить упаковку ядра в одном корпусе с микросхемой кэш-памяти. В совокупности, это дало возможность говорить о наличии пяти с половиной миллионов транзисторов на одном чипе. Да и частота, на которой функционировал процессор (весьма важный в те годы показатель), впечатляла - выпускались модели от 150 до 200 МГц. Да, сегодня, когда частота лидирующих моделей Pentium 4 приближается к четырём тысячам мегагерц, какие-то две сотни не впечатляют, но ведь прошло десять лет. На Pentium Pro компании Intel удалось отработать переход с технологического процесса 0,6-мкм на 0,35-мкм, а наращивание кэш-памяти с 256 кбайт до 1 Мбайт продемонстрировало действенность подобного шага с точки зрения повышения производительности системы.

В 1998 году Intel выпустила на рынок процессор Intel Pentium II Xeon, насчитывавший 7,5 миллиона транзисторов и производившийся по наиболее современному на тот момент 0,25-мкм техпроцессу. Фактически, новый серверный процессор был "родным братом" процессора Pentium II для настольных систем, вышедшего годом раньше, хотя и отличался от него некоторыми характеристиками и конструкционными особенностями (например, типом картриджа).

Сервер становится доступным

Именно с момента появления на рынке Pentium II Xeon была запущена в дело новая торговая марка, в тот момент бывшая лишь приставкой, заменившей слово "Pro" в названии процессора. Это же ознаменовало и очередную веху в маркетинговой стратегии Intel - в конце девяностых произошло сегментирование процессоров по потребительским нишам, что выразилось в появлении линейки "бюджетных" процессоров семейства Celeron для недорогих ПК и закреплении марки Xeon за серверной продукцией Intel. Таким образом, на тот момент Intel производила три семейства - Celeron для недорогих систем, Pentium для производительных ПК и Pentium Xeon для серверов.

Сложное сочетание Pentium Xeon в определённый момент перестало устраивать маркетологов Intel, и последним чипом в семействе стал Pentium III Xeon, вышедший в 1999 году по 0,25-мкм техпроцессу и первоначально содержавший 9,5 миллиона транзисторов. Затем производство этого процессора было переведено на 0,18-мкм, и число транзисторов достигло 28 миллионов.

Сервер становится доступным Ядро Pentium III Xeon.

Разные модели процессоров, выпущенные за 2 года существования данной линейки, были предназначены для применения в широком кругу серверных устройств и рабочих станций с системной конфигурацией, поддерживающей от 1 до 8 процессоров, и даже в ПК уровня предприятия. Семейство процессоров Intel Pentium III Xeon обеспечивало высокий уровень производительности и предоставляло необходимую вычислительную мощность, чтобы справляться с возрастающими информационными нагрузками, а также обеспечивало универсальность и совместимость для работы с широким диапазоном серверных приложений. В то же время, процессор Intel Pentium III Xeon, поддерживавший как 2-процессорную, так и многопроцессорную системную конфигурацию, никак не отражал процессорную ёмкость платформы в своём названии - аббревиатура МР (от multiprocessor) будет добавлена в обозначение продукта позднее.

Сервер становится доступным
Участники пресс-конференции, посвящённой десятилетию серверного направления Intel.

В 2001 году марка Xeon, наконец, отправилась в самостоятельное плавание - был выпущен процессор Intel Xeon для рабочих станций и серверов. Хотя он и был разработан на основе микроархитектуры Intel NetBurst, внедрённой годом раньше с выходом процессора Intel Pentium 4 для настольных ПК, тем не менее, однозначно позиционировался для серверных систем разного уровня и способствовал повышению производительности систем по сравнению с серверами на базе процессора Intel Pentium III Xeon на 30-90% в зависимости от типа приложения.

За 4 года существования процессоры семейства Intel Xeon стремительно нарастили вычислительную "мускулатуру": процесс производства сменился с 0,18-мкм сначала на 0,13-мкм, а затем и на 90 нанометров, количество транзисторов выросло с 42 до 178 млн. (а в варианте процессора Intel Xeon MP для многопроцессорных систем, впервые появившегося в 2002 году, - до 286 миллионов). В несколько раз увеличились количественные показатели продукции: частота ядра и системной шины, объём кэш-памяти, появилась поддержка целого ряда перспективных технологий, обеспечивающих высочайшую производительность при работе многопоточных приложений в многозадачной среде (Hyper-Threading), пониженное энергопотребление (Demand Based Switching), 64-разрядное расширение адресации памяти (Intel EM64T), улучшенные функции RAS и другие функции, которые не были важны в момент появления серверов как класса, но с развитием индустрии стали буквально обязательными.

С приходом архитектуры x86 в серверный сегмент рынок начал динамично насыщаться процессорами Intel. Сыграла свою роль и экономическая целесообразность, и растущая производительность решений. 8 из каждых 10 продаваемых серверов созданы на базе процессоров Xeon. Экосистема охватывает 20 тысяч поставщиков по всему миру, более 20 видов поддерживаемых ОС, несколько тысяч приложений, 500 миллионов долларов ежегодных инвестиций независимых поставщиков, 170 тысяч зарегистрированных разработчиков.

Сегодня 320 систем в рейтинге TOP-500 самых высокопроизводительных решений созданы на базе процессоров Intel, из них 237 систем на базе Intel Xeon, а 83 системы на базе Intel Itanium. Ещё более интересной ситуация может стать с приходом на рынок двуядерных процессоров, каждый из которых будет работать, как два чипа. Но здесь есть и свои подводные камни.

Двуядерные процессоры наступают

Двадцать девятого марта, за несколько часов до начала мировой премьеры, в России были представлены новые серверные продукты Intel. Корпорация Intel расширила свой ряд 64-разрядных серверных решений, выпустив новую платформу, которая не только обеспечивает повышение производительности приложений и до минимума сокращает простои, но также позволяет работать с большими массивами данных и требует сравнительно небольших затрат на обслуживание. Новая платформа, в первую очередь, нацелена на корпоративные решения среднего уровня. На её базе представлены пять новых процессоров для многопроцессорных серверов (с 4 и более процессорами) и новый набор микросхем. Новая платформа под кодовым названием "Truland" включает 64-разрядные процессоры Intel Xeon MP, предназначенные для многопроцессорных серверов различных ценовых категорий, а также набор микросхем Intel E8500.

Двуядерные процессоры наступают

Важная деталь - новый набор микросхем разработан уже с учётом поддержки будущих двуядерных процессоров и может послужить отправной точкой для перехода на многоядерные процессоры с поддержкой таких новых технологий, как технология виртуализации Intel. Цена на новые процессоры начинается от $722 в партии от десяти тысяч штук. За эту сумму заказчик получает 64-разрядные процессоры Intel Xeon MP с тактовой частотой 3,16 ГГц с 1 МБ кэш-памяти 2-го уровня. Второй процессор в экономичной серии, модель Xeon MP с частотой 3,66 ГГц, стоит $963 в оптовых партиях, а наиболее высокопроизводительная модель с частотой 3,33 ГГц и восемью мегабайтами кэша второго уровня продаётся по цене $3692 за штуку, в партиях от десяти тысяч штук.

Intel заявила, что 64-разрядная платформа на базе новых процессоров Intel Xeon MP обеспечивает увеличение производительности на 70% для разнообразных бизнес-приложений и научных приложений по сравнению с процессорами Intel Xeon MP предыдущего поколения. Увеличение производительности достигнуто, в том числе, за счёт большого кэша - процессоры платформы Truland оснащаются кэшем третьего уровня, объёмом до 8 Мбайт.

Но, сами по себе, процессоры не являются революционным шагом вперёд. Более интересен набор микросхем Intel E8500, поддерживающий две независимые системные шины с частотой 667 МГц каждая. Он разработан для обеспечения пропускной способности системной шины в 10,6 Гбайт/с, что более чем в три раза выше, чем у предыдущего поколения чипсетов. С ростом вычислительной мощи процессоров именно шина становится узкой горловиной, способной существенно снижать потенциал всего аппаратного комплекса при обработке массивов запросов.

Эти и другие функциональные возможности обеспечивают инфраструктуру для двуядерных процессоров Intel Xeon MP под кодовым названием "Paxville", выпуск которых планируется в первом квартале 2006 года. Каждый такой процессор сможет работать как два процессора, при этом, в отличие от технологии Hyper-Threading, обеспечивающей виртуальную многопроцессорность, чипы Paxville будут действительно содержать два ядра, то есть два независимых процессора. Установив два таких чипа в сервер, вы уже получите четырёхпроцессорную систему. И именно с этим связан ещё один важный аспект - стоимость программного обеспечения.

Кстати, в ближайшее время мы опубликуем цикл статей, в которых будет более детально рассказано о двуядерных процессорах. Следите за разделом "Процессоры" на THG.ru.

Многоядерность: ПО для серверов подорожает в два раза?

Многоядерность: ПО для серверов подорожает в два раза?

Ключевая деталь - серверные продукты (операционные системы, серверы баз данных и т.д.) лицензируются в пересчёте на количество ядер в системе. До сих пор считалось, что один процессор, это одно ядро. Скоро ситуация должна измениться, но до сих пор ведущие игроки софтверного рынка не снизили цены на свои продукты. Так, в своём выступлении на пресс-конференции Татьяна Демьянкова, руководитель отдела Microsoft по продвижению серверной продукции в России, продемонстрировала графики зависимости цены от количества "процессорных ядер" в сервере. Например, лицензия на СУБД Oracle 10 уровня Enterprise Edition для четырёхпроцессорной системы обойдётся клиенту в $160 тысяч. Покупка аналогичной системы DB2 от IBM выльется в $132 тысячи долларов. В то же время, приобретение Microsoft SQL Server встанет "всего" в 80 тысяч долларов. Разрыв внушительный, но с выходом двуядерных серверных процессоров, как это не странно на взгляд потребителя, он ещё более увеличится.

Как мы уже отмечали, двуядерный процессор для компьютера является, по сути, двумя отдельными процессорами. Значит, установив в систему четыре таких чипа, вы получаете фактические восемь. Ценовая политика Oracle и IBM приведёт к тому, что та же СУБД обойдётся клиенту уже не в 160, а в 320 тысяч долларов для Oracle, и в 265 тысячи долларов для СУБД от IBM. В то же время, компания Microsoft, поддерживающая инициативы Intel, перейдёт от подсчёта ядер к подсчёту процессоров, и установка SQL Server на сервер с четырьмя двуядерными процессорами выльется всё в те же $80 тысяч. Налицо четырёхкратная разница, которая вполне может послужить мотивацией для использования именно платформы Intel в паре с SQL Server от Microsoft. Сегодня у нас нет достоверной информации о том, будут ли IBM и Oracle менять свою ценовую политику, но, судя по данным ряда источников, в настоящий момент этого не происходит.

Многоядерность: ПО для серверов подорожает в два раза?

Татьяна Демьянкова отмечает, что в масштабах предприятия для обработки данных более выгодно, в том числе экономически, использовать именно продукты Microsoft. Кроме того, госпожа Демьянкова указала, что использование 64-разрядных и многоядерных процессоров уменьшает стоимость владения и увеличивает производительность вычислений и обработки данных в масштабе предприятия, а схемы лицензирования Microsoft позволяют заказчикам быстро перейти к 64-разрядным приложениям при минимальной совокупной стоимости владения (TCO). Кроме того, владельцы существующих систем на базе современных процессоров Intel Xeon MP и набора логики E8500 смогут безболезненно (то есть без удара по бюджету) перейти на двуядерные процессоры в момент их появления. Достаточно будет вынуть старые одноядерные чипы и вставить новые двуядерные, чтобы в два раза увеличилось количество процессоров в системе. В то же время, на четырёхпроцессорной системе не потребуется расширения лицензии до восьми процессоров.

Итог и немного футурологии

Можно смело говорить о том, что микропроцессоростроение переживает переломный момент. Грядут самые существенные перемены с момента создания первой микросхемы почти сорок лет назад, и скоро люди найдут компьютерам такие области и способы применения, о которых недавно нельзя было даже мечтать. Соответственно, требования к вычислительным платформам будущего невероятно повысятся.

Новая двуядерная архитектура Intel - лишь первый шаг в планируемом потоке инноваций, устремлённых в будущее. Из-за того, что фактически произошел огромный сдвиг в моделях использования компьютеров, наши принципы определения и разработки архитектуры вычислительных платформ будущего существенно изменились и теперь включают три фундаментальных элемента платформы, которые должны обеспечивать вычислительные мощности, предоставлять интерфейс и инфраструктуру. В конечном счёте, движущая сила развития платформ – это модели использования, то есть то, что люди хотят от технологий и что они могут сделать с их помощью. Процессор через десять лет будет оказывать непосредственное влияние на развитие событий и отвечать социальным и технологическим тенденциям, которые просматриваются уже сегодня. Такие тенденции, как глобализация и высокопроизводительные вычисления, найдут прямое отражение в вычислительных платформах будущего.

Итог и немного футурологии

Сегодня Intel говорит о технологии CMP (многопроцессорная обработка на уровне кристалла). Уже начат серийный выпуск платформ на базе многоядерных процессоров, но сегодня и в ближайший год на одном процессоре будет размещаться два ядра. В недалёком будущем таких ядер будет становиться больше - четыре, восемь, шестнадцать... Соответственным образом будет меняться и программное обеспечение, которое не только сможет, но и обязано будет использовать высвободившуюся процессорную ёмкость для просчётов. Не только серверные приложения, но и продукты для конечного потребителя (операционные системы, программы, игры) должны будут научиться считать данные параллельно. Не исключено, что в недалёком будущем появятся такие игры, в которых физику будет рассчитывать одно ядро процессора, логику игры другое, а различные действия пользователя обрабатывать третье и четвёртое. И, возможно, именно в этом ключе системы станут ещё дешевле. Ведь сегодня, например, звук в игре рассчитывается специальным процессором, графика специальным графическим ускорителем, а физика игры центральным процессором. С ростом процессорной мощности и появлением многоядерных чипов станет возможным без ущерба качеству перенести большую часть вычислений со специализированных чипов (читайте "плат расширения", стоимостью от сотни до нескольких сотен долларов каждая) на центральный процессор.

Итог и немного футурологии

А некоторые следы метаморфоз можно увидеть и сегодня. Ведь чем был компьютер в недалёком прошлом? Вычислительным инструментом в руках профессионала, специализированным и очень сложным устройством для узких нужд. Что такое компьютер сегодня? Это бытовая техника в широком смысле, это игровой и медиа-центр. Как индустрия ушла от бобин в сторону компакт-кассет, а с них, в свою очередь, на CD и затем на DVD, так в недалёком будущем вполне нормальным станет распространение контента с высокопроизводительных серверов через Сеть на каждый персональный компьютер. Уже сейчас действует пилотная сеть цифрового телевидения под эгидой МТУ "СТРИМ". Мы уже подключили в лаборатории цифровое телевидение, чтобы понять, как оно работает и что даёт. В двух словах - вы можете не только выбрать из нескольких десятков телеканалов, для приёма которых не требуется антенна, но и заказать себе на компьютер любой кинофильм, имеющийся в базе провайдера. Представьте себе программу телепередач, которую вы формируете сами. Зачем смотреть рекламу, если вы можете, заплатив сравнительно небольшую сумму (скажем, полтора доллара), получить желаемый кинофильм прямо на компьютер?

Итог и немного футурологии

С приходом формата BTX и в ходе дальнейшей его эволюции компьютеры избавятся от громоздкости, серости и примитивного дизайна. С рабочих столов в кабинетах они переедут в гостиные, на полки под телевизорами и плазменными панелями. Всё это станет очередной эволюционной вехой в развитии индустрии, и в очередной раз через несколько лет мы удивимся, насколько в мире стало больше серверов, и насколько бОльшая нагрузка на них теперь возложена. И цифровое телевидение, и возможность общения через Интернет по VOIP (передача голоса через Интернет среди других данных), и цифровая фотография, и развитие электронных СМИ приведут к полной смене уже устоявшихся вещей. Компьютер займёт положение ведущего элемента в быту. Сможет заменить целый букет классической техники. И стоить один ПК будет дешевле, чем комплект из музыкального центра, видеомагнитофона, DVD-проигрывателя и игровой приставки. Все эти функции лягут на один "ящик", который внутри будет, с одной стороны, невероятно сложным, а с другой, и более простым.

Intel планирует в течение нескольких последующих лет выпустить процессоры, которые будут содержать множество ядер, - в некоторых случаях даже сотни. Компания считает, что архитектура с поддержкой многопроцессорной обработки на уровне кристалла представляет будущее микропроцессоров, потому что такие архитектуры позволяют достичь огромных уровней производительности и дают возможность компьютеру выполнять роли, ранее для него не предусмотренные.

Итог и немного футурологии

Продолжая говорить о технической стороне вопроса, нельзя не упомянуть, что Intel будет разрабатывать процессоры, допускающие динамическую реконфигурацию ядер, межкомпонентных соединений и кэш-памяти, чтобы обеспечить соответствие многообразным и изменяющимся потребностям. Такая реконфигурация может выполняться производителем процессора, чтобы перенастроить один и тот же кристалл для использования на различных сегментах рынка, OEM-поставщиком, чтобы настроить процессор для систем разного типа, и даже автоматически в реальном времени, чтобы обеспечить соответствие изменениям потребностей рабочей нагрузки "на лету". Уже сегодня некоторые чипы Intel предоставляют такую возможность для специализированных сетевых применений.

Кроме того, в чип может быть интегрирована и оперативная память. В процессе развития процессоров и платформ, к 2015 году Intel планирует оснастить некоторые микропроцессоры внутрикристальными подсистемами памяти, а ёмкость такой памяти сможет достигать гигабайтов. Целая система в одном чипе, компактная, недорогая и очень быстрая - именно она станет основой компьютера будущего.

КОНЕЦ СТАТЬИ


Координаты для связи с редакцией:

Общий адрес редакции: thg@thg.ru;
Размещение рекламы: Roman@thg.ru;
Другие координаты, в т.ч. адреса для отправки информации и пресс-релизов, приглашений на мероприятия и т.д. указаны на этой странице.


Все статьи: THG.ru

 

Rambler's Top100 Рейтинг@Mail.ru