Платформа 2015 — на взлет!

Анатолий Ковалевский (С.-Петербург)

Слушая доклады на IDF 2005 в большом зале театра «Глобус» города Новосибирска, я вспомнил первые десять минут фильма «Гладиатор». Те самые, где показана сокрушительная военная мощь Римской империи, сметающая все и вся на своем пути. Такие же ощущения вызывал и форум, где в качестве противников предполагались не столько фирмы-конкуренты, сколько широкие массы окружающих с их представлением о том, каким должно быть наше компьютерное будущее. Ну что ж, нам остается лишь познакомиться с ним поближе.

Компьютеры на высокой платформе. Без каблука

Платформизация, с точки зрения Intel, — это вынужденная мера, вызванная якобы тем, что только согласованность всех компонентов позволит получить максимальную производительность и избежать узких мест. В своем докладе генеральный директор программы IDF Роб Чапмэн рассказал не столько о том, как, по мнению Intel, будет выглядеть вычислительная платформа через десять лет, сколько о тех технологиях, на которых она будет основана.

1. Virtualization Technology. Сегодня более 70% IT-бюджетов компаний уходит на поддержку и эксплуатацию существующей инфраструктуры компьютерных систем. В таких условиях IT-системы в целом и центры хранения данных в частности (за многие годы объединенные на основе разнообразных аппаратных и программных платформ) становятся настолько чувствительными по отношению к любым нововведениям, что администраторы вполне справедливо боятся что-либо менять в схеме налаженной работы: слишком часто перемены ведут к непредсказуемым последствиям и серьезным сбоям работы всей системы. По этой причине многие компании предпочитают не внедрять у себя не только новое ПО, но и не обновлять копьютерный парк.

И вот здесь на помощь приходит технология виртуализации Virtualization Technology («в девичестве» имела фамилию Vanderpool). Пока на рынке нет ни одного процессора с реализованной технологией, однако ожидается, что они появятся уже в этом году и, возможно, даже в ближайшие месяцы (к сожалению, более точных данных получить не удалось, поскольку пресс-служба Intel предпочитает не говорить о продуктах, которые не поступили в продажу).

Уже готова поддержка Virtualization Technology от таких компаний, как Hitachi, Novell, Red Hat, VMware и XenSource. Обещана реализация этой технологии в настольных Pentium Extreme Edition и серверных двухъядерных Itanium (кодовое название Montecito).

Технология виртуализации позволяет запускать на одной (!) аппаратной платформе не только несколько приложений в так называемых независимых разделах (называемых также контейнерами), но даже и разные ОС. В результате одна физическая вычислительная система может работать как несколько виртуальных компьютеров, причем работать без «провалов» в производительности благодаря многоядерным процессорам. Если какая-то программа зависнет, то это никак не повлияет на работоспособность остальных запущенных программ. В результате фирмам можно поэтапно, небольшими частями модернизировать и оптимизировать инфраструктуру, не подвергая риску всю систему.

Для простого пользователя данная технология будет полезна тем, что позволит запускать в отдельных контейнерах ресурсоемкие приложения (монтаж видео, научные расчеты и т. д.), при этом сохраняя возможность спокойно работать на компьютере в другом разделе, поскольку производительность не будет снижаться. Еще одним полезным применением может быть запуск в отдельном контейнере потенциально опасных программ (почтового клиента, браузера, папок с общим доступом, ftp-качалки и т. д.). Конечно, данное воплощение Virtualization Technology существенно повысит безопасность работы, поскольку в случае хакерской атаки или вирусного заражения «поврежденному» ПО можно будет запретить доступ в другие разделы. Однако, поскольку по статистике более 70% взломов осуществляется не через бреши в ПО, а посредством «человеческого фактора», этот вариант не является панацеей. К тому же пока еще остался нерешенным вопрос от том, как будет лицензироваться продукция большого количества производителей ПО в зависимости от количества ядер и процессоров. А технология виртуализации добавит проблем в первую очередь пользователям Windows XP и следующих версий этой ОС, так как совершенно непонятно, как будет проходить активация.

2. Extended Memory 64 Technology (ЕМ-64) — данную технологию Intel называет «Расширенная 64-разрядная адресация памяти», намекая таким образом на то, что Athlon 64 от AMD, чьи инструкции были лицензированы и воплощены в кремний, не позволяют данному процессору называться 64-разрядным. В приватных беседах представители Intel называют этот процессор исключительно как «быстрый 32-разрядный», хотя и признают тот факт, что по производительности системы на базе процессоров Intel и AMD уже достаточно долгое время идут «ноздря в ноздрю». Intel настаивает на том, что только Itanium может называться истинным 64-разрядным процессором.

3. Active Management Technology (iAMT) — улучшение управления системой. Технология предполагает удаленное управление всем компьютером, если он подключен к Сети. Компьютер может самостоятельно подключаться к нужным сайтам, скачивать обновления к ПО и ОС.

4. LaGrande — технология обеспечения безопасности вычислений. Точнее, это не одна технология, а целый комплекс, направленный на то, чтобы работа не только на локальном компьютере, но и, главное, на компьютере, подключенном к Интернету, была безопасной. Однако вместе со стремлением обезопасить пользователя от вирусов в систему привносится множество подсистем контроля, которыми пользователь управлять не в состоянии, в частности — распределением прав на музыкальные и видеоданные.

Phoenix предлагает заменить стандартный BIOS на систему Core Managed Environment, в которую будут встроены средства управления цифровыми правами. Intel предлагает похожее решение, с той лишь разницей, что называется оно Handheld Manageability. Как ни странно, ни слова не было сказано о реализованной в металле технологии защиты от переполнения буфера (так называемый NX-бит). Возможно, от этой технологии временно отказались в пользу доводки многопроцессорных решений.

В качестве реализации безопасной и защищенной сети Fujitsu&Siemens представила одну интересную разработку — Futro S. Она реализует клиент-серверные технологии для небольших рабочих групп. Вы имеете не полноценный компьютер, упакованный в малый форм-фактор, а материнскую плату, видеокарту, сетевую карту, оперативную память и… все. Все остальное такому компьютеру предоставляет сервер, с которым он должен быть соединен. Благодаря этому достигается дешевизна (клиентское место без монитора обходится в 8 тыс. рублей со всем предустановленным ПО) плюс бесшумность, поскольку нет ни одного вентилятора — только пассивные радиаторы.

Но не менее интересно другое. Поскольку в данном случае вопрос безопасности важен как никогда, на Futro S могут запускаться лишь Opera и Mozilla. Думаю, что данный факт вызовет зубовный скрежет у Microsoft, ведь доля Internet Explorer среди пользователей последнее время неуклонно снижается. А поскольку многие браузеры «представляются» сайтам как IE, вполне возможно, что реальная доля куда ниже официальных 90%.

5. WiMAX — беспроводная технология, которая в ближайшем будущем должна заменить Wi-Fi и обрести возможность динамически перестраиваться для работы в любых сетевых и несетевых беспроводных средах. Для ускорения распространения данного беспроводного протокола будет реализовано покрытие всей зоны хоккейного чемпионата в Германии, а также ближайшей Олимпиады. Есть план по стопроцентному покрытию этой сетью Украины, однако он нуждается в существенной доработке.

6. Low Power on IA — снижение энергопотребления и увеличение времени работы компьютера от батареи путем гибкого управления программными политиками. В качестве решения предлагается использование новых материалов и распространение sleep-транзисторов, которые выключают неиспользуемые блоки в процессоре.

7. Ноутбуки — конечно, такой «технологии» на IDF не выделяли, хотя и стоило бы, ведь именно за счет ноутбуков предполагается дальнейший рост парка ПК и именно ноутбук как нельзя лучше подходит под образ компьютера будущего.

8. Оперативная память — кратко сказано, что она будет выглядеть «подсистемой интегрированной памяти большого объема». В числах это следует расшифровывать таким образом: поскольку грядет 64-разрядная ОС и приложения к ней, чтобы они работали быстрее и эффективнее 32-разрядных, требуется как минимум 4 Гбайт (!) оперативной памяти. При этом предполагается, что к 2015 году кэши L1 и L2 вырастут до объема в несколько гигабайт!

9. Внутренние шины данных — впереди переход с медных соединений в шине на оптические (фотоэлектронные), основанные на эффекте Рамана. Суть в том, что удалось научить кремниевый транзистор при комнатной температуре работать как светодиод. Если удастся построить на основе этой технологии шины для передачи данных, то скорости возрастут в десятки раз.

10. I/O Acceleration Technology (АТ) — технология увеличения скорости ввода/вывода, по некоторым данным, позволяет увеличить скорость работы до 30%.

Что осталось? Правильно, процессоры! О них мы поговорим отдельно.

Обратно к Pentium III?

Многие считают, что увеличивать производительность не надо, поскольку все хорошо и так, со всеми повседневными задачами ПК справляется «с морским запасом». К тому же новые разработки появляются все реже, поскольку обходятся все дороже. С другой стороны, к компьютеру подключаются все новые устройства, количество данных удваивается каждые два года (не только в Интернете, но и на локальном компьютере), число фоновых и упреждающих операций все увеличивается… А значит, производительность остается одним из важнейших критериев.

Вместе с тем, по заявлению Intel, корпорация готова хоть сейчас производить транзисторы, частота которых будет измеряться террагерцами (!), но вот как их эксплуатировать простому пользователю, если такой системе нужно будет не только водное, но и криогенное охлаждение жидким азотом?

А пока все фирмы-производители серверов тщательнейшим образом подходят к проблеме охлаждения. Альтернативу воздушному никто еще не придумал, зато вентиляторы стали приобретать просто гигантские размеры.

Охлаждение компьютера от Fujitsu&Siemens, реализованное в новом форм-факторе BTX (взамен отживающему свое ATX) выглядит, конечно, внушительно, но пока еще явно дорогое решение.

Gigabyte представила свою продукцию в прозрачном корпусе. Получилось достаточно стильно даже без модинга. Продвигались не только концепции удвоения функций (двойные BIOS, сеть) и встроенные функции разгона (чипсета, памяти, процессора и т. д.), но и технология раздельного «питания». Суть технологии D.P.S. в том, что процессору выделяются отдельные линии питания (при этом стандарт разводки ATX соблюдается), что значительно уменьшает угрозу выхода из строя материнской платы. Вполне своевременная мера, поскольку новейшие процессоры будут выделять около 130 Вт тепла.

А сами процессоры станут расти уже не в двух, а в трех измерениях: кристаллы ядер будут соединяться не только по горизонтали, но и во вертикали, образуя 3D-конгломераты. Заодно это существенно упростит отвод тепла. Но и это еще не все. 3D корпусировка, возможно, позволит напрямую перейти к системам не на булевой двоичной логике, а на троичной и других вариантах нечеткой логики. Плюс к этому перенос выполнения операций на кристалл дает большой выигрыш в скорости, поэтому кроме ядер «общего назначения» будут появляться вспомогательные ядра, «заточенные» под выполнение задач различных классов — таких, как графика, распознавание речи, обработка сетевых протоколов. Главное, с точки зрения Intel, заставить программистов задуматься о том, что их программы могут работать не с одним потоком, а с несколькими. По заявлению Intel, «программисты должны думать иначе».

Многопоточность была продемонстрирована на свежей версии ABBYY FineReader Professional Edition — программа распознавала не по одному отсканированному листу, а сразу по два, существенно обогнав компьютер, на котором технология Hyper-Threading была отключена (кстати, не только именитые компании, но и шароварщики-одиночки уже предлагают подключение многопоточности — например, бесплатный архиватор 7zip).

А в зале можно было посмотреть на работу программ Intel VTune и Trending & Cluster Tools, увидев на графике не только возросшую скорость выполнения многопоточной программы, но и то, какие потоки конфликтуют друг с другом.

Вместе с тем, чтобы облегчить нелегкий труд создания программ, были представлены среды разработки и готовые библиотеки (многие из них, кстати, разработаны в российских отделениях Intel).

Тупичок высотой 4000 ГГц

Однако процессоров, которые будут поддерживать и многопоточность (Hyper-Threading), и друхъядерность, то есть получат возможность одновременно обрабатывать четыре потока команд, появится очень мало. Я бы сказал, что таких процессоров вообще не будет, поскольку поставка на рынок Pentium 4 Extreme Edition и серверных Itanium и Xeon таковыми вряд ли можно считать. А значит, пользователь будет вынужден выбирать — или полноценные двухъядерные процессоры (соединенные в одном корпусе высокоскоростной шиной, каждый с собственным кэшем L1 и L2), или псевдодвухъядерные процессоры с технологией Hyper-Threading. И связанно это не только с тем, что пока программисты не станут в своих продуктах использовать многопоточность, да и пользователю от этой многоядерности пользы не будет, а с тем (как вынужден был признать докладчик после многочисленных вопросов журналистов), что имеются существенные проблемы с выходом годных кристаллов и с их объединением в одном корпусе.

А пока на выставочных стендах можно было наблюдать большое количество серверных многопроцессорных плат, которые, возможно, доберутся и до простых пользователей. В менеджере задач операционной системы, запущенной на такой плате, можно было увидеть до 8 окошек с хронологией загрузки центрального процессора.

Таким образом, к концу этого года нас ждет переход на 65-нанометровую технологию с целью… производства менее мощных процессоров. Переход на менее мощные, но многоядерные процессоры — это единственная возможность поднять производительность, не прибегая к охлаждению процессора жидким азотом или, на худой конец, водой. Четыре процессора уровня Pentium III (при поддержке программистами многопоточности) мощнее, чем процессор Pentium 4 с частотой за 4 ГГц.

Платформа 2015

Так что же нас ждет к 2015 году? Компьютер десятилетнего будущего — это ноутбук на базе многоядерного процессора (до сотни штук) с интегрированными дополнительными ядрами, отвечающими за специализированные задачи. Операционная система будет управляться голосом. Благодаря большому количеству сенсорных датчиков в окружающих предметах она будет способна заботиться о здоровье своего хозяина. 64-разрядная Windows или Unix (ЕМ-64) будет достаточно устойчива (LaGrande), самообновляема (iAMT), научится запускать одновременно разные ресурсоемкие задачи в разных контейнерах (Virtualization Technology), время автономной работы будет исчисляться сутками (Low Power on IA).

Поскольку вся Земля будет покрыта беспроводными сетями (WiMAX), перемещение от одной сети к другой будет прозрачно для пользователя. Сам компьютер будет содержать терабайты данных с практически мгновенным доступом к ним благодаря оптическим шинам данных. Частота, по всей видимости, останется прежней. Материнские платы как таковые исчезнут — вся система будет размещаться на одном чипе.

Экономика трубы

Высший руководящий состав Intel очень много говорил о том, что нужны инновации. Невольно подумалось: «Как жаль, что это не наши политики». Потому что российские деятели с упорством, достойным лучшего применения, говорят и говорят о том, нужны инвестиции. А ведь инвестиции подразумевают вливание денег в экономику с последующим не только возвратом, но еще и изъятием серьезных процентов за использование финансов, вплоть до получения контрольного пакета акций на созданный продукт. А вот инновационная практика позволяет изобретателям оставить за собой не только все права, но и полученную прибыль. Об этом говорили практически все докладчики, а Борис Бабаян выразился наиболее резко: «Надо прекращать экономику большой трубы».

После докладов между губернатором Новосибирска и представительством Intel был подписан договор о сотрудничестве, по которому государство будет способствовать развитию высоких технологий путем снижения налоговых льгот для групп разработчиков, льготного кредитования для покупки жилья.

Новосибирский IDF 2005 дал массу интересного материала, который никак не мог вместиться в сегодняшнюю статью. В частности, работа Intel в медицине: для контроля состояния больных предполагается использовать сенсорные сети, беспроводные датчики.

Intel построила Raman Bioanaliser System, суть работы которой заключается в том, что специально сконструированный аппарат на базе туннельного микроскопа с помощью лазера будет исследовать сыворотку крови, создавая отражения молекул, попавших под «обстрел». Таким образом можно будет диагностировать заболевания на самом начальном этапе.

Мы продолжим более детальный разговор о последних инновациях Intel в следующем номере. Статья будет называться «Смена парадигмы».

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *