Serwery zawsze potrzebne

Itanium też pączkuje

Na początku 2009 roku mają się pojawić pierwsze serwery wyposażone w nowej generacji 4-rdzeniowe układy Itanium - Tukwila. Według Intela, układy te będą miały 2-krotnie wyższą wydajność niż obecnie dostępne na rynku modele Itanium zawierające dwie jednostki CPU.

Tukwila będzie zawierała zintegrowaną pamięć o pojemności zwiększonej do 30 MB oraz nową szynę systemową Intel QuickPath Interconnect.

Itanium konkuruje przede wszystkim z układami RISC takimi jak IBM Power lub Sun SPARC instalowanymi w serwerach do obsługi baz danych lub innych aplikacji korporacyjnych. Decydowanie największym producentem komputerów z Itanium jest HP (ok. 80% udziału w obrotach), ale są one oferowane również przez Fujitsu, NEC i inne firmy.

Jeszcze kilka lat temu Intel zapowiadał, że Itanium będzie zagrożeniem nie tylko dla serwerów uniksowych i platform RISC, ale znajdzie również zastosowania na masowym rynku x86 w konkurencji z komputerami wyposażanymi w układy Xeon lub Opteron.

Wydaje się jednak, ze tego typu przewidywania nie mają obecnie żadnych szans realizacji. Choć według IDC wzrost sprzedaży serwerów z Itanium sięga nawet 36% (dane za IV kw. 2007), ale wciąż dotyczy to względnie małego wolumenu w liczbach bezwzględnych. Dla porówania, według danych Gartnera, w 2007 roku na rynek trafiło 55 tysięcy komputerów wyposażonych w Itanium, 417 tysięcy serwerów z układami RISC i aż 8,4 miliona serwerów x86.

"Pod względem wydajności Tukwila nie wprowadzi przełomu, choć zwiększy konkurencyjność tej platformy w stosunku do IBM Power 6 lub Sun SPARC" - uważa Gordon Haff, analityk z Illuminata.

Platforma Itanium ma jednak dobre perspektywy. Warto zauważyć, że HP, NEC, Fujitsu i SGI stopniowo wycofując się z oferowania własnych systemów mainframe przechodzą właśnie na tą platformę intelowską. Pewne wsparcie widać też ze strony Microsoft, który postrzega Itanium jako platformę, która ułatwi tej firmie konkurencję z uniksowymi systemami HPC.

Systemy hybrydowe

Być może już wkrótce w systemach korporacyjnych popularność zaczną zdobywać systemy hybrydowe wykorzystujące różnego typu procesory do realizacji zadań mających różne wymagania. Tego typu rozwiązania mogą być bardzo efektywne zarówno pod względem wydajności, jak i zużycia energii.

Praktycznym przykładem takiej architektury może być superkomputer IBM Roadrunner zainstalowany w laboratoriach Los Alamos. Jego kolejna wersja została wyposażona nie tylko w większą liczbę stosowanych dotąd układów Opteron, ale dodatkowo również w procesory Cell. Według wyników standardowych testów Linpack wykorzystywanych m.in. do klasyfikowania komputerów na popularnej liście Top500 wydajność tego hybrydowego systemu przekroczyła barierę 1 petaflopa (wcześniej Roadrunner miał wydajność 70 TFLOPS).

Układy Cell, zaprojektowane wspólnie przez IBM, Toshiba i Sony Computer Entertainment są znane przede wszystkim jako procesory instalowane w konsolach do gier PlayStation 3, bo ich architektura jest przystosowana do szczególnie wydajnego przetwarzania strumieni danych wideo. Choć nie mogą one bezpośrednio konkurować z uniwersalnymi układami jak Xeon lub Opteron, ale przy uruchamianiu niektórych aplikacji biją je na głowę zarówno pod względem wydajności, jak i efektywności energetycznej.

Stąd też Cell budzą coraz większe zainteresowanie użytkowników z takich sektorów, jak firmy finansowe, farmaceutyczne lub koncerny petrochemiczne.

Według analityków w tych właśnie segmentach rynku systemy hybrydowe najszybciej znajdą zastosowania komercyjne. A Dan Olds, analityk z Gabriel Consulting Group przewiduje, że 40% firm z listy Fortune 1000 zainstaluje takie systemy w ciągu najbliższych 5 lat.

W perspektywie systemy hybrydowe będą zapewne ewoluować w kierunku zastosowań w standardowych serwerach i komputerach klienckich, a nie tylko superkomputerach.

Firmy takie jak Nvidia i AMD już zaczęły oferować masowo wytwarzane układy graficzne GPU jako elementy tanich akceleratorów, które w połączeniu z uniwersalnymi procesorami mogą istotnie zwiększać wydajność przetwarzania systemu komputerowego. Dotyczy to oczywiście tylko niektórych rodzajów aplikacji. Rozwój tego typu rozwiązań jest dopiero w fazie początkowej, ale na rynku są już praktyczne przykłady urządzeń wykorzystujących tego typu architekturę, jak choćby laptopy Toshiba Qosmio G55 wyposażone w układy Cell i Intel Core 2 Duo.

Cisco - nowy producent serwerów?

Według przewidywań analityków z firmy inwestycyjnej UBS, jest bardzo prawdopodobne, że w ciągu najbliższego roku Cisco zdecyduje się na wejście w nowy segment rynku i rozpocznie produkcję i sprzedaż własnych serwerów kasetowych przeznaczonych do zastosowań w dużych centrach danych.

Tego typu decyzja oznaczałaby naturalne uzupełnienie dotychczasowej oferty tej firmy dla odbiorców korporacyjnych, ale również możliwość konfliktu z HP i IBM, które dotychczas bardziej współpracowały niż konkurowały z Cisco.

Zarówno Intel, jak i AMD opracowują nowe architektury hybrydowych procesorów wyposażonych w dodatkowo zintegrowane, specjalizowane układy do efektywnego przetwarzania niektórych zadań obliczeniowych. Intel przygotowuje model zawierający standardowe układy CPU i dodatkową jednostkę, która będzie mogła służyć np. do szyfrowania danych, a AMD zapowiada wprowadzenie pod koniec 2009 roku procesora ze zintegrowanym układem graficznym.

Największym problemem hamującym zastosowania systemów hybrydowych jest konieczność modyfikacji oprogramowania tak by mogło ono wykorzystać możliwości dodatkowych układów. W wypadku superkomputerów i pojedynczych specjalizowanych aplikacji koszt modyfikacji oprogramowania, choć z reguły duży, ale może być w ostatecznym rozrachunku uzasadniony. Trudniej będzie przeprowadzić takie zmiany na rynku standardowych programów. Rozumieją to dostawcy sprzętu i dlatego Nvidia, AMD lub IBM nie tylko opracowują konstrukcje układów, ale już oferują narzędzia programistyczne ułatwiające optymalizację oprogramowania by mogło one w praktyce wykorzystać możliwości oferowane przez niektóre systemy hybrydowe.


TOP 200