Elküldve: 2007. 06. 04. 22:36
na, hát csak nem hagyhatom ki, hogy pont én ne okoskodjak bele.
szóval a kérdés lényegében úgy szól, hogy az IT, most konkrétan a processzor teljesítménye emelkedik-e magasabb ütemben, vagy az igények? hvukkal egyetértek abban, hogy a magszám ugyanúgy a teljesítmény emelésének egy módja, mint az órajel, csak ugye mivel minden mag egy processzor, ezért könnyebben von az ember párhuzamot a többutas rendszerekkel -- és hát úgy tűnik, sokkal hatékonyabb módja is a teljesítmény növelésének sok párhuzamosított, a memória késleltetése által korlátos workload alatt.
én a kérdést nem tudom megválaszolni általánosságban, az bizonyos, hogy van olyan cég, amelynek az igényei egyértelműen gyorsabban nőnek, mint a processzorok fejlődési üteme, és van rengeteg olyan is, amelyé nem. hogy viszont mi a somma, azt nem látom. (olyan ez kicsit, mint a GDP, mely sommázza a gazdaságot, de ugye az egyes szereplők dinamikája szerteágazó, vannak, akiknek recesszióban is jobban megy, vannak, akik konjuktúrában is éhen halnak. remélem ezzel bekerültem a hülye példák csarnokába).
annyit viszont érzékelek, vagy inkább tudok, hogy a Dell vár, sőt látni vél némi lefelé irányuló konszolidációt piaci léptékben, vagyis a kétutas rendszerek növekvő dominanciáját az egy és négyutasokkal szemben, vagyis ezt tartják a sweet spotnak, főként a négymagos procikkal. a Dell as of today a talán a legnagyobb QC szállító, hacsak a HP valamivel meg nem előzi, de mindenesetre a termékmixében a legnagyobb arányúnak mondja a Clovertown arányát (egészen konkrétan minden 4. Dell szerver Clovertownnal szerelt).
ez nem azt jelenti, hogy a négyutasok eltűnnek, viszont a felhergelt, ún. konszolidációs/virtualizációs edition kétutasok jelentősen kannibalizálhatják azt. ezek a gépek a négyutasokhoz hasonló memória és I/O kapacitásokat, sőt közeledő RAS-t kapnak a jövőben, mert igény van rá, és kikényszeríti a verseny. (érdekes az is, hogy az entry level integrityk RAS-képességeit mennyire felturbózta a HP).
végeredményben mégiscsak azt kell mondjam, hogy én azt látom, a jellemző foglalatszám olvad, a "nagygépek" terén is a látszólag közepes méretű, ámde masszív feldolgozási teljesítmény (8xRock, 8-16 Tukwilla, 8-16 Power6), brutális memóriaméreteket és I/O kapacitást tömörítő gépeké a jövő, melyek ára viszont így az eget veri.
de azt is érzem, hogy egyre kevésbé releváns ez a mutató, akár technikailag is, ahogyan elmosódik a határ az önálló fizikai szerver és az SMP gépek egy partíciója között (cella-alapú felépítés, vagy blade+high-speed interconnect) talán az elsőre sokkal inkább semmitmondó ár alapján való szegmentálásnak lesz hosszú távon csak értelme.
talán az a jó kérdés, hogy a tipikus üzleti workloadok szempontjából mekkora lesz az ideális system image mérete? particionálhatóak és klaszterizálhatóak-e a workloadok hatékonyan?
a skálázódást igénylő környezetbe valamiért úgy gondolom, hogy a Hitachi BladeSymphony előremutató (nem azért, mert Itanium), mely blade formátumban bővíthető, tetszőlegesen scale-out vagy scale-up rendszer, vagyis már elmossa a határokat a kis és nagy konfigok között.