Idézet: special - Dátum: 2006. dec. 11., hétfő - 21:51
pedig szükséges ahhoz, hogy stimulálni tudjad a piacot. amelyik megkockáztatja, hogy nem innovál elég nagyot hardverben, az egyszerűen kiszorul a, és a piac alsó felébe pozícionálja magát, csakhogy ott vannak a mindenkori current genek. vagyis nincs miért a vásárlónak venni az újat, mert nem nyújt annyival többet. márpedig ahhoz, hogy vegyék, meg kell győzni a népet. ehhez pedig legalább egy nagyságrenddel erősebb hw kell, hogy a különbség látható legyen, főleg mivel a current gen mindig ki van hajtva, az újat pedig csak tanulják.
A revolúciót nem úgy értettem, hogy szerintem nem lesz fejlődés a hardverben - inkább csak nem számítok "szakításra" a korábbi hardverrel. Így rengeteg R&D-t spórolhatna maga a Sony, de az legalább ennyire fontos, hogy a
játékfejlesztők is. Nem kéne kidobniuk azt a csomó tapasztalatot, amit több év alatt felhalmoztak, hogy hogyan lehetne minél jobban kihasználni egy ennyire komplex hardvert. Persze csak _ha_ igaz az a feltételezésem, hogy mondjuk 4 db glueless összekapcsolt Cell-t nem lényegesen nehezebb hatékonyan prorgamozni, mint 1 darabot. Valamint ezzel triviálisan megoldódna a kompatibilitási kérdés a PS3-mal.
Valamint nem kellene éveket várni, amíg annyira kitanulnak a fejlesztők egy új, bonyolult és ezoterikus architektúrát, hogy az azt ki is használó programok jelenjenek meg rá.
Én sem hiszek (ahogy vers is írjt) az egyre több specializált chipben - már a PS3 is szívás, hogy a PPE-t, a 7 SPE-t meg az RSX-et (amiben ugye még külön vannak a vertex és pixel shaderek is!, valószínűleg a G70-hez hasonló arányban, de ezt nem tudom/tudjuk) , szóval ezt mind egyenletesen terhelni és kihasználni, hááát...
Új GPU mindenképpen lesz (unified shaderes, rugalmasan programozható (oda- vissza kölcsönhatások a vertex- geometry és pixelshader-programok között, amelyek akár többször átadják/módosítják egymásnak oda-vissza az adatokat) , de mivel a GPU amúgy is elég külön világ a PS3-ban is, ez azért nem jelent gondot (és _talán_ még a visszafelé kompatibilitás is megőrizhető, mint a PC-világban: egy mai DX10-es G80-on a régebbi dx-verziójú játékok is futtathatóak)
(az embedded DRAM a ROP egységekkel a Xenos esetében meg nekem nagyon tetszik, mondjuk ez nem elvi jellegű különbség)
További specializáció szerintem azért sem kell, mert ott vannak az SPE-k (meg a GPU is!) , pl. a fizikát az SPE-ken lehet számoltatni. Vagy akár még a GPU-n is - pl. a G80-nál olvastam, hogy egyszerrre tudja futtatni a grafikus és a CUDA drivert, ezzel elvileg lehetővé válik, hogy felváltva grafikát vagy pl. fizikát számoltassunk ugyanazon a GPU-n.
LY-nak valószínűleg igaza van abban is, hogy az olyan grafikai forradalmakhoz, mint pl. real time global illuminacion (beleértve ebbe most a raytracinget, GI photonokat, refective/refractive caustics-ot, SSS-t) úgysem lesz/lehet még közel sem elég a számítási teljesítmény, inkább mennyiségi fejlődést lehet várni (részletesebb, gazdagabb környezet (táj, fű, fa, épületek), szebb árnyékok, több és részletesebb karakter) meg persze az MI-nek kéne még borzasztóan sokat javulnia (mondjuk a
minőségi fejlődés itt eleve nem nagyon akar sikerülni (azaz igérgetések már 40 éve vannak, de mindhiába...

) mindenesetre ha egyre több lesz az aktív "ágens", akkor még a "buta" MI-hez is egyre nagyobb számítási erő kell)
És nekem az is logikusnak tűnik, hogy az irányíthatóság terén még sokat lehetne fejlődni, ott tényleg lehetne forradalom (meg mondjuk a megjelenítés terén is, csak éppen akkor ugrana a TV-n való konzolozás...

)