-=RV870, GT300 - találgatások és tények=- ...avagy az első DX11 generáció
#281
Elküldve: 2009. 06. 11. 12:58
#282
Elküldve: 2009. 06. 11. 14:27
Idézet: Abu85 - Dátum: 2009. jún. 11., csütörtök - 13:26
hat pedig ha kijonnek a kartyak, a jelenlegiek gyorsan fogjak elvesziteni azt a kepesseguket, hogy nagy felbontasban is normalisan jatsz vele. ugyanugy cserelhetem a kartyamat - bar ez nalam nem szempont
Szerkesztette: arn 2009. 06. 11. 14:28 -kor
#283
Elküldve: 2009. 06. 11. 14:43
Idézet: Abu85 - Dátum: 2009. jún. 11., csütörtök - 12:29
Nagyon magabiztos kijelentés.
Amit eddig nem jelentettek be abból idén, de még jó 1 éven belül sem hiszem hogy várható valami.
Márpedig amit most kb fél-1 évre előre bejelentettek húzócímek, az egyikse ilyen.
#284
Elküldve: 2009. 06. 11. 15:40
Idézet: ThomasS31 - Dátum: 2009. jún. 11., csütörtök - 15:43
Amit eddig nem jelentettek be abból idén, de még jó 1 éven belül sem hiszem hogy várható valami.
Márpedig amit most kb fél-1 évre előre bejelentettek húzócímek, az egyikse ilyen.
Amit nem jelentettek be eddig és idén ki fog jönni az valszeg hulladék lesz
#285
Elküldve: 2009. 06. 11. 22:26
Idézet: iljicSke - Dátum: 2009. jún. 11., csütörtök - 13:58
Hidd el nem TE vagy az egyetlen aki kénytelen medium vagy low grafikán nyomni a legújabb játékokat hogy "vidáman" meglegyen neki az élvezhető 25 fps.
Nem jött össze neki, továbbküldték...
#286
Elküldve: 2009. 06. 11. 23:20
Idézet: Chabi - Dátum: 2009. jún. 11., csütörtök - 22:26
Én még az egyetlen sem vagyok, mert mindent max-ra szoktam állítani. Nem tudom nálad mi nem fut jól G92-n, nálam nem fordult még meg olyan játék amit visszább kellett volna venni.
#287
Elküldve: 2009. 06. 11. 23:28
Idézet: iljicSke - Dátum: 2009. jún. 12., péntek - 0:20
Crysis-t mekkora felbontáson szokod max-on futtatni ?
Nem jött össze neki, továbbküldték...
#288
Elküldve: 2009. 06. 12. 07:10
Amugy igaza lehet, ha 1280-ban játszik. Én ha nem kapcsolok AA-t, akkor a Crysis-t és a Clear Sky-t leszámítva mindent ki lehet maxolni a mostani játékokból 3870-en is.
#289
Elküldve: 2009. 06. 12. 08:04
Idézet: ThomasS31 - Dátum: 2009. jún. 12., péntek - 8:10
Akkor már nem max. Viszont 1024x768-ban is lehet tolni.
Nem jött össze neki, továbbküldték...
#290
Elküldve: 2009. 06. 12. 08:38
Idézet: Chabi - Dátum: 2009. jún. 12., péntek - 8:04
Játéktól függően 2x/4x AA belefér még a G92-be, igaz eddig valóban 1280*1024-ben játszottam, nemrég lett csere nagyobb monitorra és 1680*1050-re. Eddig a Red Alert 3 Uprising, Burnout Paradise, új CoH kiegészítő és a Prototype lett kipróbálva ebben a nagyobb felbontásban, gond nélkül.
Persze az őszi címek lehet, hogy kétvállra fektetik már, akkor majd jöhet valami új kártya esetleg.
#291
Elküldve: 2009. 06. 12. 11:50
Idézet: Chabi - Dátum: 2009. jún. 12., péntek - 9:04
Miért? Van ahol nem is lehet.
Amugymeg akkor mi a max? 4x, 8x, 24x?
A G92 jobban bírja az AA-t, szóval attól még neki lehet azzal is jó.
Szerkesztette: ThomasS31 2009. 06. 12. 11:52 -kor
#292
Elküldve: 2009. 06. 12. 13:17
#293
Elküldve: 2009. 06. 12. 17:43
Nem jött össze neki, továbbküldték...
#294
Elküldve: 2009. 06. 13. 23:25
Dx11-en futtatott dx10.1 api-ra írt játék kihasználja a dx11 lehetőségeit ? Vagy csak akkor müxik ez a dx10.1 visszafelé kompatibilitás a dx11-ben ha a hardver nem tud többet de az api mégis dx11 ?
(remélem érthető voltam...
http://www.xbitlabs.com/news/video/display...First__ATI.html
Nem jött össze neki, továbbküldték...
#295
Elküldve: 2009. 06. 13. 23:35
Idézet: ThomasS31 - Dátum: 2009. jún. 10., szerda - 13:55
Gondolom az a sok hely nem éppen ATI párti kitárgyalás volt...
Idézet
Ezért kéne időhúzás?
Idézet
DX8-ban mérföldekkel jobb volt a 8500-ös ATI! A GF3 olyan félévvel előbb jött....GF nyert a piacon!
DX9-ben fél évvel előbb jött a 9700-as ATI, mint a GF FX "csoda"...ATI nyert a piacon (mondjuk a szánalmas FX miatt könnyű dolga volt)
Mondj nekem már valami logikus érvet arra, hogy az nV miért járna jól azzal, ha időhúzással később hozza ki a DX11-es kártyáját?! Nyerni a DX11 kezdetével lehet...ebben egyetértünk! Ameddig az nV DX11-es kártyáira várnak egyesek, addig az ATI halálra keresi magát a DX11-es kártyáival. Amikor meg kijön az nV kártyája, akkor az ATI kiad egy újabb szériát, ha szükséges...megteheti! 9700 után jött a 9800-as amikor bejött az nV FX-e....igaz még szüksége sem lett volna rá az ATI-nak!
Időhúzás...ja persze!
Nincs itt semmi időhúzás...inkább hinnék a GPGPU elképzelésre koncentrálás ügyben az nV részéről, mint hogy időhúzás lenne. DX7-DX8 (GF256-GF4) gyakorlatilag egy architektúra...aztán DX9 indulásánál besültek. GF7-8 szintén ennek a foltozgatása. A DX10 kártyájuk nem lett nagy eresztés...mondták is már előttem, ez olyan DX9-DX10 átmenet inkább. Na és akkor jön a DX11...megint új architektúra, megint csúszás...nem lennék meglepődve, ha megint bukás lenne belőle.
Szerkesztette: JoCkAs 2009. 06. 13. 23:36 -kor
#296
Elküldve: 2009. 06. 14. 09:42
Idézet: Chabi - Dátum: 2009. jún. 14., vasárnap - 0:25
(remélem érthető voltam...
http://www.xbitlabs.com/news/video/display...First__ATI.html
A DX10 API-nál minden kiterjesztés. Olyan, mint az OpenGL. A program kreál egy erőforrást a kódnak megfelelően. Ha ez az erőforrás DX10, akkor mindegy, hogy DX10.1, vagy DX11 karink van, DX10 módban fog működni. Ha a kód tartalmaz DX10.1-es kiterjesztéseket, akkor kreálható DX10.1-es erőforrás, nyilván a DX10-es kariknak marad a DX10, de a DX10.1-es és DX11-es karik DX10.1 módban fognak működni. Továbbá a kód tartalmazhat DX11-es kiterjesztést. Ilyenkor a DX10 kari DX10-ben, a DX10.1 kari DX10.1-ben, míg a DX11 kari DX11 módban fog működni.
A DX11 képességei közül a Compute Shader még visszafelé kompatibilis, tehát az erőforrásnak megfelelően SM4.0, vagy SM4.1 módban fognak futni.
Egyéb dolog a textúratömörítések, amik driverből emulálható funkciók, tehát a BC6 és a BC7 működni fog bármilyen, minimum DX10-es kártyán. Emellett van a többszálú feldolgozás, ez alapvetően csak a procira van kihatással, így WDDM1.1 mellett bármelyik minimum DX10-es kártya kihasználja.
A DX kódon kívül még lehet trükközni. A HD Radeon tesszellátorai a Tessellation SDK segítségével foghatók működésre, míg a DX10-es GeForce kártyák az NV API használatával képesek Z mintát venni az AA-hoz. Ugye itt az a fontos, hogy a DX10 megszüntette a Vendor Specific Caps Biteket, így hiába tud a kártya többet az API-nál, nem képes használni, mert a program szabványos erőforrásként kezeli. Ugye Z mintát csak DX10.1-es erőforrás képes mintavételezni, ha az erőforrás DX10, akkor elbukja ezt a képességet függetlenül attól, hogy a hardver képes rá. Hasonló elv érvényes a Tesszellátornál. Persze a Tesselation SDK-t mindenki használja, így ott a támogatás azon keresztül gyakorlatilag megoldott (kvázi egy gombnyomás a régi rendszerek támogatása). Az NV API-t azonban nem szeretik használni, mert gyakorlatilag pluszmunka. Persze itt is érdemes megjegyezni, hogy pár óra alatt elkészíthető a támogatás, max a tesztelés, ami esetleg időigényes (már ha valami gubanc van).
#297
Elküldve: 2009. 06. 14. 10:10
Idézet: Abu85 - Dátum: 2009. jún. 14., vasárnap - 10:42
Ezt a részt nemigazán értem.
Hogy fog a DX10-es kártya DX10-es módban DX11 kódot futtatni?
Vagy itt arra gondoltál, hogy opcióban teszik be (ami pl bekapcsolható menüből)? Mert akkor értem.
De egy eleve DX11 kód nem hinném, hogy bárhogy futni fog DX10 karin. Bár ilyen meg nem lesz mert öngyilkosság ilyet írni. Szóval oké... legyen úgy ahogy írtad.
#298
Elküldve: 2009. 06. 14. 10:22
Idézet: ThomasS31 - Dátum: 2009. jún. 14., vasárnap - 11:10
Hogy fog a DX10-es kártya DX10-es módban DX11 kódot futtatni?
Vagy itt arra gondoltál, hogy opcióban teszik be (ami pl bekapcsolható menüből)? Mert akkor értem.
De egy eleve DX11 kód nem hinném, hogy bárhogy futni fog DX10 karin. Bár ilyen meg nem lesz mert öngyilkosság ilyet írni. Szóval oké... legyen úgy ahogy írtad.
Az új DX új kompatibilitást alkalmaz ... kiterjesztés alapú lett, mint az OpenGL. DX10 kódot kell, hogy írj mindenképp, majd ahhoz kell DX10.1-es és DX11-es kiterjesztést írni. A DX10 kód DX10 karin fut, a DX10.1 kiterjesztéshez pedig DX10.1 kari kell és így tovább.
A DX10-nél nincs értelme az erőforrást menüből választani. Bár kényszerítheted a programot, hogy semmiképp ne hozzon létre DX10.1-es hardverhez DX10.1-es erőforrást, de mivel a DX10.1 kiterjesztés szinten van jelen, így nincs értelme. A program az indítás alkalmával létre fogja hozni az erőforrást. A kód egy bizonyos szinten azonos, csak az egyes kiterjesztések lesznek hozzácsatolva a DX10.1 és DX11 erőforrásnak megfelelően.
#299
Elküldve: 2009. 06. 14. 10:25
Idézet: Chabi - Dátum: 2009. jún. 14., vasárnap - 0:25
Idézet
Itt most arra gondolok, hogy egy dx10 vagy 10.1 api-ra írt játék ami nem használja ki pl a 4 processzor magot (8 szálat / hyper hreading) az adott api-kon, az dx11-ben futtatva dx 10 vagy dx10.1 módban ki fogja-e használni ezt ?
Dx11-es játék esetbében de csak dx10 vagy dx10.1 kártyával gondolom ez alap dolog lesz, hiszen csak a grafikát "butítja" vissza a dx11 önmagában és nem a teljes api felépítést.
ThomasS31
Pedig úgy lesz.
Nem jött össze neki, továbbküldték...
#300
Elküldve: 2009. 06. 14. 10:30
Idézet: Abu85 - Dátum: 2009. jún. 14., vasárnap - 11:22
A DX10-nél nincs értelme az erőforrást menüből választani. Bár kényszerítheted a programot, hogy semmiképp ne hozzon létre DX10.1-es hardverhez DX10.1-es erőforrást, de mivel a DX10.1 kiterjesztés szinten van jelen, így nincs értelme. A program az indítás alkalmával létre fogja hozni az erőforrást. A kód egy bizonyos szinten azonos, csak az egyes kiterjesztések lesznek hozzácsatolva a DX10.1 és DX11 erőforrásnak megfelelően.
Hmm... korán van még.
Gyakorlatban hogy fog ez kinézni akkor?
Tehát van egy játék ami használ DX11 funkciókat. Pl AI és fizikát számol CS-ben és Tesszelál valamilyen szinten (és ezek a játék szerves részei pl látványban játékmenetben). Hogy fog ez kinézni egy DX10-es kártyán?

Súgó
A téma zárva.
















