HWSW Informatikai Kerekasztal: Intel Xeon - HWSW Informatikai Kerekasztal

Ugrás a tartalomhoz

Mellékleteink: HUP | Gamekapocs

  • (57 Oldal)
  • +
  • « Első
  • 42
  • 43
  • 44
  • 45
  • 46
  • Utolsó »
  • Nem indíthatsz témát.
  • A téma zárva.

Intel Xeon Értékeld a témát: -----

#861 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 05. 23:27

Idézet: SFIJ - Dátum: 2006. okt. 5., csütörtök - 23:14

tehat azt allitod, hogy valami ami az ATi szamara es az nVidia szamara gazdasagtalan, az az AMD szamara rogton gazdasagos lesz.

d n . r írta:

Idézet

Sőt, hvuk azt is állítja, hogy "részese lesz egy nagyobb piacnak", csak számomra az nem világos, miért lenne hirtelen több CPU+VGA kombinációra, mint amennyi chipsetre integráltra lenne?

Ugyanis azt már láthattuk a sávszélesség-adatokból, hogy ahová diszkrét VGA-kártyára van szükség, ott egyik integrált sem tud labdába rugni.

Szóval miért is lesz nagyobb ez a piac, mint a jelenlegi? (leszámítva, ha _mindenkivel_ ilyet akarsz vetetni, azaz _beszünteted_ az integrált GPU nélküli CPU-k gyártását... csakhogy ez korántsem a versenyképesség irányába mutatna....)


Először egy megjegyzés: a mobil ....Go és hasonló teljesítményű mobil grafikus kártyákat egy jól megcsinált integrált grafikus chip szerintem kiválthatja.

Moist pedig visszatérve arra, hogy ez miért érni meg az AMD-nek. Az AMD be akar törni a mobil piacra (ez tény). Kell valami ütős megoldást prezentálnia. Ha kijönne egy olyan CPU-val (nevezzük Bulldozernek), amin integrálva van a chipset és a grafikus kártya is, miközben az Intel nem nyújt ilyen processzort a vevőknek, akkor ezzel nyilván jelentős részesedést szerezne ezen a piacon. Mondjuk - erős alsó becslés - eladna pluszban évi 5 millió procit emiatt. Darabját néhány száz dollárért adja (legyen mondjuk 200), így kb. egy milliárd dollár plusz bevételhez jutna évente. A gyártási költsége minimálisan emelkedett meg, a kifejlesztés költsége viszont hosszabb távon oszlik meg. Persze a grafikus kártyát neki nem nulláról kell fejlesztenie, neki a proci-GPU interfészről és a chip low-level dizájnjáról kell jobbára csak gondoskodni. De a procinál ezt amúgy is meg kell tennie, a differencia most az, hogy mondjuk nem 120 nm-es lapkát kell terveznie, hanem 160 nm-est.

A lényeg az, hogy az AMD nem egy 5-10 dolláros chipből adott el többet a fejlesztése miatt, hanem egy 200 dollárosból. Ezért mondtam, hogy ez egy nagyobb piac: egy ilyen CPU-GPU nem a grafikus chipek piacán versenyez, hanem a processzorokén, amely lényegesen nagyobb piac (értékben). Éppen ezért könnyen lehet, hogy az AMD-nek megéri a low-level optimalizáció, míg a grafikus gyártóknak nem. Ráadásul az AMD saját maga gyártja a chipeke, emiatt neki több lehetősége van azokat optimalizálni. A felhalmozott tapasztalatról nem is beszélve. Tehát ő abszolút értékben mérve is olcsóbban tudja ezt megtenni, mint egy grafikus chip gyártó, a várható nagyobb haszon pedig tovább növeli a befektetés megtérülését.

Persze az AMD kezében van a döntés, hogy mennyire akarja optimalizálni a terméket. Minél jobban optimalizálja, annál kisebb fogyasztást vagy nagyobb teljesítményt tud belőle kicsikarni. Lehet, hogy nem akar jobb chipet csinálni belőle, mint egy átlagos alaplapra integrált grafikus chip, ekkor egyszerűen nincs szükség akkora optimalizációra (bár fogyasztás miatt ekkor is van jelentősége, különösen egy mobil chipnél).

Nem azt mondom, hogy az ATI diszkrért chipjei lesznek ilyen szinten optimalizálva, hiszen azoknál kisebb a megtérülés esélye. Bár szerintem az AMD fejlett gyártástechnológája segíteni fog az ATI-nak is különöseb optimalizáció nélkül is, feltéve, hogy az AMD fogja gyártani a grafikus chipeket.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#862 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 05. 23:36

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 0:20

Bocs, de ezt csak úgy tudnád megtenni, ha mutatnál egy optimalizálat_lan_ A64-et, hogy lám, ez X wattot fogyaszt, meg egy optimalizáltat, hogy lám, ez meg Y wattot, ebből kijönne egy z%

Aztán meg kéne mutatnod, hogy a "szerencsétlen" ATI meg nV ugyanannyi idő alatt ezzel szemben csupáncsak w%-ot tudott optimalizálni.

Ugye látod, hogy "kicsit" nehéz lesz ilyen bizonyítást hoznod?

Jó, akkor nem foglak meggyőzni. Hidd el, nem fogok sírógörcsöt kapni.

Azon azért érdemes elgondolkodni, hogy:
- Kb. 10 db DC AMD proci fogyaszt annyit 500 MHz-en, mint amennyit egy grafikus chip. Ez összesen 2.3 milliárd tranzisztort jelent, amiből a logika 500 milliót jelent. A teljesítménye lehet, hogy kisebb, de ez ugye egy nem specializált chip.
- Egy grafikus chip kifejlesztési ideje kb. fele egy CPU-nak. Vajon mennyi idő van arra, hogy low-level optimalizációt csináljanak a chipen?
- Vajon milyen szintű optimalizációt lehet csinálni, ha nem az gyártja a chipet, mint aki a magas szintű tervezést végezte?

Amúgy az álktalad felhozott bizonyítási elvárás engem arra emlékeztet, amikor a darwinistáktól azt kérik számon az ID (és a többi hasonszőrű elméletek) hívei, hogy mutassák meg minden egyes élőlény kialakulásának pontos menetét.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#863 Felhasználó inaktív   SFIJ 

  • Őstag
  • PipaPipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 20.145
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 00:12

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Először egy megjegyzés: a mobil ....Go és hasonló teljesítményű mobil grafikus kártyákat egy jól megcsinált integrált grafikus chip szerintem kiválthatja.
ha ez igaz lenne, akkor nem virágozna a dtr ws calls note-ok piaca. amúgy milyen ramot akarsz csatolni hozzá ami kielégytí mindkét proci igényeit? Rambus XDR? FBD?

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Moist pedig visszatérve arra, hogy ez miért érni meg az AMD-nek. Az AMD be akar törni a mobil piacra (ez tény). Kell valami ütős megoldást prezentálnia. Ha kijönne egy olyan CPU-val (nevezzük Bulldozernek), amin integrálva van a chipset és a grafikus kártya is, miközben az Intel nem nyújt ilyen processzort a vevőknek, akkor ezzel nyilván jelentős részesedést szerezne ezen a piacon.
lóxart. teremtene magának egy niche marketet, aztán izmozhatana, hogy rákattanjanak a júzerek.

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Mondjuk - erős alsó becslés - eladna pluszban évi 5 millió procit emiatt. Darabját néhány száz dollárért adja (legyen mondjuk 200), így kb. egy milliárd dollár plusz bevételhez jutna évente. A gyártási költsége minimálisan emelkedett meg, a kifejlesztés költsége viszont hosszabb távon oszlik meg.
cicavirág ne idegelj mán' legalább 2x esére nő a core mérete. tudod mit jelent ez? felére, ha nem haramdára esik a kihozatal. most példálozzak neked a cell processzor katasztrófálisan gyeneg 10% körüli kihozatalával? a nyakamat rá hogy a cell önköltségi ára magasabb még a montectióénál is. mondjuk azt hogy a most 60-80 USDs önköltségi árú K8-jaid GPUsitva 180-200USDs önköltségi árra rúgnánka. de nem lennék meglepve, ha az első évben felkúszna ez $400-ra is. és mit kapnál cserébe? Egy súlyosan sávszélesség-limitált CPUt és GPUt, pont olyat mint amilyen a GMA950+core duo rencer. ráadásul 2 darab $60-ba kerülő kavics helyett a te kavicsod $200-ba kerül. Erre jön még az R&D cost, a profit, a szállítás a marketing meg minden egyéb. Alaphangon $80-nal drágább és ugyanolyanszar mint a CPU+NB grafika felállás. ja ésha már itt tartunk ugye kell DVI/VGA/SVIDEO jelekkel = ANALÓG ÁRAMKÖRÖK szopnod a CPUban. bizony, amodern GPU nem tisztán digitális kütyü - mamég. igaz ez a HDMI-vel változni fog. Ehhez képest az, hogy az 1 darab 1000 szutyok a flexnyákon versus 2 darab 1000 lábú szutyok a felxnyákon kérdéskör mondjuk 3-4$ difi 200-500 ezer eledott note esetében. Na ezt vessük gyorsan össze a 80-nal :D
Ez a fajta egycsipes buli jó egy ipodban, egy mp3 lejátszóban esetleg egy konzolban, szal minden olyanban ami mai szemmel nézve időtálló, hosszú életciklusú, roppant mód célirányos, vagyha nem akkor primitív eszköz és alacsony számítási teljesítmény igényű.


Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Persze a grafikus kártyát neki nem nulláról kell fejlesztenie, neki a proci-GPU interfészről és a chip low-level dizájnjáról kell jobbára csak gondoskodni. De a procinál ezt amúgy is meg kell tennie, a differencia most az, hogy mondjuk nem 120 nm-es lapkát kell terveznie, hanem 160 nm-est.
nemtom feltűnt-e úgy 20 év alatt neked, hogy amikor beveztenek egy új processzt, akkor legelőször a gyakorlatilag sorminta DRAM-okkal kezdik, miután ezmár jól megy akkor jönnek az X86 processzorok, majd miután az X86 processzor és a processz egyaránt megtérült akkor jönnek a GPU-k, meg SUN/IBM/Itanic  csodák :D


Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

A lényeg az, hogy az AMD nem egy 5-10 dolláros chipből adott el többet a fejlesztése miatt, hanem egy 200 dollárosból. Ezért mondtam, hogy ez egy nagyobb piac: egy ilyen CPU-GPU nem a grafikus chipek piacán versenyez, hanem a processzorokén, amely lényegesen nagyobb piac (értékben).
De miből gondolod hogy el tudja adni? aki vesz egy apple, dell vagy hp notebookot, gondolod érdekli hogy hány darab IC-ből lett összeszerelve? négy dolog érdekli:
a) ár
b) enrgonómia
c) elégséges-e a teljesítmény
d) mekkora az üzemidő 1 lökettel.


Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Éppen ezért könnyen lehet, hogy az AMD-nek megéri a low-level optimalizáció, míg a grafikus gyártóknak nem. Ráadásul az AMD saját maga gyártja a chipeke, emiatt neki több lehetősége van azokat optimalizálni. A felhalmozott tapasztalatról nem is beszélve.
Az AMD-nek gyárt east fiskill, gyárt a chartered, igen emelett az AMDnek van saját gyártása is drezdában. a low level optimalizáció cost. nemis kevés. ezt valakinek ki kell fizenie. te vásárolnál kétez dolláros processzort otthonra?

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Tehát ő abszolút értékben mérve is olcsóbban tudja ezt megtenni, mint egy grafikus chip gyártó, a várható nagyobb haszon pedig tovább növeli a befektetés megtérülését.
tudja egy nagy szart. max akkor, ha kiszervezi a munkát indiába. utána meg szopik is vele, mert olyanis lesz.

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Persze az AMD kezében van a döntés, hogy mennyire akarja optimalizálni a terméket. Minél jobban optimalizálja, annál kisebb fogyasztást vagy nagyobb teljesítményt tud belőle kicsikarni.
_nagyon_sokan_ komoly emberek is megírták már, hogy az ATi kapott egy gyártóbázist, cserébe farag az AMD-nek egy cell-szerű extensiont. ennyi. átmenetileg meg megoldja hogy a radeonok menjenek diretctHT linkiről. ennek van értelme, ez télleg csökkenti a notebook felxinyák költségeket.

Idézet: hvuk - Dátum: 2006. okt. 5., csütörtök - 23:27

Nem azt mondom, hogy az ATI diszkrért chipjei lesznek ilyen szinten optimalizálva, hiszen azoknál kisebb a megtérülés esélye. Bár szerintem az AMD fejlett gyártástechnológája segíteni fog az ATI-nak is különöseb optimalizáció nélkül is, feltéve, hogy az AMD fogja gyártani a grafikus chipeket.

T2K kb 2 éve írt arról aszem az itanicos topikba, hogy hoygan is megy a GPUk fejlesztése. olvasd vissza és tanulj belőle.

Szerkesztette: SFIJ 2006. 10. 06. 00:13 -kor

νιψονανωμηματαμημωνανοψιν

What do stars do? They shine.(Yvaine)

#864 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 05:20

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 0:36

Jó, akkor nem foglak meggyőzni. Hidd el, nem fogok sírógörcsöt kapni.

Azon azért érdemes elgondolkodni, hogy:
- Kb. 10 db DC AMD proci fogyaszt annyit 500 MHz-en, mint amennyit egy grafikus chip. Ez összesen 2.3 milliárd tranzisztort jelent, amiből a logika 500 milliót jelent. A teljesítménye lehet, hogy kisebb, de ez ugye egy nem specializált chip.
- Egy grafikus chip kifejlesztési ideje kb. fele egy CPU-nak. Vajon mennyi idő van arra, hogy low-level optimalizációt csináljanak a chipen?
- Vajon milyen szintű optimalizációt lehet csinálni, ha nem az gyártja a chipet, mint aki a magas szintű tervezést végezte?

Amúgy az álktalad felhozott bizonyítási elvárás engem arra emlékeztet, amikor a darwinistáktól azt kérik számon az ID (és a többi hasonszőrű elméletek) hívei, hogy mutassák meg minden egyes élőlény kialakulásának pontos menetét.

hvuk, egyszerűen nem értelek...

Tök jól egyetértünk abban, hogy egy CPU és egy GPU totál más architektura, akkor mi a fenének akarod továbbra is összehasonlítani direktbe a fogyasztásaikat, főleg úgy, hogy a GPU esetében az adott architektúra adott legmagasabb órajelén teszed, a CPU esetében meg visszaskálázod a maximálisan elért órajel hatodára???

Ez egyszerűen komolytalan... Ennyi erővel térjünk át a "performance-per-watt"ra és a CPU gyártók lehajtott fejjel kulloghatnak el... _Egyetlen_ normális érvet sem tudtál hozni, miért kéne komolyan venni, hogy az AMD vagy az Intel "lazán" le tudná szorítani a csúcs GPU-k fogyasztását a "felére-harmadára"...

És még valamit ajánlok a figyelmedbe: miért lenne az Intelnek vagy az AMDnek _több_ ideje optimalizálni, mint az ATInak vagy az nVidiának? SFIJ fentebb leírta az életciklusokat, csak azért, mert Te azt szeretnéd, az AMDnek vagy az Intelnek nem lesz 9 éve (hanem csak 3-4!) reszelgetnie egy GPU-t...

#865 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 05:28

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 0:27

Először egy megjegyzés: a mobil ....Go és hasonló teljesítményű mobil grafikus kártyákat egy jól megcsinált integrált grafikus chip szerintem kiválthatja.

Ne hülyülj már, leírtam már, mennyi egy diszkrét grafikus kártya (és qrva mindegy, hogy ez desktop vagy mobility!!) belső sávszélessége, ezzel integrált megoldással aktuálisan soha az életben nem fogsz tudni versenyezni, _hacsak_ nem valami nagyon speciális cuccot tervezel - lásd pl. az xbox360 Xenon-ját.

Viszont egyértelműen leszögezted, hogy Te nem ebben gondolkozol!

Idézet

Moist pedig visszatérve arra, hogy ez miért érni meg az AMD-nek. Az AMD be akar törni a mobil piacra (ez tény). Kell valami ütős megoldást prezentálnia. Ha kijönne egy olyan CPU-val (nevezzük Bulldozernek), amin integrálva van a chipset és a grafikus kártya is, miközben az Intel nem nyújt ilyen processzort a vevőknek, akkor ezzel nyilván jelentős részesedést szerezne ezen a piacon.


Miért nyilván??
Az Intel meg hozza a maga jól bevált chipsetre integrált megoldását.
A teljesítménykülönbség (boritékolom) elhanyagolható, főleg ha egy diszkrét VGAhoz viszonyítunk.
Szerinted _lényegesen_ olcsóbb lesz.
Én fentebb _számításokat_ mutattam, hogy ez roppant módon kétséges, és még nem láttam Tőled számokat (azon kívül, hogy ez "nyilvánvaló"), hogyan jön ez ki.

Természetesen abban igazad van, akkor "ezzel nyilván jelentős részesedést szerezne ezen a piacon" - ha ez alatt a CPUba integrált grafikus vezérlők piacát értjük, és rajta kívül senki sem fog ilyet gyártani.... :Đ

Idézet

A lényeg az, hogy az AMD nem egy 5-10 dolláros chipből adott el többet a fejlesztése miatt, hanem egy 200 dollárosból.


Figyelj, épp fentebb mutattam meg konkrét példán, hogy a kompetitív termék úgy néz ki, hogy (hasraütésre) az OEM (mondjuk a Dell) szempontjából
(1) 200 dolláros AMD processzor, és hozzá egy 105 dolláros alaplap
(2) 200+X dolláros AMD "integrált" processzor, és hozzá egy 100 dolláros alaplap.

Azaz az AMDnek ezt az X-et 5 dollár alatt kell tartania, vili? Mert különben _helyette_ nulla pluszbefektetéssel árulhatná simán a 200 dolláros processzorát!

Idézet

Ezért mondtam, hogy ez egy nagyobb piac: egy ilyen CPU-GPU nem a grafikus chipek piacán versenyez, hanem a processzorokén, amely lényegesen nagyobb piac (értékben).


Nem, egy ilyen integrált megoldás (mint abban már megállapodtunk) az integrált grafikus vezérlővel ellátott chipsetek piacán versenyez. Ergo semmivel sem nagyobb volumen annál.
Azaz -egyelőre- semmivel sem tudtad igazolni, miért kéne az AMDnek a processzorba integrálást fejleszetnie, és miért ne fogalkozzon inkább a chipsetbe integrálással...

Hvuk, ezzel kezdesz úgy járni, mint a 4x4-gyel... :Đ

#866 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 08:34

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 6:20

hvuk, egyszerűen nem értelek...

Tök jól egyetértünk abban, hogy egy CPU és egy GPU totál más architektura, akkor mi a fenének akarod továbbra is összehasonlítani direktbe a fogyasztásaikat, főleg úgy, hogy a GPU esetében az adott architektúra adott legmagasabb órajelén teszed, a CPU esetében meg visszaskálázod a maximálisan elért órajel hatodára???

Ez egyszerűen komolytalan... Ennyi erővel térjünk át a "performance-per-watt"ra és a CPU gyártók lehajtott fejjel kulloghatnak el... _Egyetlen_ normális érvet sem tudtál hozni, miért kéne komolyan venni, hogy az AMD vagy az Intel "lazán" le tudná szorítani a csúcs GPU-k fogyasztását a "felére-harmadára"...

És még valamit ajánlok a figyelmedbe: miért lenne az Intelnek vagy az AMDnek _több_ ideje optimalizálni, mint az ATInak vagy az nVidiának? SFIJ fentebb leírta az életciklusokat, csak azért, mert Te azt szeretnéd, az AMDnek vagy az Intelnek nem lesz 9 éve (hanem csak 3-4!) reszelgetnie egy GPU-t...

Nem értem mit nem értesz ezen. Komolyan.

Viszont közben találtam bizonyítékot. 2002 eleje. Ekkor jelent meg a GeForce4 4600 és a Athlon XP 2100+. Előbbi 0.15 mikronon, második 0.18-on. A két processzor mérete és tranzisztorszűáma elég közel van egymáshoz, ennek ellenére ez utóbbi 1.7 GHz-en, előbbi 300 MHz-en működött. Szerintem tök egyértelmű, hogy a jelentős különbség a low-level optimalizáció hiányának is köszönhető.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#867 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 08:50

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 6:28

Miért nyilván??
Az Intel meg hozza a maga jól bevált chipsetre integrált megoldását.
A teljesítménykülönbség (boritékolom) elhanyagolható, főleg ha egy diszkrét VGAhoz viszonyítunk.
Szerinted _lényegesen_ olcsóbb lesz.
Én fentebb _számításokat_ mutattam, hogy ez roppant módon kétséges, és még nem láttam Tőled számokat (azon kívül, hogy ez "nyilvánvaló"), hogyan jön ez ki.

Természetesen abban igazad van, akkor "ezzel nyilván jelentős részesedést szerezne ezen a piacon" - ha ez alatt a CPUba integrált grafikus vezérlők piacát értjük, és rajta kívül senki sem fog ilyet gyártani.... :Đ

Értsd már meg, hogy a piacot nagymértékben befolyásolja a nagy gyártók döntése. A nagy tömegek - és a cégek - nem úgy vásárolnak, hogy alaposan megnézik a cuccot, hanem cégek esetében kérnek ajánlatot a HP-tól, Delltől, stb... és az alapján döntenek. Sőt, sok esetben csak egy cégtől dognak kérni ajánlatot, amivel kapcsolatban állnak. Ezen cégek pedig preferálni fogják az olcsóbb és számukra gazdasáogsabb megoldást, így elsősorban ilyen számítógépeket tartalmazó ajánlatokat fognak beadni. A tömegek pedig az árcédula alaphján döntenek elsősorban, meg egyszerűen az alapján, hogy a boltban melyikből mennyi található. Ha egy üzletben 10 kiállított gépből mondjuk 7 valamilyen X fajtájú (tökmindegy mi a megkülönböztetés alapja), akkor ebből a csoportból több fogy, mint a másikból.

Idézet

Figyelj, épp fentebb mutattam meg konkrét példán, hogy a kompetitív termék úgy néz ki, hogy (hasraütésre) az OEM (mondjuk a Dell) szempontjából
(1) 200 dolláros AMD processzor, és hozzá egy 105 dolláros alaplap
(2) 200+X dolláros AMD "integrált" processzor, és hozzá egy 100 dolláros alaplap.

Azaz az AMDnek ezt az X-et 5 dollár alatt kell tartania, vili? Mert különben _helyette_ nulla pluszbefektetéssel árulhatná simán a 200 dolláros processzorát!


A Dellnek és más vendoroknak nem csak a gyártás folyamán jelentkező haszon létezik, hanem az is, hogy mennyi ideig tart a termék kifejlesztése és tesztelése. Egy egyszerűbb alaplap kifejlesztése és tesztelése gyorsabb és olcsóbb mint egy bonyolultabbé, ez nagyobb  rugalmasságot jelent neki. Tehát nemcsak direkt ilyen gyártási előnyei vannak a dolognak az OEM-ek számára. További előny lehet pl. a kisebb méret.

Gyártás szempontjából az AMD-nek bizony könnyen leképzelhető, hogy 5 dollárnál kisebb a differencia. Sőt, ez eléggé valószínű egy low-end chip integrálása esetén. Régebben volt itt valamelyik topicban egy link arró, hogy eghy processzor gyártásnál kb. mi mennyibe kerülhet. Meglepő volt nézni, hogy a tokozás az egyik legdrágább folyamat. Figyelembe véve, hogy egy önállóan tokozott chip-et mondjuk a Dell 5 dollárért vesz, nem látom be, hogy ha tök ugyanazt a chipet (ok, tök minimális változtatással) a CPU mellé teszik és egyben tokozzák, akkor az miért ne lenne olcsó. Megspórolnak egy külön tokot és megspórolnak ezzel egy halom lábat (ez komoly kiadás!). De ezt már írtam előbb is és emiatt tök triviális, hogy az egy tokban lévő megoldás olcsóbb, mintha két tokban van. De valamiért figyelmen kívül hagytad.

Idézet

Nem, egy ilyen integrált megoldás (mint abban már megállapodtunk) az integrált grafikus vezérlővel ellátott chipsetek piacán versenyez. Ergo semmivel sem nagyobb volumen annál.
Azaz -egyelőre- semmivel sem tudtad igazolni, miért kéne az AMDnek a processzorba integrálást fejleszetnie, és miért ne fogalkozzon inkább a chipsetbe integrálással...

Hvuk, ezzel kezdesz úgy járni, mint a 4x4-gyel...


Komolyan ennyire buta vagy? Nem a darabszám nagyobb, hanem az érték! Ha elad egy ilyen terméket, akkor azzal egy 200 dolláros procit ad el, nem pedig egy 5 dolláros grafikus chipet. Azt meg az AMD-től kérdezd, hogy miért foglalkozik ilyennel, gondolom az oka az lehet, hogy rendkívül ostobák és előtte nem kérdezték meg d n. r kollégát a HWSW fórumáról. De most felnyitottad a szemem és látom, hogy mind az AMD, mind az Intel a végzetébe rohan az "egy csipre integrálni mindent" koncepcióval és értesítem is minden haveromat, hogy adják el az ilyen részvényeiket, bár igazából ez nem számít, hiszen itt a világvége is. :D
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#868 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 09:32

Idézet: SFIJ - Dátum: 2006. okt. 6., péntek - 1:12

lóxart. teremtene magának egy niche marketet, aztán izmozhatana, hogy rákattanjanak a júzerek.

Mi köze ennek a userekhez? Ez nem a userek döntése, ők ugyanis magasról szarnak rá, hogy a grafikus kártya a chipseten van vagy pedig a prociban. Ez a nagy gyártókon áll vagy bukik, ha ők egy ilyen terméket egyszerűbbnek látnak gyártani, ha olcsóbb lesz nekik, akkor villámgyorsan alkalmazni fogják. Niche marketnek meg nem nevezném, meg úgy általában külön marketnek sem.

Idézet

cicavirág ne idegelj mán' legalább 2x esére nő a core mérete. tudod mit jelent ez? felére, ha nem haramdára esik a kihozatal. most példálozzak neked a cell processzor katasztrófálisan gyeneg 10% körüli kihozatalával? a nyakamat rá hogy a cell önköltségi ára magasabb még a montectióénál is. mondjuk azt hogy a most 60-80 USDs önköltségi árú K8-jaid GPUsitva 180-200USDs önköltségi árra rúgnánka. de nem lennék meglepve, ha az első évben felkúszna ez $400-ra is.


Ez a számÍtás komplett bullshit. Ne haragudj, de az. A chipsetbe integrált grafikus mag is nyilván 400 dolláros önköltségi árat produkál, nem? Nyugodtan választhatja az AMD azt a megoldást, hogy külön die-on van a GPU, ha az egybeintegrálás tényleg túl magas költségekkel jár (túl nmagas allatt 10-20 dollárt értek, nem 400-at). Azt a kijelentést pedig, hogy egy GPU CPU-val egybetokozása +320 dolláros gyártási költséggel jár, hát finoman szólva is az ámokfutó kategóriába kell utalnom.

Megpróbáltam utánanézni a Geforce 6100 transistor számának, de nem találtam róla infót. Annyit tudok,  hogy a GeForce 6200 77 milliót tertalmaz, de benne 4 pixel shader pipeline és 3 vertex pipeline van, míg a 6100-asban 2 pixel shader és mindössze csak 1 vertex pipeline van, tehát 40 milliónál biztos nincs benne több tranzisztor. Innentől pedig a die méret nem duplázódik - mint ahogy te írtad -, hanem kb. 25-30%-al nőhet meg.

Idézet

nemtom feltűnt-e úgy 20 év alatt neked, hogy amikor beveztenek egy új processzt, akkor legelőször a gyakorlatilag sorminta DRAM-okkal kezdik, miután ezmár jól megy akkor jönnek az X86 processzorok, majd miután az X86 processzor és a processz egyaránt megtérült akkor jönnek a GPU-k, meg SUN/IBM/Itanic  csodák


Hát nem. Lásd a fenti példát, amikor az Nvidia már 150 nm-en gyártott még az AMD csak 180nm-en. Az igaz, hogy az Intel előtte jár az iparágnak, de a grafikus chipek gyártói nem feltétlenül vannak lemaradva a többi proceszorgyártótól.

Idézet

De miből gondolod hogy el tudja adni? aki vesz egy apple, dell vagy hp notebookot, gondolod érdekli hogy hány darab IC-ből lett összeszerelve? négy dolog érdekli:
a) ár
b) enrgonómia
c) elégséges-e a teljesítmény
d) mekkora az üzemidő 1 lökettel.


Épp ez a lényeg, hogy nem érdekli. A gyártót viszont igen, ők lesznek azok, akik alkalmazni fogják, ha olcsóbb lesz vagy más előnye lesz.

Idézet

Az AMD-nek gyárt east fiskill, gyárt a chartered, igen emelett az AMDnek van saját gyártása is drezdában. a low level optimalizáció cost. nemis kevés. ezt valakinek ki kell fizenie. te vásárolnál kétez dolláros processzort otthonra?


Elmagyaráznád, hogy miért kerülne 2000 dollárba egy ilyen proci? Már jelenleg is van low-level optimalizáció a procikban, én csak azut modnom, hogy ha az AMD az integrált grafikus chip részére is kiterjesztené azt, akkor az sokat javítana a GPU paraméterein. Az egy lapkára integrált esetben ezt nyilván meg kell tennie és meg is fogja, ha egy tokban van a két chip, akkor már nem szükséges.

Idézet

tudja egy nagy szart. max akkor, ha kiszervezi a munkát indiába. utána meg szopik is vele, mert olyanis lesz.


Ezt nevezem meggyőző érvelésnek! Vow! Ezt hol tanítják? :p

Idézet

_nagyon_sokan_ komoly emberek is megírták már, hogy az ATi kapott egy gyártóbázist, cserébe farag az AMD-nek egy cell-szerű extensiont. ennyi. átmenetileg meg megoldja hogy a radeonok menjenek diretctHT linkiről. ennek van értelme, ez télleg csökkenti a notebook felxinyák költségeket.


Nagyon sokan meg azt írták meg, hogy hosszabb távon az AMD fogja gyártani. Az AMD-nek 2010-re már 3 gyára lesz és mindegyiknek nagyobb kapacitása lesz, mint a jelenlegi egynek. Még ha a CPU piac felét bitrtokolja is, akkor is lesz felesleges kapacitása. Szerintem nyilvánvalóak a jelek, azon 3 három gyárban fogja gyártatni a GPU-kat is.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#869 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 16:18

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:34

Nem értem mit nem értesz ezen. Komolyan.

Viszont közben találtam bizonyítékot. 2002 eleje. Ekkor jelent meg a GeForce4 4600 és a Athlon XP 2100+. Előbbi 0.15 mikronon, második 0.18-on. A két processzor mérete és tranzisztorszűáma elég közel van egymáshoz, ennek ellenére ez utóbbi 1.7 GHz-en, előbbi 300 MHz-en működött. Szerintem tök egyértelmű, hogy a jelentős különbség a low-level optimalizáció hiányának is köszönhető.

Szerinted ez _bizonyíték_ azon állításod mellett, hogy az Intel vagy az AMD "lazán" le tudná szorítani a jelenlegi csúcsGPU-k fogyasztását a "felére/harmadára"?? Azt hiszem, áthidalhatatlan szakadék tátong a között, hogy mi ketten mit tekintünk bizonyítéknak...

Még egy apró megjegyzés, mert rszemről (új információk felmerüléséig) hanyagolom ezt a témát. Látom továbbra sem fogalkoztat túlságosan, hogy gyökeresen eltérő architektúrákról van szó, de teszek még egy próbát.
Amikor anno kb. ugyanakkora energiabüdzséből egy Northwood 3,0 ghz környékén szaladgált, míg egy AthlonXP "csak" 2,0 ghz környékén, akkor (nagyon helyesen!!) egyetlen értelmes ember sem azzal érvelt, hogy ebből az látszik, mennyivel jobb az Intel low-level optimalizálásban, hanem a magyarázat szerint a Netburst és a K7 két meglehetősen eltérő architektúra. Pedig itt ráadásul mindkettő x86 cpu!

#870 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 16:25

Idézet

Komolyan ennyire buta vagy? Nem a darabszám nagyobb, hanem az érték! Ha elad egy ilyen terméket, akkor azzal egy 200 dolláros procit ad el, nem pedig egy 5 dolláros grafikus chipet. Azt meg az AMD-től kérdezd, hogy miért foglalkozik ilyennel, gondolom az oka az lehet, hogy rendkívül ostobák és előtte nem kérdezték meg d n. r kollégát a HWSW fórumáról. De most felnyitottad a szemem és látom, hogy mind az AMD, mind az Intel a végzetébe rohan az "egy csipre integrálni mindent" koncepcióval és értesítem is minden haveromat, hogy adják el az ilyen részvényeiket, bár igazából ez nem számít, hiszen itt a világvége is. :D

Látom nem sikerült megértened, hogy ugyebár a feláldozott alternatíva értékét illik ilyenkor levonni.... Azaz eladsz egy 203 dolláros procit, és közben NEM adsz el egy 200 dollárosat! Nemdebár?
Azaz amíg nem sikerül _bizonyítanod_, hogy ezzel új piacokat tudsz szerezni (amit egyébként chipsetre integráltan nem tudnál!!), addig ezzel kemény 3 dollárral nőtt a bevételed. És persze _nem_ a profitod.
Tudom, szerinted ez sokkal-sokkal olcsóbb, mint alaplapra integrálni, kijön fejlesztéssel-mindennel együtt 1,5 dollárból, így termeltél chipenként +1,5 dollár profitot. Ezzel annyi abaj, hogy a valóságalapja ugyan számodra lehet, hogy nyilvánvaló, de számomra korántsem az. És attól, hogy a "nyilvánvaló"-t, az "eléggé valószínű"-t, a "triviális"-t meg a "miért ne"-t még x-szer leírod, attól ez semmivel sem lesz jobban alátámasztva.

Újabb infók felmerüléséig ezt a kérdést is jegelem a magam részéről.
(mint ahogy a "hard fact"-ek eddig legalábbis arról is nagyon hiányoznak, hogy pl. az Intel "rohan" a CPU-ra integrálni a GPU-t...)

PS: ja, és persze a vitakultúrádért és -stílusodért külön szeretnék gratulálni... :up:
:(

#871 Felhasználó inaktív   SFIJ 

  • Őstag
  • PipaPipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 20.145
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 17:20

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Mi köze ennek a userekhez? Ez nem a userek döntése, ők ugyanis magasról szarnak rá, hogy a grafikus kártya a chipseten van vagy pedig a prociban.
Ugy van. tehat a juzerek szamara semminemu elonyt nem hordoz az, hogy 1berakod a GPU-t a CPU-val.


Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Ez a számÍtás komplett bullshit. Ne haragudj, de az. A chipsetbe integrált grafikus mag is nyilván 400 dolláros önköltségi árat produkál, nem
Az hogy a GPU es a CPu DIE merete azonos, az TENY. A chipset tartalma onmagaban egy 80as evek beli VLSI meret, mondjuk azt, hogy a chipset elfer egy 4mmx4mm-es lapkan. Ennyit kell hozzatapasztani a GPU-hoz. Na ennyire bullshit. ja es olvasd vissza elric mit irt korabban a magmeret vs kihozalatl kerdesben.

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Megpróbáltam utánanézni a Geforce 6100 transistor számának, de nem találtam róla infót. Annyit tudok,  hogy a GeForce 6200 77 milliót tertalmaz, de benne 4 pixel shader pipeline és 3 vertex pipeline van, míg a 6100-asban 2 pixel shader és mindössze csak 1 vertex pipeline van, tehát 40 milliónál biztos nincs benne több tranzisztor. Innentől pedig a die méret nem duplázódik - mint ahogy te írtad -, hanem kb. 25-30%-al nőhet meg.
Gyo. a vindozpista igenyel 4 darab unified shader-t, minimum. szal szoritkozz a 77milliora. batran.

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Hát nem. Lásd a fenti példát, amikor az Nvidia már 150 nm-en gyártott még az AMD csak 180nm-en. Az igaz, hogy az Intel előtte jár az iparágnak, de a grafikus chipek gyártói nem feltétlenül vannak lemaradva a többi proceszorgyártótól.
megint opsszeolloztal irrealis sot szurrealis kondiciokat, mint a 700MHz-en jaratott 4W A64. senki sem hasznalja ugy. ittmost kineztel egy videokartyat aminek nincs jovoje mar 2007-tol.

Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Épp ez a lényeg, hogy nem érdekli. A gyártót viszont igen, ők lesznek azok, akik alkalmazni fogják, ha olcsóbb lesz vagy más előnye lesz.
ugy van. csak nem lesz olcsobb, hanem dagabb lesz. sokkal.


Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Elmagyaráznád, hogy miért kerülne 2000 dollárba egy ilyen proci?
amiert a cell listaara 5000USD, azert. vedd le az addicionalis costokat a cell ararol. na ugye.


Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Ezt nevezem meggyőző érvelésnek! Vow! Ezt hol tanítják? :p
es azt hol, hogy bezzeg az RWT-n nyitott threadjeimben 1et ertettek velem? elolvastam. 3 pacakkal beszelgecc abbol egy ugy erzi de uncertain a masik ketto meg masszivan offtopik. persze mindezt alakerdezve tetted, tehat belefoglalatad a kerdeseidbe az altalad ohalytott valaszokat.


Idézet: hvuk - Dátum: 2006. okt. 6., péntek - 9:32

Nagyon sokan meg azt írták meg, hogy hosszabb távon az AMD fogja gyártani. Az AMD-nek 2010-re már 3 gyára lesz és mindegyiknek nagyobb kapacitása lesz, mint a jelenlegi egynek. Még ha a CPU piac felét bitrtokolja is, akkor is lesz felesleges kapacitása. Szerintem nyilvánvalóak a jelek, azon 3 három gyárban fogja gyártatni a GPU-kat is.

nemtom olvtad e bogdan elmelkedeset arrol, hogyha a dell berendeli a leszerzodott kontingenst az amd-tol akkor a retail piacokon komoly hiany lesz. szal errol ennyit.

A CPU-GPU pont akkora baromsag, mint a kedvenc 4x4-ed. a cell szeru megoldas ambator mar rentabilisebb, mert ott az SPE processzorok kb feluton vannak a GPU es a CPU kozott.

Szerkesztette: SFIJ 2006. 10. 06. 17:22 -kor

νιψονανωμηματαμημωνανοψιν

What do stars do? They shine.(Yvaine)

#872 Felhasználó inaktív   SFIJ 

  • Őstag
  • PipaPipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 20.145
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 17:25

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 16:18

Amikor anno kb. ugyanakkora energiabüdzséből egy Northwood 3,0 ghz környékén szaladgált, míg egy AthlonXP "csak" 2,0 ghz környékén, akkor (nagyon helyesen!!) egyetlen értelmes ember sem azzal érvelt, hogy ebből az látszik, mennyivel jobb az Intel low-level optimalizálásban, hanem a magyarázat szerint a Netburst és a K7 két meglehetősen eltérő architektúra. Pedig itt ráadásul mindkettő x86 cpu!

tuché!  :Đ  ez kész van  :respect:
νιψονανωμηματαμημωνανοψιν

What do stars do? They shine.(Yvaine)

#873 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 19:11

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 17:18

Szerinted ez _bizonyíték_ azon állításod mellett, hogy az Intel vagy az AMD "lazán" le tudná szorítani a jelenlegi csúcsGPU-k fogyasztását a "felére/harmadára"?? Azt hiszem, áthidalhatatlan szakadék tátong a között, hogy mi ketten mit tekintünk bizonyítéknak...

Jó, szerintem is hanyagoljuk a témát.

Idézet

PS: ja, és persze a vitakultúrádért és -stílusodért külön szeretnék gratulálni...


Ugye észrevetted, hogy a vége vicc volt? Irónia más szóval. "Az AMD-től kérdezd"-ig volt nem vicc, utána már az. Addig azért nem az, mert komolyan érdemes elgondolkodni azon, hogy vajon mi a francért gondolkodik a GPU (és nem csak a GPU) CPU-ra integrálásán az AMD, ha annak nem lenne előnye? És ha az ember feltette magában ezt a kérdést, akkor eljuthat oda is, hogy valószínűleg nincs igaza a kérdésben, és egy ilyen megoldás mégiscsak jó dolog lehet.

Erről jut eszembe, hogy a másik két fórumon komoly érvek merültek fel a chipset CPU-ra integrálásával kapcsolatban. Emiatt aztán ezen el gondolkodtam és ma már nem is vagyok annyira biztos, hogy a nagyon közeli jövőben bekövetkezik (2-3 éven belül).
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#874 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 19:30

Idézet: SFIJ - Dátum: 2006. okt. 6., péntek - 18:20

Ugy van. tehat a juzerek szamara semminemu elonyt nem hordoz az, hogy 1berakod a GPU-t a CPU-val.

Jó lenne, ha megmuitatnád, hogy hol beszéltem a userek számára várhat előnyről. Elvileg kicsit olcsóbb lehet a végfelhasználói ár (de ez nem biztos) és talán egy kicsivel lejjebb mehet a fogyasztás, de az igazi előny az OEM-eknél jelentkezik. Az ő életüket könnyíti meg és teszi egyszerűbbé.

Idézet

Az hogy a GPU es a CPu DIE merete azonos, az TENY. A chipset tartalma onmagaban egy 80as evek beli VLSI meret, mondjuk azt, hogy a chipset elfer egy 4mmx4mm-es lapkan. Ennyit kell hozzatapasztani a GPU-hoz. Na ennyire bullshit. ja es olvasd vissza elric mit irt korabban a magmeret vs kihozalatl kerdesben.


Melyik GPU és melyik CPU die mérete? Mert ugye most low-end GPU-król és normál CPU-król beszélünk amik esetén szinte biztos nem igaz.

Nem tudom mit mondott Elric, de azt tudom, hogy a logikai áramkörök mérete számít elsősorban a kihozatalnál.

Idézet

Gyo. a vindozpista igenyel 4 darab unified shader-t, minimum. szal szoritkozz a 77milliora. batran.


A jelenlegi low-end GPU-kat és a jelenlegi CPU-kat vetettem egybe. Nem hiszem, hogy a kettő aránya hosszabb távon változna. Mert ugye számolhatok 77 millióval, de közben a CPU-k tranzisztorszáma is duplázódni fog. Emiatt az arányuk nem nagyon fog változni.

Idézet

megint opsszeolloztal irrealis sot szurrealis kondiciokat, mint a 700MHz-en jaratott 4W A64. senki sem hasznalja ugy. ittmost kineztel egy videokartyat aminek nincs jovoje mar 2007-tol.


Ennek az égvilágon semmi köze nincs az általam írtakhoz. Arra hoztam ugyanis egy ellenpéldát, hogy a GPU csíkszélesség a processzoroké mögött járna. Ehhez semmi köze nincs az általad írtaknak. Gondolom nem ide szántad, de akkor hova?

Idézet

ugy van. csak nem lesz olcsobb, hanem dagabb lesz. sokkal.


Leírnád, hogy ha egy tokba (nem die-ra!) helyezik a GPU-t és a CPU-t, akkor az mennyiben drágítja meg azt, mintha külön lenne?

Idézet

amiert a cell listaara 5000USD, azert. vedd le az addicionalis costokat a cell ararol. na ugye.


A Cell esetén már létező GPU-t kis átalakitás után tokoltak a CPU mellé. Nocsak, erről nem is hallottam. Érdekes az is, hogy a Cell a GPU-khoz hasonlóan csak 2-300 MHz-en jár, érdekes, én közel 10x ennyiről hallottam, de bizonyára rossz híroldalt olvastam.

Idézet

es azt hol, hogy bezzeg az RWT-n nyitott threadjeimben 1et ertettek velem? elolvastam. 3 pacakkal beszelgecc abbol egy ugy erzi de uncertain a masik ketto meg masszivan offtopik. persze mindezt alakerdezve tetted, tehat belefoglalatad a kerdeseidbe az altalad ohalytott valaszokat.


Számomra az is megerősítés, ha más - vélhetőleg nálam hozzáértőbb - emberek is hasonlóképpen vélekednek. Nem, nem azért, mert nem tudok gondolkodni és csak másokat szajkózok. És én hoztam jónéhány érvet is, nem csak az RWT-vel jöttem. Modnjuk az RWT színvonala lényegesen üti a HWSW-ét, ami persze logikus, ott azért írogatnak volt Inteles mérnökök is (mondjuk nekünk van egy Elric-ünk, de ő csak szökőévenként nyilatkozik. sajnos).

Idézet

nemtom olvtad e bogdan elmelkedeset arrol, hogyha a dell berendeli a leszerzodott kontingenst az amd-tol akkor a retail piacokon komoly hiany lesz. szal errol ennyit.

A CPU-GPU pont akkora baromsag, mint a kedvenc 4x4-ed. a cell szeru megoldas ambator mar rentabilisebb, mert ott az SPE processzorok kb feluton vannak a GPU es a CPU kozott.


A 4x4 nem a kedvencem, de ezt már sokszor elmondtam. Soha nem is volt.

A CPU-GPU-nak vannak előnyei és vannak hátrányai. Az biztos, hogy jelenleg nagy körülötte a hype, nem biztos, hogy lesz belőle bármi, lásd például a netwrok computer (így hivták?) példáját. Az is tény, hogy az AMD megvette az ATI-t, aminek egyik értelmezése, hogy megalomániás a Hector Ruiz és megőrült, a tlejes igazgatótanáccsal és a részvényesekkel együtt, a másik verzió az, hogy valamiért szükségük volt rá. Ha ezt elfogadjuk, akkor legvalószínűbb magyarázat a CPU-GPU.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#875 Felhasználó inaktív   SFIJ 

  • Őstag
  • PipaPipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 20.145
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 21:16

[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']Jó lenne, ha megmuitatnád, hogy hol beszéltem a userek számára várhat előnyről. Elvileg kicsit olcsóbb lehet a végfelhasználói ár (de ez nem biztos) és talán egy kicsivel lejjebb mehet a fogyasztás, de az igazi előny az OEM-eknél jelentkezik. Az ő életüket könnyíti meg és teszi egyszerűbbé.[/quote] en mint juzer miert fogyasztanek, preferalnek egy "b" termeket egy "a" termekkel szemben, ha ezen dontesem mogott nem sorakoztathatoak fel kezzelfoghato elonyok (=a mikrookonomia alapvetesei :D) Az OEM-ek szamara mifele elonyt testesit meg az, ha esetleg kicsit csokkentheto a vegfelhasznaoli ar? nekik lekotott partnereik vannak, kesz PCB design-juk fel evtizedes knowhowjuk amit dobhatnak ki a szemetbe a te CPUGPUd bevezetese okan. kezdhetik elorol a design-t, a verifikaciot. ez mind-mind cost. a jol bevalt partnereiket meg cserelhetik le. Vedd mar eszre, hogy az AMD-nek jo 10-15 evebe kerult mire az ipar komolyan kezdte venni. Ezt kizarolagosan a rugalmassaganak es a piacvezereltsegenek koszonheti. Nem ertem, hogy mikozben nagyon is erted a passzatszelfujos itanium bukasanak a miben letet, hogyan tudsz belekapaszkodni egy masik halvaszuletett uveggyongyjatekba - a CPUGPU-ba? Szepen meg kell varni, mire jut a SONY a cell-lel. ha bevalik, osszejon ra a knowhow, akkor adaptalni az X86 platform szamara. Ugy latom elfelejtetted, mi is tartja eletben az X86-ot, mi is teszi sikeresse.


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Melyik GPU és melyik CPU die mérete? Mert ugye most low-end GPU-król és normál CPU-król beszélünk amik esetén szinte biztos nem igaz. Nem tudom mit mondott Elric, de azt tudom, hogy a logikai áramkörök mérete számít elsősorban a kihozatalnál.[/quote] latod. ez a baj. nem tudsz semmit, es megis evangelizalsz egy nemletezo fikcio menten.


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
A jelenlegi low-end GPU-kat és a jelenlegi CPU-kat vetettem egybe. Nem hiszem, hogy a kettő aránya hosszabb távon változna. Mert ugye számolhatok 77 millióval, de közben a CPU-k tranzisztorszáma is duplázódni fog. Emiatt az arányuk nem nagyon fog változni.[/quote] bocs de ahited senkit nem erdekel. egy tenyekre alapozott deduktiv okoskodassal lehetne valamit kezdeni. az ugy erzem..., ugy hiszem..., azt szeretnem... tipusu literaturisztikus onvallomasok erdekesen csengenek egy szakmai es inkabb ervcentrikus vitaforumban de nem viszik elobbre a disputa targyat.


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Ennek az égvilágon semmi köze nincs az általam írtakhoz.[/quote] persze hogy nincs. vegulis csak osszegeztem a kamaszlanyos termek-fantaziaidat :Đ


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Leírnád, hogy ha egy tokba (nem die-ra!) helyezik a GPU-t és a CPU-t, akkor az mennyiben drágítja meg azt, mintha külön lenne?[/quote] eloszor is a cpu-t es a gpu-t egy vastag/vekonyreteg aramkori lemezre kell forrasztani. ez a muvelet onamagaban az eszkozok meghibasodasahoz vezethet. ezt az uj vastagreteg lemezt a die-okkal egyutt tokozni kell, aminek megfeleo termalis vezetokepesseget kell biztositania. Eza afajta tokozas extra koltseget jelent, ezert is allt le mind az intel, mind pedig az AMD a slot-os processzorokkal. A slot-kartyahoz retention mechanizmus kell, amely a mechanikai kovetelmenyek miatt dragabb, mint a hagymanyos LGA tokozas. a Slot-os fogalalt miatt az alaplapokat is at kell/lehet tervezni. kerdeses az, hogy mindez hogyan viheto vegbe a notebook fronton, ahol mar jol 6-7 eve nem divnak a processzorkartyak, hanem az egybenyakos dolgok uralkodnak. javallom szerelj szet egy mai notebookot emg egy 6-7 evvel ezelottit, hogy megertsd a technologiai fejlodes adta kulonbsegeket.


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
A Cell esetén már létező GPU-t kis átalakitás után tokoltak a CPU mellé. Nocsak, erről nem is hallottam. Érdekes az is, hogy a Cell a GPU-khoz hasonlóan csak 2-300 MHz-en jár, érdekes, én közel 10x ennyiről hallottam, de bizonyára rossz híroldalt olvastam.[/quote] te itten most hulyesegeket dialogizalsz onamgaddal? :Đ


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Számomra az is megerősítés, ha más - vélhetőleg nálam hozzáértőbb - emberek is hasonlóképpen vélekednek. Nem, nem azért, mert nem tudok gondolkodni és csak másokat szajkózok. [/quote] kerestel magadhoz hasonlo kaliberu forumharcosokat, nehanyra felis nezel. Na es? Bocs de ird mar le, honnan szarmaztathato az illeto uriemberek hitele? Az hogy van haverja aki dologozik valamelyik FAB-ban? Na es? Mivan akkor, ha a haveja csak takarito ott? akkor a tag mindjar szakerto mert van egy haverja aki mondjuk takaritja a drezdai gyarat? - ugyan mar :D


[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
És én hoztam jónéhány érvet is, nem csak az RWT-vel jöttem. [/quote] erv nem volt, csak kamaszlanyos fantazia.

[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Modnjuk az RWT színvonala lényegesen üti a HWSW-ét, ami persze logikus, ott azért írogatnak volt Inteles mérnökök is[/quote] De a vezeruru ottan az a Paul DeMone akit Linus negyedeves rendszeresseggel szarra szivat es egy vilag rohog mar rajata :D

[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
A 4x4 nem a kedvencem, de ezt már sokszor elmondtam. Soha nem is volt.[/quote] lari-fari :)

[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
A CPU-GPU-nak vannak előnyei és vannak hátrányai. Az biztos, hogy jelenleg nagy körülötte a hype, nem biztos, hogy lesz belőle bármi, lásd például a netwrok computer (így hivták?) példáját. Az is tény, hogy az AMD megvette az ATI-t, aminek egyik értelmezése, hogy megalomániás a Hector Ruiz és megőrült, a tlejes igazgatótanáccsal és a részvényesekkel együtt, a másik verzió az, hogy valamiért szükségük volt rá.[/quote] hosszu oldalak ota ez az elso objektiv es koherens mondatod.

[quote name='hvuk' date='2006. okt. 6., péntek - 19:30']
Ha ezt elfogadjuk, akkor legvalószínűbb magyarázat a CPU-GPU.[/quote] Nem :D A deduktiv okoskodas szabalyai alapjan ez nem kovetkezik az elozmenyekbol.  sajnalom, igy jartal :Đ


szerk: hejesiras

Szerkesztette: SFIJ 2006. 10. 06. 21:31 -kor

νιψονανωμηματαμημωνανοψιν

What do stars do? They shine.(Yvaine)

#876 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 06. 22:37

Pontosan. A CPUGPU messzemenőkig nem az egyetlen lehetséges magyarázat az ATI felvásárlására, és IMHO egyáltalán nem a legvalószínűbb. Legalább négy másik, jóval esélyesebb scenario-t tudok:

(1) komplett platformokat szeretne az AMD is kihozni, ehhez az ATI fejlesztené a chipseteket

(2) multimédia, set-top-box, digitális TV, médialejátszók, szóval valami teljesen speciális "célszerszám" fejlesztése (merthogy ez a piac nagy robbanás előtt áll, és állítólag az AMD szeretne beszállni)

Én ezt a kettőt mindenképpen reálisnak tartom, főleg rövid távon, és legelsősorban is az (1)est.

(3) beszállni a konzol-bizniszbe (na ez meg az én liblingem! :) )

(4) HT-n keresztüli kiegészítő kártyák (persze mint többször írtam már, én ebben még jó darabig nem látok túl nagy fantáziát _mert_ ahogy én látom, a PCI-E még jó darabig elegendő, de attól még ők lehet, hogy máshogy gondolják)

#877 Felhasználó inaktív   hvuk 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 4.857
  • Csatlakozott: --

Elküldve: 2006. 10. 08. 15:28

Jobb, ha hagyjuk ezt a vitát. Meglehetősen értelmetlen így a dolog.
Athlon 64 939 2 GHz Winchester mag, GigaByte NF4 K8N Ultra-9 (passzív chipset), GigaByte X800 (passzív), 2x512 KingMax HC 500 MHz, Hitachi 160 Gb, NEC 3520, Coolink BAT01VS (1040 ford.), Chieftec 420W, Chieftec ház, Samsung 193P TFT monitor

#878 Felhasználó inaktív   d n . r 

  • Senior tag
  • PipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 2.211
  • Csatlakozott: --

Elküldve: 2006. 10. 09. 12:14

https://www.hwsw.hu/hirek/32217/tsubame_szu...e_gyorsito.html

És amiért beidéztem: a gyorsítókártya PCI-X-en (azaz ennél konkrétan nem PCI-E, de ez amúgy lényegtelen) kereszetül kommunikál.

Szerkesztette: d n . r 2006. 10. 09. 12:15 -kor


#879 Felhasználó inaktív   special 

  • project 2501
  • PipaPipaPipaPipaPipa
  • Csoport: Stábtag
  • Hozzászólások: 11.962
  • Csatlakozott: 2001. jan. 16.

Elküldve: 2006. 10. 09. 13:32

Idézet: d n . r - Dátum: 2006. okt. 6., péntek - 23:37

(3) beszállni a konzol-bizniszbe (na ez meg az én liblingem! :) )

Nekem is, csak kidurrantani. Ez egy bullshit, csakhogy legyen még 1 indok a slide-okon. Az AMD-nek az ATI-ra a a versenyben maradáshoz van szüksége (ha ugyan szüksége van rá), nem milliárdokat elnyelő, kockázatos és lassú megtérülést hozó tevékenységre. A designszolgáltatások pedig nem tekinthetőek stratégiai tevékenységnek.

#880 Felhasználó inaktív   SFIJ 

  • Őstag
  • PipaPipaPipaPipaPipa
  • Csoport: Fórumtag
  • Hozzászólások: 20.145
  • Csatlakozott: --

Elküldve: 2006. 10. 10. 18:52

Idézet: Ytse

November első hetében mutatkozik be az NVIDIA új grafikus processzora, a G80, amely GeForce 8800 néven kerül majd az üzletekbe. A lapka specifikációi egyelőre nem nyilvánosak, az interneten azonban már régóta tart a találgatás az adatokkal kapcsolatban.

Jól értesült források tudni vélik, hogy a G80 mintegy 700 millió tranzisztort tartalmaz és 400 mm2 méretű, ami nem csak más grafikus chipekkel összehasonlítva számít elképesztően nagynak: a kétmagos Intel Core 2 Duo processzor 143 mm2, a 16 megabájt harmadszintű gyorsítótárat tartalmazó Tulsa magos Xeon 454 mm2, az 1,72 milliárd tranzisztorból álló kétmagos Itanium, a Montecito pedig 596 mm2. Az NVIDIA jelenlegi csúcsmodellje, a G71 278 millió tranzisztorból áll. A G80-at a Taiwan Semiconductor Manufacturing Company (TSMC) gyártja majd, vélhetően 80 nanométeres csíkszélességgel.


Nemi tenyadat a CPu-GPU ugyben. tehat egy moder GPU nem 70 millio, hanem 700 millio tranzisztort tartalmaz, a magmerete pedig haromszorosa a core2 duoenak. ha feltesszuk, hogy atviheto a GPU 65 nanora akkor a ket magmeret sacc/kb egyforma lesz. akb azonos tranzisztorszam es magmeret esetere enmar nem mernek komplexitas rangsort allitani a G80 es a conroe kozott.

Szerkesztette: SFIJ 2006. 10. 10. 18:54 -kor

νιψονανωμηματαμημωνανοψιν

What do stars do? They shine.(Yvaine)

Téma megosztása:


  • (57 Oldal)
  • +
  • « Első
  • 42
  • 43
  • 44
  • 45
  • 46
  • Utolsó »
  • Nem indíthatsz témát.
  • A téma zárva.

2 felhasználó olvassa ezt a témát.
0 felhasználó, 2 vendég, 0 anonim felhasználó