Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Kommt Nvidias GT300 mit 512 Shadereinheiten?
- Ersteller Wolfgang
- Erstellt am
- Zur News: Kommt Nvidias GT300 mit 512 Shadereinheiten?
r4yn3 schrieb:Ich dachte die 5-Vec Shader sind komplexer und schwieriger anzusteuern, irr ich da?
So ist es auch. Deswegen sind die Karten trotz hoher theoretischer Rechenleistung langsamer als die Konkurrenz. Außerdem taktet Nvidia die Shader deutlich höher, sodass 216 Shader der GTX260 die 800 Shader HD4870 gut in Schach halten können. Dafür brauchen ATIs Shader nur ein Minimum an Platz an Logik, wie es scheint.
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.558
Es bedarf mehr Optimierungsarbeit in der Software, die Auslastung der Einheiten möglichst hoch zu halten. Die Hardware ist dagegen einfacher zu steuern.r4yn3 schrieb:Ich dachte die 5-Vec Shader sind komplexer und schwieriger anzusteuern, irr ich da?
1337 g33k
Vice Admiral
- Registriert
- Sep. 2008
- Beiträge
- 6.334
Ich weiß ja nicht, was euer Problem ist mit der Die-Größe...
Dann macht man eben den Heatspreader etwas größer und hat einen besseren Wärmeübergang zum Kühler, oder?
Die Größe (=Länge) der Karte wird auch nicht das Problem sein. 28cm bei den aktuellen GTXen geht ja gerade noch in die meisten Gehäuse...
500mm² entspricht übrigens einem Quadrat von 2,23 cm.
Edit: Danke an riDDi. Hab die Kosten des Wafers nicht bedacht und wusste gar nicht, dass die so teuer sind...
Und wie viele schon angemerkt haben: Die GT300er werden zu Beginn echt teuer sein. 400€ beim Launch halte ich angesichts der anfänglichen Preise der 8800GTX damals auch für realistisch. High-End muss eben eine Menge kosten. Allerdings wird ATi zuerst mit einer Karte präsent sein, weshalb diese 400€ nicht tragbar sein werden. In den ersten zwei Wochen vielleicht, um die Early Adopters zu schröpfen.
Für mich steht jedenfalls fest: Sie wird mir bestimmt zu teuer sein. Auf Basis des GT300 wird es dann sicher auch eine ordentliche Performance-Karte geben (sprich eine Bezahlbare) und da bin ich dann sicher auch wieder bereit etwas mehr auf den Tisch zu legen.
Zur Leistungsaufnahme rufe ich mal die Energiequellen in Gedächtnis:
PEG-Slot: 75W
6-Pin PCI-Stromanschluss: ebenfalls 75W
8-Pin PCI-Stromanschluss: 150W
Eine Karte mit zwei mal 6-Pin kann damit 225W verbrauchen. Und diese Karte wird es sicher mit GT300 geben. (wie bereits gesagt: die wird sicher dann meine werden)
Und für das Topmodell über 300W zu veranschlagen (also zweimal 8-Pin PCI-Stromanschluss + 75W aus dem PEG-Slot) halte ich für unrealistisch.
Dann macht man eben den Heatspreader etwas größer und hat einen besseren Wärmeübergang zum Kühler, oder?
Die Größe (=Länge) der Karte wird auch nicht das Problem sein. 28cm bei den aktuellen GTXen geht ja gerade noch in die meisten Gehäuse...
500mm² entspricht übrigens einem Quadrat von 2,23 cm.
Edit: Danke an riDDi. Hab die Kosten des Wafers nicht bedacht und wusste gar nicht, dass die so teuer sind...
Und wie viele schon angemerkt haben: Die GT300er werden zu Beginn echt teuer sein. 400€ beim Launch halte ich angesichts der anfänglichen Preise der 8800GTX damals auch für realistisch. High-End muss eben eine Menge kosten. Allerdings wird ATi zuerst mit einer Karte präsent sein, weshalb diese 400€ nicht tragbar sein werden. In den ersten zwei Wochen vielleicht, um die Early Adopters zu schröpfen.
Für mich steht jedenfalls fest: Sie wird mir bestimmt zu teuer sein. Auf Basis des GT300 wird es dann sicher auch eine ordentliche Performance-Karte geben (sprich eine Bezahlbare) und da bin ich dann sicher auch wieder bereit etwas mehr auf den Tisch zu legen.
Zur Leistungsaufnahme rufe ich mal die Energiequellen in Gedächtnis:
PEG-Slot: 75W
6-Pin PCI-Stromanschluss: ebenfalls 75W
8-Pin PCI-Stromanschluss: 150W
Eine Karte mit zwei mal 6-Pin kann damit 225W verbrauchen. Und diese Karte wird es sicher mit GT300 geben. (wie bereits gesagt: die wird sicher dann meine werden)
Und für das Topmodell über 300W zu veranschlagen (also zweimal 8-Pin PCI-Stromanschluss + 75W aus dem PEG-Slot) halte ich für unrealistisch.
Zuletzt bearbeitet:
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.446
TeHaR schrieb:Unwahrscheinlich. Selbst mit 40nm wäre wenn man bedenkt wieviel Platz die NV Shader verbrauchen, der Chip nochmals größer als der GT200 in 65nm.
Überhaupt nicht... Eine im 40nm-Prozess gefertigte GPU ermöglicht theoretisch die 2.5-fache Shaderdichte einer GPU die im 65nm-Prozess gefertigt wurde.
Die Rechnung ist ganz einfach, aber halt nur theoretisch...
Trotzdem wird der GT300 wohl kaum eine grössere Fläche haben als der GT200. Auch der Stromverbrauch wird hoffentlich nicht über 200 Watt steigen.
Von der Behauptung, der GT300 werde 512 Shadereinheiten besitzen, halte ich persönlich nicht besonders viel. nVidia (ATI auch) hat schon immer etwas übertrieben wenns um ihre neuen Flaggschiffe ging
itzz_mee schrieb:dan sollte endlich crysis laufen da die gtx 380 eine leistungssteigerung von 113 % hätte
crysis wird dan wohl kein problem mehr xD
Wer zockt in nem Jahr noch DX10 Games (nur Scherz)
Zuletzt bearbeitet:
riDDi
Admiral
- Registriert
- Aug. 2004
- Beiträge
- 7.558
http://www.semiconductor.net/article/CA6600107.html1337 g33k schrieb:Ich weiß ja nicht, was euer Problem ist mit der Die-Größe...
$7000 kostet ein fertiger 300mm-Wafer bei TSMC, wenn nicht sogar mehr. Naiv gerechnet macht das pro GT200b $50. Hinzu kommen höherer Verschnitt und Ausschuss, je größer ein einzelner Die wird. Fazit: AMD bezahlt pro GPU locker $30 weniger als Nvidia.
Daywalker1977
Lt. Junior Grade
- Registriert
- März 2007
- Beiträge
- 405
jo meine glaskugel war verschwommen so müsste es richtig sein
gtx 380 1792 mb
gtx 360 1536 mb
gtx 380 1792 mb
gtx 360 1536 mb
Daywalker1977 schrieb:jo meine glaskugel war verschwommen so müsste es richtig sein
gtx 380 1792 mb
gtx 360 1536 mb
Mit Sicherheit nicht. Das würde für die GTX380 ein 448bit-SI bedeuten. Du meinst wohl eher:
gtx 380 2048 mb
gtx 360 1792 mb
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.446
@C.J.:
1'536MB für ne GTX 360 wäre auch denkbar, halt einfach 384bit-Speicherinterface Die GTX 380 wird mit Sicherheit nicht ein 448bit Speicherinterface besitzen, da hast du recht.
Aber Leute, dass sind alles nur Spekulationen. nVidia soll jetzt aufhören zu bluffen, die sollen mal an die Arbeit! Die haben doch nur schiss, ATI wieder n'halbes Jahr hinterher zu humpeln (ok, bisschen übertrieben ). Doch die halten sich hoffentlich noch n'bisschen zurück mit Infos zu den 58er HD's.
1'536MB für ne GTX 360 wäre auch denkbar, halt einfach 384bit-Speicherinterface Die GTX 380 wird mit Sicherheit nicht ein 448bit Speicherinterface besitzen, da hast du recht.
Aber Leute, dass sind alles nur Spekulationen. nVidia soll jetzt aufhören zu bluffen, die sollen mal an die Arbeit! Die haben doch nur schiss, ATI wieder n'halbes Jahr hinterher zu humpeln (ok, bisschen übertrieben ). Doch die halten sich hoffentlich noch n'bisschen zurück mit Infos zu den 58er HD's.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
1337 g33k schrieb:Ich weiß ja nicht, was euer Problem ist mit der Die-Größe...
Dann macht man eben den Heatspreader etwas größer und hat einen besseren Wärmeübergang zum Kühler, oder?
Die Größe (=Länge) der Karte wird auch nicht das Problem sein. 28cm bei den aktuellen GTXen geht ja gerade noch in die meisten Gehäuse...
500mm² entspricht übrigens einem Quadrat von 2,23 cm.[...]
Wir haben damit kein Problem, aber NVIDIA sicherlich.
ÄÄÄÄÄÄußerst grob gerechnet passen 140 500mm² Dies auf einen 300mm Wafer, aber das wär quasi ne perfekte Ausnutzung aller freien Stellen. Geht aber nicht, da wir ja "Vierecke" auf einem Kreis unterbringen müssen. Effektiv und mit yield (der immer schlechter wird, je größer der Chip wird) bleiben da *vielleicht* 100GPUs pro Wafer, der 5000$ ca. kostet.
Mit testen und allem drum und dran 100$ pro GPU.
Bei nem 300mm² Chip kommt man pro Wafer auf 235GPUs, wenn man alle Verluste abzieht, kommt man vielleicht auf 160 Chips.
Ebenfalls mit allem drum und dran simma dann bei 80$ (ich weiß nicht wie hoch die Fixkosten fürs "zusammenbauen" sind). Also 20$ gespart, hört sich nach wenig an, aber über die Stückzahlen und wenn dann noch teure Boards dazu kommen, macht das ganz schön was aus.
Das war ja NIVIDIAs Problem mit dem GT200, da warens 606mm² zu 275mm² beim RV770. Also noch ein schlechteres Verhältnis als oben aufgezeigt. Zusammen mit NVIDIAs geplanten Gewinn von 50% pro Graka kamen dann eben so lustige Preise raus wie 500€-600€ pro GTX280.
JueZ schrieb:[viel Text]
AMD Fanboys hört auf alles was nicht von eurer Lieblingsfirma ist schlecht zu reden und haltet euch an die Fakten.
Das gilt für dich andersrum aber auch, erst den PII schlecht reden, jetzt die ATI-Karten...
man man man
Zum Thema Effizienz bitte mal nachlesen...
Das nimmt sich genau gar nichts in Sachen Energieaufnahme, wenn man die Die-Göße betrachtet, sieht NVIDIA erst richtig alt aus.
Benni22
Commander
- Registriert
- Juni 2008
- Beiträge
- 3.018
Ich frag mich erstmal, was man für ein Monster an Prozessor bräuchte, wenn es ein Board mit 4x PCI-e 2.0 mit je 16 Lanes gibt und dazu 4 von den Karten (Triple-Sli & PhsyX).
Das wäre ma ein Traum an Rechenleistung *sabber*
Dazu noch 4 12-Kerner von AMD und der Rechner ist fast gekauft (solange er bezahlbar ist =D)(und wenn er denn so kommen könnte... irgendwann^^)
So rein hypothetische Zeit vorbei. Schon extrem, wie die Entwicklung vorangetrieben wird.
Das wäre ma ein Traum an Rechenleistung *sabber*
Dazu noch 4 12-Kerner von AMD und der Rechner ist fast gekauft (solange er bezahlbar ist =D)(und wenn er denn so kommen könnte... irgendwann^^)
So rein hypothetische Zeit vorbei. Schon extrem, wie die Entwicklung vorangetrieben wird.
1337 g33k
Vice Admiral
- Registriert
- Sep. 2008
- Beiträge
- 6.334
Wie wär's damit: 512bit Speicherinterface und dazu noch GDDR5?
DAS ist High-End!
Warum sollten die ihre Know-How beim SI über Bord werfen und weniger machen? Der GT200 schafft in der GTX28x auch 512bit.
Das was am an der Zusammenfassung in der News am sichersten sein kann ist doch bestimmt das Speicherinterface, oder? Eventuell machen sie ja auch wieder was krummes. 640 Bit oder sowas wäre ja auch möglich. (Siehe dazu 640MB VRAM bei 320 Bit in der Ur-8800GTS)
Aber weniger machen sie bestimmt nicht!
DAS ist High-End!
Warum sollten die ihre Know-How beim SI über Bord werfen und weniger machen? Der GT200 schafft in der GTX28x auch 512bit.
Das was am an der Zusammenfassung in der News am sichersten sein kann ist doch bestimmt das Speicherinterface, oder? Eventuell machen sie ja auch wieder was krummes. 640 Bit oder sowas wäre ja auch möglich. (Siehe dazu 640MB VRAM bei 320 Bit in der Ur-8800GTS)
Aber weniger machen sie bestimmt nicht!
r4yn3
Admiral
- Registriert
- Mai 2006
- Beiträge
- 7.692
Das wäre nicht High End, das wär overkilled.
Soviel unnütze Bandbreite wäre Dumm.
Das hat weder was mit Knowhow noch mit "schaffen" zu tun.
256bit bei GDDR5 hat eine höhere Bandbreite als 512bit und GDDR3, nur ist der GDDR5 im normalfall sogar sparsamer und man spart sich nochmal einiges am PCB selbst.
Soviel unnütze Bandbreite wäre Dumm.
Das hat weder was mit Knowhow noch mit "schaffen" zu tun.
256bit bei GDDR5 hat eine höhere Bandbreite als 512bit und GDDR3, nur ist der GDDR5 im normalfall sogar sparsamer und man spart sich nochmal einiges am PCB selbst.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
brauna1 schrieb:Wenn das alles stimmt - vorallem mit der Performance bei der Double-Precision-Berechnung wird der Chip bald zu schade für schnöde 3D Spiele ;-)
Das denkt sich NV wohl auch , das Teil ist ja massiv auf GPGPU optimiert. Jetzt drehen sie komplett am Rad, und das ganze dann mit den Compute Shadern optimal ausgelastet -> Wahnsinn.
Interessant währe auch ob es endlich ein 256SI +GDDR5 gibt. GDDR5 ist zwar immer noch sau teuer aber gegenüber einem 512SI doch ein wenig effizienter.
MfG Kasmo
|MELVIN| schrieb:Dazu noch 2GB GDDR5 Speicher bei 512bit Speicherinterface und Crysis wird dann über 2 Jahre nach Erscheinen @FullHD@Very High möglicherweise flüssig spielbar sein......
hehe jop.. so isses. falls DX11 spiele rauskommen, wird die gt300 wieder nicht genug power bieten
lösungen? tesselation und endlich brauchbare multi-GPU-lösungen. es MUSS mal einen fortschritt gegenüber SLI geben