News Kommt Nvidias GT300 mit 512 Shadereinheiten?

die heutige GTX280 hat einen verbrauch von 220 watt mit 240 shadern wenn die graka dann 512 shader hat müsste sie einen verbrauch von 440 Watt haben..... wie soll man die abführen :D
 
gruffi schrieb:
@topic
Oh oh, ich ahne schon schlimmes. Das wird vermutlich wieder ein riesiges Design mit hoher Leistungsaufnahme. Die Unvernunft ist aus nVidia Entwicklungsabteilung leider noch nicht gewichen. Man tut offenbar alles, um mich als Kunden zu verlieren. Schade eigentlich ...

Du weißt aber schon, dass das eine high end karte wird, bei der fast nur die leistung zählt?
Solange die leistungsaufnahme/leistung sinkt und der idle verbrauch niedrig ist, ist mir die hohe leistungsaufnahme ziemlich egal, zumindest bei einer high end karte.

mfg
 
Da wird dann wirklich ein 1kW NT fällig weil dann gleich 2 davon verbaut werden. Ähm zwei Quadcores braucht man dann vermutlich auch und natürlich noch die passende Software.
Heilige Scheisse!!! Ich denke nicht, dass die Karte unter FurMark weniger als 250W brauchen wird. Wie auch immer, ich will diese Karte haben.
 
1024 5D Shader - 512 ALUs - 32 Cluster!
CMON nVidia lets Rock´n´Roll :D

Ps.: Die Shader machen kaum Hitze!
Problematisch sind andere Bauteile, vorallem VRam schluckt Strom!

Aber noch was: WIE GROSS WIRD DER CHIP? Die Schrottquote ist bei dem riesen Tier des GT200 (5XXmm²?) ja schon abnormal.
Die sollten sich lieber was in Richtung 2 Chips auf einer Karte als Standard setzen (was dann nicht X2 darstellen soll sondern 2 Chips mit der Hälfte an Power!)
 
16 Cluster ist natürlich heftig. Wenn man die Shader-Architektur auch noch überarbeiten will, dann wird der Chip locker doppelt so groß wie der GT200 werden. In 40nm also um die 500mm², würde ich einfach mal schätzen. Dazu dann 32R ROPs, 512bit SI und 2GB VRAM, das wäre vermutlich dann eine ausgewogene Kombination. Den Stromverbrauch würde ich so hoch nicht einschätzen, da der meiste Platz wohl für die ganze Logik draufgeht und auf die große Fläche verhätnismäßig wenig Funktionseinheiten besitzt. Sieht man an der GTX260 vs HD4870 ganz gut, letzterer ist nur halb so groß, verbraucht aber genau so viel Strom.

Ich frage mich allerdings ob Nvidia mit der Taktik noch gtu fährt. Von ATI ist zu erwarten, dass sie ihren Kurs beibehalten und RV870 unter 300mm² kommen wird. Dennoch wird auch bei ATI die Chance da sein durch 40nm die Leistung im Vergleich zum RV770 zu verdoppeln - durch RV740 werden sie da sicher schon Erfahrungen gesammelt haben. In diesem Fall wird auch der GT300 eine sehr kostspielige Angelegenheit zumal er auch Unmengen an Entwicklungskosten verschlungen haben wird. Eine Preisschlacht wie im Moment wird Nvidia sich kaum leisten können.
 
Das klingt nach ordentlich Leistung. Werde aber erstmal auf Grund der nicht vorhandenen Titel mit DX11 bei meiner GTX 285 bleiben. Dann kann ich schön den Preisverfall mitnehmen. Meine Karte verliert so stark an Wert bei erscheinen der neuen das die ruhig noch was rendern kann. Dann wenn ATI und NV sich preislich wieder kaputt machen werde ich zuschlagen. Hoffentlich gibt es dann schon DX11 Titel. Ansonsten soll DX11 ja abwärtskompatibel sein und gut ist

Die Leistung der Karte juckt mich nicht die Bohne. Ob die 440 Watt oder 550 Watt oder 320 Watt brauch ist mir sowas von latten. Das ist HIGHEND und fertig. Mein NT wird damit keine Probleme haben.

ICH WILL DIE KARTE HABEN!! Aber nicht um jeden Preis. Erstmal abwarten was kommt und dann schön den Preisverfall mitnehmen...
 
Zuletzt bearbeitet:
Eigentlich ist sowas genau das, was alle haben wollten. Der 200 ist ja mehr als ein Witz gewesen im Vergleich zum 80 und naja ich würde sagen 'NV baut eine Generation super, die andere nicht ganz mit etwas mehr Leistung und dann wieder eine mega geile Serie. Hoffenltich hält diese was die auch verspricht.
 
Mister79 schrieb:
Eigentlich ist sowas genau das, was alle haben wollten. Der 200 ist ja mehr als ein Witz gewesen im Vergleich zum 80 und naja ich würde sagen 'NV baut eine Generation super, die andere nicht ganz mit etwas mehr Leistung und dann wieder eine mega geile Serie. Hoffenltich hält diese was die auch verspricht.

Irgendwer hatte mal gesagt das man die ungeraden Generationen auslassen soll. Den G200 muss man als ungerade betrachten. Der G300 ist wieder eine gerade. Mal sehen ob die Weißheit bestätigt wird.

Edit: hab vergessen zu schreiben das die ungeraden schlechte Generationen sind. Deswegen sollte man die ausfallen lassen.
 
Zuletzt bearbeitet:
Wenn man genug Geld hat, muss man garnichts ausfallen lassen.

Und an die Milchmädchenrechnung will ich mal garnicht denken, die eben hier gelassen worden ist:

GTX280 - 220W
GTX380 - 440W

(Nur wegen doppelten Shadereinheiten)


Die GTX280 wurde noch in 65nm produziert.
Der GT300 wird in 40nm produziert. Zudem gabs jetzt schon endlos Gerüchte, dass Nvidia extremst an der Leistungsaufnahme gedreht haben soll beim 40nm Prozess.

Also ich würde im Bereich rund um 250W tippen. Beim 1. High End Model.
 
Hab in den letzen paar Wochen nicht mehr so viel darüber gelesen, aber vllt weiß es ja einer.
Greift beim GT300 nicht schon nVidias Plan mit GDDR5 und 256bit SI? Solange man keinen frisierten MC nimmt wie bei AMD, könnte man durch den GDDR5 nochmals bisschen Strom sparen, und ein wenig mehr Bandbreite schadet nie.

Allerdings ist mir unbegreiflich wie manche meinen können, doppelt so viel SP, doppelt so hoher Verbrauch...ja ne is klar.
 
aivazi schrieb:
die heutige GTX280 hat einen verbrauch von 220 watt mit 240 shadern wenn die graka dann 512 shader hat müsste sie einen verbrauch von 440 Watt haben..... wie soll man die abführen :D
Und ein Auto mit 120PS verbraucht nur halb so viel wie eins mit 240PS? Es spielen beim Verbrauch noch wesentlich mehr Dinge rein.

Mister79 schrieb:
Eigentlich ist sowas genau das, was alle haben wollten. Der 200 ist ja mehr als ein Witz gewesen im Vergleich zum 80 und naja ich würde sagen 'NV baut eine Generation super, die andere nicht ganz mit etwas mehr Leistung und dann wieder eine mega geile Serie. Hoffenltich hält diese was die auch verspricht.
Ich hatte mal ne Geforce FX5900. Das war gaaaaanz weit Weg von ner Super Generation. So ganz kann deine Theorie wohl nicht stimmen.

Hat Nvidia mal gesagt, ab wann sie GDDR5 verwenden wollen? Sonst muss das SI ja bald wirklich noch nen 1024er oder so werden^^
 
wobei man eine 280er locker unter 200Watt bekommt. Zumindest hats bei den von mir getunten Karten immer geklappt unter 1,06V zu gehen. Meine 280er macht 1,0V@Stock und 1,06V@700
 
warte schon auf die ersten bilder GT300 reihe auch wenn das noch dauern wird bin mal gespannt was da noch kommt:)
 
Daywalker1977 schrieb:
Meine Glaskugel sagt mir

GTX 380 512 Shader 384Bit 1920 MB Ram 4200 MHZ DDR5 211.200 GB/s Chip 650 Mhz Shader 1400 Mhz 40nm DX11

GTX 360 448 Shader 320Bit 1600MB Ram 4000 MHZ DDR5 160.000 GB/s Chip 600 Mhz Shader 1250 Mhz 40nm DX11
Dann ist deine Glaskugel kaputt. RAM-Bausteine gibts nur mit Größen von 2^x, also aktuell 64MB (512 MBit) bis 256MB (2 GBit). 1600 MB lässt sich weder mit 256MB noch mit 128MB zusammenstellen sondern höchstens mit 64MB und davon bräuchte man ganze 25 Stück. :rolleyes: Bedarf das eines weiteren Kommentars?
1920 MB sind mit 15x 128MB zwar denkbar, allerdings ist eine ungerade Anzahl Chips auch extrem ungewöhnlich, wüsste spontan nicht, obs das überhaupt schon mal gab.
Fazit: [hier Dieter Nuhr-Zitat einfügen]
 
Zuletzt bearbeitet:
Der Merc schrieb:
Das hört sich nur danach an, dass die Auslastung der Shader effizienter wird, also der Chip - angenommen er hätte gleich viel Rechenleistung wie der GT200 - etwas effizienter arbeiten würde.
Anders rum, die ALUs arbeiten weniger Effizient, weil sie zusätzliche Regeln unterworfen sind (SIMD eben). Bei AMD werkeln auch "800" ALUs, deren Peak-Kapazität allerdings nie erreicht wird (außer im Furmark olol). Dafür quetscht AMD allerdings in die Hälfte der Fläche die beinahe vierfache Anzahl an Recheneinheiten und ist damit schnell UND günstig unterwegs. Evtl. möchte Nvidia da auch hin.
 
Zuletzt bearbeitet:
@riDDi: Wieso sollte nV bewusst die Effizienz senken? Nur für ne höhere Rechenleistung in GPGPU Anwendungen?
 
Die max. Leistungsaufnahme wird wie bei den jetzigen Karten sein, da wird sich wohl nichts ändern. Das was durch die neue Technologie 40nm eingespart wird verbraucht die mehr Transistoren im gleichen Atemzug wieder. Alles Augenwischerei. Einzig stromspartechniken durch variable 2D und 3D Steuerung kann da was ändern, die max. Leistungsaufnahme wird aber gleich bleiben.
 
Ich glaube nicht, dass Nvidia auf 256Bit setzen wird. Man sollte bedenken, dass der GT300 mit dieses Specs mehr als doppelt so schnell wie der GT200 werden könnte. Mit 256Bit SI bräuchte man aber schon Speicher mit knapp 5Ghz um überhaupt mit der GTX285 gleichzuziehen. Gerade bei viel AA würde die hohe Shaderleistung einfach verpuffen, weil 256Bit zu wenig sind. Also ich tippe nach wie vor auf 512Bit und 2GB, oder alternativ wären noch 384Bit und 1,5GB VRAM denkbar.

Zu den Serien bei Nvidia: Die Geforce 6 und 8 waren relativ gut, das stimmt, aber imho war die 6 nur deswegen so gut, weil die 5 so grottenschlecht war. Das war keine Kunst die zu übertreffen. Und die Geforce 8 war so gut, weil es eine völlig neue Architektur war, die stabil hohe Leistung lieferte, während die Geforce 7 in vielen Spielen schwächelte und nach und nach an Boden verlor. Und weil ATI den R600 ziemlich daneben gesetzt hat und die 8800 deswegen lange Zeit völlig konkurrenzlos war.

Die GT200-Serie müsse außerdem gerade sein, weil es dazwischen die Geforce 9-Serie gab ... gut je nachdem, ob man die noch zur 8er Serie dazuzählt oder nicht. Von den Zahlenspielen halte ich jedenfalls nichts :D
 
weissbrot schrieb:
lol 512shader - klar :D

aber ich sag mal so: selbst bill gates hat mal gesagt: "Man wird nie mehr als 640kb Hauptspeicher brauchen"

Du weißt schon in welchem Zusammenhang Bill Gates dies sagte? ;)
Er meinte damit das DOS nie mehr als 640kb RAM brauchen würde.

Der DOS Kernel benötigt in der Tat keine 640kb RAM.
Erst mit GUI's wie Windows werden mehr benötigt.

Schöne falsche Welt.
 
r4yn3 schrieb:
@riDDi: Wieso sollte nV bewusst die Effizienz senken?
Um sehr teure, große, komplex anzusteuernde ALUs durch weniger komplexe, einfacher anzusteuernde Gruppen von ALUs zu ersetzen ;)
AMD baut konkurrenzfähige GPUs, die nur halb so groß sind und damit wesentlich günstiger in der Produktion.
 
Zurück
Oben