News Nvidias GK104-„Kepler“-GPU vermessen

Hab ich nur das Gefühl oder ist die PC-Welt gerade nicht so toll?
Bulldozer failed, Piledriver lässt auf sich warten, Intel faked iGPU-Leistung und kommt mit 22nm nicht in die Pötte, GlobalFoundries kriegt es nichtmal hin 32nm ordentlich zu produzieren, TSMC wächst der Andrang übern Kopf für 28nm und nurnoch 2 nennenswerte HDD-Hersteller die nun fett an der Thailand-Flut verdienen und AMD/NVidia haben das Performance-Segment wohl auch um eine Preisklasse nach oben gehievt....

Vor nem Jahr war GEEK sein irgendwie cooler:freak:
 
Booby schrieb:
@Krautmaster

Ein 50% breiteres SI kann man nicht mit höherem Takt ausgleichen, die HD7970 hat einen Speichertakt von 2750MHz um das mit einem 256-bit SI zu erreichen muss man ihn bei knapp 4200MHz betreiben -> unmöglich!
Deine 3000MHz am 256 bit SI würden 2000 MHz auf 384- bit entsprechen, betreibe die HD7970 mal damit...

versuch es.... Wetten, dass die HD7970 @ default GPU Clock und 2000 Mhz GDDR5 vllt 1-2 % langsamer ist als mit RAM @ 2750 Mhz?

Bei den CB Tests wurde die GPU ja bereits auf 1100 Mhz gefahren. Und selbst da limitiert das SI nicht da es so gut wie 0 Unterschied macht ob 2750 Mhz Mem oder 3100 Mhz.
bei 900 Mhz GPU wären das 2250 Mhz zu 2537 Mhz.

Zu 2000 Mhz @ 386 Bit -> oder 3000 Mhz @ 256 Bit ist da nicht mehr all zu viel Unterschied. Die Einbußen dürften max 3% betragen zu 384 Bit, Nvidia hat sich klar für den kleineren "leichteren" Chip entschieden. Die 3% macht man eher durch höhere CoreLeistung weg.
 
Zuletzt bearbeitet:
Um was willst du wetten?
Ich setze alles was ich habe.
Todsicheres Ding!

Denn wenn es so wäre, hätte AMD kein 256-bit SI verbaut ;)
 
Sieht ja übel nach einem MSPaint-Fake aus!

Schade, dass sich CB immer wieder dazu verleiten lässt solch einen Crap in eine News zu verpacken!

Krautmaster schrieb:
versuch es. Wetten dass die HD7970 @ default GPU Clock und 2000 Mhz GDDR5 vllt 1 % langsamer ist als mit RAM @ 2750 Mhz?

Die Wette verlierst du haushoch!

CB hat ja ein 256bit SI simuliert (VRAM auf 1840 MHz). Das mündet in einem Performanceverlust von bis zu ~25%!

Schade, dass du das nicht in Erinnerung hast, hast du den Launchtest etwa nicht ausgiebig studiert?:freaky:
 
Zuletzt bearbeitet:
https://www.computerbase.de/artikel...0-test.1667/seite-21#abschnitt_taktskalierung

daran hab ich mich jetzt orientiert ;) die oben verlinkte Seite hatte ich nicht gesehen + nicht mehr im Kopf, da sieht mans natürlich besser + vor allem auch größere Einbußen..

Well, 1840 Mhz sind ja nochmal ne Ecke niedriger und die Einbußen liegen wohl öfters im Rahmen um 5-15% bei wie gesagt 2560x1600...

Nvidia wird auch nicht doof sein. Imho geht ja schon der Mem der HD7970 auf 3100Mhz zu takten. Das entspräche bei 386 Bit dann immerhin 2066 Mhz also gut 200 Mhz mehr als im Test.

Kommt auch auf die Latenz an. Naja wird sich zeigen ;)

Könnte durchwachsen werden, eventuell genau deshalb. Ich denke man hat sich für etwas mehr Chiptakt entschieden.

Bedeutet aber auch, dass die HD7970 hier sehr ausgeglichen ist und auch mehr Performance Gewinn durch OC zu erwarten hat.

Edit:

Ist die Frage wie Nvidia mit dieser Thematik umgeht. Ich denke das generelle Ram Handling spielt auch ne Rolle. Ich denke soviel traue ich den NV Ingenieuren schon zu, die werden auch abgewogen haben 256 Bit oder 386 Bit, und wollten wohl eher den kleineren Chip das einfachere Board-Layout um Kosten zu senken. Effektiver dürfte es auch sein.
So wie ich das sehe gibt es auch schon 7 Ghz GDDR5. Der wäre dann wohl auch fast nötig.
 
Zuletzt bearbeitet:
Bezüglich der Speicherthematik. Grillt nicht bereits ein leicher erhöhter Speichertakt bei der HD 7970 die Speicherchips über kurz oder lang?
Wie kann dann Nvidia nochmal umso viel mehr Speichertakt fahren?
 
Zuletzt bearbeitet:
Die Autovergleiche hier sind immer wieder köstlich :D

Ich bin relativ gespannt auf nVidias neue Karten. Dürfte ein schöner "Kampf der Giganten" werden. ;)
Und der Kunde könnte dabei natürlich auch gewinnen. (Preiskampf)
 
Ich persönlich würde es schade finden, würden AMD und Nvidia "nur" ihre 300-350mm² Chips, also die gehobene Performanceklasse bringen, weil einfach nicht mehr nötig ist, sich jedoch diese Klasse als Highend zu bezahlen lassen.
Und dann später im Herbst/Winter die Highendmodelle GK110 sowieo AMD Penadat als "neue" Grafiksereie zu bringen, nur um dann nochmal Highend abzukassieren.
Wäre nicht gut für die Kunden :/
 
Zuletzt bearbeitet:
AMD hat seit 5 Jahren keinen großen Chip mehr gebracht, ich bezweifle dass sich das ändern wird. Und anscheinend verabschiedet sich auch nVidia davon. Man munkelt GK110 soll rein auf Tesla orientiert sein.
 
Was wiederum sehr für GTX680 beim GK104 sprechen würde, dass einfach nix wirklich größeres kommt, außer ein Monster in Form von GTX690.
Soll mir recht sein, dennoch bezweifle ich das der günstig zu produzierende Chip günstig am Verbraucher ankommt.
 
Zumindest ungewohnt für Highend. Aber sehe das ähnlich wie Krautmaster, die Nvidia Ingenieure werden sich (hoffentlich) was dabei gedacht haben.
Umso mehr macht mich Kepler Tag für Tag neugieriger :) aber sofern ein Performance/W Niveau wie Tahiti erreicht wird, bin ich zufrieden.
 
Niemand hindert nvidia daran GK110 auf eine GTX 780 zu setzen. Generationen kommen und gehen heutzutage.
Für den echten High-End Markt gibt es erstmal nur MGPU Müll in Form des Dual GK104 auf der GTX 690 zu noch überzogeneren Mondpreisen.

Die nächsten Monate verlangt man lässig viel zu hohe Preise, weil man wie AMD einfach wieder nicht abwarten konnte bis die Fertigung funktioniert. In den Augen vieler ist man nichtmal schuld, sondern TSMC. Als ob Fertigungen in der Vergangenheit sofort richtig gelaufen wären...
Nein, stattdessen wird gejammert wann die Konkurrenz endlich auch die unfertige Fertigung mit zu geringen Kapazitäten nutzt.

29xmm² ist man übrigens deutlich größer als Pitcairn, der bereits Tahiti sehr nahe kommt. Ja trotz weniger Recheneinheiten, einem Bruchteil der Bandbreite.
Ausgehend davon, das in GK104 weniger HPC Zeug vergeudet wird, das SI deutlich Platz spart, ist das Ding locker auf Höhe mit Tahiti, nicht nur preislich.
 
Athlonscout schrieb:
Sieht ja übel nach einem MSPaint-Fake aus!

Schade, dass sich CB immer wieder dazu verleiten lässt solch einen Crap in eine News zu verpacken!

Dann warte mal ein wenig und dann kramen wir das Posting nochmal aus^^
Zumal das ja jetzt ergänzend dazu kommt: http://www.overclock.net/t/1225986/...-arrives-this-month-etc-etc/400#post_16691060

Es wird jetzt wie bei der GTX 580: Vermutete Zwei Wochen vor dem Launch und nach einem Hersteller-Event brechen dann doch die Dämme, nachdem es vorher ja quasi nichts gab und auch nichts gestimmt hat. Denn wer hatte 550 Dollar und 190 Watt auf der Rechnung? Für einen PErformance-Chip 550 Dollar - das gab es eine Weile nicht, wenn High-End erst noch kommen soll. Und Taktraten gibt es es immer nicht! Also die Gerüchteküche vorab bei der Karte war echt mies und hat quasi nix getroffen. Spricht für Nvidia und das NDA durchdrücken - es geht, wenn man es als Hersteller will.
 
Volker machts mal wieder spannender als es ohnehin schon ist :evillol:
 
Volker schrieb:
Dann warte mal ein wenig und dann kramen wir das Posting nochmal aus^^

Ich erinnere mich an einige Postings von dir, bei denen du einige Wochen vor Launch so mancher Graka kräftig danebenlagst.;)

Lassen wir uns überraschen, ob du diesmal mit dieser News in Schwarze getroffen hast!
 
DIE um 300mm² + 190W TDP + 2x6 Pin würde passen, 2x 6 Pin würde ja schon gut zu den bisherigen geleaken Fotos passen.

Damit wäre der Chip sparsamer als erwartet, aber ich denke auch die Leistung wird demnach unter HD7970 Niveau anzusiedeln sein ... je nach dem wie viel Chip Takt wir sehen.

Allerdings wäre es wirklich untypisch für NV die Leistung darunter anzusetzen und ich denke~1000 Mhz Chiptakt wären auch bei 190W TDP drin, bei der DIE Größe und geringeren Spannungen als bei der HD7970.

Zumindest aber die OC Karten könnten bei AMD wiederum vorne liegen, und auch besser mit Takt skalieren.

Teilweise hat man das Gefühl beide Parteien stimmen sich ab um nun hohe Preise zu puschen.

Mal sehn ob der Kerl im Forum mit dem 22. Recht behält. Scheinbar fokussiert sich alles um den 22./23. März.
 
Wie kann dann Nvidia nochmal umso viel mehr Speichertakt fahren?
Weil NV wohl vorerst nur 2GB Karten anbieten, daraus resultiert eine erheblich geringere Speicherdichte pro Chip, die lassen sich dann meistens wesentlich besser takten. Könnte sogar ausreichen damit das 256SI nicht übermäßig limitiert. Bei einer HD 7900 ist auch üppig Vram Durchsatz vorhanden, merkt man wenn man den Vram OC und man eher weniger Leistung bekommt. Ergo ist ein 256SI bei Kepler nicht unbedingt das KO Argument.

Irgend wie kommt mir das alles ein wenig verdreht vor, seit wann baut NV 256SI Karten die extrem auf Performance per Watt ausgelegt sind? Wo bleibt der Klopper der dann AMD wegfegt und nicht nur einholt? Der Klopper kann dann ruhig auch eine gute Performance per Watt haben, aber mit so wenig TDP hätte ich bei NV nicht gerechnet, wahrscheinlich verspätet sich der Kopper nur...
 
Unyu schrieb:
29xmm² ist man übrigens deutlich größer als Pitcairn, der bereits Tahiti sehr nahe kommt. Ja trotz weniger Recheneinheiten, einem Bruchteil der Bandbreite.
Ausgehend davon, das in GK104 weniger HPC Zeug vergeudet wird, das SI deutlich Platz spart, ist das Ding locker auf Höhe mit Tahiti, nicht nur preislich.

Pitcairn ist auch ziemlich ausgewogen, viel mehr geht mit diesem SI nicht. Das SI hat kaum Auswirkung auf die Chipgröße, das meiste machen die komplexeren Boards aus.

Die GTX680 wird wohl wie die 9800GTX, die war in Extremen Auflösungen hinter der 8800GTX und 8800 Ultra.

Weil NV wohl vorerst nur 2GB Karten anbieten, daraus resultiert eine erheblich geringere Speicherdichte pro Chip, die lassen sich dann meistens wesentlich besser takten.

Hat bei Pitcairn keine Auswirkungen gehabt!
 
Zuletzt bearbeitet:
@Kasmopaya

ich glaube der Klopper ist bei dem frischen Prozess Stand heute einfach unwirtschaftlich und da Tahiti relativ human vorgelegt hat (niedrige Default Clocks, kein Monsterchip), dabei aber hohe Preise fährt, springt Nvidia wohl auf diesen Zug auf - nach dem Motto "28nm können wir auch noch später voll ausfahren"

Imho bleibt uns dieser Prozess sicher noch 2-3 Jahre erhalten bis zum nächsten Shrink.
Es wäre irgendwie unklug jetzt de GK110 am Limit des Takts und des Prozesses zu bringen, diesen könnte man nur noch geringfügig bis zum nächsten Shrink verbessern / optimieren, abh. von Fortschritten in der Fertigung.
Man will wohl noch öfters diesen "Wow Effekt" mit Topmodell verkaufen (am besten wieder für 500€ +), man spart sich also den GK110 auf.

Mag sein dass er sich auch etwas verspätet und die Yields noch nicht mitspielen, ich denke aber das Nvidia, wenn sie wöllten, diesen auch schon vor August bringen könnten... wird aber wohl eher auf Nächste Generation herauslaufen, eventuell sogar 2013 wenn nun GTX680 vorlegt und AMD nicht nachzieht, Preise hoch hält und nur noch kleine Karten nachgeschoben werden.

Dann wäre auch an den alten GTX 780 Gerüchten für den GK110 was wahres dran, und Q4 2012 / Q1 2013 stand auch schon mal im Raum.
 
Zuletzt bearbeitet:
Zurück
Oben