News Debüt von Nvidias „Kepler“ Ende März als „GeForce GTX 680“?

Herdware schrieb:
@boxleitnerb

Vielleicht heißt die GK110 auch nur so, weil die damit ausgerüsteten Karten schon der 700er-Generation zugeordnet werden. Und die 700er müssen möglichst bald kommen, damit man nummerntechnisch mit AMD gleichzieht. ;)
Außerdem hat man die High-End-Nummerierung in der 600er-Generation dann ja schon für eine Karte mit Performance-GPU verballert.

Wie einfach könnte die Welt sein, wenn es das Marketing nicht gäbe. :D
(Nicht dass AMD was das angeht besser wäre.)

Ich glaube, man hat gesehen, dass AMD die Messlatte nicht so hoch gelegt hat wie erwartet. GK104 sollte eigentlich mit Pitcairn/7800 konkurrieren und gewinnen, jetzt hat man gesehen, dass man an Tahiti herankommt. Weil man nicht durchgehend gewinnen kann (was man auch nie wollte), hat man hier den Namen 680 genommen, um nicht ganz nackt dazustehen.
Die Nummern sind ja egal, siehe 400 vs 5000, 500 vs 6000. Ich denke man hat GK110 sowieso erst im Sommer geplant, weil es macht keinen Sinn, einen so großen Chip so früh bei einem neuen Prozess zu bringen. Die interessante Frage ist hier, ob es einen GK114 geben wird oder ob umbenannt wird.
 
Vielleicht kann mir jemand mal gedanklich weiterhelfen, denn ich verstehe den Sinn des "Turbo Modes" bei einer Grafikkarte nicht so ganz:

Szenario1:

hohe Grafiklast, Karte rödelt am Anschlag, max. Boardpower liegt an, 35FPS (einfach mal eine Zahl)

Szenario2:

Grafiklast nimmt ab, Karte "hat Luft", nur 70% der max. Boardpower, Karte taktet hoch, statt (wieder als Zahlenbeispiel) 60FPS kommen 75FPS


Das erhöht mir zwar am Ende sicherlich die durchschnittlichen FPS einer Benchmark-Sequenz (für die Diagramm-Balken in Reviews prima), aber in den High-Load-Situationen, wo mir evtl. jeder FPS helfen würde, bringt mir das nichts, da die Karte bei max. Boardpower bei Standardfrequenzen arbeitet.
Dafür steigt in Summe der Stromverbrauch an, da die Karte häufiger die volle Leistung zieht.

Oder versteh ich da etwas falsch? :confused_alt:

Gruß, Flox
 
Die Karte besteht aber aus unterschiedlichen Bereichen (TMUs, ROPs, Shader). Man kann sich sicherlich vorstellen, dass diese Bereiche nie alle gleich stark ausgelastet werden, sogar untereinander: Shadercluster 1 läuft volle Pulle, Shadercluster 2 wartet auf Daten.

Angenommen du hast eine Szene, in der alle oder die meisten Shader auf Anschlag laufen, die TMUs aber nicht. Die Karte taktet die Shader hoch, die TMUs runter -> mehr fps bei gleichem Verbrauch. Hohe Last muss ja nicht heißen, dass die ganze Karte am Anschlag läuft, sondern nur Bereiche der Karte. Stell es dir so vor, dass du den kritischen Pfad, also alle Einheiten, deren Beschleunigung zu mehr fps führen würde, selektiv schneller machst.
So verstehe ich es zumindest.
 
@ boxleitnerb
GK104 sollte eigentlich mit Pitcairn/7800 konkurrieren und gewinnen
macht er ja vermutlich auch, die 7870 ist ja verhältnismäßig stark!

Weil man nicht durchgehend gewinnen kann (was man auch nie wollte)
Unsinn, man will immer gewinnen in jeder Leistungsklasse! Was soll das denn für eine Einstellung sein - wir bauen jetzt mal eine Graka, die die obere Mittelklasse abdecken soll - aber langsamer als die Konkurrenz sein soll? - So denkt niemand!

Die Nummern sind ja egal, siehe 400 vs 5000, 500 vs 6000.
Die Nummern sind nicht egal, sonst hätte man ja die Reihenfolge GTX 3/4/5/6 (ich weiß, teilweise nur OEM oder umgelabelt - aber in Reihenfolge) auch komplett auslassen können und eine Graka auch mal z. B. HyperMega nennen können!

Ich denke man hat GK110 sowieso erst im Sommer geplant, weil es macht keinen Sinn, einen so großen Chip so früh bei einem neuen Prozess zu bringen.
Ich denke man hat sie für Ende letzten Jahres geplant, konnte aber aus irgendwelchen technischen Gründen den Termin nicht halten! Zum einen weil es meist im letzten Quartal was neues gab und sie, wenn ich mich recht erinnere, da auch ursprünglich avisiert war! Zum anderen ist es schlicht wirtschaftlich auch unklug, den Konkurrenten so lange das Feld zu überlassen! Und ich unterstelle keiner Firma solch grobe Fehler!
Gedanken, Gedanken, ob wir je erfahren werden wer richtig liegt.......?...
 
boxleitnerb schrieb:
Stell es dir so vor, dass du den kritischen Pfad, also alle Einheiten, deren Beschleunigung zu mehr fps führen würde, selektiv schneller machst.

Okay, wenn das tatsächlich so wäre, dann sähe ich den Sinn dahinter.

War der Meinung, dass "lediglich" der Chiptakt und alle daran gekoppelten Takte in gleichem Maße verändert würden.

Danke + Gruß,

Flox
 
ich denke nvidia hat viele kunde durch dieses hervorschieben verloren wie mich z.B :D
wäre die nvidia ende jan. oder mitt feb. rausgekommen oder zumindest bestätigt wann es genau rauskommt hätte ich auch zu nvidia gegriffen. ich hatte die 6970 und war überhaupt nicht zufrieden und hab ein richtigen hals auf amd gehabt.

aber jetzt habe ich meine 7950 und bin vollstens zufrieden :D und amd hat meine schwer verdientes geld bekommen :D

pech für nvidia :-P
 
da steht doh:
NV GTX680 für 600,-€ ist um 10% schneller als die AMD HD7850!
mit 40% mehr Stromverbrauch und
60% besseren Turbogeräusch! = Kopfhörer aufsetzten ist angesagt.
SUPER!
 
Lars_SHG schrieb:
@ boxleitnerb

macht er ja vermutlich auch, die 7870 ist ja verhältnismäßig stark!

40% flotter als der Vorgänger, naja.

Lars_SHG schrieb:
Unsinn, man will immer gewinnen in jeder Leistungsklasse! Was soll das denn für eine Einstellung sein - wir bauen jetzt mal eine Graka, die die obere Mittelklasse abdecken soll - aber langsamer als die Konkurrenz sein soll? - So denkt niemand!

Du vergisst, dass sich die Leistungsklassen von AMD und Nvidia nicht unbedingt direkt gegenüberstehen, sie können auch leicht gegeneinander verschoben sein. Nvidia wollte z.B. mit der 560Ti nie gegen die 6950 oder 6970 gewinnen - dafür gab es GF110 in Form der 570/580. Wenn man mit GK104 gegen AMDs schnellste Chips gewinnen wollte, wäre GK110 komplett unnötig für den Desktop. Da man aber mit Teslas und Quadros alleine keinen Break-Even-Point erreicht, muss man die Karten auch auf dem Desktop verkaufen.
Schon daher ist eigentlich klar, dass immer ein großer Chip für den Desktop kommt und dieser als Tahiti-Gegner gedacht ist/war. Mit GK104 wollten sie nie gegen Tahiti antreten. Jetzt da sie merken, dass sie so nah sind und ihre Strategie geändert haben, versuchen sie es natürlich. Wir werden das mit dem Turbo und Cherrypicking sehen, da kannst du dich drauf verlassen.

Lars_SHG schrieb:
Die Nummern sind nicht egal, sonst hätte man ja die Reihenfolge GTX 3/4/5/6 (ich weiß, teilweise nur OEM oder umgelabelt - aber in Reihenfolge) auch komplett auslassen können und eine Graka auch mal z. B. HyperMega nennen können!

Offenbar sind sie doch egal, sonst hätte Nvidia die 480 gleich 580 genannt. Nvidia wird die 700er Serie nicht so nennen, um mit AMD beim Namen gleichzuziehen, das ist Quark. Sie nennen sie so, weil GK11x vermutlich doch einige Unterschiede zu GK10x aufweisen wird. Keine x80 zu bringen, wäre komisch, deshalb nennt man jetzt GK104 wohl 680, und darüber bleibt ja nicht mehr viel übrig, ohne dass es ein Gewurstel gibt.

Lars_SHG schrieb:
Ich denke man hat sie für Ende letzten Jahres geplant, konnte aber aus irgendwelchen technischen Gründen den Termin nicht halten! Zum einen weil es meist im letzten Quartal was neues gab und sie, wenn ich mich recht erinnere, da auch ursprünglich avisiert war! Zum anderen ist es schlicht wirtschaftlich auch unklug, den Konkurrenten so lange das Feld zu überlassen! Und ich unterstelle keiner Firma solch grobe Fehler!
Gedanken, Gedanken, ob wir je erfahren werden wer richtig liegt.......?...

Nein. Das ist völlig unlogisch. Kein IHV plant einen 500+mm2 Chip so früh im Zyklus eines neuen Prozesses. Die ganze Keplerriege war für einen früheren Zeitpunkt geplant, aber man hat schon früh gesehen, dass die Kapazität und die Prozessqualität nicht ausreichen. Es macht auch wirtschaftlich keinen Sinn, große Chips herzustellen, von denen man die meisten wegschmeißen kann, zumal das große Ziel mit Kepler war, im Mobilsegment Marktanteile zurückzuerobern (daher auch der Fokus auf Perf/W) und das macht man eben mit kleinen Chips, die haben Priorität. Nvidia hat AMD für schlappe 2 Monate das Feld überlassen. 2 Monate, in denen AMD nicht gerade Millionen Chips abgesetzt hat, zumal die völlig überteuert sind und nur die Unvernünftigen oder Ungeduldigen zugegriffen haben. Das war jetzt wirklich kein Schaden. Zumal es bei so langen Produktzyklen illusorisch ist zu glauben, dass zwei Konkurrenten innerhalb einer Woche ihre Produkte launchen. Da wird viel viel langfristiger gedacht.
 
Zuletzt bearbeitet:
boxleitnerb schrieb:
Ich glaube, man hat gesehen, dass AMD die Messlatte nicht so hoch gelegt hat wie erwartet. GK104 sollte eigentlich mit Pitcairn/7800 konkurrieren und gewinnen, jetzt hat man gesehen, dass man an Tahiti herankommt. Weil man nicht durchgehend gewinnen kann (was man auch nie wollte), hat man hier den Namen 680 genommen, um nicht ganz nackt dazustehen.

Was soll dieses Gerede von "Gewinnen"?
Die Hersteller "Gewinnen" dann, wenn sie für ihre Produkte einen möglichst hohen Gewinn einfahren.
AMD könnte bspw einen doppelten Pitcairn bringen (der dürfte dann ~400mm² groß sein) und läge mutmaßlich noch <300W TDP! Ob sich solch ein Chip wirtschaftlich rechnen würde steht auf einem anderen Blatt.

GK104 muß ja erst mal zeigen, was er wirklich zu Leisten im Stande ist.
Bis jetzt hat man nur die fragwürdige Aussage von Nvidia, dass man in BF3 angeblich schneller, in 3dMark11 jedoch langsamer als Tahiti sei.
Auch gut möglich, dass man overall sich performancemäßig schwertut durchweg über Pitcairn zu liegen.

Wie es mit der Leistungsaufnahme aussieht steht ja auch noch in den Sternen. Einzige offizielle Aussage von Nvidia ist ja, dass man deutlich bessere Perf/W bezogen auf die DP Leistung liefern will, wie beim Vorgänger (dessen DP Leistung nur ~1/5 von Tahiti beträgt).
Zumindest der Turbo stimmt mich bzgl Leistungsaufnahme eher pessimistisch.
 
Zuletzt bearbeitet:
@DerKleine49

nimm den Mund nicht zu voll, wetten dass du Unrecht behalten wirst? :P

@summer46

meiner Ansicht nach is der der wegen 3 Monaten ein konkurrenzloses Produkt kauft selber schuld. Man kann nur für dich hoffen dass du dir nicht in ner Woche bzw Monat in den A beißen musst :D

@ Turbo

Max Boardpower festzulegen bedeutet natürlich bei Lastsituationen eine Limitierung.
Diese festzulegen macht nur bei Auto OC Sinn.

Wichtiger ist die Framerate, fix auf 30hz zB bei Strategiespielen (bei Ego sind 60 hz ok).

Auch das ist ja nur ein Limit, drunter dürfen sie liegen aber die Karte verbrät nicht unnütz Saft für 100 FPS bei Strategiespielen nur weil sie es kann.

Edit:


@Athlonscout

seh mal weniger den Turbo, seh eher das Sinnvolle in der FameLimiter Geschichte.

Statt nur Vollgas und Standgas gibt es nun auch Halbgas.

Der Turbo zieht ja "nur" wenn ich gezielt sage, dass die Karte sich wie ne OC Karte verhalten darf. Wenn ich also zb n eigenen guten Kühler draufpappe kann ich direkt sagen das das Limit statt 220W 260W ist. Ist doch nice.

Ich seh das Ganze überaus innovativ, vor allem ersteres. Dazu muss man aber nicht Performance/W betrachten, sondern zB Leistungsaufnahme über Zeit t.
 
Zuletzt bearbeitet:
dominiczeth schrieb:
:D Naja vllt bisschen Euphorisch gesagt aber war schon Hammer ;)

WIe dem auch sei: Ist alles noch inoffiziell und mit Vorsicht zu genießen. Ich freu mich trotzdem auf Kepler denn meine 480er gibt langsam den Geist auf :(

Edit: Ihr seid bloß neidisch :D:D:D:D;)

bin ich nicht, weil das ganze nur ne billige werbeaktion für nv ist und mehr net ...

oder meinste, die verraten DIR als fb-dulli auch nur irgendwas zu internen geschichten ?! ich denke nicht :D

schön dennoch, dass es dir spaß gemacht hat :)
 
Das wirklich interessante an der News ist, wie ich finde, daß es NV wiedereinmal gelungen ist, eine namhafte Größe der Spieleentwickler mit in's Boot zu holen. Das ist genau das Quäntchen, was man AMD immer wieder vorraus hat, obwohl die Karten nicht immer, zwingend besser sind. Cleveres Marketing ist die halbe Miete...
 
@Krautmaster

Über den Turbo und dessen Umsetzung, sprich wie er arbeitet und wie und wann eine Limitierung eintritt ist doch noch überhaupt nichts bekannt.

Ich befürchte eher, dass die Leistung genau dann nicht zur Verfügung steht, wenn man sie am dringensten gebrauchen könnte.
 
Athlonscout schrieb:
Was soll dieses Gerede von "Gewinnen"?
Die Hersteller "Gewinnen" dann, wenn sie für ihre Produkte einen möglichst hohen Gewinn einfahren.
AMD könnte bspw einen doppelten Pitcairn bringen (der dürfte dann ~400mm² groß sein) und läge mutmaßlich noch <300W TDP! Ob sich solch ein Chip wirtschaftlich rechnen würde steht auf einem anderen Blatt.

GK104 muß ja erst mal zeigen, was er wirklich zu Leisten im Stande ist.
Bis jetzt hat man nur die fragwürdige Aussage von Nvidia, dass man in BF3 angeblich schneller, in 3dMark11 jedoch langsamer als Tahiti sei.
Auch gut möglich, dass man overall sich performancemäßig schwertut durchweg über Pitcairn zu liegen.

Wie es mit der Leistungsaufnahme aussieht steht ja auch noch in den Sternen. Einzige offizielle Aussage von Nvidia ist ja, dass man deutlich bessere Perf/W bezogen auf die DP Leistung liefern will, wie beim Vorgänger (dessen DP Leistung nur ~1/5 von Tahiti beträgt).
Zumindest der Turbo stimmt mich bzgl Leistungsaufnahme eher pessimistisch.

Lars hat schon Recht, wenn er sagt, man will gewinnen. Wichtigster Punkt bei einer Grafikkarte ist die Performance. Die Kunden kaufen idR das schnellere Produkt (so sollte es jedenfalls sein...). Man wird kaum freiwillig ein Produkt gegen die Konkurrenz platzieren, das langsamer ist. Als Tahiti gelauncht ist, war es aber natürlich zu spät, an den Chips was zu ändern, d.h. für Nvidia war das eine unerwartete Situation. GK110 ist vermutlich viel schneller als Tahiti XT, GK104 aber nicht schnell genug. Das passiert, wenn sich die tatsächliche Leistung mal eben um 10-20% höher oder niedriger als erwartet herausstellt. Dann muss man improvisieren und seine Produkte neu anordnen. Ich bin ziemlich sicher, dass GK104 alleine aus diesem Grund 680 heißt.
 
Dass die GTX680 in realen Spielen gewinnt und in synthetischen Benchmakrs verliert, könnte unter anderem auch am Turbo-Modus liegen.

Ein Benchmark lastet die GPU die ganze Zeit möglichst konstant zu 100% aus. Da hätte der Turbo kaum Gelegenheit zu greifen. (Praktisch nur in den ersten Sekunden.)

In einem realen Spiel tritt die Spitzenlast aber immer nur in bestimmten Szenen auf, z.B. wenn der Spieler gerade über eine weite Landschaft mit vielen Details schaut oder überall Explosionen sind usw. In solchen Situationen geht die Framerate runter, weil die GPU am Anschlag ist und wenn der Kepler-Turbo gut implementiert ist, wird er genau dann zuschlagen.

Das könnte ähnlich ablaufen wie beim Turbo Boost 2.0 von Intels Sandy Bridge-CPUs. Also für bis zu 30 Sekungen über die TDP hinaus übertakten, solange, bis das als zu starke Temperaturerhöhung durchschlägt.

Dazwischen gibt es dann immer wieder längere Abschnitte, wo die GPU kaum gefordert wird und sich wieder abkühlen kann.

Wenn die GTX680 also in kritischen Spiel-Szene alle paar Minuten für 30 Sekunden automatisch um z.B. 10% übertaktet und so speziell die minimalen Framraten hoch treibt, wäre das schon ein ziemlich geniales Feature. Das würde das Spielerlebnis stärker positiv beeinflussen, als es sich in den Durschnitts-FPS widerspiegelt.
 
Seit der GTX 480 traue ich keinem Mensch von Nvidia der eine Karte auf einer Messe hält.
 
@ Athlonscout


Nimm Anno zB. Wer braucht da konstant 60 FPS?

https://www.computerbase.de/2012-03/test-amd-radeon-hd-7870-und-hd-7850/23/#abschnitt_anno_2070

60FPS für die HD7970 - cool oder. Nur wer braucht das in dem Game?

Wären 35FPS bei halber Leistungsaufnahme nicht sinnvoller? Da sparste 5x mehr Saft ein als durch das lächerliche Zero Power Core.

Ich stelle mir das Drosseln bei wenig Last relativ einfach vor. Und wieso sollte das nicht funktionieren? Und Turbo auf GPU geht doch schon heute bei Llano und Intel iGPUs.

Macht du dir da auch so Sorgen?

Bisher ist es ja eh noch sehr schwammig, auch dieser halbfertige Screenshot ist eher... naja. Vllt wissen wir am 12. mehr, dennoch halte ich beide Dinge, sowohl Turbo / FameLimiter als für 10x sinnvoller als zB Zero Power Core.
 
Freue mich schon sehr auf die neue nVidia Generation, genau so sehr, bin momentan noch unentschlossen, welche Grafikkarte ich mir als näcshets gönne, deshalb werde ich sehr aufmerksam den bald folgenden Test lesen :)

Sollte es sich tatsächlich um die GTX 680 handeln, und diese 10% vor AMDs Flagschiff sein, so kann ich nVidia's damalige Aussage "Wir hatten mehr von AMD erwartet" nicht verstehen, 10% sind nicht die Welt, vor allem, wenn man bedenkt, dass AMD einige Monate fertig war.
 
boxleitnerb schrieb:
Lars hat schon Recht, wenn er sagt, man will gewinnen. Wichtigster Punkt bei einer Grafikkarte ist die Performance. Die Kunden kaufen idR das schnellere Produkt (so sollte es jedenfalls sein...).

Lars nimmt ja nur deine fragwürdige Ausdrucksweise auf!

Wichtigster Punkt bei einer Grafikkarte ist aus Sicht der Hersteller eben nicht die absolute Performance, sondern den möglichst hohen wirtschaftlichen Gewinn (also Einnahmen - Ausgaben), den man mit den Produkten machen kann.

Aus Kundensicht ist das P/L Verhältnis auch viel wichtiger als die reine Performance. Die Ich zitiere hierzu mal CB bzgl der Verkaufszahlen:
Auf das Jahr umgerechnet wurden so gut 68 Millionen Einheiten abgesetzt, davon entfallen lediglich etwa 3 Millionen Exemplare auf das Enthusiasten-Segment, in dem Grafikkarten jenseits der 300-US-Dollar-Marke angesiedelt sind.
Man sieht also, dass Grafikkarten >300$ (Marktanteil <5%) kaum an den Mann zu bringen sind!
 
boxleitnerb schrieb:
Das passiert, wenn sich die tatsächliche Leistung mal eben um 10-20% höher oder niedriger als erwartet herausstellt. Dann muss man improvisieren und seine Produkte neu anordnen. Ich bin ziemlich sicher, dass GK104 alleine aus diesem Grund 680 heißt.

Das hatte ich mir auch schon überlegt.

Ich denke ursprünglich sollte die Karte 670 TI heißen , dabei gegen die HD78XX antreten.

Beim GK110 wollte man die HD79XX Serie überbieten, hatte aber weniger damit gerechnet, dass der Abstand zum GK110 so groß ausfallen würde und selbst der GK104 für diese Aufgabe ausreicht (ist ja auch von den Technischen Daten her ähnlicher, der GK110 spielt da ganz andere Liga).
(vllt is der GK110 auch schon fertig, nur eben nicht nötig)

Wenn der GK104 also locker mit Tahiti mithalten kann, wärs verständlich das Produkt GTX 680 zu nennen, wobei 670TI auch einen psychologischen Effekt hätte nach dem Motto "Unsere Performance karte schlägt das Gegnerische Topmodell) ;)

Dann könnte man den GK110 nachschieben, wenn nötig. Also eher bei Tenerife oder einer High OC Tahiti wie HD7980 XT.
 
Zuletzt bearbeitet:
Zurück
Oben