News GeForce GTX 980: Erste 3DMark-Ergebnisse der neuen High-End-Grafikkarte

Naja, wenn zu viele Leute Gebrauchte GKen kaufen würden, wärs auch relativ fatal für AMD/Nvidia ^^ Bei geringerem Umsatz, bleibt auch wenig für R&D übrig ;p
 
Der einzigste Grund warum alle meckern, ist Nvidias heimlich geändertes Namensschema seit der GTX600 Generation. Der GK104 war als Midrange und gehobene Mittelklasse gedacht. Der GK104 Vollausbau sollte eigentlich als GTX 670 Ti auf den Markt kommen (In frühen betatreibern aus dem jahr 2012 kann man das gut sehen). Dazu die abgespeckten versionen bis wahrscheinlich hin zu der GTX660.

Aber die technische Überlegenheit zu Tahiti, die Einstellung des GK100 und die lange Produktionszeit und anfänglich niedrige Yield-Rate des GK110 haben Nvidia einfach dazu bewogen, den GK104 als High End Karte zu vermarkten, obwohl der in vielen Punkten dem GF114 ähnelt.

Wäre man bei der alten namensgebung geblieben und wäre der GK110 früher in ausreichender Stückzahl verfügbar gewesen, würden die leute den GM104 jetzt nicht mit dem GK110 vergleichen, denn dann würden wir hier über den nachgfolger der GTX670 etc. erzählen und hätten plötzlich einen riesigen leistungssprung.

Seit kepler vermarktet Nvidia die Mittelklasse Modelle ziemlich schlau und macht riesen gewinne. Man schaue sich nur den Startpreis der GTX680 an. Bei nichtmal dem halben Preis macht nvidia jetzt mit der 770 ordentlich Kohle und das trotz teurerem Speichers. Man sollte sich einfach abgewöhnen auf den trivialen Grafikkartennamen zu achten, sondern einfach nur auf den Namen des Grafikchips! Denn die sind halbwegs eindeutig.... je kleiner die letzte Zahl im Namen, desto schneller der Chip.... mit den ganzen Kartenvarianten wollen die hersteller nur verwirren. Mir würde es völlig ausreichen, wenn es pro Generation nur 5 Grafikkarten gibt... so gibt es 50 und sie unterscheiden sich zum jeweils anderem modell nur um ein paar % Leistung und ein paar Euro im Preis.... keiner braucht eine GTX Titan Z Ultra Ti Black
 
Slowz schrieb:
Also das musst du erklären :D

Naja das ist was, das ich habe kommen sehen seit bekannt wurde, dass Apple vermutlich von Samsung als Auftragsfertiger zu TSMC wechseln wird. Das Problem dabei ist: Apple macht gerne solche Knebelverträge, dass die sich erst mal die Produktion für etliche Monate sichern, sodass nix mehr für andere übrig bleibt.
Den 20nm Prozess gibts bei TSMC bereits seit Anfang 2014 AMD und NVidia hätten also bereits genug Zeit gehabt ihre Architektur auf den Prozess anzupassen und erste Grafikkarten in 20nm auf den Markt zu werfen, wenn nicht...
tja wenn nicht der Chip fürs neue iPhone auch seit Juli bei TSMC in 20nm produziert würde. TSMC erwartet für das 4. Quartal, dass bereits 20% des Umsatzes durch die 20nm Fertigung gemacht werden, der momentan fast exklusiv für Apple läuft.

Indirekt ist also Apple momentan für den Stillstand in der GPU Branche verantwortlich.
Was soll NVidia da machen außer zu versuchen die neue Architektur noch auf den alten Fertigungsprozess zu klatschen. AMD hätte da mit Global Foundries zwar noch eine Alternative, aber so wie ich das momentan sehe sind die noch nicht ganz soweit 20nm in Masse zu produzieren wie TSMC.

Ich denke NVidia wartet nur darauf, dass TSMC auch ihnen genug Stückzahlen liefern kann und dann kommt Maxwell eben in 20nm. Bei AMD weiß ich nicht wie weit die schon mit ihrem GCN Nachfolger sind. Aber ich denke nicht, dass es noch was vor dem Weihnachtsgeschäft wird, bei keinem von beiden.
 
Gab doch schon die Meldung das NV 20nm liegen läst und sich auf 16Nm konzentriert.
Da von mal ab für Leute die gerade gerade im Begriff sind aufzurüsten und sich nach Highendkarten umsehen kommen die Karten gerade richtig ne TI würde ich so nicht mehr haben wollen.
 
Zuletzt bearbeitet:
Also zum einen gibt es keinen 16nm Prozess, wenn dann 14nm - von daher ist dieses Gerücht schon fragwürdig - und mit dem Prozess hat selbst Intel noch Probleme, die sonst immer eine Vorreiter-Rolle einnehmen. Beim wem will Nvidia so einen Chip also produzieren lassen?
Für NVidia wäre es sicherlich kein Gewinn, wenn sie den 20nm Prozess übergehen würden. Zumal Maxwell ja schon auf der GTC in 20nm demonstriert wurde. So wie es aussieht ist also alles bereit für 20nm Maxwell nur die Produktion ist noch nicht angelaufen.
 
Doch es gibt einen 16nm Prozess. Der Logik nach wären nach 22nm bei Intel nämlich auch 16nm gekommen, wogegen 14nm ein Half-Node sind die bisher immer bei Grafikkarten & Co verwendet wurden.
Des weiteren bedeuten 16nm bei TSMC 20nm+FinFet (aka 3-D Transitoren), wobei die Frage ist ob die Strukturbreite dann wenigstens auch 20nm entspricht oder nicht noch gröber ist. Intels 22nm sind z.B. auch nur 26nm + FinFet.
Die Bezeichnungen bedeuten mittlerweile nur noch "so gut wie eine konventionelle Fertigung in XXnm" und hat mit der wirklichen Fertigungsgröße nichts zu tun. Wenn ich mich recht entsinne hieß es von Intel mal dass der 90nm Prozess der letzte war bei dem die nm Angabe noch 1:1 passte.
 
Das ist zwar richtig, aber hier ging es um ein Gerücht, dass von 16nm Prozess Anfang 2015 sprach. Und es gibt momentan keinen Prozess der mit 16nm betitelt wird und außreichend Chips liefern könnte. Wie du bestimmt weißt hat auch Intel keinen 16nm sondern einen 14nm Prozess. Dass das nicht der realen Strukturbreite entspricht ist klar.
 
Meiner Meinung nach ist die Entwicklung bei Grafikkarten zur Zeit erschreckend. Selbst mit dieser Generation wird im Single GPU Betrieb kein Metro Last Light in 4K über 40FPS kommen.
Ich habe wirklich gehofft, dass mit der neuen Generation v.a. beim 4K Gaming ein großer Schritt erfolgt. Aber laut diesen Benchmarks werde ich wohl noch eine weitere Generation warten müssen um wirklich alle Games in 4K butterweich spielen zu können.
 
@Cl4whammer! So wie es aussieht kommen erstmal keine neuen High End Karten von AMD.Rein von der leistung ist dies auch nicht unbedingt nötig, da drängen AMD und Nvidia ja dicht an dicht und wenn die neuen Karten auch nicht viel schneller sind... Nvidia punktet dann mit dem verbrauch, die AMD Karten werden dafür günstiger sein.

Mittelfristig wird AMD wie bei der 285 die überarbeitete GCN Architektur einführen. Auf der Basis werden sie wahrscheinlich auch den Hawaii Chip aktuallisieren (mein Tipp) und dann eine etwas höher getaktete Version ins Rennen schicken, die dank effizienterer Architektur dann auch leichter zu kühlen ist und den Takt besser hält... Es läuft dann ähnlich wie bei der 7970 und der 7970Ghz. Vielleicht bringt man die 290x mit 1050Mhz und überarbeiteter Kühlung auf den Markt und hebt die 290 auf vielleihcht 980Mhz. Dafür braucht es nur einen besseren Kühler und schon hat man ein gegenprodukt... Verbraucht dann zwar deutlich mehr, aber der Preis wird die Karten dann verkaufen.
 
Krautmaster schrieb:
Nvidia hat aber mit dem GK110 die 28nm Fertigung schon vor 2 Jahren quasi ausgelutscht - was man jetzt drauflegen kann ist abh. davon, was die 28nm Fertigung hergibt - zb über Takt...
Ausgelutscht wohl kaum. Die GTX 750 Ti wischt den Boden mit Kepler.

Eine GTX980 wird stock ne Ecke fixer sein als eine Stock GTX780TI - welche niedrig taktet und sich gut 30% OC lässt. OC wird es die GTX780TI mit der GTX980 aufnehmen können, und die meisten Karten sind bereits OC ab Werk.
OC vs Stock, wie langweilig. Btw. meine einzige defekte Karte ab Werk war meine erste und letzte Werks OC Karte.

Früher, ala HD5870 & GTX8800, ist man direkt mit dem Fertigungssprung in einen Monsterchip gestartet. Das hat Nvidia aufgegeben, der Monsterchip kommt in Form einer Tesla.
Erzähl keinen Unsinn. Vor der 5870 gabs z.B. die 4770. Vor der 8800 GTX gab es die Geforce 7, da hast du wohl eine komplette Generation ausgelassen.

pipip schrieb:
Wird man sehen. NV war ja in Tesselation immer sehr stark und AMD hat jetzt mit der R9 28X und R9 29X Serien vier Klassen die Tesselation erlauben. (PS die 960GTX wird es unterstützten und die R9 285 wird vermutlich später die 370X werden)
Ich stelle einfach mal die Frage, weil ja BF4 immer gern genommen wird. Was wenn Dice Tesselation wieder in der Frostebite Engine integriert (war ja bei BC2 vorhanden). Bei einem BF5 Nachfolger in 1-2 Jahren, ein Ding der Unmöglichkeit ?

Du sagtest ja selbst, es gibt ja einen "Schalter".
Per Default sollte die Tessellationrate gedrosselt werden. Wenn Dice wenigstens etwas Tessellation gelassen hätte sähe es anders aus, so sehe ich einfach keine Hoffnung mehr. Vergess die Konsolen nicht, da sitzt jetzt die nächsten Jahre ein stark beschnittender GCN drin. Darum werf ich das generell nicht ins Feld, sondern trauer der verschenkten Möglichkeit nur hinterher.
 
Zuletzt bearbeitet:
TrixXor schrieb:
Warten wir halt auf die "980TI"... Vielleicht wird es ja schon ein Neujahrsgeschenk! :)

Die Frage ist, auf was für einer GPU die basieren sollte. Den Gerüchten zufolge hat die GTX980 ja schon den GM204-Vollausbau. Dann bliebe für die 980Ti nur höherer Takt. Aber da kann man dann auch eifnach eine normale GTX980 selbst übertakten.

Eine 980Ti mit Maxwell-Big-Chip erwarte ich nicht. Selbst wenn es den GM200/210(?) schon Ende des Jahres geben sollte, dann wird Nvidia den wieder erstmal nur in den Profi-Karten (Tesla und Quadro) einsetzen und dann später irgendwann eine sauteure "Titan II". Normale Consumer-High-End-Karten zu Preisen von unter 1000€ wird es mit diesem Chip sicher erst in der nächsten Generation geben. Es sei denn, Nvidia wird durch AMD gezwungen, sowas früher zu bringen.
 
Mein Bauchgefühl sagt mir, dass wir irgendwann eine GTX 985 sehen werden. Die Titan-Z war ja ein Reinfall und so wie ich den Huang einschätze, gibt es da noch eine offene Rechnung.

Die GTX 980 ist ja auch sicher nicht für Leute Gedacht, die schon eine GTX 780 besitzen. Ich selbst mit meiner GTX 770 schaue mir das alles an und kann mir schon vorstellen auf eine GTX 980 zu wechseln. Hier in Brasilien bekomme ich für meine gebrauchte EVGA GTX 770 noch gutes Geld.
Der Wechsel GTX 770 > GTX 980 würde sich dann richtig lohnen, weil gleicher Stromverbrauch bei richtig mehr Leistung.
 
Selbst wenn es den GM200/210(?) schon Ende des Jahres geben sollte, dann wird Nvidia den wieder erstmal nur in den Profi-Karten (Tesla und Quadro) einsetzen und dann später irgendwann eine sauteure "Titan II"...
Ich denke auch mal, entscheidend wird nach "Maxwell-Performance-Release" sein ...wie verhält sich die Konkurrenz & welches Portfolio gibt es?
Ich habe langsam immer mehr das Gefühl, daß es "Absprachen" gibt & das schon seit geraumer Zeit.^^

edit:
Kleine Anmerkung noch, denn "Tapeout von BIG_M" erfolgte relativ zügig nach Maxwell-Performance.
Lt. meiner Auffasung bleibt die Lage so, wie auch zu Kepler-Zeiten, oder der Konkurrent "überrascht"
und NV "fährt Plan_B" aus ...natürlich alles Spekulatius.^^
 
Zuletzt bearbeitet:
nitnoS schrieb:
Gut, dann hat Nvidia also etwas erfunden, was sinnlos ist. Das ist dann die Konsequenz aus Deinen beiden Aussagen!

die konsequenz ist falsch weil man schon trennen muss. gpgpu spielt im heimanwender-bereich eine ganz kleine bis gar keine rolle, im profimarkt sieht das schon etwas anders aus.
 
Chesterfield schrieb:
Klar darf das nicht ins unermessliche gehen und ich würde mir aus dem"Umweltaspekt" auch keinen FX9370 anschaffen, DENN der verbrät VIEL und da kommt am ende nicht malwas raus

unter fenster ja, unter was weis ich z.b. mint ist der fx auch eine heißes eisen im sinne der leistung
 
Zuletzt bearbeitet:
zeedy schrieb:
Nein, eher 400 als 500. HT4U zB gibt leider nur die Maximalwerte an. Da sind mir die Messungen von Toms Hardware lieber: es wird die durchschnittliche Aufnahme in einem Spiel gemessen (Metro LL). Kannst ja nachlesen wie dort gemessen wird.
Wenn meine Karte für insgesamt 2-3 Sekunden 250W aufnimmt ist mir das egal, solange sie sich pro Stunde "nur" 200W genehmigt.
Steht das irgendwo, dass HT4U nur die Maximalwerte angibt? Ich konnte nur einen älteren Artikel finden, der explizit von "Peaks" spricht und die gemessenen/dargestellten Werte somit dem Durchschnitt entsprechen müssten.

guggi4 schrieb:
Wenns um Stromverbrauch geht, ist für mich Toms die Referenz. Schau dir mal deren Messmethoden an, da kann keine andere Seite mithalten. Das ganze wird direkt am Versorgung Strang der Graka gemessen, ohne PSU Verluste etc. und in 500hz Auflösung. Da kann keine Steckdosen Messung mithalten.
Die anderen Seiten messen doch auch nicht an der Steckdose, die haben ein ähnliches Messverfahren wie Tom's Hardware. Es hängt nun mal auch immer vom jeweiligen Spiel und der dargestellten Szene ab. Deswegen gibt es zwischen den Testseiten auch so große Unterschiede. Dementsprechend sind die Durchschnittswerte von 3dcenter auch brauchbar und da hat eine R9 290 nun mal 250W.


@SimsP
So viel ich weiß, war sich die Gerüchteküche eigentlich einig, dass sowohl AMD als auch NVidia die 20nm überspringen und gleich in 16nm fertigen wollen. Das hängt wohl damit zusammen, dass 20nm kaum Vorteile bringen soll und die 16nm schon recht zeitnah (also 1-2 Jahre) möglich sind. Du kannst das (flächenmäßig) kleine Zeug was Apple fertigen lässt auch nicht mit ausgewachsenen GPUs vergleichen. Bei einem neuen Fertigungsschritt werden üblicherweise erst die kleinen Chips produziert und erst nach einer ganzen Weile die großen GPU Chips angegangen. Apple hat in dem Sinne also keine Fertigungskapazitäten "geklaut".
 
SuddenDeathStgt schrieb:
Ich denke auch mal, entscheidend wird nach "Maxwell-Performance-Release" sein ...wie verhält sich die Konkurrenz & welches Portfolio gibt es?
Ich habe langsam immer mehr das Gefühl, daß es "Absprachen" gibt & das schon seit geraumer Zeit.^^

edit:
Kleine Anmerkung noch, denn "Tapeout von BIG_M" erfolgte relativ zügig nach Maxwell-Performance.
Lt. meiner Auffasung bleibt die Lage so, wie auch zu Kepler-Zeiten, oder der Konkurrent "überrascht"
und NV "fährt Plan_B" aus ...natürlich alles Spekulatius.^^

Mich würde es wundern, wenn es keine Absprachen gäbe, aber der Release von Titan Z war aus Sicht der Produkteinführung leider "Note 6 - setzen"!!!

Wissen wir schon wann die GTX980 offiziell vorgestellt wird oder besser sogar wann der NDA fällt? (falls es dazu schon mal etwas gab)
 
TrixXor schrieb:
Wissen wir schon wann die GTX980 offiziell vorgestellt wird oder besser sogar wann der NDA fällt? (falls es dazu schon mal etwas gab)
Am 18.09 (Bei uns am 19.09, 03:00) gibt es ein Nvidia Event (Game24), dort wird alles vorgestellt.
 
Zuletzt bearbeitet:
Zurück
Oben