News Nvidia Turing: Angeblich drei Grafikkarten mit 120 bis 180 Watt geplant

Ich bin bisher damit gut gefahren, die neue Karte mit der alten zu teilfinanzieren. Ich gebe auch noch für andere Dinge Geld aus, nicht nur für meinen PC. Und User, die was "gegen" meine Methode sagen, geben mir das Geld doch auch nicht, von daher mache ich das so. Und selbst wenn ich das Geld sofort hätte, würde die alte Karte trotzdem in den Verkauf kommen. Also Notkarte ist die overkill und als Übergang reicht dann auch eine (alte) Einstiegskarte, die die Spiele auf reduzierten Einstellungen schafft. Die Onboardgrafik schafft dies in meinem Fall nicht.

Und kann es nicht egal sein, ob man immer die xx80 nimmt und die xx80TI überspringt oder ob man immer die xx80TI nimmt und die xx80 überspringt?
 
Galatian schrieb:
@Wadenbeisser

Ich bin da größtenteils eigentlich total bei dir. Die Punkte nehme ich dir aber wie gesagt nicht ab. Du kannst nicht einfach die Titan bzw. Ti dazu packen, damit dein Argument wieder passt. Die x80 Serie bei NVIDIA kostet seit es die Tesla Architektur gab 500$ MSRP. Das was durch kleine Fertigung eingespart wurde, gleicht gestiegene Kosten durch immer teurere Fertigung und Inflation so ziemlich aus. Auch die MSRP der 1080 ist ganz offiziell bei 499$; natürlich darf man gerne anprangern, dass NVIDIA mit der Founders Edition Early Adopter gemolken hat. Es darf aber bitte jeder selbst entscheiden, ob er - wohlwissend weil NVIDIA die Preisgestaltung der FE klar kommuniziert hat - das Angebot annimmt oder nicht.
Nicht ich habe die Ti und die Titan Klasse dazu gepackt sondern nvidia. ;)
Der GF110 der GTX580 hatte eine Chip Fläche von 520 mm² , der GK110(B) der GTX780(Ti) bzw. Titan (Black) kam auf 561 bzw. 533 mm² (B-Version).
Der GF114 der GTX560 kam auf 332 mm², der GK104 der GTX670/680 kam auf 294 mm²......na, siehst du was der Knackpunkt ist? ;)
Es ist das gleiche Spiel wie seinerzeit beim Wechsel von der HD5870 auf die HD6970, die Nummerierung des Namensschemas wurde erweitert, der Unterschied ist lediglich das nvidia es genutzt hat um den Preis der einzelnen Abstufungen massiv rauf zu setzen und kaum einer hats gemerkt weil der seinbare Nachfolger vom Einführungspreis her gleich blieb. Geht man allerdings von der vergleichbaren Chip Größe aus dann hat sich der Preis der Karten ca. verdoppelt.
Ergänzung ()

Baal Netbeck schrieb:
Natürlich ist es AMDs Schuld, dass sie auf den Hardware Scheduler gesetzt haben in dem Moment als Nvidia erkannt hat, dass die Zeit noch nicht reif ist und damit zurück gerudert ist.
Sie hätten den auch besser überarbeiten können, denn sie hatten ja jetzt einige GPU Generationen Zeit.
Nur über den Treiber geht es wohl nicht...da ist das Problem in der Hardware.
Wenn AMD Schuld ist weil sie ihre Produkte nicht auf eine veraltete Technologie ausrichten und Kohle für deren schwächen zu versenken dann haben sie ja alles richtig gemacht. :daumen:
Die Kohle können ruhig diejenigen verbrennen die sie dicke haben.
 
Zuletzt bearbeitet von einem Moderator:
@Wadenbeisser

Sehe ich eben nicht so und habe ich auch bereits begründet. Die Leistungssteigerungen sind gleich geblieben und es sind Transistoren dazu gekommen. Es ist auch utopisch anzunehmen, dass die Chips immer gleich groß bleiben können (also Transistoren sich verdoppeln/vervierfachen) bei gleichem Preis, weil immer kleine Strukturen deutlich teurer werden durch Quad Patterning, FinFET und weis der Gott was. Aktuell zeigt sich ja wie schwierig EUV ist wird.

Ganz ab davon widersprichst du dir mit AMD selbst. Immerhin haben sie einfach von der HD 6970 auf die HD 7970 200$ mehr verlangt. Und sowohl die Transistoranzahl, als auch die Größe blieben zwischen HD 5870 und HD 6970 gleich. Dort hat AMD nur im Namen einen Sprung gemacht und eben keinen andere Leistungsklasse eingeführt.
 
Ich persönlich rechne mit einer 1-10% Steigerung zur Titan XP...sprich 5-15% zur 1080 TI.
Die Differenz wird dann mit neueren Treibern noch etwas zunehmen.

Das wäre dann sehr ähnlich zum Generationswechsel GTX 980 / 780 TI.

Als Einstiegspreis tippe ich auf 899 € für eine 1180 Founders Edition.
 
@Galatian
Was soll da seitens der Leistungssteigerungen gleich geblieben sein?
Die erste Serie mit neuen Modellen war die Geforce 200 Serie denn die Geforce 100 und 300 Serie war eine OEM Rebrand Serie. Die Geforce 400 und 500 Serie markierten die 2 Generationen der Fermi Serie, wobei beide die komplette Produktpalette führten.
Die Geforce 600 und 700 Serie markierten die Kepler Generation, wobei bei der ersten Generation die komplexen highend Chips fehlten und diese erst mit der Geforce 700 Serie nachgeliefert wurden.
Ein Ende hatte diese Verschleppung über 2 Generationen erst mit der Geforce 9 Serie und da waren die hohen Preise längst etabliert, was man auch am Feature Vorsprung Schwund der Titan sah.

Und natürlich sind zwischen der Geforce 500 und 600 Serie Transistoren dazu gekommen, da war ja auch eine Struktur Verkleinerung von 40 aug 28nm mit drin. Der Unterschied zwischen ca. 3 mrd Transistoren beim GF110 und ca. 3,54 mrd Transistoren beim GK104 ist allerdings denkbar klein. Da passen die
7,08 mrd Transistoren des GK110 als GF110 nachfolger deutlich besser ins Bild. Zudem ist die Produkt Abstufung schon anhand des Chip Namens denkbar einfach abzulesen....
 
@Wadenbeisser

Das ist und bleibt in meinen Augen Schwachfug. Die Leistungssteigerungen innerhalb einer Serie sind dauerhaft gleich geblieben. Zwischen der 280 auf die 480 wie auch auf die 580 und die 680 gab es jeweils immer so um die 60% Mehrleistung. Entsprechend ist es völlig legitim einen deutlich größer Chip mit deutlich mehr Leistungszuwachs auch als neue Leistungsklasse einzuführen. Dein Argument über Chipgrößen macht hinten und vorne kein Sinn.
 
@Galatian
Jetzt überspringst du schon die OEM Serien und die Serienwechsel innerhalb der Architektur Generationen damit deine Argumentation irgendwie aufgeht und verlierst dabei aus den Augen das du damit deiner Aussage bereits widersprichst....
Der Name der Grafikkarte ist wohl kaum ein stärkeres Indiz als die Größe und das Namensschema des Chips und wenn es doch so wäre dann dann dürfte man aber auch nich die OEM und Zwischenserien ignorieren.
So oder so, die Nummer geht nicht auf.
 
Ja warum sollte den ne relabelte OEM Serie reinspielen? Ich gebe ganz explizit Zahlen und Fakten zu tatsächlichen Nachfolgerkarten. Und da ist nunmal bei den x80 Serien immer der gleiche Leistungsgewinn zu beobachten. Warum du jetzt Argumente aus der Luft generierst ist mir schleierhaft...OEMS Rebrands gibt’s halt auch bei AMD. Das ändert jetzt genau was?
 
Galatian schrieb:
@Wadenbeisser

Das ist und bleibt in meinen Augen Schwachfug. Die Leistungssteigerungen innerhalb einer Serie sind dauerhaft gleich geblieben. Zwischen der 280 auf die 480 wie auch auf die 580 und die 680 gab es jeweils immer so um die 60% Mehrleistung. Entsprechend ist es völlig legitim einen deutlich größer Chip mit deutlich mehr Leistungszuwachs auch als neue Leistungsklasse einzuführen. Dein Argument über Chipgrößen macht hinten und vorne kein Sinn.
Es waren eher ~30% von einer 580 auf eine 680:
https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/12/

Die 480 hat dafür ~60% von einer 285 GTX zugelegt:
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/21/

Und noch einmal das Argument Marge, die hat sich bei Nvidia stets erhöht und da ist alles miteingerechnet.
Inflation, Produktionskosten und was Nvidia letztendlich von ihren Leistungen übrig bleibt, immer mehr.
 
@Galatian
Dann nehmen wir mal den Wechsel von der GTX480 auf die GTX580 als Beispiel.
Beide sind aus der Fermi Generation aber es wurde nichts umbenannt weil unterschiedliche GPUs. (ursprünglicher gestutzter GF100 vs. optimierter, voller GF110)
Schon sind wir bei 15-18% Mehrleistung für die GTX580 und das Argument macht *puff*.
 
Blueline56 schrieb:
@Dark_Knight
ich habe ja nicht geschrieben das unter DX 11 AMD Karten nicht Spielbar sind, aber Nvidia kommt mit DX11 besser zu Rande und was Gameworks betrift, klar ist das auf Nvidia zugeschnitten, wenn wunderst, ist ja ihr Baby sozusagen, mich regt nur immer auf, das da auf Nvidia geschimpft wird, umgekehrt in DX12 und Async Compute
zb. , liest man ja auch nirgends das AMD da unfair wäre, siehe zb. Wolfenstein, da spricht auch keiner davon oder regt sich darüber auf, das daß Spiel auf Vega zugeschnitten ist und auch zu recht tut das keiner.

Weil es keine Spiele gibt, die rein auf AMD zugeschnitten sind. Die Spiele, wo AMD eben sehr gut abschneidet, weil diese DX12 oder Vulkan vernünftig nutzen, zeigen doch auch, das nVidia dort gut abschneidet.
Sämtliche Software Features die AMD anbietet, sind Open Source, können also uneingeschränkt von nVidia benutzt werden. Ebenso ist DX12 und Vulkan (wo nVidia übrigens mit zum Konsortium gehört) uneingeschränktr nutzbar von nVidia sofern Soft und Hardware die APIs und deren Features nutzen können.

Deswegen regt sich eben da auch keiner auf. Es gibt bei DX12/Vulkan keine künstlichen Barrieren. Bei Gameworks eben schon. Bei Spielen wo Gameworks genutzt wird, muss AMD immer um die Blackbox herumoptimieren, da eben der direkte Einblick fehlt.
 
@Wadenbeisser

Warum vergleichst du denn immer ein und den selben Chip? Darum geht es doch hier gar nicht. Es geht darum, dass du versuchst zu erklären, das seit Kepler als x80 Chip nur noch Mittelklasse verwendet wird, dabei hab ich nun schon mehrfach gezeigt, dass zwischen - Obacht ich mache es für dich etwas genauer - zwei Architekturen der Leistungsgewinn immer noch gleich geblieben ist. Entsprechend ist es schon nachvollziehbar einen Chip noch oben drüber zu setzen. Das was du meinst hat doch eher AMD von der 5870 auf die 6970 gemacht mit 26% Mehrleistung, trotz kompletten Namenssprung in eine vermeintlich größere Klasse. Letztlich kann es dir egal sein, ob NVIDIA dir jetzt nur als x80 Chip Einhornpupse verkauft, sofern der Leistungssprung und der Preis gleich bleiben. Wenn dein Ego sich schlecht anfühlt, weil NVIDIA nun Chips mit noch mehr Transistoren für noch mehr Geld anbietet, ist das zwar bedauerlich, darum wird aber der x80 Chip nicht gleich von heute auf morgen Mittelklasse.

@Locuza

Ich zitiere mal aus dem aktuelleren Nachtest von CB:

Nvidia hat es in der Regel geschafft, mit der Einführung einer neuen Architektur bzw. Generation die Performance gegenüber dem schnellsten Vorgängermodell um mindestens 50 Prozent zu steigern. Die einzige Ausnahme ist der Schritt von der GeForce GTX 480 zur GeForce GTX 580 – mehr Leistung war aus Fermi nicht mehr herauszuholen.

Mit Kepler gab es dann einen großen Sprung. Schon die GeForce GTX 680 schneidet im Schnitt um 60 Prozent schneller ab. Ein Grund dafür ist der 512 MB größere Speicher, der in einigen Spielen viel ausmacht. Zudem ist die Architektur selbst deutlich moderner.

Ich sehe von Fermi 480 auf Kepler 680 50% oder von optimierten Fermi 580 auf Kepler 680 37%.
 
Gibt es denn neue Gerüchte rund um die neuen Grakas, oder schlagen sich immer noch alle sinnlos die Köpfe ein wegen AMDvsNVIDIA? :-)
 
Dark_Knight schrieb:
Weil es keine Spiele gibt, die rein auf AMD zugeschnitten sind. Die Spiele, wo AMD eben sehr gut abschneidet, weil diese DX12 oder Vulkan vernünftig nutzen, zeigen doch auch, das nVidia dort gut abschneidet.
Sämtliche Software Features die AMD anbietet, sind Open Source, können also uneingeschränkt von nVidia benutzt werden. Ebenso ist DX12 und Vulkan (wo nVidia übrigens mit zum Konsortium gehört) uneingeschränktr nutzbar von nVidia sofern Soft und Hardware die APIs und deren Features nutzen können.

Deswegen regt sich eben da auch keiner auf. Es gibt bei DX12/Vulkan keine künstlichen Barrieren. Bei Gameworks eben schon. Bei Spielen wo Gameworks genutzt wird, muss AMD immer um die Blackbox herumoptimieren, da eben der direkte Einblick fehlt.
Es gibt auch "keine" Spiele die rein auf Nvidia zugeschnitten sind.
Und der geschlossene Quellcode von Nvidia wird häufig überdramatisiert.
Die IHVs haben auch keinen Quellcode-Zugriff bezüglich der meisten Spiele, es wird dann so optimiert wie es täglich Brot ist, nach den API-Calls und dem Output.

Daneben muss man auch mal realistisch sein, wie viele GameWorks Effekte hauen bei AMD die Performance runter, welche dank Quellcode-Zugriff deutlich verbessert werden könnte und wie viele Spiele betrifft das?
Das ist darauf reduziert eine verschwindend geringe Anzahl an Spielen, neben der Tatsache das GameWorks- Effekte zu 99% optional sind und Schwerenöter bezüglich der Performance von Benchmark-Publikationen häufig nicht für den Performance-Index verwendet werden.

Galatian schrieb:
[...]
Ich zitiere mal aus dem aktuelleren Nachtest von CB:
Ich sehe von Fermi 480 auf Kepler 680 50% oder von optimierten Fermi 580 auf Kepler 680 37%.
Und um wie viel schneller wäre eine 480 vs. 285 in einem Nachtest, mit neueren Spielen, die teilweise auch auf den VRAM drücken?
100%?

Darf ich noch einmal an Nvidias gestiegene Marge erinnern oder wird das lieber gezielt ausgeblendet?
 
Galatian schrieb:
@Wadenbeisser

Warum vergleichst du denn immer ein und den selben Chip?.
Weil, wie ich bereits schrieb, es nicht der selbe Chip ist.
Unterschiedliche Bezeichnungen, Größen und wenn ich mich an damalige Tests zurück erinnere dann hatte sich die interne Struktur geändert.
Das Spielchen wurde dann bei folgenden Generation mit dem GK110 und dem GK110B wiederholt, welche bakanntlich auf welchen Karten saß?
 
@Locuza
Rede es dir nur weite ein. ;)
 
Zurück
Oben