News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

@ZeroZerp Die nächste Generation wird wohl mit an Sicherheit grenzender Wahrscheinlichkeit in 7nm kommen. Da sind schon mal (vorsichtig geschätzt) ~15% mehr Leistung allein durch den Fertigungsprozess zu erwarten. Dann sind wohl noch architektonische Anpassungen zu erwarten und die sind bei jungen Architekturen in der Regel leichter zu erzielen, als bei Durchoptimierten. Wo das preislich landet steht auf einem anderen Blatt.

Die "Kotzgrenze" muss man natürlich auch realistisch einschätzen. 60Fps dürfen es bei BF V, einem Multiplayer Shooter, schon sein und dann je nach Karte eben 1080p, 1440p oder 2160p. Das ist wiederum nur meine Meinung und ich habe keinen Anspruch da für die Allgemeinheit zu sprechen, aber an den von mir angelegten Kriterien haben die Karten auch nach dem Patch noch zu knabbern.
Und in dem Fall ist 'knapp über dem geforderten Niveau zu liegen' ja immer noch "hart an der Kotzgrenze".

Ich sehe die Karten eben aktuell eher als Testballon dafür an, was man im Desktop Markt durchdrücken kann und was nicht.

Sonst sehe ich das wie @Revan1710
[...]sollten sich solche Innvoationen im Profi- oder Highend-Bereich etablieren.[...]

Es ist mMn momentan wesentlich sinnvoller, z.B. RT im Profi Bereich anzubieten, wo JEDES Prozent gerne mitgenommen wird, als im Comsumer Bereich, wo man es unter 60fps auch gleich weglassen kann.

ZeroZerp schrieb:
Und was soll man dann am Home- User Markt machen? [...]

Keine Ahnung, abwegiger Gedanke, aber wie wäre es mit "Warten, bis die Technik reif ist"?

ZeroZerp schrieb:
Allein die Mesh- Shader können komplexe Szenen 10-Fach so schnell rendern. Das nennst Du wenig Rohleistung?
Global Illumination kann, wenn man sie grob rastert, wie durch die derzeitigen Voxeltechniken durch RT Cores ums X- Fache beschleunigt werden.[...]

Kann, könnte, eventuell, ... Ja, alles kann, aber nützt nix, wenn davon (aktuell) nichts ankommt.
 
Zuletzt bearbeitet:
Revan1710 schrieb:
@ZeroZerp
Wie gesagt, für mich sollten sich solche Innvoationen im Profi- oder Highend-Bereich etablieren.
Und was soll man dann am Home- User Markt machen? Innovationsstop über viele Jahre hinweg?
Wo sollen denn, wenn die Fertigungstechniken an ihre grenzen Stoßen, weitere Geschwindigkeitsschübe herkommen?

Es ist ein Unterschied, ob eine 2080 nun 100$ mehr kostet als eine 1080 damals (~16 % Aufpreis) oder ob eine 2060 nun 100 $ mehr kostet als eine 1060 6 GB (~40 % Aufpreis).
Wie ist es außerdem zu rechtfertigen, dass die 2060 also die gleichen 100$ mehr kostet, obwohl sie doch deutlich beschnitten ist bzgl. der neuen Features (weniger RT-, Tensor-Cores) ?
Ich bin da eher geduldig und würde abwarten, was dann der tatsächliche Marktpreis einer RTX 2060 sein wird.

Das sage ich so ja auch nicht. Das Problem ist, dass die Rohleistung bei RTX für den geforderten Preis nicht sehr hoch ist, was gerade bei Budget-Karten doch sauer aufstößt.
Allein die Mesh- Shader können komplexe Szenen 10-Fach so schnell rendern. Das nennst Du wenig Rohleistung?
Global Illumination kann, wenn man sie grob rastert, wie durch die derzeitigen Voxeltechniken durch RT Cores ums X- Fache beschleunigt werden.

Früher haben wir immer von 0-60% gesprochen, wenn es um die Beschleunigung geht. Beit den RTX Karten reden wir von Faktoren.

Ich muss bei solchen Karten doch zeitnah die Regler nach links bewegen, da wäre RT wohl das erste, was der Performance wegen rausfliegt.
Wenn RT aber keinen Leistungseinbruch mehr produzieren würde? Würdest Du das dann auch nach links bewegen?

DLSS ist soweit ich weiß sowieso nur für 4 K relevant
DLSS kann mit jeder gewünschten Auflösung spielen. Ist eine Frage des Trainings.

und Mesh-Shader finden aktuell noch keine Anwendung.
Wobei die Entwickler auf dieses Feature sehnsüchtig warten und heiss darauf sind.

Da hätte ich doch mehr davon, wenn ich für die 100 $ entsprechend mehr Rohleistung bekommen hätte oder den Aufpreis gespart und dafür schneller aufrüsten zu können.
Man bekommt aber mit alter Technik in aufgebohrt nicht mehr für wenig mehr Geld einen großen Leistungssprung.

Casillas schrieb:
Und was sagt CB zu FFXV, in dem DLSS durch die Tensor Cores genutzt wird?
Dass es mal gut und mal weniger gut funktioniert.- Ist ja auch eine Beta.

Bei den aktuellen Preisen die mittlerweile für den Abverkauf der 1070 auch für gute Customs aufgerufen werden, glaube ich nicht, dass die 2060 rein von der Leistung fürs Geld mehr oder gleich viel liefern wird.
Genau- Aber Preise eines Abverkaufs darf man nicht als Referenz zu den sonst marktüblichen Preisen annehmen.

Und die RTX Features müssen sich auf der 2060 auch erst noch zeigen. Die 2060 hat gegenüber der 2070 eine Reduzierung von ca. 17% bei Shader, TMUs, Tensor- und RT-Kernen. Zusätzlich gibt es eine Reduzierung bei Speicherbandbreite und Speichergröße von jeweils 25%.
Genau- Das werden Praxistests zeigen, wie sich das auswirkt.
 
Zuletzt bearbeitet:
Wen's interessiert: https://videocardz.com/79425/exprev...launch-geforce-gtx-11-series-gtx-1160-planned

Also wenn das stimmt, ist die Verwirrung komplett (zumindest für alle die sich nicht näher damit beschäftigen). Kurz zusammengefasst:

- RTX bleibt Grafikkarten mit Raytracing Shadern vorbehalten. Die gehen maximal runter bis zur RTX 2060.
- Darunter bleibt die Bezeichnung GTX. Aber nicht wie man denkt "GTX 2050" - nein - sondern GTX 1150. Sogar eine GTX 1160 soll erscheinen.

:freak:
 
AMD macht doch seit Generationen das selbe, wo is das jetzt verwirrend? Oo

RTX = mit RT und GTX wie bisher auch ohne RT. Die 1160/2060 gibt's halt als einzige in beiden VArianten, da es die Grenzgeneration ist und RT dort nur bedingt sinn macht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso
franzerich schrieb:
Wen's interessiert: https://videocardz.com/79425/exprev...launch-geforce-gtx-11-series-gtx-1160-planned

Also wenn das stimmt, ist die Verwirrung komplett (zumindest für alle die sich nicht näher damit beschäftigen). Kurz zusammengefasst:

- RTX bleibt Grafikkarten mit Raytracing Shadern vorbehalten. Die gehen maximal runter bis zur RTX 2060.
- Darunter bleibt die Bezeichnung GTX. Aber nicht wie man denkt "GTX 2050" - nein - sondern GTX 1150. Sogar eine GTX 1160 soll erscheinen.

:freak:

Also wenn das so kommen sollte hat definitiv Nvidia bei der Dämlichkeit der Bezeichnungen wieder den Hut auf.
eine GTX 2050, die sich von der Leistung an einer 1060 orientiert, wäre doch für alle verständlich gewesen.
 
Wieso? Das würde implizieren, dass sie RT kann... Also von der Zahl her. GTX/RTX finde ich da dann wieder zu wenig Unterschied für einen derartigen Unterschied in der Architektur.
 
ZeroZerp schrieb:
Und was soll man dann am Home- User Markt machen? Innovationsstop über viele Jahre hinweg?

Der Rohleistungssprung ist ja vorhanden, also auch ohne RT-Cores wäre das für die kleineren Karten Innovation genug.

ZeroZerp schrieb:
Ich bin da eher geduldig und würde abwarten, was dann der tatsächliche Marktpreis einer RTX 2060 sein wird.

Das ist der typische Fluchtweg hier, wenn man den Preis nicht mehr rechtfertigen kann. Der UVP ist das Maß der Dinge, der widerspiegelt, wieviel mehr Nvidia verlangt. Billige Customs oder Angebotspreise sind absolut nicht aussagekräftig, um Generationen miteinander zu vergleichen.

ZeroZerp schrieb:
Allein die Mesh- Shader können komplexe Szenen 10-Fach so schnell rendern. Das nennst Du wenig Rohleistung?

Schön und gut, aber dann nenne mir mal ein Spiel, in dem RTX durch Mesh-Shader die 10-fache Leistung auf die Straße bringt.

ZeroZerp schrieb:
DLSS kann mit jeder gewünschten Auflösung spielen. Ist eine Frage des Trainings.
Nur hat Nvidia (laut dem CB-Artikel über FF) doch garkeine Pläne, das auch für niedrigere Auflösungen einzulernen.
Edit: Zumindest mal nicht für FF, ob sich der Aufwand bei den anderen DLSS-Titeln lohnen wird bleibt abzuwarten.

Ich will ja garnicht abstreiten, dass das alles irgendwann sinnvoll genutzt werden kann. Aber heute definitiv noch nicht (in Bezug auf Mesh/DLSS) und damit bezahlst du einen gesalzenen Preis für hypothetische Vorteile.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Casillas und v_ossi
Hallo zusammen,

@ duskstalker

duskstalker schrieb:
Die Rx580 ist technisch eigentlich eher eine gtx1070 als eine gtx1060, trotzdem muss sich die Rx580 mit der 1060 rumschlagen.

Bitte? Wieso ist die RX 580 "technisch" eigentlich eine GTX 1070? Zur Erinnerung, die RX 580 ist nichts anderes als eine komplett am Limit laufende, fehlerbereinigte RX 480. Und Gegner der RX 480 Respektive RX 580 ist von AMD selbst die GTX 1060 genannt. Und ehrlich gesagt gehört sie da auch von der Reinen Leistung her hin.

duskstalker schrieb:
Was ist das bessere Produkt für den Verbraucher? Die Rx580.

Bitte? Wie kommst du denn darauf? Ich würde mal Sagen, das liegt einzig und allein an der Persönlichen Gewichtung. Denn jede der genannten GPU`s hat Vor- als auch Nachteile. Du wirst den Blickwinkel alleinig auf die 8 Gbyte Speicher gelegt haben.

Ist in Ordnung. Aber beides sind nun einmal Full HD Karten. Für sonderlich mehr waren bzw. sind beide nicht gedacht gewesen. Und dann solltest du nicht Vergessen, egal wieviel Ram eine Karte hat, man kriegt sie trotzdem auch unter Full HD in die Knie, wenn man es nur darauf anlegt.

Persönlich würde ich sogar behaupten, die GTX 1060 hat mehr Vorteile als die RX 580. Aber wie schon angemerkt, das hängt eben auch von der eigenen Gewichtung ab. Für Full HD sind beides nach wie vor hervorragende GPU`s.

duskstalker schrieb:
Wäre AMD nicht so abgeschlagen, würde vega mit der titan xp konkurrieren.

Ganz ehrlich, ich weiß nicht, was du da Sagen willst. Ich meine, das ist wie "der Osterhase kommt nunmal an Ostern, sonst würde er mit dem Christkind konkurrieren"! Völlig hanebüchen, Sorry.

AMD hat nun einmal die Wahl für HBM / HBM 2 getroffen. Und das ist mit der Grund, weshalb Vega so schlecht da steht. Damit meine ich eher nicht von der Leistung her übrigens. Sondern von den Kosten.

duskstalker schrieb:
navi kann für nvidia nur deshalb "gefährlich" werden, weil die dreist genug sind die 2060 für 400€ mit gtx 1070 performance ins rennen zu schicken. mit den eckdaten ist die 2060 sehr gut schlagbar.

Wie bitte kommst du auf den Preis von 400 € für die RTX 2060? Die Auffassung hast du Exklusiv für dich. Zur Erklärung, es wird zu Beginn Modelle mit 10-Layern geben, nach 1-2 Monaten Modelle mit 6-Layern. Zu Beginn kann man für die 10 Layer-Modelle ca. 350- 370 € Erwarten.

Nach dem ein oder anderen Monat nach Einführung hat der Kollege von Tom`s Hardware die Karte bei um die 320 € verortet im übrigen. Im übrigen dürfte sie, urteilend nach dem bisherigen Datenblatt von Tom`s Hardware, auf GTX 1070 Ti Niveau Liegen.

Für den Preis von ca. 350 - 370 € spricht auch, daß mittlerweile schon RTX 2070 Modelle für um die 470 € zu Haben sind. Spätestens mit Erscheinen der 6 Layer Modelle wird das Preisniveau um die 350 € Liegen. Wenn das besagte Performanceniveau erreicht wird, kein schlechter Preis.

So long....
 
Zuletzt bearbeitet:
Revan1710 schrieb:
Aber heute definitiv noch nicht (in Bezug auf Mesh/DLSS) und damit bezahlst du einen gesalzenen Preis für hypothetische Vorteile
Das ist eben genau der Punkt an dem wir uns unterscheiden. Es sind keine hypothetischen Vorteile.
Die Hardware läuft mit all den versprochenen Leistungsdaten und es gibt bereits Software, die die ersten Gehversuche mit den neuen Features unternimmt.
Somit sehe ich den Wert der Karte dahingehend begründet, als dass sie bei Ausnutzung der neu zur Verfügung gestellten Techniken Faktoren an Leistungssprüngen hinlegt.

Die Problematik, dass keine oder kaum Software dafür vorhanden ist, beschränkt die Leistung der Karte selbst ja erstmal nicht. Es macht die Karte weder langsamer, noch weden dessen Rechenkapazitäten dadurch beschränkt.

Jetzt hat man beim Grafikkartenkauf drei Möglichkeiten:

1.Ich entscheide mich für ein älteres Modell (1080 TI) derzeit für 700,-€

2.Ich entscheide mich für das neue Modell, welches im Schnitt auch grundsätzlich noch ein wenig schneller ist als die alte Generation (2080) derzeit für 670,-€, gerüstet für die Zukunft um all diese Funktionen ab sofort und in allen demnächst erscheinenden Spielen nutzen zu können. Und auch mit der Möglichkeit von erheblichen Geschwindigkeitssteigerungen in Zukunft profitieren zu können.

3.Es ist doch nicht so wichtig und ich warte auf die nächste Generation.

Es gäbe folglich nur einen sinnvollen Grund bei einer Neuanschaffung die 1080TI zu bevorzugen. Und zwar, wenn die Hauptapplikation, die man in den nächsten Jahren betreiben will, ein sehr schlechtes VRAM- Management hat und mehr als 8,2 Gigabyte davon benötigen.

Und selbst da darf man sich nicht täuschen lassen. Denn die Engines benutzen den VRAM auf den größeren Karten oft nur als Puffer, um nicht so viele Texturen nachladen zu müssen, ohne diese aber aktiv in der dargestellten Szene zu brauchen. Somit kommen die Engines genauso mit den 8,2 Gigabyte, ohne dass man spürbare Nachteile daraus erleiden müsste.

Somit macht NVIDIA allen Unkenrufen zum Trotz eben schon ein faires Angebot. Das alte Modell wurde preisstabil durch ein neues Modell, welches in den alten Disziplinen minimal schneller ist ersetzt, das dafür aber für die Zukunft gerüstet ist.

Und es bleibt kein Zweifel daran, dass zumindest die Mesh- Shader bzw. das AMD Pendant in kürze eingesetzt werden. Auch auf den kommenden Konsolen.
https://www.reddit.com/r/Amd/comments/9l6n6f/playstation_patent_mentions_primitive_shaders/

Beispiel links mit, rechts ohne Mesh shader und üblichem LOD/Culling- System:

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
@ZeroZerp
Die Möglichkeit, die mir mit Turing eben fehlt ist das was sonst eben üblich war beim Generationsübergang:
Der leistungsmäßige und preisliche Nachfolger der 1060 bspw.- also ~30% Mehrleistung zu einem UVP von ~250 $

Dazu kommt die Tatsache, dass ich aktuell unter 300€ ja nur 2 Jahre alte Hardware bekomme, dieses Budget wird schlicht einfach nicht bedient mit Turing, obwohl es den Großteil ausmacht. Man will ja bewusst dafür sorgen, dass die Leute mehr ausgeben als sie es sonst immer getan haben und das nicht schleichend sondern sehr brachial.

ZeroZerp schrieb:
Das alte Modell wurde preisstabil durch ein neues Modell, welches in den alten Disziplinen minimal schneller ist ersetzt, das dafür aber für die Zukunft gerüstet ist.
Wie gesagt, das ist für mich eben ein ziemlich schwacher Trost, da ich es von einer neuen Generationen gewohnt bin, für den gleichen Preis ein deutliches Leitungsplus zu bekommen, das auch von Tag 1 an verfügbar ist und kein Versprechen für die Zukunft ist.

Du magst ja zuversichtlich sein, dass die Innovationen so zeitnah Früchte tragen, dass sich der Aufpreis in entsprechender Mehrleistung ummünzt (bezogen auf Mesh-Shader).
Ich bin da eher skeptisch und kann mir gut vorstellen, dass da erst noch ein paar Jahre ins Land gehen bis das verbreitet Anwendung findet oder dass der Leistungssprung in der Praxis auch erstmal moderat ausfällt.

Wie würdest du es denn bei der Nachfolge-Generation von Turing sehen? Angenommen, diese baut lediglich auf Turing auf und verbessert diese ohne neue Innovationen zu liefern. Ist das Preisniveau dann immer noch gerechtfertigt oder müssten die Preise dann nicht wieder zurückgehen? Das letzteres wohl nicht geschehen wird ist wohl so sicher wie das Amen in der Kirche, ergo kommt bei der nächsten Innovation wieder etwas oben drauf.
Das Spiel wird so lange gespielt bis der Kunde dem ein Riegel vorschiebt, nur sind die Kunden da scheinbar sehr belastbar.
 
Revan1710 schrieb:
Wie würdest du es denn bei der Nachfolge-Generation von Turing sehen? Angenommen, diese baut lediglich auf Turing auf und verbessert diese ohne neue Innovationen zu liefern. Ist das Preisniveau dann immer noch gerechtfertigt oder müssten die Preise dann nicht wieder zurückgehen?

Ich gehe davon aus, dass aufgrund explodierender Fertigungs- und Forschungs-/Entwicklungskosten die Zeit vorbei ist, wo man innerhalb kurzer Abstände ein Modell zu einem Preis erhält, was 30% schneller ist und der Klasse der Vorgängergeneration angehört.
https://www.extremetech.com/computing/272096-3nm-process-node
https://semiengineering.com/how-much-will-that-chip-cost/

Denn wie sollte das ohne schnell verfügbares Schrumpfen der Nodes zu bewerkstelligen sein? Und ab 7-5 echten NM (haben wir noch ein wenig hin) ists erstmal schluss mit den üblichen Techniken und Materialien, da schwer zu kontrollierende Quanteneffekte auftreten:
https://semiengineering.com/quantum-effects-at-7-5nm/

Somit wird Leistung künftig immer Teurer, vor allem, weil wir uns inzwischen auch bei über 4000 shader cores befinden, die nach oben hin immer dürftiger skalieren werden.

Die IT Welt hat sich jetzt eine Zeit lang in einem Marktwirtschaftlichen Paradoxon bewegt. Schneller und im Verhältnis zur Leistung günstiger. Das wird in diesem extremen Maß nicht mehr so weitergehen, esseidenn sie schaffen es plötzlich einen Graphen Prozessor zu bauen, der ja angeblich die Taktzahlen in den Terahertz bereich hieven kann.
Dann würden die Recher auch mal wieder universell nutzbare Leistung erhalten ohne auf die parallelisierbarkeit von Programmen angewiesen zu sein.
 
  • Gefällt mir
Reaktionen: xexex und kisser
ZeroZerp schrieb:
Ich gehe davon aus, dass aufgrund explodierender Fertigungs- und Forschungs-/Entwicklungskosten die Zeit vorbei ist, wo man innerhalb kurzer Abstände ein Modell zu einem Preis erhält, was 30% schneller ist und der Klasse der Vorgängergeneration angehört.
[...]
Die IT Welt hat sich jetzt eine Zeit lang in einem Marktwirtschaftlichen Paradoxon bewegt. Schneller und im Verhältnis zur Leistung günstiger. Das wird in diesem extremen Maß nicht mehr so weitergehen[...]

Es muss ja auch nicht so extrem weiter gehen, aber zumindest kleine Verbesserungen wären wünschenswert. Aber du hast es ja selber zusammengefasst:

ZeroZerp schrieb:
[...]
1.Ich entscheide mich für ein älteres Modell (1080 TI) derzeit für 700,-€

2.Ich entscheide mich für das neue Modell, welches im Schnitt auch grundsätzlich noch ein wenig schneller ist als die alte Generation (2080) derzeit für 670,-€, gerüstet für die Zukunft um all diese Funktionen ab sofort und in allen demnächst erscheinenden Spielen nutzen zu können. Und auch mit der Möglichkeit von erheblichen Geschwindigkeitssteigerungen in Zukunft profitieren zu können.
[...]

Aktuell habe ich also die Wahl zwischen zwei mehr oder weniger gleich schnelle Grafikkarten für ungefähr den gleichen Preis. In 99% aller Spiele nutzen mir die architektonischen Vorteile der neuen Generation (die zweifelsohne da sind, das will ich nicht wegreden) wenig bis gar nichts.
Das ist dann rein vom Preis-Leistungs Standpunk aus Stillstand.

Das wird sich in Zukunft hoffentlich ändern, Spiel für Spiel, und darum würde ich auch die RTX 2080 einer GTX 1080Ti vorziehen, aber "normal" wäre mMn eben das, was @Revan1710 postuliert hat: Mehr Leistung für den gleichen Preis in der nächsten Generation.

Auch wenn das in Zukunft schwieriger zu erreichen sein wird, so hat man doch an den Ryzen Prozessoren gesehen, dass man mit etwas Kreativität Moore's Law aufrecht erhalten kann. Bloß hat NVidia da im Moment aus marktwirtschaftlichen Gründen kein Interesse dran.
 
  • Gefällt mir
Reaktionen: Revan1710
v_ossi schrieb:
Aktuell habe ich also die Wahl zwischen zwei mehr oder weniger gleich schnelle Grafikkarten für ungefähr den gleichen Preis.
Du hast die Wahl zwischen einer neueren in vielen Bereichen dramatisch schnelleren Grafikkarte, deren Funktionen bis jetzt nur von wenigen Programmen genutzt werden und der alten, grundsätzlich etwas langsameren Variante.
 
  • Gefällt mir
Reaktionen: kisser
ZeroZerp schrieb:
Ich gehe davon aus, dass aufgrund explodierender Fertigungs- und Forschungs-/Entwicklungskosten die Zeit vorbei ist, wo man innerhalb kurzer Abstände ein Modell zu einem Preis erhält, was 30% schneller ist und der Klasse der Vorgängergeneration angehört.

Es ging mir bei meiner Frage ja um Innovationen seitens Nvidia wie RT/DLSS etc. Diese sollen ja den aktuellen Preis rechtfertigen und nicht die gestiegenen Fertigungskosten. Demnach müsste AMD für Ryzen 2 ja exorbitante Preise verlangen.

Ich kann nicht verstehen, wie du Turing scheinbar garnichts Negatives abgewinnen kannst und jeden Preis billigst.
 
Revan1710 schrieb:
Es ging mir bei meiner Frage ja um Innovationen seitens Nvidia wie RT/DLSS etc. Diese sollen ja den aktuellen Preis rechtfertigen und nicht die gestiegenen Fertigungskosten. Demnach müsste AMD für Ryzen 2 ja exorbitante Preise verlangen.

Ich kann nicht verstehen, wie du Turing scheinbar garnichts Negatives abgewinnen kannst und jeden Preis billigst.
Also ich hätte die RTX2080FE auch für 450€ gekauft, so ist es ja nicht. Da wird sich kaum einer finden, der da nicht mit dabei wäre.
Zu AMD Prozessoren, bitte erinnere dich an die AMD FX 50-60 die gab es auch nicht umsonst, da hatte AMD kurz die Nase vorn. Dann kam die Intel Core Architektur und es war vorbei. Falls Zen 2 so einschlägt wie erwartet wir das auch kein Schnäppchen mehr.
 
v_ossi schrieb:
Auch wenn das in Zukunft schwieriger zu erreichen sein wird, so hat man doch an den Ryzen Prozessoren gesehen, dass man mit etwas Kreativität Moore's Law aufrecht erhalten kann. Bloß hat NVidia da im Moment aus marktwirtschaftlichen Gründen kein Interesse dran.

Die Realität ist eigentlich genau umgekehrt zu dem was du gerade gesagt hast. AMD hat bei den CPUs "in die Breite" gebaut, weil man was die Geschwindigkeit angeht bei den CPUs einfach schon an der Grenze angelangt ist. Die Entwicklung ist schon seit ein paar Jahren am stagnieren und man wird auch nicht mit immer mehr Kernen plötzlich ungeahnte Leistungssteigerungen mehr erwarten können. Die Parallelisierung ist im CPU Bereich leider auch nicht unendlich weiter zu treiben.

Bei den GPUs ist man mit der Parallelisierung schon lange gefahren und deshalb ergeben sich auch die vergleichsweise riesigen Chipgrössen. Man ist jetzt dabei die 7nm Fertigung hochzufahren in den nächsten 10 Jahren werden wir noch 3nm und 1nm erleben (Fantasienamen wohlgemerkt) und danach ist erst einmal Schicht im Schacht.

Das bedeutet im Umkehrschluss, dass die Anzahl der Recheneinheiten vielleicht noch einmal vervierfacht werden kann und danach mit einer einzelnen Grafikkarte nicht mehr möglich sein wird. Mit etwas Glück werden wir also in den nächsten 10-15 Jahren vielleicht nochmal sowas erleben, jedoch werden die Kosten für diese neuen Technologien exponentiell steigen.
1545484923744.png


Wenn man sich jetzt schon Leute nach 8K schreien hört, so kann man eigentlich gleich abwinken weil man mit keiner kommenden und bezahlbaren Technik der Welt solche Auflösungen in den Zukunft sinnvoll im PC Bereich einsetzen können wird. Bis dahin ist aber hoffentlich alles in die Cloud verlagert und dort können dann zumindest große Renderfarmen die Bildaufbereitung übernehmen. Bezahlbar für den Privatgebrauch wird lokales Rendering dann aber nicht mehr sein.

Nvidia hat hier in meinen Augen aber mit RTX zumindest einen Schritt in die richtige Richtung getan und wirklich eine neue Technologie eingeführt, die in der Zukunft führend sein wird. Mit der bisherigen Technik ist man was die Bildqualität angelangt schon lange in einer Sackgasse gelandet und weil man das Ende der Entwicklung so langsam am Horizont sehen kann, ist es auch der einzig richtige Schritt.

Der wichtigste Punkt ist jedoch wie ZeroZerp bereits angemerkt hat, dass die ultraschnelle Entwicklung im IT Bereich so langsam zum erliegen kommt und man sollte sich von dem Gedanken verabschieden jedes Jahr hier und dort mehr Pixel, mehr Leistung, mehr Qualität und mehr irgendwas zum gleichen Preis zu bekommen.

Wir sind angelangt an dem Punkt wo "mehr" schlichtweg viel mehr kostet. Wenn ein Unternehmen wie Intel schon jetzt seit Jahren mit der neuen Technik zu kämpfen hat und Unternehmen wie Globalfoundries das Handtuch werfen, wird sich das auch entsprechend auf die Preise auswirken, bis ein "mehr" für Privatanwender nicht mehr zu bezahlen sein wird.
 
Zuletzt bearbeitet:
Revan1710 schrieb:
Ich kann nicht verstehen, wie du Turing scheinbar garnichts Negatives abgewinnen kannst und jeden Preis billigst.
Preise muss ich nicht billigen, so lange es sich um Luxusartikel handelt. Man unterliegt keinem Zwang einen Luxusartikel zu kaufen. Und GTX- RTX Karten sind nunmal Spielzeug.

Und zudem ist es eher so, dass man Preisstabil geblieben ist und anstatt wie sonst immer statt 30+ % mehr Raster- Leistung nur 2-3% Mehleistung erhält, dafür die x-fache Leistung durch Zusatzprozessoren und eine neue Renderpipeline, bei welchen sich mit der Zeit alle möglichen und unmöglichen neuen Beschleunigungstricks ergeben werden.

Was ich nicht gutheisse, ist der unkontrollierte Start ohne Software, den NVIDIA hier mit der Karte hingelegt hat.
Dann die schlechten, fehlerhaften Implementierungen der ersten Varianten, in welchen die Zusatzprozessoren genutzt werden.
Da konnte auch ich nur den Kopf schütteln.

Die hätten ein par schöne Systemseller gebraucht, die diese Technik halbwegs ausgereift zeigen. So haben sie natürlich den Kritikern Tür und Tor geöffnet, weil eben niemand den Mehrwert der Karten erkennen kann.

Wenn sie Shadow of the Tomb Raider, oder Battlefield 5 oder halt irgendwas, was sich fett verkauft mit Mesh- Shadern ins Rennen geschickt hätten und sich dort die Framezahlen plötzlich verdoppelt und verdreifacht hätten, würden hier ganz andere Diskussionen über die RTX Karten geführt werden.

So versteht der Standarduser, der sich nicht über die Technik informiert, natürlich die Tragweite der Änderungen nicht und winkt (zu Recht) ab.

Das war einfach Dilettantismus in Reinform.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Monarch2
@xexex Ich stimme dir (und übrigens auch @ZeroZerp ) in vielen Punkten bezüglich der aktuellen und zukünftigen technischen Entwicklungen zu.

Aber... aber... ich finde die Umsetzung für Konsumenten weiterhin schlecht und unterstelle NVidia in erster Linie Gier.
Wenn man die diversen Techniken (am prominentesten bei Turing eben Raytracing) in den Markt drücken will, macht man das nicht mit 1000€ Karten, die kaum Marktanteil haben.

Die Blu-Ray hat Sony beispielsweise mit subventioniertem Konsolen durchgedrückt.

Gebt den Leuten RT Karten und die Spieleentwickler werden das in Spiele einbauen.

So werden die zahlreichen Features weiterhin das Henne-Ei Problem haben. Keiner implementiert sie, weil keiner die Features nutzen kann. Vega lässt grüßen.
 
pietcux schrieb:
Also ich hätte die RTX2080FE auch für 450€ gekauft, so ist es ja nicht. Da wird sich kaum einer finden, der da nicht mit dabei wäre.

Es geht ja nicht darum, dass ich erwarten würde, dass Nvidia seine RTX-Karten dermaßen unter Wert verkauft.
Ich will jetzt auch nicht noch weiter vom Thema abkommen, es geht um den in meinen Augen deutlich zu hohen UVP von 349$ für die 2060.

Neue Innovationen, gestiegene Fertigungskosten - alles schön und gut. Aber mir konnte noch keiner erklären, wie eine 2060 mit 40 % Aufpreis zum Vorgänermodell (75 % geht man vom günstigsten 1060er Modell aus)
den deutlich größeren Preisanstieg hat als die 2070 oder 2080, wo sie doch nachweislich den geringsten Nutzen aus diesen Techniken zieht. Damit kann sie bei der P/L nur schlecht dastehen und das bei der Zielgruppe, in der P/L das A und O ist.

ZeroZerp schrieb:
So versteht der Standarduser, der sich nicht über die Technik informiert, natürlich die Tragweite der Änderungen nicht und winkt (zu Recht) ab.

Sollte er sich stattdessen von einem Mesh-Tech-Demo beeindrucken lassen und dafür viel Geld bezahlen, obwohl keins seiner Spiele daraus einen Vorteil zieht? An dem Punkt kommen wir auf keinen gemeinsamen Nenner, da drehen wir uns im Kreis.

ZeroZerp schrieb:
Die IT Welt hat sich jetzt eine Zeit lang in einem Marktwirtschaftlichen Paradoxon bewegt. Schneller und im Verhältnis zur Leistung günstiger. Das wird in diesem extremen Maß nicht mehr so weitergehen
Die Konsequenz aus zunehmenden Stillstand sollte aber nicht sein, dass ich bereit bin für immer kleinere Leistungssprünge immer mehr zu bezahlen sondern, dass ich deutlich seltener aufrüsten kann und muss. Sinkende Verkaufzahlen oder längere Produktlebenszyklen sind mit Sicherheit nicht im Interesse von Nvidia oder Amd. Also werden diese alles daran setzten auch weiterhin Fortschritte zu machen, die sich auch attraktiv verkaufen lassen.
 
Revan1710 schrieb:
Ich will jetzt auch nicht noch weiter vom Thema abkommen, es geht um den in meinen Augen deutlich zu hohen UVP von 349$ für die 2060.
Ist der Preis denn jetzt schon fix?

Sollte er sich stattdessen von einem Mesh-Tech-Demo beeindrucken lassen und dafür viel Geld bezahlen, obwohl keins seiner Spiele daraus einen Vorteil zieht? An dem Punkt kommen wir auf keinen gemeinsamen Nenner, da drehen wir uns im Kreis.
Da SIND wir bereits auf einem Nenner. Wie ich oben geschrieben hab, ist es ein Witz, dass sie nicht erst taktisch in einem aktuellen Spiel die Mesh Shader integriert haben, anstatt dem ganzen Blingbling. Würde ein spiel dann nur doppelt so schnell laufen, wären den Leuten die Augen rausgeflogen und es hätte keine Preisdiskussion und sonstige Nebendiskussionen mehr gegeben.

Absolut unverständlich...

Die Konsequenz aus zunehmenden Stillstand sollte aber nicht sein, dass ich bereit bin für immer kleinere Leistungssprünge immer mehr zu bezahlen sondern, dass ich deutlich seltener aufrüsten kann und muss. Sinkende Verkaufzahlen oder längere Produktlebenszyklen sind mit Sicherheit nicht im Interesse von Nvidia oder Amd sein. Also werden diese alles daran setzten auch weiterhin Fortschritte zu machen, die sich auch attraktiv verkaufen lassen.
So ist es - Wo noch vor 15 Jahren der Rechner innerhalb eines Jahres zum Alteisen gehörte, kann man seine CPU nun auch ohne große etwas verpasst zu haben auch mal 5 Jahre laufen lassen, ohne "abgehängt" zu werden.
Schont den Geldbeutel :) Es hat alles seine Vor- und seine Nachteile.

Aber wie gesagt- Was soll man machen. Forschung und Fertigung erzielen mit immer höherem, Aufwand immer geringer werdende Performancesprünge.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Revan1710
Zurück
Oben