Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtRTX-3000-Technik im Detail: Floating Point ist Amperes Liebling
Grundsätzlich nutzt jedes Spiel wesentlich mehr FP32 Berechnungen als Int32. Int32 benötigt man in erster Linie in Applikationen und nicht bei der Grafikdarstellung.
Ich halte es für fatal die kommenen AMD Chips zu unterschätzen denn selbst mit einem doppelten Navi 10 und ohne weitere Optimierungen dürfte man den 3070er und vermutlich auch den 3080er Modellen gefährlich nahe kommen. Vielleicht wurden diese ja deshalb preislich so tief angesetzt.
Da ich vorher einen 4k-28"-Bildschirm hatte, kann ich dir versichern, dass deine Aussage absolut falsch ist. Denn auch bei 4k in 28" hast du ein deutliches Flimmern an Polygonkanten und von Vegetation wie Bäumen und Gräsern will ich gar nicht erst anfangen! Die Auflösung ist dafür immer noch deutlich zu niedrig und selbst da sieht es mit DLSS deutlich besser aus!
Das finde ich auch immer wieder witzig, auf der einen Seite einen Möglichst schnellen Monitor kaufen um keine Bewegungsunschärfe wegen der Pixel Trägheit zu bekommen und dann Rechenleistung verbraten um sie wieder künstlich rein zu rechnen.
AMD hat ja angekündigt RT Berechnungen über die normalen Shader durchführen zu lassen, was möglicherweise dazu führen wird, dass diese Karten in RT Spielen abstinken, aber in Spielen die nur klassische Shader nutzen mit Nvidia mithalten können.
Falsch, AMD hat angekündigt die Strahlenverfolgung über einen spezialisierten Teil in den Textureneinheiten zu berechnen, die Effekte selbst werden bei beiden über die Shader berechnet.
Das Thema hatten wir doch letztens erst, RT läuft bei AMD genau so über die shader, wie bei Nvidia auch.
Nur die BVH abfragen lagert man bei Nvidia auf die RT Cores aus, bei AMD entsprechend in die TMUs
Und beide Systeme haben auch ihr Vor- und Nachteile.
Die »vollständige« Suche bei NVIDIA kann man gut asynchron laufen lassen und den Shader (das PROGRAMM) wecken, wenn das Ergebnis da ist. Kommt es zu einem Dismiss/fail (nennt wir ihr es wollt), muss aber die ganze Suche noch mal laufen. Zudem muss man zwangsweise bis zum Ende laufen.
Der AMD-Ansatz ist flexibler, was im ganzen dann »langsamer« ist, gleichzeitig kann man aber auf ein Dismiss wesentlich früher reagieren und korrigierend eingreifen. Zudem kann man bei AMDs Lösung bei Bedarf allgemein früher aussteigen aus der Suche, wenn man nur "ungefähr" was will.
Für beide Lösungen gibt es Argumente und beide Lösungen haben in bestimmten Szenarien Stärken und in anderen Schwächen.
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben hoher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP dabei um 100W anhebt.
Zu was Ampere mit der TDP der 2080 imstande ist, sieht man ja an der 3070, die vielleicht 30% schneller sein dürfte
Dafür hat man eigentlich den Shrink. Oder man verringert den Takt leicht, damit man quadratisch Verlustleistung einspart.
Uff! So, alle Kommentare bis hierhin durchgelesen. Wie sieht es eigentlich mit Sparsity aus? Bringt das, wie im Artikel geschrieben, nur beim Training des neuronalen Netzwerks etwas oder auch bei der Ausführung von DLSS?
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben höher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP um fast 100W anhebt.
Das hat mal vor 10 Jahren vielleicht so funktioniert, ein Shrink von 12nm auf 8nm gibt dir keine 100% Effizienzsteigerung. TSMC sprach bestenfalls von 16FF+ auf 7FF von 60%.
Ob man die Leistung nun mit übertrieben hohem Takt oder übertrieben hoher Anzahl an Schaltungen soweit erhöht, es bleibt für mich eine Brechstange wenn man die TDP um fast 100W anhebt.
Wobei man hier dann aber ein Stück die aktuell kommunizierte Leistung mit dem Anstieg der TDP in Relation setzten muss.
Bis zu 100 % mehr gegenüber der 2080 stehen eben nur knapp 50 % mehr Energie gegenüber, das ist durchaus »beeindruckend«.
Wobei, soll ich mal die negative Spaßverderber-Position zu Ampere einnehmen? XD
35 % mehr Shader, fast 20 % mehr Takt, und dann nur genauso schnell wie die 2080 Ti... WOW! Unterwältigend.
Die 3080 100 % mehr Shader als die 2080 Ti, aber nur bis zu 100 % schneller als die 2080... Unterwältigend.
Bitte jetzt nicht falsch verstehen, das ist nicht ernst gemeint. Aber man kann halt auch eine negative Sichtweise einnehmen, wenn man will.
So, wer will meine Niere für 2000 € kaufen? Wer nimmt meine Kinder und Kindeskinder in Zahlung? XD
Faule Ausrede, um den Verbrauch zu senken hätte man nur die Taktfrequenz entsprechend senken müssen aber genau das wurde nicht gemacht sondern auf den Verbrauch gepfiffen um die Taktfrequenz hochzuschrauben und Leistung rauszuquetschen. Ob 2 GHz oder nicht ist dafür unerheblich.
Nochmal für dich: Es ist völlig egal wo der erhöhte Strombedarf herkommt, wenn Nvidia es für nötig hält den Verbrauch von der 2080 auf die 3080 von 215W auf 320W zu erhöhen, statt im Bereich der 2080 zu bleiben und die Karte meinetwegen mit 1.4 statt 1.7GHz takten zu lassen, ist das für mich Brechstange, weil man sich genötigt gesehen hat die Karte so dermaßen viel mehr verbrauchen zu lassen, vmtl um gegen Navi 21 gegenhalten zu können.
Und warum ignorierst du dabei den feineren Fertigungsprozess, welcher normalerweise auch mit einer Energieersparnis einher geht? Man ist für große Zahlen über das Ziel hinaus geschossen, so einfach ist das.
Warum sollte man die 3080 mit der 2080Ti vergleichen?
Wenn man das tun würde, klar, dann wäre der Abstand kleiner aber dann muss man auch über die 700 vs 1200 Dollar sprechen.
Der Vergleich 2080 700 Dollar vs 3080 700 Dollar ist hier passender.
Dabei vergisst du aber, wie inflationär die Preise der Turing Generation waren im Vergleich zu allem was davor kam. So wirkt die Preispolitik auf einmal wie ein Segen, ist aber letztlich nur Durchschnitt.
Allgemein sehr spannende Informationen die aus dem Artikel hervorgehen und vielleicht sollte der ein oder andere 2080 Ti Besitzer einen vorschnellen Verkauf nochmal überdenken. Nvidia zeigt in seiner Präsentation (wie alle Hersteller) Best Case Scenarios, die das eigene Produkt favorisieren. Wer jedoch auf RTX setzt und dieses Feature nicht missen möchte ist mit der Ampere Generation auf alle Fälle besser bedient. Ich bin gespannt, wie AMD kontert. RDNA2 hat eine 50% Performance Per Watt Verbesserung laut AMD. Das wird wohl kaum reichen um mit Nvidia gleichzuziehen außer vielleicht in Rasterization Performance. Aber für den Endkunden könnte das zumindest die Preissituation verbessern.
Absolut nicht! Denn am Ende zählt nur eines, die Effizienz und die hat man erheblich steigern können.
Verbraucht ein SUV das gleiche wie ein Kleinwagen? Dein Argument hört sich so, als würdest du genau dieses glauben, man braucht ja nur mit 30kmh fahren, dann verbraucht man auch nicht mehr als ein Kleinwagen bei Tempo 100. Nur ist die Argumentation absoluter Blödsinn!
Mehrleistung kommt von "mehr" und "Leistung", die Brechstange setzt man dann ein, wenn am Ende für die restlichen 10% an Leistung die doppelte Energiemenge eingesetzt werden muss, wie einige das gerne bei ihnen OC Systemen machen, nur ist das hier absolut nicht der Fall.
Dort klang es so, als würde Ampere 2xFP32 + 1xINT32 berechnen können, anstatt dass jetzt 1 FP32 und (de facto) ein AMD-Shader zusammenarbeiten. Der einzige Vorteil für Nvidia ist die kompaktere Auslegung der Rechenwerke, man macht sich damit aber unflexibler, als es bei Turing war.
Je nachdem wie jetzt der Aufbau ist, würde ich es eher so formulieren, dass die INT32 Einheiten, die bei Touring fast brach liegen beim Gamimg jetzt endlich auch ausgelastet werden, da eben die ALUs jetzt auch für FP32 genutzt werden können.
Nvidia selbst gibt ein 30:70-Verhältnis für INT:FP an. Das heißt, das alte Verhältnis von 1:1 in den Shadern war schon Verschwendung, und es wird jetzt besser.
Die Frage ist dann noch, wie groß ist der Performance-Impact. Denn Touring hat bei weitem keine +30% auf Pascal aufgeholt durch die INT32 Einheiten. Das waren im Schnitt imho nicht mehr als 10%. Der Rest kam einfach durch mehr SM und mehr Takt.
Von daher glaube ich nicht wirklich, dass nVidia großartig Probleme mit INT32 bzw. eben den dann nicht vorhandenen 128 FP32 hat.
Erheblich? Man liegt ca 60-80% über einer 2080, nach den von Nvidia ausgewählten Benchmarks, also sagen wir mal wohlwollend 60-70% am Ende.
Dafür braucht man nun mit 320 zu 215 50% mehr Leistung. So viel effizienter ist das nun nicht für einen node Shrink und verbesserte Architektur, eben weil man oben raus die Brechstande angesetzt hat.
Eine 3080 auf 275W TDP limitiert, wird mit sicherheit nur 5% langsamer sein, das sind aber vielleicht die 5% denen man dann Big Navi zu nahe zu kommen fürchtet.