Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

evilhunter schrieb:
@Andregee

Witzige Unterstellung. Danke, der Tag fängst schon lustig an :)
Hättest du seinen Text und meinen Text durchgelesen, wüsstest du worauf ich hinaus will.

Anscheinend wußtest du nicht woraus Gonzales hinaus wollte.


Wie viel mehr Leistung durch diese Anpassung in der Praxis ankommt, hängt im Wesentlichen von zwei Faktoren ab. Der erste ist die Anwendung selbst.
Angenommen, ein Spiel verlangt primär nach Gleitkomma-Berechnungen, wird ein Ampere-SM deutlich rechenstärker als ein Turing-SM sein. Gibt es dagegen verhältnismäßig viele Ganzzahlen-Berechnungen, nähert sich die Rechenleistung an. Von gleich schnell bis doppelt so schnell ist theoretisch alles möglich und es kann durchaus passieren, dass die Anwendung, die Turing aufgrund verhältnismäßig vieler INT-Berechnungen besonders gut schmeckt, Ampere eher weniger liegt, während die Titel, in denen Turing kaum bis gar nicht von den zusätzlichen INT-Einheiten profitiert, Ampere besonders gut liegen. Langsamer als ein Turing-SM ist ein Ampere-SM aber in keinem Fall.



Das war sehr offensichtlich unter Kenntnis des Artikelinhaltes. Liegt hier also kein fehlendes Lesen vor, dann eben mangelndes Verständnis.


1. Er schreibt " unter ganz bestimmten Voraussetzungen, die aber fast keine Spiele bieten "



3. Ich schreibe selbst, dass die Rohdaten nicht schlecht sind und sich das in Spielen beweisen muss.



Erst wird es als Fakt dargestellt und ein paar Zeilen darunter muss es sich erst beweisen?
Fakt ist, das die gestiegene Rohleistung von bestimmten Faktoren abhängig ist, die niemand konkret für die von ihn genutzte Software vorhersehen kann und sie im ungünstigen Fall eben nicht deutlich höher liegt und genau das hat Gonzales angesprochen.
 
Andregee schrieb:
Unnötig langes Zitat durch Moderation entfernt
Das ist soweit ich weiß nicht der Fall, da auch die IPC unter Ampere zugenommen hat. Also selbst im Worst Case dürfte Ampere schneller sein. Aber nicht eben im 60-100% Bereich. Vielleicht eher 10%?
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderation entfernt)
@Andregee

Deswegen hab ich ihn gefragt warum er denkt, dass er die Rohleistung für schlecht hält, damit ich verstehe was er meint. Fakt ist die Rohleistung ist hoch. Dann kamst DU mit deinen Unterstellungen. Warum nicht einfach Fragen was ich damit gemeint hab?
Bei den Punkten zur Real World Performance bin ich bei dir.
Nur braucht du keine Vorwürfe machen wenn du selbst nicht verstanden hast worauf ich hinaus wollte.
Dein Unterton ist einfach fehl am Platz.

Andregee schrieb:
Erst wird es als Fakt dargestellt und ein paar Zeilen darunter muss es sich erst beweisen?
Fakt ist, das die gestiegene Rohleistung von bestimmten Faktoren abhängig ist, die niemand konkret für die von ihn genutzte Software vorhersehen kann und sie im ungünstigen Fall eben nicht deutlich höher liegt und genau das hat Gonzales angesprochen.

Das Spiele FP lastig sind ist Fakt.
Wie gut es schließlich in der Praxis funktioniert muss sich halt erst beweisen. Das kann ich nicht wissen und deshalb schreibe ich es auch so.
Ich wollte bloß nicht nur mit den DF Benchmarks argumentieren, sondern Tests von CB etc. abwarten.
Bisher scheint die Performance nämlich wirklich gut zu werden.

Tensor und RT Leistung unterschlägst du weiterhin.

Grüße
evil
 
Wadenbeisser schrieb:
Ich leugne gar nichts sondern glorifiziere nur nicht alles in den Himmel was Platzhirsch so treibt denn genau diese Lobpreiserei schadet dem Kunden nur.

Das sind schlicht Fakten CPU A > CPU B in workload C (Spiele) und die passen dir nicht in den Kram und werden geleugnet. Glorifiziert wird da gar nichts.
Zudem fängst du an die Schuld bei Nvidia zu suchen und als nächstes sind die unfähigen Spielentwickler dran, welche es nicht vermögen 32 Threads auszulasten. Erinnert mich an Donald Trump und sein Bullshit-Bingo in der CoronaKrise, 1:1 dieselbe Taktik.

Es fehlt AMD eben an genügend Takt um in der Disziplin AMD zu übertreffen.
ST Leistung bei ausreichend Cores ist das, was man momentan für eine hohe Spieleleistung benötigt, keine Kernmonster.

Wadenbeisser schrieb:
Solange ein vielfaches der Rechenleistung ungenutzt brach liegt ist es mir ganz einfach egal ob etwas im einstelligen bis unteren zweistelligen Prozentbereich schneller ist.

Deshalb habe ich mich unter anderem für einen 3700x entschieden, weil die Rechenleistung des 3950x für mein Einsatzgebiet einfach nur sinnlos brach liegt.

Wadenbeisser schrieb:
Es rentiert sich für mich als Kunde ganz einfach nicht die aufgerufenen Preise zu zahlen.

Eben, wer zahlt schon den Preis eines 3950x, wenn ich die Spieleleistung auch mit einem 3600XT haben kann.
 
  • Gefällt mir
Reaktionen: voalirus, Highskilled, evilhunter und eine weitere Person
@KlaraElfer

Und warum zahlst du dann nur allso bereitwillig den Preis für Sachen die du nicht brauchst?
Das einzige was du dafür benötigst ist ein Produkt mit ausreichend Kernen und den entsprechenden Takt.
Intels aktuelle 10 Kerner kosten über 500€ und die 6 Kerner sind mit unter 250€ dabei, du bezahlst mehr also den doppelten Preis weil das ausreichende Produkt nicht mit dem gleichen Takt angeboten wird und verteidigst diese Produktpolitik auch noch die dir schadet.
Glückwunsch für so viel "Weitsicht".

Soll Intel entsprechende Modelle eben zusätzlich als super duper Gaming Edition mit dem entsprechenden Takt anbieten und dafür 25% auf den Preis draufschlagen, ist für den Kunden immernoch billiger als der überdimensionierte 10 Kerner und dürfte dennoch für eine ausreichende Gewinnspanne sorgen.
 
  • Gefällt mir
Reaktionen: Mcr-King

Hier wird auch erwähnt, dass die VRAMy Anforderungen von Auslesesoftware wie GPU-Z zB keine wirkliche Aussage über die tatsächlich verwendete Menge an GB liefert. Vielleicht für alle interessant, die glauben 10 Gb sei zu wenig.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, Mcr-King und pietcux
@monitorhero Ist dir bekannt, dass du so ziemlich eine Woche hinter dem aktuellen Stand hinterher diskutierst?

Wie man VRAM-Anforderungen richtig erkennt, siehst du in jedem CB-Grafiktest. Da sieht man auch, dass 11GB bisher ausreichend sind und 8 GB selten mal Probleme haben. 6GB hingegen haben schon seit 2016 immer wieder Probleme, mittlerweile sogar in FHD. Das ist alles nichts neues und ändert sich auch durch Erscheinen von Ampere nicht. Man kann daraus folgern, dass 10GB zurzeit in Ordnung sind (bis 4K, höhere Auflösungen werden von CB ja nicht getestet). Die 8GB der 3070 sind dementsprechend sehr knapp kalkuliert für eine 4K-Karte.

Was du anscheinend noch nicht kennst, ist die Geschichte des VRAM-Verbrauchs zur Zeit der letzten Konsolen-Generation. Da gab es auch viele Stimmen, die 3GB und 4GB im PC als völlig ausreichend beschrieben haben, allerdings stieg dann der VRAM-Bedarf neuer Spiele sprunghaft an. Das passiert, wenn die Entwickler ihre Spiele von Grund auf für die neuen Konsolen entwickeln und einen entsprechenden VRAM für die Texturen einkalkulieren.

Die PS4 hatte 8GB Speicher, davon 3,5 GB fürs System und 4,5 GB für die GPU (zahlen aus dem Kopf). Später wurde, soweit ich weiß, noch 1 GB des Systems an die GPU abgegeben. Trotzdem wurden in dem Zeitraum 6 GB am PC knapp.
Jetzt liefert die PS5 16 GB Speicher mit ca. 11 GB für die GPU. Ich prophezeie anhand dieser Zahlen schon, dass in 1-2 Jahren die Spiele gerne mehr als 10 GB hätten für volle Texturdetails. Da sich eine nicht geringe Zahl der Spieler eine Grafikkarte für längere Zeiträume kauft, und gerade deswegen etwas mehr Geld in die Hand nimmt, sind 10 GB für eine 699€-Karte recht wenig.

Dazu kommt, dass man den Speicherwachstum historisch betrachtet. Bei den 70er-Karten gab es seit der 1070 8 GB, also keinerlei Speicherzuwachs. Bei den 80ern sind es jetzt immerhin 2 GB mehr.
Früher wurde die Speichergröße alle 2 Jahre verdoppelt, passend zu Moore's Law. Speicher ist zurzeit auch nicht knapp und deswegen nicht teuer, auch wenn er bei GDDR6X das neuste ist.

8 GB und 10 GB sind unter diesen Gesichtspunkten also wenig. Ob es zu wenig ist, muss jeder selbst entscheiden.
 
  • Gefällt mir
Reaktionen: Mcr-King und matty2580
Ich geh von der 1080Ti auf die 3080 und wenn 10GB nicht mehr reichen, verkaufe ich halt und kauf dann was Anderes. ^^ (3080Ti/4080... was auch immer)
 
  • Gefällt mir
Reaktionen: GERmaximus, eyedexe, FreedomOfSpeech und 3 andere
snickii schrieb:
Ich geh von der 1080Ti auf die 3080 und wenn 10GB nicht mehr reichen, verkaufe ich halt und kauf dann was Anderes. ^^ (3080Ti/4080... was auch immer)
So mach ich das auch immer. Vor allem verliert man dadurch nicht wirklich. Meist geht die Karte dann innerhalb der Garantiezeit noch für gutes Geld weg und bis zum ZeitpunktXY haben sich auch die Preise für die höheren Modelle eingependelt.
Zudem hat man mehr Auswahl bei den Boardpartnern.

Die Suppe wird da nicht so heiß gegessen, wie sie gekocht wird. Ist der VRAM Bedarf über 8GB im Augenblick noch eine extrem seltene und softwarespezifische Ausnahme.
Spielt man genau diese Titel nicht bzw. hat man kein Interesse daran, bringt einem der zusätzliche VRAM nichts.

Ich habe immer mehr das Gefühl, dass hier viele ihre Hardware als Wertanlage sehen und diese unter vielen Gesichtspunkten bewerten nur nicht für den aktuellen Bedarf beim Kauf.

Das kann nicht gut gehen bzw. wenn man so tatsächlich sowas wie rudimentäre Sicherheit haben will, muss man halt gegen den eigenen Bedarf das maximal Verfügbare nehmen.
Dann kann man sich (fast) sicher sein, dass man innerhalb einer Generationsperiode (2-3 Jahre) nicht in einen Begrenzer rennt, hält allerdings die restlichen 99% der Zeit überflüssig viel Speicher für viel Geld vor.

Und dann ist es hochwahrscheinlich, dass das Dickschiff, wenn mal eine größere Zahl an Titeln den Speicher anfängt zu nutzen, dieses in der Renderleistung durch die neuen Modelle deklassiert wird.

Aber so sind halt die unersättlichen User. Hohe Leistung, dicken VRAM zum niedrigstpreis. So sollte es sein.
Die eigene Gier, die man immer den Herstellern unterstellt, kennt halt bei sich selbst genausowenig irgendwelche Grenzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, milliardo und snickii
Und ich lass halt einfach die Finger von 4k. Mit WQHD kommt meist auch die Mittelklasse recht gut zurecht.
 
  • Gefällt mir
Reaktionen: Mcr-King und snickii
Colindo schrieb:
Da sich eine nicht geringe Zahl der Spieler eine Grafikkarte für längere Zeiträume kauft, und gerade deswegen etwas mehr Geld in die Hand nimmt, sind 10 GB für eine 699€-Karte recht wenig.


So sehe ich das auch. 10GB soltten im Grunde die nächsten 1-2 Jahre keinerlei Probleme machen, zumindest bis 1440p. Ausgenommen evtl. irgendwelcher sehr speziellen Ausnahmen. Aber kauft man die karte mit der Erwartung, dass man Sie 3-4 oder mehr Jahre nutzt, dann finde ich 10GB doch schon recht knapp.

Hier sollte also vorher klar sein, was man möchte. Ich werde, wenn AMD nichts interessantes vorstellt, auch zur 3080 greifen und dann bei bedarf gegen etwas mit mehr Vram eintauschen. Hatte jetzt die letzten male die "länger behalten" Strategie gefahren, aber man verbrennt damit deutlich mehr Geld und hat weniger davon.

Gibt übriges zu Big Navi neue Gerüchte. Die Gamingversion soll tatsächlich ein 384 Bit Speicherinterface haben und wohl mit 12GB Starten. Die oft genannten 16GB beziehen sich auf die 256 Bit Navi 22 Mittelklasselösung.

Würde zumindest erklären, warum die 3070Ti mit 16GB schon in Leaks aufgetauscht ist, aber man noch kein bisschen von einer möglichen 3080 20GB gesehen hat. Gut möglich, dass diese niemals kommt oder wenn dann erst deutlich später.

Aber mal abwarten. Wird ein spannender Hardwareherbst und wenn man etwas flexibel ist und einem der Hersteller egal ist, kann man da tolle Dinge aus allen Lagern kaufen. Bin auf AMD jetzt sehr gespannt.
 
  • Gefällt mir
Reaktionen: KlaraElfer, snickii und pietcux
Colindo schrieb:
Unnötig langes Zitat durch Moderation entfernt

In der Regel vertraue ich den Aussagen von Steve Burke, wenn dieser sagt, es gibt keine adäquate Software um den tatsächliche VRAM Verbrauch auszulesen. Aber ich bin auch offen für neue Informationen. Er erwähnt ja auch, dass Spiele zwar RAM anfordern, aber effektiv nicht soviel genutzt wird. Das kann man dann prüfen, indem man eine Karte mit weniger VRAM und gleichen Einstellungen laufen lässt. Also selbst wenn ich Szenen mit vielen Texturen in 8k und höher in Blender rendere, bekomme ich meine 11 GB der 1080ti nicht voll.
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderation entfernt)
  • Gefällt mir
Reaktionen: pietcux
Da die neuen Konsolen mit 4k beworben werden, gehe ich davon aus dass sich diese Auflösung schnell durchsetzen wird, auch am PC.

Die Zeit von 1080p neigt sich langsam, aber sicher, dem Ende zu.
Endlich, so lange ist der Markt noch nie bei einer Auflösung stehen geblieben, wie bei 1080p.
 
Wadenbeisser schrieb:
Und warum zahlst du dann nur allso bereitwillig den Preis für Sachen die du nicht brauchst?

Also machst du aus der Leistungsdiskussion nun eine Preisdiskussion?
Das wäre schon dein dritter Ablenkungsversuch. Man kann die höhere Spieleleistung der Intel CPUs entweder akzeptieren oder leugnen. Aber so ein Bekenntnis kommt wohl nicht über deine Lippen.
AMD CPUs sind viel schneller und energieeffizienter in Anwendungen mit Multicoresupport (Blender, Cinebench und Co). Schau, kein Problem für mich.;)

Wadenbeisser schrieb:
Das einzige was du dafür benötigst ist ein Produkt mit ausreichend Kernen und den entsprechenden Takt.

Korrekt, deshalb entschied ich mich ja für den 3700x und nicht für den 3950x.
Die Kerne schlagen nicht durch, noch bietet der 3950x höhere Taktraten.

Wadenbeisser schrieb:
Intels aktuelle 10 Kerner kosten über 500€ und die 6 Kerner sind mit unter 250€ dabei, du bezahlst mehr also den doppelten Preis weil das ausreichende Produkt...

Mir war der 10600K aber nicht ausreichend, weil ich bereits eine CPU (8700K) mit der Spieleleistung hatte.
Dich stört also nicht nur, dass die Intel CPU´s eine höhere Spieleleistung besitzen, sondern dich stört auch, dass ich so eine gekauft habe, interessant. Das kann dir doch völlig egal sein, wofür ich mein Geld ausgebe.
Wadenbeisser schrieb:
Soll Intel entsprechende Modelle eben zusätzlich als super duper Gaming Edition mit dem entsprechenden Takt anbieten und dafür 25% auf den Preis draufschlagen, ist für den Kunden immernoch billiger als der überdimensionierte 10 Kerner und dürfte dennoch für eine ausreichende Gewinnspanne sorgen.

Wenn sich der 10 Kerner dann nicht entsprechend auch so hoch takten ließe, dann wäre das 6c Modell sicher interessant, vor allem dann wenn auch der nötige Cache geboten würde.
 
matty2580 schrieb:
Die Zeit von 1080p neigt sich langsam, aber sicher, dem Ende zu.
Endlich, so lange ist der Markt noch nie bei einer Auflösung stehen geblieben, wie bei 1080p.
Tja- Ist wie mit allem anderen am Grafikkartenmarkt eben auch.
Es ist für die meisten good enough. Und damit hat sichs auch schon....

Die anderen wollen bessere Grafik- Die ist für viele aber bereits good enough
Die anderen wollen höhere FPS- Ist aber auch bereits good enough

Für einen großteil besteht überhauptkeine Notwendigkeit in irgendeiner Richtung Fortschritt voranzutreiben.
Die nehmen einfach nur jede Änderung früher oder später als gottgegeben mit, schauen dann später auf ältere Titel und sind verwundert, dass sich grafisch und technisch doch was getan hat.
 
Jetzt stehen aber die neuen Konsolen für 4k Gaming, was der Auflösung einen ordentlichen Boost geben wird.
Im TV-Bereich ist 4k auch schon längst Standard, nur im PC-Bereich leider nicht.
 
matty2580 schrieb:
Da die neuen Konsolen mit 4k beworben werden, gehe ich davon aus dass sich diese Auflösung schnell durchsetzen wird, auch am PC.

Die Zeit von 1080p neigt sich langsam, aber sicher, dem Ende zu.
Endlich, so lange ist der Markt noch nie bei einer Auflösung stehen geblieben, wie bei 1080p.
Was glaubst du wieviele von den 70% auf 1080p mit einer GTX 1060 plötzlich auf 4K gehen werden? Wenn man sich die Hardware Survey anschaut gab es nur wenig Bewegung in den letzten Jahren. Aktuell haben 2% 4K Monitore. Man muss bedenken, dass deutlich mehr Menschen Budget Hardware verwenden.
 
Dann kann es durchaus passieren, dass auf der PS5 4k Standard ist, und viele PC-Spieler deutlich niedrigere Auflösungen nutzen. Dann sind die neuen Konsolen die Vorreiter, und nicht mehr der PC.
 
Meine WQHD Monitore werden noch recht lange laufen. Ich spreche ja auch nur für mich.
 
  • Gefällt mir
Reaktionen: Mcr-King und monitorhero
Hm. Bleibt nur warten für mich. 3090 zu teuer, 3080 weniger VRAM als meine jetzigen 1080Tis .. auch uninteressant. Ideal irgend so ne 3080 Super/Ti/Schlagmichtot mit 16 GB und NVlink. Letzteres brauche ich glaubs, um in OTOY Octane das VRAM als ein einziges, gepooltes VRAM (also 32 GB) zu sehen. Sofern ich da richtig denke, bin mir da ned ganz sicher. Kühler ist mir schnurz, da ich den eh runterreisse.
 
  • Gefällt mir
Reaktionen: monitorhero
Zurück
Oben