Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

.Sentinel. schrieb:
Das kann nicht gut gehen bzw. wenn man so tatsächlich sowas wie rudimentäre Sicherheit haben will, muss man halt gegen den eigenen Bedarf das maximal Verfügbare nehmen.
Dann kann man sich (fast) sicher sein, dass man innerhalb einer Generationsperiode (2-3 Jahre) nicht in einen Begrenzer rennt, hält allerdings die restlichen 99% der Zeit überflüssig viel Speicher für viel Geld vor.

Warum sollte die deutsche Vorsorge- und Versicherungsmentalität vor Grafikkarten haltmachen? Wo dieses Verhalten in vielen Lebensbereichen durchaus positiv sein kann, ergibt es im doch (immer noch) kurzlebigen Hardwaremarkt kaum Sinn. Die Furcht der Spieler davor, einmal die Texturqualität reduzieren zu müssen ist scheinbar ähnlich Groß wie die Furcht vor Altersarmut. So schlimm ist es, dass der gemeine Hardwarenutzer hierzulande nun mit einer anderen kulturellen Eigenart schwer in Konflikt kommt: Dem Spardrang.

In der Konsequenz sind die Foren voll mit Bitterkeit.
 
  • Gefällt mir
Reaktionen: Mcr-King, monitorhero, .Sentinel. und eine weitere Person
@milliardo siehe über mir, du hast ja sowas von recht! Ich kann auch mit 45 Fps noch gut leben, Vsync sei dank.
 
  • Gefällt mir
Reaktionen: Mcr-King
@KlaraElfer

Ich mache garnichts daraus denn das gehört alles zusammen und hättest du dir die Postings auch mal am Stück durchgelesen anstatt sie zu zerrupfen dann wäre es dir vermutlich auch aufgefallen denn diesen gesammten Zusammenhang schrieb ich bereits.

Wenn die Kundschaft ohnehin höchstpreise für Produkte Zahlt die sie so nicht benötigt, wozu dann in eine effiziente Nutzung dieser investieren indem die Software Entwicklung entsprechend vorangetrieben wird? Kostet den Hersteller schließlich nur unnötig Geld und das es den Kunden unnötig Geld kostet kann diesen egal sein wenn er es dennoch zahlt. Erst recht wenn dieser auch noch diese Vorgehensweise so veherment verteidigt wie du und dabei die entscheidenen Punkte ausblendet.

Im übrigen gibt es diese Diskussion schon seit dem Aufkommen der ersten Dualcores oder gar seit den ersten bezahlbaren dual CPU Systemen für das Desktop Umfeld.
Jedes mal wird das Totschlagargument gezückt das nicht alles parallelisierbar wäre und jedes mal hat sich das als Dampfplauderei erwiesen weil dennoch immer mehr Kerne nutzbar wurden.
Es ist schließlich auch herzlich egal ob nicht alles zu 100% parallelisierbar ist wenn es der Großteil des limitierenden Codes ist.
Die Absurdität der Argumentation hatte die angebliche Kundschaft dann mit dem CPU Fallback von Physx auf die Spitze getrieben um damit zu rechtfertigen warum dafür nur ein Kern genutzt wurde. Wenn das nicht hinreichend parallelisierbar wäre warum läuft es dann auf so massiv parallelisierten Prozessoren wie der GPU?
Es geht dabei wohl eher weniger um technische Hürden als vielmehr um den fehlenden Wille zur Investition und der kommt gerade in der Wirtschaft in erster Linie durch den Geldbeutel. Kostet es mehr nichts zu tuen kann sich die Lage schneller ändern als so mancher es wahrhaben will und der primäre Hebel ist hier das Kaufverhalten des ach so mündigen Kunden.
Bleiben Einnahmen wegen der deplatzierten Produktpalette aus kann so mancher unmöglicher Vorgang auf einmal recht flott gehen. Auch recht flott kann dann auf einmal die multicore Lastverteilung voranschreiten wenn diese aufeinmal nur noch von den Kunden gekauft werden die damit auch wasd anfangen können.

Was mir bei dir komplett fehlt ist ein Mindestmaß an Skepsis. Ist ja schön das du einen 8700K aber offensichtlich interessiert dich dabei nicht ob dieser von den Spielen auch ausgelastet wurde und gehst gleichzeitig davon aus das weder höhere Taktraten, als auch IPC Verbesserungen eines 10600K irgendwas gebracht hätten denn anders kann ich mir deine Aussage nicht erklären das dieser angeblich die gleiche Spieleleistung gehabt hätte.
Lustig ist das diese Aussage auch noch im krassen Gegensatz zu deiner bisherigen Aussage steht das es um die Singlethread Leistung und damit um IPC und Takt gehen würde und zusätzliche Kerne ach so überflüssig wären.
 
Könnt ihr das nicht bitte offline mit pm klähren, das liest sowieso kaum noch einer mit?
 
  • Gefällt mir
Reaktionen: BlaueElbe
Shoryuken94 schrieb:
Gibt übriges zu Big Navi neue Gerüchte. Die Gamingversion soll tatsächlich ein 384 Bit Speicherinterface haben und wohl mit 12GB Starten. Die oft genannten 16GB beziehen sich auf die 256 Bit Navi 22 Mittelklasselösung.
Das erscheint mir aber auch irgendwie witzlos ohne Not die stärkere Karte mit weniger Speicher starten zu lassen. Beim Fiji war es seinerzeit ja noch technisch bedingt.
Entweder gibt es dann noch ein Modell mit 24 GB oder das ist auch nur der übliche Spekulatius mangels Fakten. 🤔
 
Wurde schon spekuliert bzw erwähnt welche Watt Leistung das PSU bei einer 2080/2090 mitbringen soll bei aktuellen CPUs (in meinem Fall einem 3800x) bzwempfohlen wird?
 
zwergimpc schrieb:
Wurde schon spekuliert bzw erwähnt welche Watt Leistung das PSU bei einer 2080/2090 mitbringen soll bei aktuellen CPUs (in meinem Fall einem 3800x) bzwempfohlen wird?

750W reichen für die 3090 mit einem 10980XE (18C, 165W) lt. Nvidia.

Die meisten Leute dürften mit einem 600-650W-Markennetzteil bei Mainstream-CPUs also locker hinkommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Jedes mal wird das Totschlagargument gezückt das nicht alles parallelisierbar wäre und jedes mal hat sich das als Dampfplauderei erwiesen weil dennoch immer mehr Kerne nutzbar wurden.

Im Gegenteil, es wird auch in Spielen versucht die Parallelisierung voranzutreiben, aber das findet langsam statt.
Deine straw man Argumentation zieht bei mir nicht, versuchs bitte erst gar nicht.

Wadenbeisser schrieb:
Was mir bei dir komplett fehlt ist ein Mindestmaß an Skepsis. Ist ja schön das du einen 8700K aber offensichtlich interessiert dich dabei nicht ob dieser von den Spielen auch ausgelastet wurde und gehst gleichzeitig davon aus das weder höhere Taktraten, als auch IPC Verbesserungen eines 10600K irgendwas gebracht hätten denn anders kann ich mir deine Aussage nicht erklären das dieser angeblich die gleiche Spieleleistung gehabt hätte.

Skepsis im Bezug auf was?
Der 10600K ist ein 8700K mit bisschem höherem Takt. Nichts was man mit einem 8700K mit seichtem OC nicht auch haben kann.
IPC Verbesserungen gibts nicht, ist schließlich immer noch Skylake (2015).

Wadenbeisser schrieb:
Lustig ist das diese Aussage auch noch im krassen Gegensatz zu deiner bisherigen Aussage steht das es um die Singlethread Leistung und damit um IPC und Takt gehen würde und zusätzliche Kerne ach so überflüssig wären.

Um welche Aussage geht es Zitat? Ich kann dir nicht folgen.
AMD kann diese hohen Taktraten und Singlethreadleistung in Spielen nicht erreichen, das ist der Grund warum Intel nach wie vor etwas schneller ist.
Der Sweetspot für Spiele sind im Moment 6 bis 8C.
Ist aber auch hier nicht das Thema in das du mich hier verwickelst.

Tatsache ist ein 10900K wird eine 3090 weniger limitieren als ein aktueller AMD Prozessor das tut, mehr ist da nicht dran gewesen, den Rest der Diskussion kann man sich schenken.
 
Zuletzt bearbeitet von einem Moderator:
Wadenbeisser schrieb:
Entweder gibt es dann noch ein Modell mit 24 GB oder das ist auch nur der übliche Spekulatius mangels Fakten. 🤔

Ein 24GB Modell ist dadurch ja nicht ausgeschlossen, dürfte aber keine 3080 Konkurrenz (preislich) sein und würde wahrscheinlich preislich ein Stück darüber liegen und eine Alternative zur 3090 sein mit evtl. etwas weniger Leistung, aber gleichem Speicher. Evtl. ein neues Prestigemodell wie die VII für~1000€.

Wenn man sich die aktuelle 7nm Situation anschaut, dann ist es nur in AMDs Interesse, dass die Leute die Mittelklasse kaufen und keine Big Chips. Da würden auch die 16GB gut passen, um hier ein sehr interessantes Produkt mit mittelgroßem Chip als Konkurrenz anzubieten. 3070 Leistung mit 16GB und weniger verbrauch für 450-550€. Wäre für viele sicherlich ein nobrainer. Und auch für AMD wohl deutlich interessanter.

Aus einem 505mm² Chip könnte man umgerechnet auch fast 7 Ryzen Core Chiplets herstellen, die als Epyc oder Ryzen 9 gute Gewinne abwerfen. Man bekäme auch mehr als 3 Renoir Chips daraus, die mittlerweile so gefragt sind, dass sie knapp werden. Da dürfte das Interesse von AMD relativ gering sein, hier riesige massen an Gamer in Form einer relativ günstigen Grafikkarte zu verschwenden. Was nützt da eine 600€ Karte, wenn man aus den teuren und sehr begrenzten Wafern im gleichen Zuge auch die Chiplets eines mehrere tausend Euro teuren Epycs hätte fertigen können.

Da macht es durchaus Sinn, dass man die Mittelklasse z.B. durch einen größeren Speicherausbau attraktiver macht, als das High end Produkt, was die meiste Wirkung eh auf dem Papier als Platzierung in den GPU Ranglisten entfaltet und nicht in Form einiger real gorß verfügbaren Grafikkarten.

Sehe es deshalb nicht als unwahrscheinlich an, dass AMD hier bewusst die Mittelklasse pushen möchte. Hier ist man zum einen eine feste Größe, zum anderen würde es in das restliche Produktlineup besser reinpassen, wenn man hier nicht zu viele Ressourcen investiert.

Eine 16GB Mittelklasse + 12GB Oberklasse +24GB teures Haloprodukt mit kaum gegebener Verfügbarkeit für die benchmarkbalken macht da durchaus einen gewissen Sinn, zumindest aus wirtschaftlicher Sicht und den begrenzten 7nm Verfügbarkeiten. Könnte mir hier eine geistige Neuauflage der Vega FE vorstellen. Eine Semiprofessionelle Karte mit doppeltem Speicher, hohem preis und geringer Verfügbarkeit. Als Standardausstattung denke ich das aber nicht.

Beteigeuze. schrieb:
sehr sehr mutige aussage
ich wette dagegen

Kannst du gerne machen... Dann sind wohl die ganzen GPUs mit weniger als 8GB in einem Jahr nach deiner Meinung völlig obsolet, wenn schon 10GB zu knapp sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pietcux
@Shoryuken94

zwischen keinerlei probleme bei 10gb vram und <8Gb völlig obsolut gibt es also nichts?
das ist das typische dahergerede
es ist ein flüssiger übergang
anfangs wird nur ganz wenige spiele geben die die 10gb sprengen aber es wird sie geben und es werden immer mehr werden
und ich würde mit dir um 1000€ wetten dass du innerhalb der nächsten 1-2 jahre ein problem bekommen wirst
du weißt sicher dass die xbox series x alleine 13,5gb für spiele reserviert hat
wieso ist schon wieder alles vergessen wie es beim launch der ps4/und xbox one x aussah
damals gab es genau die selbe diskussion und dreimal darfst du raten wer recht behalten hat
 
Shoryuken94 schrieb:
Wenn man sich die aktuelle 7nm Situation anschaut, dann ist es nur in AMDs Interesse, dass die Leute die Mittelklasse kaufen und keine Big Chips. Da würden auch die 16GB gut passen, um hier ein sehr interessantes Produkt mit mittelgroßem Chip als Konkurrenz anzubieten. 3070 Leistung mit 16GB und weniger verbrauch für 450-550€. Wäre für viele sicherlich ein nobrainer. Und auch für AMD wohl deutlich interessanter.

Da macht es durchaus Sinn, dass man die Mittelklasse z.B. durch einen größeren Speicherausbau attraktiver macht, als das High end Produkt, was die meiste Wirkung eh auf dem Papier als Platzierung in den GPU Ranglisten entfaltet und nicht in Form einiger real gorß verfügbaren Grafikkarten.

Sehe es deshalb nicht als unwahrscheinlich an, dass AMD hier bewusst die Mittelklasse pushen möchte. Hier ist man zum einen eine feste Größe, zum anderen würde es in das restliche Produktlineup besser reinpassen, wenn man hier nicht zu viele Ressourcen investiert.

Kannst du gerne machen... Dann sind wohl die ganzen GPUs mit weniger als 8GB in einem Jahr nach deiner Meinung völlig obsolet, wenn schon 10GB zu knapp sind.

Schlüssige Argumentation. Und wie weiter oben geschrieben sind 10GB nur dann zu knapp, wenn man immer alles auf Max Settings spielen möchte. Aber auch Entwickler orientieren sich bei der Entwicklung am kleinsten gemeinsamen Nenner, denn man möchte möglichst viele Spiele verkaufen. Und entsprechend optimiert man die VRAM Anforderungen. Und auch AMD wird das Mittelklasse Segment versuchen zu bedienen, denn dort liegen die Gewinne und nicht im absoluten Highend Bereich. Diese Halo Produkte wie eine 3090 oder Titan die sich keiner leisten kann stellen nur einen Bruchteil des Umsatzes dar.
Ergänzung ()

Beteigeuze. schrieb:
@Shoryuken94
wieso ist schon wieder alles vergessen wie es beim launch der ps4/und xbox one x aussah
damals gab es genau die selbe diskussion und dreimal darfst du raten wer recht behalten hat
Und wieviele Jahre nach Release (2013) hat man diesen Rahmen tatsächlich gesprengt? 1-2 Jahre nach Release? Beispiele?

EDIT:
Ein interessantes Video von Buildzoid mit RNDA2 Spekulationen
 
Zuletzt bearbeitet:
monitorhero schrieb:
Mit realistischen Preisen hätte Nvidia es zumindest geschafft Early Adopter zu bekommen. Die Produktionskosten waren im leben nicht so hoch, wie Nvidia seine Preise gestaltet hat.

ich seh schon, du verstehst es einfach nicht. preisfindung besteht mehr als nur aus der der betrachtung der reinen produktionskosten und wenn man wie nvidia zig millionen in die entwicklung von rt reingebuttert hat, will man das geld auch irgendwann mal raushaben. und ja, sie haben tatsächlich early adopters gefunden. einfach mal steam hardware survey schauen, da liegen die rtx bei mittlerweile 10% anteil.
 
evilhunter schrieb:
@Andregee

Deswegen hab ich ihn gefragt warum er denkt, dass er die Rohleistung für schlecht hält, damit ich verstehe was er meint. Fakt ist die Rohleistung ist hoch. Dann kamst DU mit deinen Unterstellungen. Warum nicht einfach Fragen was ich damit gemeint hab?
Bei den Punkten zur Real World Performance bin ich bei dir.
Nur braucht du keine Vorwürfe machen wenn du selbst nicht verstanden hast worauf ich hinaus wollte.
Dein Unterton ist einfach fehl am Platz.



Das Spiele FP lastig sind ist Fakt.
Wie gut es schließlich in der Praxis funktioniert muss sich halt erst beweisen. Das kann ich nicht wissen und deshalb schreibe ich es auch so.
Ich wollte bloß nicht nur mit den DF Benchmarks argumentieren, sondern Tests von CB etc. abwarten.
Bisher scheint die Performance nämlich wirklich gut zu werden.

Tensor und RT Leistung unterschlägst du weiterhin.

Grüße
evil
Ich habe das Statement nicht als Unterstellung verfasst, sondern meinen Eindruck aus den mir vorliegenden Informationen geschildert.Sieh es einfach nicht so eng. Aber belassen wir es dabei. Deine Reaktionen wahren eine gewisse Netiquette die von Anstand zeugt , von daher ziehe ich die Aussage zurück. Bleibt festzustellen, daß die Leistung nicht grundsätzlich im gleichen Maße gestiegen ist. Mir würde ein genereller Ansatz besser gefallen, da die aktuelle Auslegung in massiven Differenzen bezüglich der Leistung einzelner Titel zwischen AMD und Nvidia bedeuten kann. Tensor und Rt interessieren mich nicht, von daher spielen sie in meiner Leistungsbetrachtung schlicht keine Rolle.
 
  • Gefällt mir
Reaktionen: Mcr-King, evilhunter und monitorhero
acc schrieb:
ich seh schon, du verstehst es einfach nicht. preisfindung besteht mehr als nur aus der der betrachtung der reinen produktionskosten und wenn man wie nvidia zig millionen in die entwicklung von rt reingebuttert hat, will man das geld auch irgendwann mal raushaben. und ja, sie haben tatsächlich early adopters gefunden. einfach mal steam hardware survey schauen, da liegen die rtx bei mittlerweile 10% anteil.
Mir ist bewusst, dass R&D genauso in die Kosten reinspielt. Aber in die Karten davor wurde genauso R&D gesteckt und die Kosten waren nicht derart hoch. Und RTRT war ein Ansatz der irgendwann ohnehin kommen würde. Nur weil man sehr viel in das Marketing von RTX investiert ist es nicht die Erfindung Nvidias und auch Nvidia schafft es nur mit AI und aggressivem Denoising RT spielbar zu machen. Ich habe mich vielleicht etwas flapsig ausgedrückt, aber kein Grund für den aggressiven Ton. In diesem Thread ist das schon mehrmals aufgefallen und sehr ungesund.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FreedomOfSpeech, Mcr-King und Colindo
@Andregee

Danke dir für deine Antwort, so können wir es gerne stehen lassen. Hab es vielleicht wirklich zu eng gesehen.

Gespannt bin ich auf beide Ansätze. Ich verstehe auch deine Argumentation, da müssen wir leider noch was warten :)

Grüße evil
 
  • Gefällt mir
Reaktionen: Mcr-King und pietcux
Andregee schrieb:
Mir würde ein genereller Ansatz besser gefallen, da die aktuelle Auslegung in massiven Differenzen bezüglich der Leistung einzelner Titel zwischen AMD und Nvidia bedeuten kann.
Das ist eigentlich eher AMDs Rolle gewesen in den letzten Jahren.
Sowohl bei Fiji als auch bei Vega gab es je nach Spiel enorme Unterschiede beide er Leistung während Nvidia Recht konstante Leistung ablieferte.
Wäre interessant wenn sich das diesmal umdrehen könnte
 
  • Gefällt mir
Reaktionen: evilhunter und Mcr-King
Shoryuken94 schrieb:
Ein 24GB Modell ist dadurch ja nicht ausgeschlossen, dürfte aber keine 3080 Konkurrenz (preislich) sein und würde wahrscheinlich preislich ein Stück darüber liegen und eine Alternative zur 3090 sein mit evtl. etwas weniger Leistung, aber gleichem Speicher. Evtl. ein neues Prestigemodell wie die VII für~1000€.
Auf diese Preisregion zwischen 900 und 1000€ würde ich dann auch tippen und wäre ein gutes Gegenstück für die 3080 mit 20 GB.
Interessant wäre noch ob der zusätzliche Speicher für die 3080 bei der TDP so viel Spielraum wegfressen würde das diese den Takt etwas geringer ansetzen muss. Der normale GDDR6 Speicher scheint ja etwas sparsamer zu sein und könnte sich deshalb weniger stark auswirken.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben