News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

PHuV schrieb:
Woher weißt Du das? Wenn wenig da ist, ist 3x2000€ besser. Angebot und Nachfrage und so...
Die Aussage ist in sich schlüssig.

"Wenn wenig da ist"
TSMC N4/N5 läuft schon eine ganze Weile und Apple hüpft bereits weiter.
Es gibt exakt gar keine Anzeichen für einen Paperlaunch.
Daher ist diese Verknappung schlicht Unsinn. Eher hat NVIDIA viel zu viel Wafer bei TSMC bestellt, weil diese bereits im Mining Boom durchgeführt wurden.

Wenn man das Angebot und Nachfrage hinzuzieht, derzeit sind alle Lager mit 3xxx Karten voll > wenig Nachfrage + viel Angebot.
Da haben es die 4xxx Karten vermutlich recht schwer.
Kaufzurückhaltung ist doch seit Mining gegeben, sehe nicht wie eine noch schnellere, aber auch viel teurere 4090 diese brechen soll.
NVIDIA scheint nichts übrig zu bleiben als wegen der 3xxx die Preise auf dem Mond zu lassen. Man kann natürlich auch einfach diese dort lassen, dann verkauft vielleicht AMD/Intel alles und NVIDIA / Partner müssen irgendwann Ihr Inventar abschreiben.
Das heißt das die Nachfrage minimal bleibt und das Angebot gigantisch, aber preislich unattraktiv für den Markt bleibt. Ob NVIDIA stattdessen so viele HPC Beschleunger in N4 verkaufen kann, das wird sich in der derzeitigen wirtschaftlichen Lage der Welt erstmal zeigen müssen.

Es gibt natürlich immer die 1% die drauf umsatteln. DIe geben halt dann dieses mal 1000€+ für 2 Jahre für Grafikkarte allein aus, jeder wie er mag. Nächste mal sind es dann 1500€-2000€. Bis es eben auch da zu teuer wird. Nennt man dann Angebot und Nachfrage + Early Adpoters.
Aber das schaffen 95-99% des Marktes nicht. Woher soll den die Kaufkraft kommen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
Maike23 schrieb:
Das hast du gerade nicht ernsthaft in einem Computer-Forum geschrieben - oder doch ? :stacheln:
Ich wollte damit klar machen das es nicht nur zwei Extreme gibt was das Thema betrifft ;-)
 
ShiftyBro schrieb:
Da gab es entweder die RTX 3070 oder die RX 6800. Dann bin ich mal kurz in die CB-Benchmarks rein, da gibts halt das:

Anhang anzeigen 1267872
Und jetzt hab ich mir halt die 6800 geholt. Also deine Aussage ist zu stark vereinfacht, finde ich.

Du solltest dir mal die einzelnen Spiele in diesem Rating anschauen, dann siehst du auch, woher das kommt.
Far Cry 6 mit RT hat in 4K massive Probleme mit den Nvidia Karten unter 12GB VRAM
Screenshot 2022-10-07 155214.jpg

Bei insgesamt 10 Spielen im Rating macht es schon was aus, wenn die 6800 in einem der Spiele 524% schneller ist^^
Nimmt man nur dieses eine Spiel raus, ist die 3070 im Gesamtrating bereits 6% über statt 13% unter der 6800.
Und in der Liste sind auch einige Spiele, die RT eben nur recht spärlich einsetzen, ein Cyberpunk, Watch Dogs Legion oder Spiderman fehlt z.B. komplett, alles Spiele wo die 3070 deutlich vor einer 6800 liegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade, Wintermute, RogueSix und 2 andere
ShiftyBro schrieb:
Da gab es entweder die RTX 3070 oder die RX 6800. Dann bin ich mal kurz in die CB-Benchmarks rein, da gibts halt das:

[IMG]https://www.computerbase.de/forum/attachments/1665149589702-png.1267872/[/IMG]
Und jetzt hab ich mir halt die 6800 geholt. Also deine Aussage ist zu stark vereinfacht, finde ich.
Nein, alles was du machst, ist dir die Realität zurechtbiegen.
Beide Karten sind keine 4K-Karten, die 3070 erst recht nicht, mit ihren 8 GB Vram.

In FullHD und WQHD - den Jagdgebieten von 6800 & 3070 - sieht es dann wieder anders aus:
1665150905326.png
 
  • Gefällt mir
Reaktionen: Sinatra81 und Laphonso
Igors Erklärung klingt absolut schlüssig. Denke eher, es wird in Richtung 450W gehen, oberhalb 450W dürfte die Effizienz ohnehin sehr leiden.

Es ist verdächtig ruhig um RDNA3 geworden, man hört täglich von RTX 4000 aber kaum was über RDNA3. 4 Wochen müssen wir noch aushalten 🥲

Edit: Bei den aktuellen Preisen lohnt eine 6800 nicht, bzw. dann lieber gleich zur 6800 XT greifen. Eine gute 6800XT erreicht mit OC & UV die Leistung einer 6900XT-Stock.
 
Max007 schrieb:
Es ist verdächtig ruhig um RDNA3 geworden, man hört täglich von RTX 4000 aber kaum was über RDNA3. 4 Wochen müssen wir noch aushalten 🥲
Das ist aber typisch für AMD. Keine Sorge.

Auch ich hoffe auf eine sehr starke RDNA3 Architektur, die NVidia in der P/L schlägt und die Preise damit unterbietet, damit sich trotz Währungsinflation etwas an diesen Scammerpreisen seitens NVidia nach unten bewegt.
 
  • Gefällt mir
Reaktionen: Laphonso und Max007
M1ximili1n schrieb:
Das ist 33% mehr als 450W und bestimmt bringt es nur 3-4% mehr Leistung, wenn überhaupt….
Das erwarte ich auch. Hat nicht Igor gesagt, dass da irgendwelche anderen (künstliche?) Limits greifen?

Außerdem wäre ich dann nicht versucht, es zu übertreiben. 🙄

Vielleicht reicht dann doch eine "normale" 4090 statt der Strix.🤔


Taxxor schrieb:
Far Cry 6 mit RT hat in 4K massive Probleme mit den Nvidia Karten unter 12GB VRAM

Niemand versucht mit den Karten Farcry in 4K +RT zu zocken. Das sind mittelklasse-Karten für FullHD bis WQHD mit Einschränkungen. Nicht mal mit 3090 spiel ich FC6 mit 4K+RT. Krieg ich Kopfschmerzen.

Schau Dir außerdem mal an, welches Logo beim Spielstart von FC6 erscheint!

Warum hast nicht die FPS zu Doom herangezogen?
 
Zuletzt bearbeitet:
Gortha schrieb:
Auch ich hoffe auf eine sehr starke RDNA3 Architektur, die NVidia in der P/L schlägt und die Preise damit unterbietet, damit sich trotz Währungsinflation etwas an diesen Scammerpreisen seitens NVidia nach unten bewegt.
Ich denke in reiner Raster Rohleistung wird RDNA 3 sicherlich das bessere Preis/Leistungs-Verhältnis haben. Bei RT wird Nvidia weiterhin die Nase vorne haben sowie das neue exklusive DLSS 3, welches sich erst noch beweisen muss.
 
600W ?
Na da hoffe ich mal, der gute Igor hat Recht und es kommt nicht so.. Hat langsam was von Thermi 2.0
 
Arbed schrieb:
Ich erlaube mir auf igorslab zu verweisen, indem eine mögliche Herleitung der unterschiedlichen TDP von FE und Custom gegeben wird.
Vorallem zeigt er gut auf, das diese Wattaufnahmezahlen aus einer ganz anderen Zeit kommen. Jeder der direkt losschreit sollte sich das erstmal anschauen. Aber das entspricht halt nicht der Norm von meckernden Leuten, ergo wird sich wohl weiter unnötig beschwert :D
 
Leider passen Igors Ausführungen nicht ganz zu den Ergebnissen des chinesischen Leakers, der mit einer nicht näher identifizierten RTX4090 bei Furmark-Donut wohl 615,8 Watt verbraten hat.
 
Zu hoher Verbrauch in diesen Zeiten.
Ich würde die Karte im Moment nicht mal für 1000 Euro kaufen, wenn ich kein Geld damit verdiene.
 
Rockstar85 schrieb:
600W ?
Na da hoffe ich mal, der gute Igor hat Recht und es kommt nicht so.. Hat langsam was von Thermi 2.0
Wieso nicht !? Solange das per Powerlimit Erhöhung im MSI AB geht, kann man es selbst entscheiden.
Wenn PCB und Kühler dafür konzipiert wurden dann sollte man als Käufer auch die freie Wahl haben !
 
  • Gefällt mir
Reaktionen: Skript
Bereits bekannt aber macht deine Aussage nicht weniger komisch denn wer hofft, dass etwas nicht kommt,
was technisch möglich und kühlbar wäre ? Das kann ich doch als Käufer selbst entscheiden also her damit !
 
DocWindows schrieb:
Die Effizienz ist in dieser Generation schon dramatisch gestiegen. Die 4080 soll bei ähnlichem Stromverbrauch zwischen 20% und 30% schneller sein als die 3090Ti.
20-30% mehr Effizienz nennst du dramatisch? Dafür, dass Nvidia 2 Nodesprünge machte? Es zeigt sich halt klar, dass man jenseits eines Sweet Spots taktet
 
  • Gefällt mir
Reaktionen: ThePlayer
Gortha schrieb:
Nein, alles was du machst, ist dir die Realität zurechtbiegen.
Beide Karten sind keine 4K-Karten, die 3070 erst recht nicht, mit ihren 8 GB Vram.

In FullHD und WQHD - den Jagdgebieten von 6800 & 3070 - sieht es dann wieder anders aus:
Anhang anzeigen 1267880
Äh... dann erstmal Entschuldigung, dass ich einen 4k-Monitor besitze. :rolleyes:

Aber selbst bei 6% mehr Leistung finde ich die Aussage etwas zu drastisch.

Taxxor schrieb:
[...]
Nimmt man nur dieses eine Spiel raus, ist die 3070 im Gesamtrating bereits 6% über statt 13% unter der 6800.
[...]

Gleiches wie oben.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer
0ssi schrieb:
Da hat wohl Jemand noch kein Balkonkraftwerk und MUSS Strom sparen. :daumen:
Na wenn das übliche Balkonkraftwerk nicht mal mehr immer für die Grafikarte alleine langt, vom System ganz zu schweigen (>600Watt), muss man vielleicht doch etwas ans Stromsparen denken.

Rasterizer Power ist eigentlich seit mindestens einer Generation ausreichend vorhanden, da muss halt ein neues Feature wie RT her um den ganzen Schnick Schnack wie Tensor Cores etc. und die daraus resultierenden Preise zu verargumentieren. :cool_alt:
 
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
Zurück
Oben