News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

Chismon schrieb:
DLSS3 ist bisher eher ein Blend-Feature, ob DLSS2 besser oder schlechter ist Geschmackssache bzw. von der Spielszene abhängig im Vergleich zu dem offeneren FSR 2 (siehe Forspoken Artikel).
Ja, solche Aussagen funktionieren super. Bei denen die solche von sich geben. Bei den anderen gibt es für sowas nur ein müdes Lächeln weil es so gut wie jeder der es nutzt besser weiß. Aber wenn es dir in deiner Bestätigung hilft ist es okay.
 
  • Gefällt mir
Reaktionen: Samuelz
Gaspedal schrieb:
@Blackfirehawk:
In 4k bringt es fast nichts, da ist selbst 9700k noch ausreichend. Siehe Video mit RTX 4090:
Ich bekomm in 1440p ultrawide (3440x1440p) die rtx 4080 schon problemlos ins CPU Limit gehauen (5950x)
 
el_zoido schrieb:
Eine Gruppe kann die 4090 (und auch schneller) schon jetzt sehr gut gebrauchen und benötigt die Leistung auch, die Gruppe der PCVR Enthusiasten.
Ja, das sind wir einer Meinung! ICH kam die 4090 Performance bereits unter UWQHD nutzen bzw. „utilizen“.

Aber mein ”Man braucht keine 4090/Ti fürs PC Gaming” bezieht sich ja eben auf die 96% non-Enthusiaste und Gaming Usecases.
 
Taron schrieb:
Langsam wirds lächerlich. In Stromverbrauch, Maße, Gewicht, Preis und Design.

Naja, "Enthusiasten" kaufens ja.
Komisch meine 4090 agiert besser als meine 3090 davor und verbraucht weniger weil die Last gesunken ist. Unter Wasser ist das eine extrem kleine Karte. Meines Erachtens eine Win Win Situation. Zumal ich die Karte unter 1900€ gekauft habe.
 
  • Gefällt mir
Reaktionen: Laphonso
X2k_ schrieb:
Ich finde das ganze geht ganz klar in die falsche richtung. Leistung wird nurnoch mit gewalt aus einem immer kleiner werdenden chip gequält. Das Resultat sind karten mit immer gewaltigeren Kühlkörpern und ein immer weiter steigender energie verbrauch.
Passt irgendwie so gar nicht auf AD102.
Der ist im modernsten Prozess und verdammt riesig. Der ist nicht weit weg von maximal Möglichen. Im Vergleich zum Vorgänger 2.7x so viele Transistoren. Klein ist anders. Zudem ist das Teil auch sehr effizient
Die gesamt TDP ist hoch, weil man eine etreme Performancesteigerung gemacht hat.
Kauft man eine Klasse drunter, hat man mit <300W deutlich mehr Performance als der Vorgänger.

Die Kuhler sind extrem groß geworden, weil Nvidia die TDP unnötig hoch ansetzt.
Auch einen 4090Ti/Titan wird bei weitem keine 600W brauchen, wenn sie im vernünftigen Rahmen betrieben wird.
 
Laphonso schrieb:
Ja, ich kann auch jedem Ferrari Enzo auslasten (...)
So schlecht, wie man auf den erst Blick meinen könnte, ist der Vergleich gar nicht:
Laphonso schrieb:
wenn ich in 30er Zonen und Schritttempo Wohngebiet wohne,
Hier hinkt er, denn dafür ist ein solches Auto schlecht geeignet und wird von sehr viel preiswertigeren Autos deklassiert, während diese Grafikkarte wahrscheinlich auch in Niedriglastszenarien glänzen kann. Alle letzten Grakas mit HighEnd-Chip taten dies zumindest. Auf ein gut gemachtes Elektroauto im ähnlichen Bereich würde der Vergleich hingegen auch hier zutreffen.
Laphonso schrieb:
dann aber einfach auf den Flugplatz fahre und ihn da ausfahre. ;-)
Wo ist denn das Problem? Dort geht es ja wirklich. Und ebenso lassen sich Grakas durch Auflösungserhöhungen praxisrelevant auslasten.
 
  • Gefällt mir
Reaktionen: Laphonso
Ah CB stürzt sich also immer noch auf Gerüchte, obwohl sich 90% als Quatsch herausgestellt haben. Top. Aber hey Klicks wuhu
 
Unterberg schrieb:
"Graka Gott" Nvidia ist vollkommen bescheuert... Mir ist Sch+**** egal was N[arisch]vidia vor hat, ich bleibe AMD Radeon treu.
"Underdog" AMD ist vollkommen bescheuert... Mir ist Sch+**** egal was AMD[umm] vor hat, ich bleibe Nvidia GeForce treu.
🤷‍♂️
 
CDLABSRadonP... schrieb:
So schlecht, wie man auf den erst Blick meinen könnte, ist der Vergleich gar nicht:
Ich hatte schon verstanden, wie Du es gemeint hast, aber ich gehe nun von den üblichen Auflösungen aus und alles an Settings bis inkl. Ultra und Raytracing etc.

Und genereller Konsens in allen Tests ist eben, dass eine 4090 oder mögliche 4090Ti einfach limitiert werden durch die Engines außerhalb von 4K Szenarien, selbst mit 5800x3D, 13900K oder 7950x etc.

Grund: Die implementierten Effekte „enden“ bei Ultra, beenden aber nicht die 4090 Power. Die fordert weiter, aber die CPUs und das RAM kommen nicht nach.

„Manuell“ kann man alles über die Auflösung penetrieren, aber das hat dann mit den internen Grafikfunktionen qua Spiel dann nichts mehr zu tun.
So meinte ich das :)

Ich bin mir sicher, das die CPUs der nächsten Jahre noch deutlich mehr aus der 4090 rausholen.
 
Endlich 2042 nativ in 4K und 120FPS.

Alleine die brutale Rückseite mit den Anschlüssen sieht schon geil aus. Holy Shit...I like it.
 
Gedacht, um AMD zu demütigen...

Wenn die Karte tatsächlich so kommt, dann sehen die RDNA 3 Topmodelle in den Charts wie Mittelklasse aus.
1675001294228.png
 
Hahaha, das Mainboard wird zur Steckkarte.

Gerüchte hin oder her, die Fotos sind doch keine CAD-Zeichnung. Wer braucht neben CAD-Grakas, Leistung oberhalb der bestehenden 4090?
Und wie ich hier las, klingts echt danach, dass die 4090 aufgrund der Verkauszahlen zu arg als Mainstream angesehen werden könnte.
Morgen kommt NV & belebt SLI wieder für Multi 4k-Gaming für Anno im Endgame oder auf TV mit 8k. #Balkonkraftwerk
 
Vitche schrieb:
Eine derartige GeForce RTX 4090 Ti oder Titan Ada böte gegenüber einer GeForce RTX 4090 eine um rund 10-15 Prozent gesteigerte Rohleistung – je nachdem, wie sehr der schnellere Speicher zum Tragen käme.
Was meinst du eigentlich damit? Dass die 4090 Speicherlimitiert ist und die Ti/Titan die Bremse löst? Hat Wolfgang das mal getestet?

Passt dann aber irgendwie nicht mit den 10-15% zusammen die du nennst. Die Rechenleistung wird ja eher plus >15% sein.
 
Der AD-102 Chip im Vollausbau mit 48GB EEC VRAM kann für 7000€ verkauft werden Seitens Nvidia in der Workstation klasse. Ich sehe keinen Grund das Ding im retail Geschäft mit so viel Selbstkosten für weniger zu verkaufen.

Glaub ich erst wenn es da ist.

Aber 4 Slot und 800W sind erstmal für ein extrem Modell nicht weiter verwunderlich
 
  • Gefällt mir
Reaktionen: karl_laschnikow
Sowas juckt mich auch nicht mehr.

Hab das Gefühl das es NVIDIA aber auch bald anderen Firmen alles um die Ohren fliegen wird.

Und wenn das passieren sollte, werde ich lachen. Sehr viel und sehr laut.

Bald lassen sich die Leute nicht mehr so easy melken. Man merkt, der Wind dreht sich.

LG
 
  • Gefällt mir
Reaktionen: ChrisMK72, Plonktroll, McTheRipper und eine weitere Person
PS828 schrieb:
Ich sehe keinen Grund das Ding im retail Geschäft mit so viel Selbstkosten für weniger zu verkaufen.
Workstation Karten kosten nicht so viel wegen den "Selbstkosten", sondern weil der Markt höhere Preise verträgt / bereit ist zu bezahlen.
 
Hate01 schrieb:
Workstation Karten kosten nicht so viel wegen den "Selbstkosten", sondern weil der Markt höhere Preise verträgt / bereit ist zu bezahlen.
Richtig, ich habe auch nichts anderes implizieren wollen.

Macht halt nur aus wirtschaftlicher Sicht keinen sinn für Nvidia dann mit den chips was anderes zu machen als sie in die Workstationklasse zu stecken. Das war die eigentliche Aussage
 
Zurück
Oben