News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

yamiimax schrieb:
Endlich cp2077 4k RTX mit fast 60 fps haha
die 4090 liegt so bei 40fps, dann wird die neue eher nur 45+ fps erreichen
in 2 Jahren wird eine 2000 Euro Karte bestimmt 60fps in nativen 4k mit RT Psycho schaffen
 
Es ist eher erschreckend wie vergesslich die Leute sind.

Die Gerüchte besagten bei der 4090er auch 600 Watt. Außer einigen Exoten liegt sie letztlich bei 450 Watt und käme mit 350 Watt schon sehr gut zurecht.

Also wieso sollten es plötzlich 800 Watt sein? Ich gehe von 500 Watt aus und dürfte selbst bei 350 Watt genug Leistung bringen.
 
whtjimbo schrieb:
die 4090 liegt so bei 40fps, dann wird die neue eher nur 45+ fps erreichen
in 2 Jahren wird eine 2000 Euro Karte bestimmt 60fps in nativen 4k mit RT Psycho schaffen
Wenn die Karte keine 50fps schafft bin ich enttäuscht haha
 
BOBderBAGGER schrieb:
Kumpel von mir hat nicht viel mehr netto und hat letzte Woche eine Ducati für 14k gekauft.
Die er vermutlich, wie so viele andere auch, finanziert hat.
Genauso wie zwei meiner Bekannten eine 4090 finanziert haben, dass ist dann nicht mehr meine Welt.
BOBderBAGGER schrieb:
Das ist nur ein Beispiel ich kenne genug "normale" Menschen die tausende in Instrumente Waffen oder Spaßautos versenken
Alles eine Frage der Prioritäten wer unbedingt will kann sein Geld auch mit einer 2500€ GPU verbrennen.
Absolut Richtig, mir ging aber eher um die Klarstellung der Realttäten.
 
Chismon schrieb:
Für mich sich beide neuen GPU-Generationen (von nVidia und AMD/RTG) aus Kundensicht nicht lohnend (eher unverschämt teuer angesetzt für kaum Mehrwert zu den Vorgängern) und damit eher boykottwürdig (nicht erst seit den Marketingfolien aus dem AMD/RTG Blog).
Kommt immer darauf an, wie man an das Thema geht. Von den Preisen her - US-Preise - ist die 7900 XTX und die 4090 doch relativ fair im Preis. Problem sind die 4080, 4070 Ti und die 7900 XT. Für die 4080 spricht - aktuell - dass sie sich gut in das Gefüge zwischen 7900 XTX und 4090 einfügt.
el_zoido schrieb:
Eine Gruppe kann die 4090 (und auch schneller) schon jetzt sehr gut gebrauchen und benötigt die Leistung auch, die Gruppe der PCVR Enthusiasten.
Die 4090 - wenn man sie denn will - kann eigentlich jede Gruppe gut gebrauchen, selbst wenn man nicht VR hat. Die 4090 ist eine richtig gute Karte in jeder Lebenslage, sie ist nur in Europa mit den aktuellen Preisen einfach zu teuer. Für 1499 $ Dollar - hier dann ca. 1600 - 1700 € - wäre die 4090 eine richtig tolle Karte. Klar, wir können dann weiterhin auch nach Highend-Karten für 499 $/€ rufen, aber die Zeit ist vorbei und das war sie auch vor 7 Jahren schon.
Samuelz schrieb:
DLSS 2 ist total überlegen gegenüber FSR.
Ach, ist es das? Sehe ich mir die Tests FSR2 und DLSS2 auf den meisten Webseiten an, dann haben beide Verfahren ihre Stärken und Schwächen, sofern beide Techniken gut implementiert wurden, halten sie sich aber die Wage.

Bei der Implementierung von beiden Techniken merkt man oft eher, wie viel Mühe sich die Entwickler gegebenm haben. Von "total überlegen" ist DLSS 2 sehr weit entfernt im Mittel. Dafür müsste DLSS 2 wirklich in jeder Lebenslage ein perfektes Bild ohne Ghosting, Smearing, Flimmern und Co abliefern, aber DLSS 2 - auch die Version 2.5 - machen genau das. Und auch FSR2 ist vor all dem nicht geschützt.

Zum Glück fallen die Schwächen von DLSS2 und FSR2 aber in der Regel beim Spielen nicht wirklich auf und beides sind tolle Funktionen und ich schreib es jetzt ganz offen: DANKE NVIDIA, dass ihr hier die Entwicklung angestoßen habt!
Samuelz schrieb:
Das gleiche hat man damals auch über DLSS 2 gesagt.
Kommt ein Stück an der Stelle auf die Formulierung an. DLSS 1 (sic!) konnte man 2018 durchaus als Blender bezeichnen, da mehr versprochen wurde, als es am Ende halten konnte. DLSS 2 habe ich nieals Blender angesehen, sondern endlich als das Feature, dass die ganzen Unzugänglichkeiten von DLSS 1 beseitig hat und wirklich brauchbar ist und war.

Sicher gab es es welche, die DLSS 2 als Blender bezeichnet haben, aber genauso viele, die es dann als gut befunden haben und als Zukunft gesehen haben.

DLSS 3 - und das ist hier die Formulierung - ist bisher eher ein Blend-Feature und ich würde die Aussage so auch unterschreiben und das hat an der Stelle nichts mit der Häufigkeit des Features in Spielen zutun - sondern mit den Problemen, die DLSS 3 - stand aktuell - noch hat. Die "Zwischenbildberechnung" klingt toll und in Videos und Co ist das auch eine tolle Sache damit das Video geschmeidiger wird. In Spielen zeigt sich bisher aber ein gewisser Zwiespalt und das auch je nach Genre. Wenn es auf die Eingabelatenz ankommt, zeigt DLSS 3 seine Schwäche, weil die Latenz im "schlechtesten" Fall sogar steigen und im ideal Fall gleich bleiben.

Kommt also auf das Spiel an, ob man mit DLSS 3 einen Mehrwert hat oder nicht. NVIDIA wird daran arbeiten und es verbessern. Stand jetzt ist es für mich aber kein relevantes Feature. Könnte es irgendwann werden, aber bis dahin muss noch einiges gemacht werden.
Ano_Dezimal schrieb:
Ja, solche Aussagen funktionieren super.
Verallgemeinerunge funktioniere immer gut, weil sie alles pauschal abhandeln und Zündstoff für jede Seite bietet, damit man ich darauf aufhängen kann und alle sich in die Wolle bekommen. Für die einen ist dann DLSS 3 der letzte Schrott und für die anderen der Heilsbringer schlecht hin und alle sind davon überzeugt die einzig richtige Meinung zu haben.

Das die "Wahrheit" zwischen beide extremen liegen, wird dann gerne ausgeblendet.
Elverado schrieb:
Forspoken Next-Next-Gen incoming....
Square Enix ist nicht gerade dafür bekannt, dass die gute Engines entwickeln und da viel Leistung verschenkt wird. Aber am Ende wird man sehen müssen, was dabei rum kommt.
Zer0Strat schrieb:
Zur Erinnerung, der AD103 ist relativ weit vom AD102 Vollausbau entfernt.
Der AD103 hat 45,9 mrd. Transistoren, der AD102 76,3 mrd. Transistoren. Also ja, relativ weit entfernt. Wäre nur schön, wenn du das auch in den weiteren Vergleichen, besonders wenn es um AMD dann geht, auch im Hinterkopf behälst, wenn du Navi31 Richtung AD103 verschieben willst - weil beides ja "Vollausbau" wäre.
Rick Sanchez schrieb:
Macht das RAM soviel aus?
Kann relativ viel ausmachen, die benötigen ja auch Strom.
Ragnarök88 schrieb:
Die Preise sind so, weil die Konkurrenz keine großen Margen macht und deutlich mehr Materialeinsatz fahren muss.
Na ja, kostentechnisch fährt AMD und Intel aktuell besser, was den Materialeinsatz angeht. Natürlich haben wir alle keine genauen Zahlen, aber Anhaltspunkte und da kommt ein Navi31-Vollausbau günstiger weg als ein AD102. Die Preise sollen zwischen N7/N6 zu N5/N4 gut angezogen haben (ca. 70 - 90 %).

AD102 ist in dem Fall alles andere als günstig in der Produktion und auch AD103 ist nicht gerade günstig. TSMC hat die Preise gut angezogen für die Prozesse, da ist die aktuell vermeldete Preissteigerung von ca. 17.000 pro Wafer auf 30.000 bei N3 fast schon zu vernachlässigen.
Ragnarök88 schrieb:
Unsinn. DLSS3 ist gerade in The Witcher 3 und Spider Man Miles Morales eine Wucht und DLSS 2.0 ist in 85% der Titel besser als FSR2.0. Bei Performance/Ultra Performance immer überlegen.
Und andere sehen gerade in The Witcher und Spider Man Miles Morales bei DLSS3 eher die schwächeren Titel und in andere die Stärke. So kann das gehen.

Aber DLSS 3 ist durchaus was tolles, wenn man nicht so empfindlich ist, was die Latenzen angeht und auch ein weitere Schritt in die richtige Richtung. Man wird hier sehen, wohin die Reise geht.
 
Klingt geil, dass passende Netzteil mit 1600 Watt habe ich ja schon.... Ist ganz gut zum zeigen was technisch möglich ist und kann bestimmt gut komplexe kompensieren ;) ich werde aber aussetzen, bis zur 5090. Erstmal genug Geld für Hardware verbannt ^^
 
cookie_dent schrieb:
Die er vermutlich, wie so viele andere auch, finanziert hat.
So wird es bestimmt auch sein.
cookie_dent schrieb:
Genauso wie zwei meiner Bekannten eine 4090 finanziert haben, dass ist dann nicht mehr meine Welt.
Keinen Gedanken verschwenden. Solchen Leuten kann niemand mehr helfen.
Ben_computer_Ba schrieb:
ich werde aber aussetzen, bis zur 5090
Du hast eine 4090. Welchen Sinn hat der Wechsel auf eine TI?
 
  • Gefällt mir
Reaktionen: cookie_dent
w0wka schrieb:
So wird bestimmt auch sein
Nein wird es nicht lange gespart und sich einen Traum erfüllt. Die Raten für die Finanzierung zahlen sich ja auch nicht von alleine wer das über hat kann die Kohle auch einfach jeden Monat wegpacken.
 
Taxxor schrieb:
Wenn du nur das power Limit erhöhst ja.
Wenn du übertaktest sind da schon noch 5-10% drin.

Hier werden aber ja auch die Kerne erhöht.
Ich gehe von ~10% mehr Performance aus wenn man sie auf den gleichen Verbrauch der 4090 limitiert, ob bei 450 oder 300
Auf 800W kommt die dennoch niemals behaupte ich mal. Selbst mit OC. Ausser nVidia gäbe für den Chip höhere Voltages als 1,1V frei. Das Mehr an Shadern würde vermutlich in Verbindung mit schnellerem Speicher gerade mal die 600W auslasten.

Ich hab noch nie mehr als 573W auf meiner 4090 gesehen, und da läuft die mit über 3Ghz und 23Gbit auf dem Speicher in DL/ML Applikationen die alles rauskratzen.

In Games ist bei 400-450W Ende in aller Regel - wenn ich jetzt noch 2k mehr an Shader dazurechne liegen wir total bei besagten ca. 600W, evtl. 650-700W wenn man sie komplett auslasten kann.

800W sehe ich nur mit mehr Voltage und das wird nVidia kaum machen.
 
cookie_dent schrieb:
Genauso wie zwei meiner Bekannten eine 4090 finanziert haben, dass ist dann nicht mehr meine Welt.
beide sind Soloselbständige/Freiberufler und im speziellem Umfeld tätig, so dass die Anschaffung beruflich bedingt war?
 
DevPandi schrieb:
DLSS 3 - und das ist hier die Formulierung - ist bisher eher ein Blend-Feature und ich würde die Aussage so auch unterschreiben und das hat an der Stelle nichts mit der Häufigkeit des Features in Spielen zutun - sondern mit den Problemen, die DLSS 3 - stand aktuell - noch hat. Die "Zwischenbildberechnung" klingt toll und in Videos und Co ist das auch eine tolle Sache damit das Video geschmeidiger wird. In Spielen zeigt sich bisher aber ein gewisser Zwiespalt und das auch je nach Genre. Wenn es auf die Eingabelatenz ankommt, zeigt DLSS 3 seine Schwäche, weil die Latenz im "schlechtesten" Fall sogar steigen und im ideal Fall gleich bleiben.
@Wolfgang Du solltest wirklich mal dazu übergehen, auch die Latenzen von AMD GPUs (insbesondere auch mit FSR2) mit einfließen zu lassen in die Reviews. Die Leute haben teils unrealistische Vorstellungen, wie man in diesem Thread mal wieder deutlich sieht.

Spiele mit PC Latency Support (FrameView 1.4) auf AMD und Nvidia Systemen:
  • Unreal 5 Cities Demo
  • Unity Enemies Demo
  • Super People
  • Justice
  • Marvel's SpiderMan: Remastered
  • F1 22
  • Warhammer 40,000 Darktide
  • Marvel's Spider-Man: Miles Morales
  • Portal RTX
  • Witcher 3: Wild Hunt
 
cookie_dent schrieb:
Die er vermutlich, wie so viele andere auch, finanziert hat.
Genauso wie zwei meiner Bekannten eine 4090 finanziert haben, dass ist dann nicht mehr meine Welt.

Absolut Richtig, mir ging aber eher um die Klarstellung der Realttäten.
Aha und woher nimmst du diese vermutung...
Weißt aber schon das nicht überall hohe mieten etc sind...
Manche sparen auch einfach....

Und nur weil jetzt zwei bekannte von dir ne 4090 finanziert heißt das noch lange nix und wenn man seine Ausgaben im blickt hat geht sowas auch.
 
  • Gefällt mir
Reaktionen: kaji-kun und BOBderBAGGER
BOBderBAGGER schrieb:
Dafür kauft man so eine Karte nicht.
Doch, tut man.

47cmArmumfang schrieb:
Komm, mach dich nicht lächerlich. Das Einstiegsgehalt für einen Ungelernten nach IGM bei Stkl. 1 liegt nur knapp unter 2.5k netto.
Was soll man da noch sagen? Ah ja: 🤦‍♂️
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und McTheRipper
w0wka schrieb:
Du hast eine 4090. Welchen Sinn hat der Wechsel auf eine TI?
Hast du meinen Kommentar gelesen? Ich werde sie vermutlich nicht kaufen. Wenn doch kaufe ich sie, weil's geil ist so eine Karte zu haben... Ob das sinnvoll ist steht auf einem anderen Blatt, aber solange es mir Spaß bereitet , ist es doch super und Grund genug eine zu kaufen?, so sehe ich es zumindestens. Ausgesorgt ist, Haus haben wir, meine Frau und mir gehören drei Autos und trotz gutem leben bleibt am Ende des Monats immer noch einiges über, also spricht überhaupt nichts dagegen, wenn ich mir eine Titan oder ti kaufen würde und damit Freude habe. Was sinnvoll ist entscheidet ja zum glück jeder für sich selbst....
 
Schaffen die Karten mittlerweile dual 4k bei 120 FPS für VR Headsets oder muss man da immer noch ein paar Jahre warten?
 
BOBderBAGGER schrieb:
Du gibst also einen Hufen Geld aus um dann am Ende Performance zu verschenken ?
Selbstverständlich. Bei 80% PT sind das nicht mal 3 % weniger Leistung. Ob ich statt 120 FPS "nur" 117 FPS habe, ist mir völlig egal. Ich erkaufe mir doch nicht 3 FPS mit 90 Watt Mehrverbrauch.
 
  • Gefällt mir
Reaktionen: cookie_dent und Vexz
whtjimbo schrieb:
das ist ja fast das doppelte eines Ungelernten in der freien Wirtschaft
Also Mindestlohn von ~1500€ netto.
Wohnst du in münchen biste damit natürlich arm dran bei uns in der Gegend kannst du als Single eine 80m² Bude mieten ein Auto unterhalten und hat's immer noch ~300-400€ zum verballern über
 
Zuletzt bearbeitet:
Zurück
Oben