News Gerüchte zu Nvidia-Grafikkarten: Bilder zeigen mutmaßliche RTX 4090 Ti oder Titan Ada

Laphonso schrieb:
Habe gestern eine 3070 für 550 Euro gesehen.
Im Gaming-Laptop ist eine RTX 3070 mittlerweile wohl preis-leistungstechnisch (trotz der 8GB Speicher) mit die beste Wahl, aber für das Desktop PC Gaming (mit höheren Ansprüchen) kastrieren die 8GB diese Karte (und den etwas stärkeren Ti-Bruder) mittlerweile leider schon zu sehr und m.E. ist eine RX 6700/6750 mit 12GB, geschweige denn eine RX 6800 mit 16GB der Konkurrenz (AMD/RTG) für weniger oder gleichviel Geld die deutlich bessere/lohnendere Wahl für einen Desktop-Gaming-Computer als eine RTX 3070 für immer noch viel zu hohe 550 Euro (mehr als den (Platzhalter-)UVP/MSRP zum Marktstart) ;).

Untitled.jpg
 
  • Gefällt mir
Reaktionen: Mcr-King, medsommer und Laphonso
Chismon schrieb:
ls eine RTX 3070 für immer noch viel zu hohe 550 Euro (
Das ist ja das, was so nervt. “Normal“ müsste eine 3070 bei 350 Euro und eine 3080 bei 550-600 Euro jetzt liegen.
 
  • Gefällt mir
Reaktionen: ErbarmeHesse, Flaimbot, Mcr-King und 3 andere
Und auch hier offenbar kein Vollausbau. Ich werde die 3090 Ti so was von in Ehren halten, so schnell wird es für uns Konsumenten wohl keinen Vollausbau mehr geben beim großen XX102 Chip.
 
Chismon schrieb:
[...] Schade, dass Interessen einer Nischengruppe (Early Adopter/Hobby-Enthusiasten) auch bei CB mittlerweile vorrangig abgedeckt/gewichtet werden.
So ne RTX 4050 mit 64-Bit-Speicherinterface will doch niemand. Nur Spass :D
 
  • Gefällt mir
Reaktionen: Mcr-King und Chismon
Also ich wollte den Artikel ja lesen, aber beim anklicken...beim Anblick des ersten Bildes dieses Monstrums kam ich aus dem Lachen nicht mehr heraus und konnte nicht anfangen zu lesen :freak: :freaky::D:freak:
 
Ähm ja… Ich schätze das preisliche wird der Karte das Genick brechen. Die 4090Ti liegt doch schon bei um die 2000€, da liegt die 4090Ti doch mindestens bei 2500€+…

Keine Ahnung, aber irgendwie fehlt mir der Wille so viel Geld in eine Grafikkarte zu stecken. So dolle drückt der Schuh mit meiner 2080 auch noch nicht. Cyberpunk in WQHD mit leichten RT geht auch mit der Karte noch wunderbar, und das ist das Forderndste, was ich im Angebot habe.

Die 2080 dürfte wohl noch aufm Level einer 4060 landen, also dem kommendem Mainstream… Da werde ich also auch noch diese Generation ohne Probleme überstehen können.

Zur 5000er-Generation wirds dann aber wohl Zeit - mir schwant bezüglich den Preisen Übles…
 
Laphonso schrieb:
Und auslasten kann man so eine GPU dann mit CPUs, die in 2 Jahren erscheinen :D
Du kannst jede GPU auslasten, indem du das SSAA / das Downsampling / den ResolutionScaleFactor in die Höhe schraubst.
 
  • Gefällt mir
Reaktionen: Gaspedal
Laphonso schrieb:
Das ist ja das, was so nervt. “Normal“ müsste eine 3070 bei 350 Euro und eine 3080 bei 550-600 Euro jetzt liegen.
Das ist die neue Melk-/Preispolitik von nVidia, denn die sitzen auf genug Kohle um das auszusitzen und notfalls schreiben die das ab und ziehen dann bei den nächsten Generationen mögliche Rückkehrer mit noch surrealeren Preisen ab.

Deswegen braucht es Intel Arc (mit Celestial vermutlich erst halbwegs konkurrenzfähig) in der Einsteiger- und Mittelklasse als weiteren Grafikkarten-Chipentwickler/Mitstreiter so sehr, wobei abzuwarten bleibt, ob man dort irgendwann auch 70er Klasse Leistung schaffen bzw. in mehr als an einer Hand abzählbaren Spielen damit mithalten wird.

Für das High-End sehe ich jetzt schon schwarz, die nVidia 80Ti wurde (als Testballon) massiv im Preis damals in der Turing-Genernation angehoben, die nVidia 80er und die 70Ti ansatzweise jetzt bei der Ada Lovelace Generation und bei der RTX 5000er oder spätestens RTX 6000er Serie würde ich das für die nVidia 70er Serie Karten erwarten (wenn die Leute nicht vorher hoffentlich massenweise auf AMD/RTG oder evt. Intel Karten umschwenken und nVidia einen saftigen Denkzettel für deren Preispolitik verpassen, aber ich bezweifle, dass das - auch wegen der eher nVidia-affinen Berichterstattung in den Medien - passieren wird) ;).
Ergänzung ()

Jenergy schrieb:
So ne RTX 4050 mit 64-Bit-Speicherinterface will doch niemand.
Ich würde Sie auch nicht wollen (da vermutlich für das Gebotene zu teuer (mit 299 US$ rechne ich da schon für eine RTX 4050, dann 349 USD vielleicht für eine RTX 4050Ti und für eine RTX 4060 gehe ich schon von einem größeren Preissprung zu 449 USD aus (oder eben 399 USD, wenn es keine RTX 4050Ti geben sollte), so dass für eine RTX 4060Ti dann 499 US$ fällig werden dürften (bei einer RTX 4070 rechne ich mit 649 US$, auch der 10-12 GB wegen und des größeren Chips natürlich), aber evt. bleibt die RTX 4050er Karten noch bezahlbar für Leute die vorwiegend MOBA, eSports und weniger anspruchsvolle, kompetitive Online-Spiele mögen/spielen (evt. sind alte RDNA2 oder Ampere Karten dann aber günstiger oder genauso teuer und leistungsfähiger).

Das wird für einige u.U. bitter werden (falls dann auch die alten, vergleichsweise noch erschwinglichen RDNA2 und Ampere Karten in dem Leistungsbereich ausrangiert oder vorher nahezu abverkauft werden sollten, was die Preise der Restbestände wieder steigen lässt).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jenergy
Chismon schrieb:
Für das High-End sehe ich jetzt schon schwarz, die nVidia 80Ti wurde (als Testballon) massiv im Preis damals in der Turing-Genernation angehoben, die nVidia 80er und die 70Ti ansatzweise jetzt bei der Ada Lovelace Generation und bei der RTX 5000er oder spätestens RTX 6000er Serie würde ich das für die nVidia 70er Serie Karten erwarten (wenn die Leute nicht vorher hoffentlich massenweise auf AMD/RTG oder evt. Intel Karten umschwenken und nVidia einen saftigen Denkzettel für deren Preispolitik verpassen, aber ich bezweifle, dass das - auch wegen der eher nVidia-affinen Berichterstattung in den Medien - passieren wird) ;).
Ergänzung ()
Wieso eigentlich immer Nvidia? AMDs 7000er Karten sind auch alles andere als günstig. RT Leistung wurde grade mal die Leistung der Vorgänger Nvdias erreicht. Raster Leistung kommt nur an eine 4080 ran. Kein DLSS 2 und 3. Und dann dafür 1200€ verlangen, ist auch ziemlich wucher....
 
Das Bild ist ja mal der Oberhammer. Schön mit Badelatschen steht er da, das Monster zwischen den Beinen und Jogginghose an. Habe herzlich gelacht
 
  • Gefällt mir
Reaktionen: GERmaximus und Gaspedal
Langsam wirds lächerlich. In Stromverbrauch, Maße, Gewicht, Preis und Design.

Naja, "Enthusiasten" kaufens ja.
 
CDLABSRadonP... schrieb:
Du kannst jede GPU auslasten, indem du das SSAA / das Downsampling / den ResolutionScaleFactor in die Höhe schraubst.
Ja, ich kann auch jedem Ferrari Enzo auslasten , wenn ich in 30er Zonen und Schritttempo Wohngebiet wohne, dann aber einfach auf den Flugplatz fahre und ihn da ausfahre. ;-)
 
  • Gefällt mir
Reaktionen: GERmaximus
Samuelz schrieb:
AMDs 7000er Karten sind auch alles andere als günstig.
Das hat auch niemand (zumindest ich nicht) behauptet, dass diese günstig wären aber im Vergleich zu den nVidia Preisen, sind die Preise von RDNA3 immer noch halbwegs tolerierbar (weil die bewusst auf Abstand Trittbrett fahren und sich an den von nVidia getriebenen/gesetzten Preisen meist orientieren).

DLSS3 ist bisher eher ein Blend-Feature, ob DLSS2 besser oder schlechter ist Geschmackssache bzw. von der Spielszene abhängig im Vergleich zu dem offeneren FSR 2 (siehe Forspoken Artikel).

Die Leistung ist auch spielabhängig und insgesamt liegt eine RX 7900 XTX meist noch vor einer RTX 4080, von der RX 7900 XT und der auf 12 GB reduzierten RTX 4080, pardon RTX 4070Ti möchte ich gar nicht erst anfangen.

Für mich sich beide neuen GPU-Generationen (von nVidia und AMD/RTG) aus Kundensicht nicht lohnend (eher unverschämt teuer angesetzt für kaum Mehrwert zu den Vorgängern) und damit eher boykottwürdig (nicht erst seit den Marketingfolien aus dem AMD/RTG Blog).

Die RX 7900 XT ist gemessen am Preis definitiv das interessantere/erträglichere Angebot (bei nur ca. 11-17% weniger Leistung und dafür 2-3 Hunderte Euros weniger als die RX 7900 XTX und nur 4GB weniger Speicher).
 
Frischer Leak aus dem Nvidia-Labor. 4090 Ti MAX Pro Ultra GPU-Chip wird angeliefert für Fertigung vom neuen Partner IBM. :D
 

Anhänge

  • ibm-5mb-hard-drive-1.jpg
    ibm-5mb-hard-drive-1.jpg
    131,7 KB · Aufrufe: 190
  • Gefällt mir
Reaktionen: DaBas, McTheRipper, medsommer und 2 andere
Creeping.Death schrieb:
Korrekt ist, dass eindeutig eine Karte zwischen 4080 und 4090 fehlt.
Aber ein Preis von 1500 EUR? Nein, nein, nein und nochmals: nein!

Die "Gaming-Community" (wenn es denn eine gäbe) sollte sich zusammentun und streiken. Die Preise sind absolut absurd...

Mal ernsthaft, eine RTX3080 war ein Riesenschritt zur Vorgängergeneration und kommt zu einer UVP von 699,-(?) EUR auf den Markt. Das war happig, aber irgendwie doch fair.
Na ja ... ich denke, man sollte das etwas differenzierter betrachten.

Erinnerst du dich noch daran, als damals die GTX 1080 Ti (mit 11 GB VRAM) rauskam? War das ein Aufschrei, weil sie so teuer war (ich glaube um die 750/800). Oder dann die RTX 2080 Ti (wieder mit "nur" 11 GB VRAM). Meine Güte ging ein Aufschrei herum, weil diese Karte erstmal die magische 1000 €-Grenze im Prosumer-Bereich durchbrach. Bei der 3090 wiederholte sich das natürlich (um die 1500 €, glaube ich). Die RTX 4090 kann man aktuell kaum in diesem (Preis-)Zusammenhang stellen, weil momentan das allgemeine (!) Preisgefüge den Bezug zur Realität Normalsterblicher verloren hat.

ABER: Oft wird übersehen, dass Karten wie 1080 Ti, 2080 Ti, 3090, 4090 so genannte "Prosumer"-Karten sind. Also keine reinen Gamerkarten. Eine der genannten Karten kauft sich - mindestens zu 50% der (semi-)professionelle Anwender, der nicht gleich eine A6000 (& Co.) braucht. Hier gelten anderen Wertvorstellungen.

UND: Man darf auch nicht vergessen, dass die jeweiligen Top-Karten stets einen (mehr oder weniger großen) Sprung zur Vorgängergeneration aufgestellt haben - und hier spreche ich explizit nicht nur von Games, sondern gerade auch Anwendungsprogrammen. Denn speziell hier werden die vielen Ausführungseinheiten und der große Speicher tatsächlich benötigt.

Setzt man nun also den Releasepreis der letzten Generation 3090 (1,5K) mit einem - von mir gewünschten - Releasepreis einer 4080 Ti (1,5K) in Relation, dann ergibt sich ein sehr deutlicher Leistungs- und Effizienzsprung - bei gleicher - oder wenn wir 1,6K sagen - ähnlicher Investition. Mit einer RTX 4080 Ti hättest du eine semiprofessionelle Karte in der Hand. Dann wäre ein solcher Preis angemessen.

Dass bspw. alles darunter hoffnungslos überteuert ist, steht auf einem anderen Blatt.
 
Laphonso schrieb:
Eine Gruppe kann die 4090 (und auch schneller) schon jetzt sehr gut gebrauchen und benötigt die Leistung auch, die Gruppe der PCVR Enthusiasten.

Künftige Headsets kommen mit Auflösung von 5760*2880px und werden mit bis zu 120 hz betrieben.
Derzeitige Headsets haben eine Standartauflösung von 4320*2160@90hz. Da diese aber leider meisten kein Displayport haben, muss hier die Grafikkarte zusätzlich die Ausgabe erst noch codieren um es als Stream über USB oder wireless an das Headset schicken zu können. Das bedeutet auch zusätzlichen Arbeit für die Grafikkarte.

Im PCVR Bereich machen Mods von bestehenden Flat-Titeln einen großen Teil aus, da man sonst mittlerweile leider hauptsächlich nur noch Low Poly Titel aus dem Katalog der Quest 2 zur Verfügung hat (vergleichbar PC vs Mobile).
Die modding Szene am PC sorgt hierbei aber für Nachschub. So arbeitet bspw der Modder Praydog an einem Toolkit mit dem es möglich ist die meisten Unreal Engine 4&5 Games mit vollen 6DoF in VR zu spielen.
Diese Spiele sind aber natürlich nicht für VR optimiert und brauchen soviel Rohleistung wie möglich um in den hohen Auflösungen die minimale Fps Anzahl von 90 zu erreichen.
Das war vor der 4090 bisher noch nicht ohne Abstriche möglich.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Laphonso
Lässt mich völlig kalt. Bin mit der 4090 bedient. Die läuft UV unter Wasser einfach Top auf 4k. Kann kommen was will :)
 
  • Gefällt mir
Reaktionen: Laphonso
Auch wenn sich 7900xt, 7900xtx, 4070 Ti, 4080, 4090 verkaufen, die Menge wird in kleineren Preisregionen gemacht.
Da wird das zigfache an GPUs verkauft.
Natürlich ist da die Marge geringer. Aber solche Tech Foren sind halt nicht die breite Masse.
 
  • Gefällt mir
Reaktionen: Laphonso
Chismon schrieb:
DLSS3 ist bisher eher ein Blend-Feature, ob DLSS2 besser oder schlechter ist Geschmackssache bzw. von der Spielszene abhängig im Vergleich zu dem offeneren FSR 2 (siehe Forspoken Artikel).
:freak: Das gleiche hat man damals auch über DLSS 2 gesagt. Und heute habe ich, nicht ein Spiel installiert, wo DLSS nicht drin ist. DLSS 2 ist total überlegen gegenüber FSR. Mann muss natürlich die 2.5.1 DLL Datei von DLSS nutzen und mit CAS via Reshade nachschärfen. 4K bis 32" als Auflösung mit DLSS ist auch besser, als der 1440p oder 1080p Fliegengitter Modus.

image.jpg
 
  • Gefällt mir
Reaktionen: Iconoclast und MrHeisenberg
Chismon schrieb:
DLSS3 ist bisher eher ein Blend-Feature,
Das sagte man 2018 auch über Raytracing. Jetzt haben das , bis auf Ausnahmen, sämtliche AAA Franchises und Releases.
Die ersten beiden Jahre wird auch diese Technik Games für die Pionierarbeit benötigen.

AMD wird 2024 ebenso Frame Generation auf die Hardware bringen, sonst fallen sie noch weiter zurück.

Die Stille zu FSR3 zeigt ja, dass sie jetzt schon Probleme haben, auf die OFA Technik zu reagieren. So trivial ist das eben nicht.

Ich habe DLSS 3 bezogen auf die Frame Generation in Portal RTX SpiderMan Remastered , in Witcher 3 und im MS2020 erlebt, und da funktioniert das, was Du Blendwerk nennst, allerdings blendend ;-)
 
  • Gefällt mir
Reaktionen: Iconoclast und Samuelz
Zurück
Oben