News „Ada Lovelace Next“: Die nächste GeForce-Generation erscheint erst 2025

Die haben besseres zutun als uns suchtie gaming Kiddies zu befriedigen.
 
sethdiabolos schrieb:
Von welchem Spiel redest Du?

Supreme Commander: Forged Alliance

Das ist der Bug... und das behinderte Moniotrgeflacker kann man selber ergooglen, im Internet gibts auch ganz viele nutzlose Tipps wie es angeblich weggeht.

In neueren Spielen hab ich bisher eher keine Bugs bemerkt, manchmal fällt aber die Bildwiederholungsrate aufm Desktop einfach ab, hängt wohl mit dem freesync Monitor zusammen.
Ich sehe dann meinen Desktop mit ca. 30-40 Hz... Maus bewegen und nen Fenster öffnen beheben es dann...

Für das Geld hätte ich schon etwas mehr erwartet, vor allem Softwareseitig... ich spiele das Spiel jetzt lieber auf meinem 5700G im Surf-PC, läuft etwas zäher aber wenigstens ohne Bugs...
 
wtfNow schrieb:
Bin mit der 4070 Ti in 4K bis dahin bestens bedient👍🏽 früher oder später muss ich auf "Hoch" runterstellen aber werde es überleben:D;)
Bin sehr gespannt auf die Preise der nächsten Generation, nochmal zahle ich wohl keine ~880€ für eine aktuelle "einfache" 4K-Karte mit begrenzter Lebensdauer.
Die guten Spiele gehen einfach aus, für das bisschen könnte sich Streaming (GeForce Now) im Winter dann eher lohnen.
Hab ich was verpasst oder seit wann ist die 4070ti für 4k geeignet? Mit 16Gb ja vielleicht, aber mit 12GB bist bei 4k bei einigen Titeln an der absoluten Schmerzgrenze. Siehe The last of us, hogwarts, etc
 
Haldi schrieb:
Das dürften sich alle 4090 Besitzer jetzt so sagen ^^
Und 2025 kaufen dann die meisten eine 5090.
Ich habe die 2080Ti ignoriert, weil sie nur 30% schneller war als die 1080Ti für fetten Aufpreis, falls es mit 4090 <> 5090 genau so läuft dann werde ich das wieder so handhaben.
Nur mit Architektur und kleinen Nodeverbesserungen erwarte ich da erstmal nicht viel mehr als 30-50%.

Könnte natürlich sein das Nvidia dank ihrem Know How in KI etwas neues in ihre Architektur einbaut was man bisher so noch nicht gesehen hat, was zustätzliche Performanceverbesserungen zur Folge hat.
Werden wir dann 2025 sehen wenn diese News stimmt.
 
Taigabaer schrieb:
Irgendwie fehlt mir eine richtige "Revolution", wie damals als mit der ersten Geforce T&L Einzug hielt oder mit der Geforce 3 das erste Mal Pixel-Shader-Wasser und brauchbares Bumpmapping möglich war.
Die "Revolution" ist bereits da und nennt sich Ray-/Path Tracing in Echtzeit.
 
  • Gefällt mir
Reaktionen: Faultier, Pro_Bro, xexex und eine weitere Person
johnieboy schrieb:
Sieht für mich so aus als ob ich mit meiner 4090 alles richtig gemacht habe und ich ein deja vu wie wie mit meiner ehemaligen 1080Ti haben werde.

Zum Release gekauft um für viele Jahre das beste zu sein was auf dem Markt ist und den direkten Nachfolger überspringen zu können.
Wenn es mehr oder weniger nur mit einer neuen Architektur Performanceverbesserungen geben wird dann wird eine 5090 wohl nicht mehr als 30-50% schneller werden als ne 4090.
Ja, geht mir ähnlich. Habe meine 4090 zwar "erst" seit knapp 2 Monaten, aber nach der News und den künftig erwartbaren Leistungszuwächsen tut mir zumindest der Kaufpreis nicht mehr ganz so weh.
Als Upgrade von einer 3080 wäre mir eine 4070 (Ti) oder 4080 Performancemäßig einfach zu wenig gewesen.
Insbesondere für Sim-Racing in VR kann man nie genug Leistung haben 😇
 
  • Gefällt mir
Reaktionen: Crazy- Jak
Sly123 schrieb:
Aller 4-6 Monate irgendein sinnloses Modell nach dem anderen raushauen...

Klares Ziel... Preis oben halten ...
 
  • Gefällt mir
Reaktionen: Sly123
Atma schrieb:
Die "Revolution" ist bereits da und nennt sich Ray-/Path Tracing in Echtzeit.
Bisher fand ich nur Techdemos, die "wirklich" was zeigten - In Spielen wird mehr die Beleuchtung verändert, aber es sieht für mich dann nur "anders" und nicht "besser" aus. Ich könnt bei Screenshots beispielsweise bei Metro xxx(KeineAhnungwiedasweiterheißt) nicht sicher sagen welcher der mit RT und welcher der ohne RT ist.
 
Beim originalen Metro Exodus war der Unterschied je nachdem wo man sich befand mal größer und mal kleiner. Die Enhanced Edition jedoch sieht deutlich besser aus als das Original, RT bringt in dem Titel schon sehr viel. Bei Cyberpunk mit Path Tracing dasselbe, ist unterhalb einer 4080 nur eben nicht wirklich sinnvoll nutzbar.
 
Ich finde das in gewisser Hinsicht konsequent. Die Produkte sind, vor allem im oberen Bereich, für die nächste Zeit befriedigend und verlangen nicht nach einem baldigen Nachfolger.
Umgekehrt brauchen sie vor schnellen Moves der Konkurrenz keine Sorge haben, denn wer preislich von so einem hohen Ausgangslevel kommt, der kann die Karten durch Preisanpassung auch gegen ein neues Konkurrenzprodukt problemlos konkurrenzfähig halten.

Wenn sie die Zeit bis 2025 tatsächlich für Entwicklung nutzen, dann ist das nicht mal für den Endkunden eine wirklich doofe Politik.
 
Dann muss die alte Karte also noch länger durchhalten. Oder doch mal bei AMD ins Portfolio reinschnuppern? 🤔
 
wontiii schrieb:
Hab ich was verpasst oder seit wann ist die 4070ti für 4k geeignet? Mit 16Gb ja vielleicht, aber mit 12GB bist bei 4k bei einigen Titeln an der absoluten Schmerzgrenze. Siehe The last of us, hogwarts, etc
Sagst du ja selbst;) bei einigen Titel an der Schmerzgrenze.
Also unterhalb dieser Grenze, nicht oberhalb.
 
Austronaut schrieb:
vermutlich verkaufen sich die karten einfach nicht gut genug und müssen deshalb länger am markt bleiben um sich zu amortisieren. Bei den preisen und den geringen leistungssprüngen sind eben noch weniger käufer zu finden.
So funktioniert der Markt... zumindest wen es zuwenig und nicht wirklich konkurenzfähige Marktteilnehmer gibt. Es werden immer weniger GPUs verkauft, die Herstellung wird dazu immer Aufwändiger, was Sie wieder teurer macht, und darum wird ja schon die ganze Produktpalete so aufgebaut, das möglichst jeder sich eine 4090 oder 4080 kauft. Alles was darunter angesiedelt ist, wird so Unattraktiv gestaltet, das man möglichst am ende doch das "besserere" überteuerte Produkt greift....
 
  • Gefällt mir
Reaktionen: Austronaut
Taigabaer schrieb:
Bisher fand ich nur Techdemos, die "wirklich" was zeigten - In Spielen wird mehr die Beleuchtung verändert, aber es sieht für mich dann nur "anders" und nicht "besser" aus.
Inwiefern war das denn bei T+L oder Bump Mapping besser? Aktuell sind AMD und die Konsolen schlichtweg Technikbremsen was RT angeht, weshalb die Entwickler damit schlichtweg sparsam umgehen (müssen). Das war früher kein bisschen anders, als Hardware T+L eingeführt wurde, gab es nur eine geringe Anzahl Lichtquellen die möglich waren und 3DFx beherrschte es überhaupt nicht.
Hardware T&L did not have broad application support in games at the time (mainly due to Direct3D games transforming their geometry on the CPU and not being allowed to use indexed geometries), so critics contended that it had little real-world value. Initially, it was only somewhat beneficial in a few OpenGL-based 3D first-person shooter titles of the time, most notably Quake III Arena. 3dfx and other competing graphics card companies contended that a fast CPU would make up for the lack of a T&L unit.
https://en.wikipedia.org/wiki/Transform,_clipping,_and_lighting
 
C0rteX schrieb:
Kann man so nicht sagen. Laut Quartalszahlen ist der Umsatz mit gaming bei Nvidia um 40 Prozent eingebrochen. Die meisten Karten verkaufen sich bei denen nicht besonders durch die übermäßigen cutdowns bei den Chips, VRAM Menge und Preis. Amd verkauft derzeit gut. Fast 50 Prozent Marktanteil bei Mindfactory.
Ich habe mich ja so auf die 40er gefreut. Beis halt die Preis und Produktpolitik rausgekommen ist. Unten keine wirklich brauchbare und günstige QHD Karte.... Alles so designed das man das Gefühl bekommt, alles außer 4080 und 4090 ist scheiße.... , und zwar nur deshalb, damit möglichst viele 4080, 4090 kaufen, und die die es nicht tun, dennoch derart für ihre "dummheit" ausgequetscht werden, das die Marge keinesfalls schlechter ist, als halt bei den Flagschiffen....

8GB Speicher, kastrierter PCIE Buss, und dafür dann 300€ bezahlen.... Und Anstatt nachzubessern, sitzt es NV einfach bis 2025 aus... Die haben halt leider auch die Marktanteile... Es kommt nicht überraschend.... Für mich bedeutet es wohl, wieder zu AMD zu greifen.... nur muss man dort um volle pcie und vRam zu bekommen in der Bucht auch schon 400€ hinlegen.... :-(
 
Wir können davon ausgehen das nVidia die Zeit nutzen wird, schließlich erlauben sie sich kaum Schwächen, ihre Upscaling wie DLSS funktionieren besser als AMDs, viele APIs wie OptiX funktionieren besser, bei Ray-Tracing ist der Abstand fast größer geworden gefühlt als kleiner.

Also ich will nVidia gar nicht loben, die Karten sind zu hungrig was Strom angeht, zu teuer, teils künstlich beschnitten und dann zu teuer, viel zu groß und vieles mehr aber, AMD hat sehr wenig gute Argumente.

Wenn eine 7900 XTX trotz mehr Speicher und nur 10% günstiger in 4K und mit RT teils 30-40% zurück liegt gegen eine künstlich beschnittene 4080, dann gibts halt wenig Argumente für AMD.

Vor allem hat AMD sich und andere mit ihren Teasern belogen, die Karte wird selbst mit Treiber Updates nie die 40% Leistung aufholen und weniger Strom verbrauchen wie in den Folien und Präsentationen versprochen.
AMD hat hier so viel Vertrauen einfach mit den Füßen getreten.
Man kann fast davon ausgehen das nVidia selbst mit einer neuen Generation 2026 noch vor AMD landen würde.
Aber zaubern geht eben auch nicht, AMD müsste irgendeinen Kniff finden der universell anwendbar ist, dann haben sie wieder oder noch eine Chance.
Dabei sind die Karten ok bis gut, nur eben nicht gut genug um nVidia zu pushen.
 
  • Gefällt mir
Reaktionen: Faultier und JohnWickzer
nur geringe 10 bis bestenfalls 20 Prozent mehr Takt möglich – zu wenig für einen Generationensprung
Für Nvidia ist das doch völlig ausreichend. Wenn die 20 Prozent Takt in 10% Mehrleistung resultieren, packt man noch DLSS4 drauf mit der AI-Texture-Compression oder sowas und bäm, 5060.
 
johnieboy schrieb:
Nur mit Architektur und kleinen Nodeverbesserungen erwarte ich da erstmal nicht viel mehr als 30-50%.
Hm, also 30 %+ würden mir schon reichen um auf eine 5090 zu gehen. 😅
 
xexex schrieb:
Inwiefern war das denn bei T+L oder Bump Mapping besser? Aktuell sind AMD und die Konsolen schlichtweg Technikbremsen was RT angeht, weshalb die Entwickler damit schlichtweg sparsam umgehen (müssen). Das war früher kein bisschen anders, als Hardware T+L eingeführt wurde, gab es nur eine geringe Anzahl Lichtquellen die möglich waren und 3DFx beherrschte es überhaupt nicht.

Also erst ab T&L hatten Spiele die Möglichkeit, menschliche Körper ohne "sichtbare" große Dreiecke darzustellen. Müsst ich mal ein Beispiel suchen, kenne Eines, mir fällt aber der Name nicht mehr ein.

Bei Pixelshader war es Morrowind, was erstmals mit "glaubhaften" Wasser dargestellt wurde, ein riesiger Unterschied zu vorher.

Bei Bumpmapping war das erste Spiel X², was fast alle Schiffe damit verzierte, das war auch nicht dagewesen. Davor gabs "Giants" wo "Kaputo" als einzelne Figurund auch als einziges Objekt im Spiel Bumpmapping benutzte, dafür war eine T&L-Grafikkarte notwendig.

Das ware schon sehr deutlich sichtbare Veränderungen, anders als das bisher in Spielen eingesetzte RT. Ich red nicht von den Tech-Demos. Im Wasser spiegelnde Umgebungen gabs beispielsweise auch schon ohne RT in guter Qualität. Ob jetzt ein "um-die-Ecke-spiegelndes" Raytracing da noch nen großen optischen Unterschied macht? Maximal wenn man Standbilder vergleicht.
 
Zurück
Oben