News Nvidia GeForce RTX 4080: Erste Benchmarks und hohe Preise durchgesickert

danyundsahne schrieb:
nd es dann in ein paar Jahren nochmal maxed out durchzocken,:D
Das ist völlig legitim. Und ohne Witz werde ich mit der 4090 einige Games nochmals grafisch maxed nachträglich (komplett) durchzocken, bei denen mich die fps drops der 3090 (respektive des 5950x) teilweise echt gestört haben.

Ich fange quasi "jetzt" damit an, alles ohne grafische Kompromisse bzw. Limits durchspielen und zu genießen.

Rationale und Budget-vernünftige Gamer sparen sich das auf, denn ein Control wird auch in 4 Jahren noch eine tolle grafisch und storytechnisch immersive Gamningerfahung sein.

Man erkauft sich als Enthusiast letztlich auch einen " technischen Vorgriff", und der ist in der PReis/Leistung immer miserabel. Und ja, auch für ggf. 1, 2 oder 3 spezielle Games, in die man hunderte Stunden ballert.

Und dass Du Dich hier wunderst:

danyundsahne schrieb:
Naja, aber wegen 1(!) oder 2 (!) Games dann 2-3 Steine auf den Tisch legen zu müssen nur damit man die maximal mögliche RT Leistung bekommt?
:D

zeigt, dass Du noch kein alter Knacker bist :D

Es gab bereits damals (Anfang der 90er) einzelne Games, die waren Systemseller.
Space Quest und Indy etc für die 286er, und Comanche und Wing Commander für die 386er (Es gab regerechte Shitstorms, weil Wing Commander einen 386er DX 25 "vorgab"), Doom für die 486er, die bereits 66MHz forderten, damit das sauber lief.

Ja, es wurden damals komplette Spiele PCs für einzelne Games gekauft! Die SVGA Grafik war noch mal ein Riesensprung.

Und ales es den Pentium und die K Prozessoren gab, habe ich für Unreal Tournament Anfang 2000 ein komplett neues Vodoo2 SLI System gekauft. Explizit und nur für dieses Spiel. Und da war ich nicht der einzige:

https://www.computerbase.de/2022-02...reise-zurueck-in-die-alten-tage-der-hardware/

Also, es gibt keinen Grund, sich zu wundern, dass man heute eine Enthusiasten GPU vielleicht vorerst nur für 1-3 Games ganz speziell kauft, langfristig aber ja die GPU Power und Technologie mit an Bord hat für die next gen games.

Das war früher schon so :) (bei den Enthusiasten="Bekloppten")
 
  • Gefällt mir
Reaktionen: Bright0001, bad_sign, Beatmaster A.C. und 5 andere
Kraeuterbutter schrieb:
sprich: mit DLSS 3 ist dann die 4080 deutlich vor einer 3090
Absolut, ja. Sofern aus DLSS 3 noch ein wirklich nutzbares Feature wird. Laut verschiedenen Reviews braucht man mindestens 60 (Digital Foundry) oder gar 100 (Hardware unboxed) reelle Frames, damit Inputlag und Bildfehler von DLSS 3 nicht mehr stören.

Für den Moment bekommt DLSS 3 aber m.E. dadurch den Todesstoß, dass weder Vsync noch Framelimiter vernünftig unterstützt werden. Dadurch wird die Nische aktuell irrsinnig klein.
 
  • Gefällt mir
Reaktionen: Unnu, Chismon und Mcr-King
Na ja bis, FSR 3 kommt werden sie den Inputlag sicherlich reduziert und die Artefakte minimiert haben.
 
Einfach peinlich was Nvidia treibt. Einfach nicht kaufen und sie lernen es, aber auch nur so. Aber wenn ich einige Posts hier lese, wundert es mich nicht, wieso solche Preise als realistisch angesehen werden.
 
  • Gefällt mir
Reaktionen: Fenkel, Chismon, danyundsahne und 2 andere
RTX4090, AD102 (608 mm2) für UVP 1949€
RTX4080, AD103 (379 mm2) für UVP 1469€
RTX4070Ti (umgelabelte 4080 12GB), AD104 (295 mm2) für UVP 1099€ ???
RTX4070, AD104 (295 mm2) für UVP 999€ ???
RTX4060, AD106 (190 mm2) für UVP 599€ ???
RTX4050, AD107 (146 mm2) für UVP 429€ ???
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Mcr-King
Laphonso schrieb:
Also, es gibt keinen Grund, sich zu wundern, dass man heute eine Enthusiasten GPU vielleicht vorerst nur für 1-3 Games ganz speziell kauft,
och... da würde mir schon was einfallen..

in VR z.b. kann man kaum genug GRafikpower haben
ne Reverb z.b. (2160x2160 Auflösung) die es mit der Auflösung seit 3 Jahren gibt:

konnte bis heute in vielen GAmes nicht ausgereizt werden
REnderlauflösung sollte 3100x3100 sein (wegen dem Headroom der gebraucht wird für die Distortion-PRofile)
bissal Supersampling sind wir bei 4000x4000pixel
also zwei 4k-Monitore

das ganze dann bitte noch mal 2 (weil ja 2 Augen) - sind wir bei vier 4k-Monitoren
und bitte in 90 hz
ohne DSLL (weil das wird in den meisten Games nicht unterstützt)

und voila.. die 4090 ist schon nimma so die über-drüber Karte ;-)
 
  • Gefällt mir
Reaktionen: Laphonso
Peterkl schrieb:
Genau 50% Mehrleistung,lol.

Ich sehe es vor meinen Augen wie der Produkt Manager im Meeting genau das gefordert hat und dass Engineering Team eben genau 50% lieferte.
Die machen schon vielen Jahren Punktlandungen. NVidia weiss genau was Sie bauen muss, dafür lassen Sie Simulationen laufen.
Im Umkehrschluss heisst das auch, Sie halten zurück und gehen nie all in!
 
Rickmer schrieb:
Der Abstand von 4080 zu 4090 ist enorm, eine 4080 Ti und eine 4080 Super passen da beide noch rein...
um eine dann noch günstigere AMD-Karte zu schlagen?
Ergänzung ()

foo_1337 schrieb:
Ihr vergesst bei der Diskussion auch das Thema DLSS. Klar hat AMD hier nachgezogen aber es wird weiterhin DLSS only Games geben. Ob einen das dann betrifft oder nicht sei mal dahin gestellt, aber IMHO gilt es das zu berücksichtigen.
Ja, was absolut Scheiße von Entwicklern ist, die sich kaufen lassen.
Ergänzung ()

Laphonso schrieb:
Die 4080 misst sich also eher mit 1000-1500 Euro 3080er im Handel über rund 18-19 Monate der Ampere Laufzeit.
Wie bitte? Eine RTX 3080 gibt es aktuell ab 780€. Was interessiert uns der Preis als die Welt im Coronawahn war?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Pleasedontkill schrieb:
Im Umkehrschluss heisst das auch, Sie halten zurück und gehen nie all in!
Also ich hab kein Problem wenn ich alle ein bis zwei Jahre eine so "zurückhaltende" Karte wie die 4090 bekäme. 😂
 
Taxxor schrieb:
Das "Up to 1.7x faster" wirkt nach dem was gezeigt wurde zumindest nicht so schlimm wie das "2-4x faster" aus der Ada Präsentation, aber es ist doch schon ein Unterschied zu vorher, als man wirklich belastbare Prozentwerte über ein Mittel aus 10 Spielen angegeben hatte.

Jetzt arbeitet man wieder mit "up to" Werten und auch nur 3 Raster-Spielen, wo die 1.7x bereits die Ausnahme war und die beiden anderen nur bei 1.5x waren.
Wenn Reviews jetzt genau dieses 1.7x Spiel nicht drin haben und dafür noch andere Spiele, wo es eben nicht mal 1.5x sind, dann kann man auch am Ende bei weniger als +50% landen.
Wollen wir es mal nicht hoffen.
 
Ich behalt meine Kyro 2 noch und warte auf das refresh von love lace. Ich will unbedingt +2500€ für eine gpu ausgeben. Wen interessiert es denn, dass man für das Geld schon einen Fernseher samt ps5 und 5.1 System bekommt. Wenn schlau gemacht, passt noch eine Ikea Couch ins Budget.

Was für Zeiten.
 
  • Gefällt mir
Reaktionen: Pleasedontkill und danyundsahne
Chilisidian schrieb:
Ja, das mit dem Takt verstehe ich bei RDNA3 auch nicht, da gibt es 0 Fortschritt zu RDNA2 obwohl das eigentlich eine recht einfache Stellschraube ist, bei der man speziell die gut selektierten Chips der XTX deutlich weiter ausreizen könnte. Zumal die 4090 selbst bei mittelmäßigem Chip locker die 2,9Ghz übertrifft mit One Click OC.
Wieso? Stand heute macht das durchaus Sinn. Denn die Karte operiert genau in dem elektrischen Budget das AMD vorgegeben hat. Und dabei musste man noch zu zwei Taktdomänen greifen um das Ziel zu erreichen...
Mal sehen was mir 3 Steckern geht...
 
Ich mag, was ich sehe und finde die Steigerung zu meiner vorhandenen RTX 3080 enorm.
Und gekostet hat die mich (im Dezember 2020) auch fast 1300 €

Allerdings muss ich mir dann wohl ernsthaft überlegen, wie wichtig mir Raytracing wirklich ist, da es eben inzwischen AMD Karten gibt, die schneller sind und weniger kosten.
Aber erstmal die Tests hier abwarten. Auf Youtube Videos gebe ich gar nichts.
 
  • Gefällt mir
Reaktionen: rumpeLson
Sowohl zum Start der RTX 4080 als auch der neuen AMD-Grafikkarten wird ComputerBase zu gegebener Zeit mit den gewohnt umfangreichen Tests und Benchmarks aufwarten.
Stark, da freue ich mich drauf. Da wird man Gewissheit erlangen und kann selber entscheiden welche man braucht und möchte.

Weiterhin viel Spaß mit dem Spekulatius:cheerlead:
 
  • Gefällt mir
Reaktionen: Aduasen
Dogmeat schrieb:
Ich will unbedingt +2500€ für eine gpu ausgeben.
Viel zu wenig eigentlich. Soll ja keiner denken man könne es sich nicht leisten.
Nvidia soll mal SLI wiederbeleben und eine 4095 mit Dual-GPU auf den Markt bringen!
4 Slots dick und 480mm lang mit 4 Lüftern für mind. 4000€.
 
  • Gefällt mir
Reaktionen: Dogmeat
Zusammengefasst sollte sich jemand der gerade etwas in dieser Leistungsklasse sucht, bis spätestens Black Friday eine 3090Ti oder RX6950XT kaufen.
 
  • Gefällt mir
Reaktionen: rumpeLson und -=[CrysiS]=-
Laphonso schrieb:
Das ist völlig legitim. Und ohne Witz werde ich mit der 4090 einige Games nochmals grafisch maxed nachträglich (komplett) durchzocken, bei denen mich die fps drops der 3090 (respektive des 5950x) teilweise echt gestört haben.

Ich fange quasi "jetzt" damit an, alles ohne grafische Kompromisse bzw. Limits durchspielen und zu genießen.

Rationale und Budget-vernünftige Gamer sparen sich das auf, denn ein Control wird auch in 4 Jahren noch eine tolle grafisch und storytechnisch immersive Gamningerfahung sein.

Man erkauft sich als Enthusiast letztlich auch einen " technischen Vorgriff", und der ist in der PReis/Leistung immer miserabel. Und ja, auch für ggf. 1, 2 oder 3 spezielle Games, in die man hunderte Stunden ballert.

Und dass Du Dich hier wunderst:



zeigt, dass Du noch kein alter Knacker bist :D

Es gab bereits damals (Anfang der 90er) einzelne Games, die waren Systemseller.
Space Quest und Indy etc für die 286er, und Comanche und Wing Commander für die 386er (Es gab regerechte Shitstorms, weil Wing Commander einen 386er DX 25 "vorgab"), Doom für die 486er, die bereits 66MHz forderten, damit das sauber lief.

Ja, es wurden damals komplette Spiele PCs für einzelne Games gekauft! Die SVGA Grafik war noch mal ein Riesensprung.

Und ales es den Pentium und die K Prozessoren gab, habe ich für Unreal Tournament Anfang 2000 ein komplett neues Vodoo2 SLI System gekauft. Explizit und nur für dieses Spiel. Und da war ich nicht der einzige:

https://www.computerbase.de/2022-02...reise-zurueck-in-die-alten-tage-der-hardware/

Also, es gibt keinen Grund, sich zu wundern, dass man heute eine Enthusiasten GPU vielleicht vorerst nur für 1-3 Games ganz speziell kauft, langfristig aber ja die GPU Power und Technologie mit an Bord hat für die next gen games.

Das war früher schon so :) (bei den Enthusiasten="Bekloppten")
Naja, gibt ja auch genug Menschen, die sich für 2-3 exklusive Spiele eine PS5 oder Switch kaufen. Ich habe mir damals einen neuen PC für Operation Flashpoint gekauft :cool_alt: und so wie Du sagst, gibt es auch heute bestimmt genug Leute, die sich extra für ein Spiel einen neuen PC anschaffen. Spätestens wenn GTA6 oder das nächste Skyrim kommen, werden wieder einige mit den Geldscheinen wedeln.
 
  • Gefällt mir
Reaktionen: Laphonso
danyundsahne schrieb:
Was heißt AMD wäre bei RT zu lahm,...
Mal ehrlich, wen interessiert denn bei diesen Karten noch die Raster Leistung?
Ich kann mit meiner langsameren 3090 bei jedem Raster Spiel alle Regler Abschlag rechts schieben und habe immer noch über 100FPS. Mehr Leistung braucht man doch gerade bei Raytracing und da wäre ein Vielfaches wünschenswert.
 
  • Gefällt mir
Reaktionen: Pleasedontkill, guillome, Laphonso und eine weitere Person
Dogmeat schrieb:
Ich behalt meine Kyro 2 noch und warte auf das refresh von love lace. Ich will unbedingt +2500€ für eine gpu ausgeben. Wen interessiert es denn, dass man für das Geld schon einen Fernseher samt ps5 und 5.1 System bekommt. Wenn schlau gemacht, passt noch eine Ikea Couch ins Budget.

Was für Zeiten.
So Vergleiche sind natürlich herrlich. Da wird einerseits das abgefahrenste Highend Produkt mit Entry- bis MidLevel Shit verglichen dafür dann aber reichlich.

Ein guter AVR alleine kostet auch schnell 2k€, wir wollen hier ja keinen Schund kaufen. Gute Boxen von Focal oder Canton, davon fünf Stück bist auch schnell über 5k€ los, dann noch nen guten Sub, muss ja schon eher highendiger sein, also auch nochmal 1k€+ und bei der Glotze nehmen wir natürlich nicht als Vergleichsbasis das Einstiegsmodell LG A1 in 55" des Vorjahres dran sondern das aktuellste und grösste Modell versteht sich.

Da wäre man bei einem 97" G2 auch schon bei schnuckligen 25k€.

Aber hey wir wollen hier ja Äpfel mit Birnen vergleichen und das auch noch schlecht, das klingt viel witziger und polemischer dann. :daumen:
 
  • Gefällt mir
Reaktionen: Dogmeat und piccolo85
Zurück
Oben