News Blender-Benchmark-Leak: GeForce RTX 5090 schlägt Mittelwert aller 4090 um 36 Prozent

BloodGod schrieb:
Angeblich darf man so nicht rechnen/denken, das stört das Raum Zeit Kontinuum oder so 🤘
(Ich rechne es mir aber auch seit schon immer genau so schön wie Du)
Ich denke das was merkwürdig wirkt ist, wenn jemand sagt „Ich verkaufe meine 4090 für 1.700€ z.b., dann tun die restlichen 650€ auch nicht mehr so dolle weh“…

Wie Du selbst sagst ist das „schön Rechnen“ und dass das Verwunderung aufwirft, darüber braucht man sich doch dann nicht wundern.

2.400€ Invest bleiben 2.400€ Invest. Wie Du die zusammenkratzt ändern am Invest nichts.

Und ja, es soll jeder mit seiner Kohle machen was er/sie will. Von 4090 > 5090? Ja gönn dir halt wenn du’s willst.
 
Ist doch Wurst wer wie und was für sich rechtfertig um sich ne neue Karte zu kaufen.
Find auch diese ständigen Belehrungen, was Sinn macht und was nicht total nervig.

Ich les ja mehrere Foren quert ab CB ist da ganz oben mit dabei!

Bin auch net im Porsche Forum unterwegs und mache allen alles madig, nur weil ich es im Leben zu nix gebracht habe xD
 
Laphonso schrieb:
Die Technologiefeindlichkeit vieler hier in unserem ComputerBase = Technik - Forum hört niemals auf mich zu faszinieren. :D Das müsste man mal psychologisch dekonstruieren.
Es ist eine Kombination von insgesamt 4-5 Dingen.
Zum einen der Wunsch endlich wieder eine konkurrenzfähige AMD Generation zu sehen und zwar nicht nur punktuell wie bei RDNA 2, wo man DLSS, Reflex, RR, Geräuschunterdrückung und den restlichen RTX Softwarestack und vor allem bei RT schluderte, sondern allumfassend.
Zu anderen ist es die polarisierende Wirkung eines CEOs der eine unfassbar gute Arbeit macht.
Wenn man zusätzlich einem IHV anhängt, also bevorzugt Produkte ohne sachliche Begründung kauft.
Zu guterletzt dann mangelnde Bereitschaft sich mit neuen Techniken anzufreunden, und das festhalten an alten und vermeintlich bewährten Methoden Grafik zu rendern.
Und danach kommt noch die Preiskritik, obwohl wie all die Jahre zuvor es immer so war, dass beide Hersteller etwa gleich viel für die Produkte nehmen und wenn Nvidia was besseres hat dann entsprechend mehr, so wie sich Angebot und Nachfrage das ausmachen.

Die Kritik trifft dann zu 90% Nvidia, die eigentlich auf allen Ebenen immer Gas geben und gute bis sehr gute Produkte vorstellen, aber selbst da wird sich dann auf eine Karte im Portfolio gestürzt die mit 12GB nicht mehr ganz optimal ist, allerdings Einsparungen hinsichtlich V-RAM bei RT auch stattfinden und solche Dinge wie MFG, die obwohl 3 Bilder eingefügt werden keine oder kaum zusätzliche Latenz verursachen (denn die Bilder müssen ja trotzdem berechnet werden) absolut genial ist. Denn Latenz ist ja wichtig.
Nazrael schrieb:
Umsatz und Marktanteil wird dann mit den xx60/xx70 gemacht, die Marge mit den Profikarten.
Etwa 10% der Einnahmen gehen auf das Konto des Topmodells, das ist schon nicht so ohne.
BloodGod schrieb:
Nativ ist nativ, da gibts keine Auslegung.
Dann werden die nächsten 5 Jahre sehr disruptiv werden, wenn man unter "Nativ" Verfahren versteht die alleine schon aufgrund ihrer Methodik bedingten Limitationen wenig mit "Nativ" zu tun haben.
Wir kommen eigentlich "Nativ" nun immer näher und legen das Fake-Rendering zur Seite.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Youngtimer und Laphonso
Stanzlinger schrieb:
Komisch das K&M gar nicht zu den Shops gehören, die zuerst beliefert werden. Nicht mal Amazon bekommt was von der ersten Lieferung ab - auch B2B gehen leer aus.

Exklusiv nur hier
  • Mindfactory
  • Alternate (B2C only, excludes Wave)
  • Caseking (B2C; orders only through the online shop as a reseller)
  • Cyberport/Computeruniverse
  • NBB
  • Proshop
https://www.pcgameshardware.de/Gefo...tionen-bei-Geforce-RTX-5090-und-5080-1463811/
Fakt ist es wird wieder ein Trauerspiel, da fragt man sich was die seit Produktionsstart eig gemacht haben.
Gefühlt gibt es keine 1000 Karten für ganz Deutschland….
Ergänzung ()

GutenTag schrieb:
krampfhaft versuchen die kommende Generation mit den Kosten auf einem Urlaub auf den Malediven zu relativieren. Alter Schwede es geht um eine Grafikkarte welche einfach nur ein beschissenes Bild abgibt
Sag das mal einem Blinden.
Der hat auch nichts vom Urlaub auf den Malediven 😳

Man kann alles schlecht reden wenn man es nur will.
Ergänzung ()

Weltraumeule schrieb:
Habe jedoch seit Anfang an bei dunkelgrauem Hintergrund oder auch bei Spielen mit Szenen im dunklem Wald bei Nacht jede Menge horizontale Streifen/dicke Bereiche. Und auch da Banding ist echt schlimm, also Übergänge zwischen benachbarten Farben. Z.B: bei Nebel, Steam Oberfläche oder css Gradienten. :( Hatte auch bereits eine dieser kompletten, langen Pixelreinigung durchgeführt ohne Besserung. Gerät ist seit einem Jahr täglich 8-12 Stunden im Betrieb. (Mit 10 Minuten Pause alle 4-5 Stunden für den kleinen Pixelrefresh)
Same bei meinem OLED.
Das ist halt bei der Paneltechnologie so.
Allerdings hat es das tiefe Schwarz wieder raus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GutenTag
vencam schrieb:
Bin auch net im Porsche Forum unterwegs und mache allen alles madig, nur weil ich es im Leben zu nix gebracht habe xD
Oh, man hat es im Leben also nur zu etwas gebracht, wenn man Porsche fährt? Gut zu wissen.
 
cypeak schrieb:
ich an deiner stelle würde prüfen wieviel besser ich mit einer 5080 dastehen würde; ich schätze gegenüber einer 3080 sprechen wir immernoch von 170-200% schneller (mal so pi mal daumen ins blaue geraten). dafür aber deutlich günstiger als eine 5090.
ja, ohne die Leistung schon genau zu kennen, kann man trotzdem davon ausgehen, dass man für die 5090 den dicksten Premiumaufschlag zahlen muss.
Wenn AMD es nur nicht so verkakkt hätte und nach der echt guten 6000er Serie weiter Druck gemacht hätte. Nvidia kann halt die Preise frei bestimmen. Falls an der gemunkelten, gut gesteigerten Leistung beim Raytracing der 9070XT wirklich was dran ist, wäre die für mein CAD und Rendern eventuell eine Option. Falls sie es schafft im Blender Benchmark auf mind 9000 Punkte kommt, wäre sie immer noch ca doppelt so schnell wie meine 3080. HIP als Alternative zu OPTIX/CUDA kommt so langsam, endlich in fahrt. Das wäre dann tatsächlich ein top P/L - falls sie wirklich so günstig wird wie vermutet. Denke aber nicht, dass sie 9000 Punte erreichen wird - leider.
 
Zuletzt bearbeitet:
Immer mehr Leute erlangen die Erkenntnis die 5090 wird teuer, frisst viel und leistet nicht genug. Fail!
 
legenddiaz schrieb:
Fur viele die eine rtx 3000 oder eine ältere Generation haben, wird die rtx 5080 mit all den Features trotzdem sehr interessant...
Mit der 3090 bin ich sehr dankbar über die neue Generation. Juckt mich so gar nicht, das bisschen Mehrleistung mit weniger Speicher (wenn man das Halo-Produkt 5090 mal ausklammert). ^^

Dank DLSS und FSR FG hab ich in der Zwischenzeit quasi kostenlos eine neue schnellere Grafikkarte bekommen.
 
GutenTag schrieb:
Einfach nur Süß wie die fanatischen Jungs wie der Teufel rotieren und krampfhaft versuchen die kommende Generation mit den Kosten auf einem Urlaub auf den Malediven zu relativieren.
Da gehöre ich wohl mit dazu, da entweder einer RX9070XT oder RTX 5070Ti fest eingeplant sind.
Ich relativiere die Kosten alle paar Jahre inkl. Verkauf der vorherigen Hardware sehr gerne und stelle sie gegen die Kosten anderer Hobbies oder Zeitvertreibe wie "Fitness-Studio", "Golf", "Mountainbiking" oder der Mitgliedschaft im Schützenverein, bzw. Dartverein.

Selbst wenn man sich eine 5090 anschaffen will, dann sind es monatlich auf 3 Jahre gesehehen etwa 60 Euro, also der gleiche Betrag den ich für das Fitnessstudio monatlich ausgebe. Fanatisch finde ich, wenn man nichts besseres zu tun hat als anderen ständig vorschreiben zu wollen wie sie zu leben haben und das bei verhältnismäßig günstigen Hobbies. Vor kurzem hat jemand das gleiche geschrieben und gleich danach unumwunden eingeräumt, dass er privat fliege und ausschweifend jährlich mehrfach in den Urlaub fliegt. :cheerlead:
GutenTag schrieb:
Wenn in den Grafiken bereits Cherrypicking betrieben wurde um die bestmögliche Performance abzubilden, dann kann jeder Bestizer der 40xx Serie diese Karte überspringen. Die bereits veröffentlichten Videos zeigen das diese Generation "not the yellow from the egg" ist und nur ein refresh ist.
Ich kapiere nicht woher dieser negative Vibe kommt. Wahrscheinlich vor Neid und Missgunst zerfressen, weil man sich warum auch immer nicht das aktuelle Modell einbauen will.
Schau mal in die Threads zum 9800X3D, der ist auch sehr teuer für das Geld, bei kaum Mehrleistung und sehr sehr viele wollen ihn haben. Da liest man absolut nichts von dieser Kritik und das ist nur der Chip mit bisschen Ummantelung, der in der Herstellung keine 80 Dollar Materialwert hat und Software auch nicht wirklich.
 
  • Gefällt mir
Reaktionen: Nekkepenn und GutenTag
Shutup and take my money.
36% mit 600 Watt, das ist Fortschritt. (Für die Aktionäre)
 
  • Gefällt mir
Reaktionen: dohderbert
Fighter1993 schrieb:
Same bei meinem OLED.
Das ist halt bei der Paneltechnologie so.
Allerdings hat es das tiefe Schwarz wieder raus.
Ich meinte "vertikale" Streifenbereiche
Schade! :( Das hat mir die Begeisterung schon stark gedämpft.
Aber klar, insgesamt ist es dennoch der beste Monitor den ich je hatte, endlich richtiges Schwarz wie zu CRT Zeiten!
Aber ich glaube das Banding ist nicht von der Technologie abhängig, sondern LG Qualität. Habe zumindest gehört, dass es bei anderen Herstellern besser sein soll. Mal sehen, ich zahle meinen noch ein Jahr ab und vielleicht wird es dann ein anderer OLED.
 
Capthowdy schrieb:
Oh, man hat es im Leben also nur zu etwas gebracht, wenn man Porsche fährt? Gut zu wissen.
Das war so nicht gemeint aber viele hier müssen sich den Kauf einer Grafikkarte gegenüber anderen Dingen im Leben rechtfertigen.
Highend ist und bleibt ein Luxusgut, wofür halt nicht jeder einfach mal paar Scheine kurz hinblättern kann.

Ich für meinen Teil gönn es jedem der sich das leisten kann.
 
  • Gefällt mir
Reaktionen: aluis und iron_monkey
wahli schrieb:
Also 36% mehr Leistung bei wie viel mehr Leistungsaufnahme?
Also eher Fortschritt mit der Brechstange!
Eingefleischte Nvidians werden dir erzählen das die 5090 aber ganz viel effizienter ist als die 4090.
 
Ich möchte wissen, was die 5090 im Vergleich zur 4090 bei einer Leistung von 450 Watt leistet.

Für mich ist die 5000er Generation oder auch die 5090 eigentlich nur eine 4090 Ti...
Mehr VRAM und die Brechstange...
 
Sierra1505 schrieb:
2.400€ Invest bleiben 2.400€ Invest. Wie Du die zusammenkratzt ändern am Invest nichts.

Ja man investiert 2400€, das stimmt. Aber man hat einen Wertgegenstand dafür erworben dessen Wert (oder besser gesagt Zeitwert) man auch wieder in Geld umsetzen kann wenn nötig.

Aus der Sicht eines 4090 muss man ja auch bewerten das eine 4090 weiterhin Wert verlieren wird.

Es gibt 2 Szenarien:
I) 4090 heute für 1500€ verkaufen und in die 5090 investieren. Die 5090 wird dann erstmal 2 Jahre wertstabil bleiben und zum 6000er Release wieder irgendwo in einem Gebrauchtpreis von 1500€ - 2300€ landen.
II) 4090 behalten und weiteren Wertverlust in Kauf nehmen. Zu jedem neuen Hardwarerelease wird die 4090 aber ebenso weiter Wert verlieren, z.B. wenn’s eine 5080 Super 24GB gibt wird die 4090 in Richtung 1000€ - 1200€ gehen, zur 6000er Serie dann wohl in den 6070 Preisbereich und damit deutlich unter 1000€.

Wie die Zahlen dann genau werden zeigt die Zukunft, aber unter Betrachtung des Zeitwert der jeweiligen GPU ist es fast egal ob man die 4090 weiter abnutzt oder auf die 5090 wechselt.
Wirtschaftlich gesehen geht es hier weitestgehend um ein Abschreibungsmodell bei dem in beiden Fällen in etwa der gleiche Wertverlust zu erwarten ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxminator
Ich hätte jetzt ohnehin nicht damit gerechnet, dass die 4090 bei "nativer" Leistung urplötzlich von einer 5070 oder sowas weggefegt wird.

So wie das aktuell ausschaut, greife ich die gebrauchte 4090 von meinem Bruder ab zum guten Preis und er gönnt sich dann die 5090.
Von uns Beiden nutzt so oder so keiner DLSS, dieses vermatschte Bild was da raus kommt, für ein bisschen mehr Leistung und weniger Kantenflimmern... nee danke.
 
  • Gefällt mir
Reaktionen: iron_monkey
Weltraumeule schrieb:
Ich meinte "vertikale" Streifenbereiche
Schade! :( Das hat mir die Begeisterung schon stark gedämpft.
Aber klar, insgesamt ist es dennoch der beste Monitor den ich je hatte, endlich richtiges Schwarz wie zu CRT Zeiten!
Aber ich glaube das Banding ist nicht von der Technologie abhängig, sondern LG Qualität. Habe zumindest gehört, dass es bei anderen Herstellern besser sein soll. Mal sehen, ich zahle meinen noch ein Jahr ab und vielleicht wird es dann ein anderer OLED.
Das ist leider pure Panellotterie. Mein erster Oled hatte es NULL, also wirklich nicht. Der hatte aber leider einen anderen Fertigungsbedingten defekt, so dass ich ihn nur 2 Wochen hatte. Der Ersatz dafür hatte 2 ziemlich deutlich sichtbare Streifen. Der ging gerade zum Ende der Garantie kaputt, sodass ich noch ein 3tes Panel des exakt gleichen Modells hatte (LG C9). Der hatte ganz leichtes vertical banding, das war nur in Test content/sehr speziellen Szenen zu sehen.
Den habe ich nach 4 Jahren gegen ein aktuellen Modell ausgetauscht. Jetzt ist vertical Banding an sich etwas anders. Die Kanten sind schärfer, aber der eigentlich Kontrast ist geringer. D.h. es fällt noch seltener auf, aber wenn es auffällt dann richtig. Trotzdem ist es immer noch die beste Bildqualität die man sinnvoll kaufen kann. Irgendwelche Mastering Monitore für 30000€/38Zoll sind ja auch keine Alternative.

OT: Die aktuelle Generation fühlt sich komplett nach einem "Refresh" an. Auch das aktuelle HDMI etc. fehlt.
 
  • Gefällt mir
Reaktionen: Weltraumeule
Ich bin auf die 5080 gespannt. Fake Frames hin oder her. Ich kam mit meiner 4090 bei Indiana Jones auf 100fps mit alles an. Da brauche ich kein 4K 240Hz Monitor. Daher mal schauen inwiefern man mit MFG an die 240fps in mehreren Spielen herankommt. Und dann wird entschieden ob es eine 5080 oder 5090 wird
Ergänzung ()

eax1990 schrieb:
Ich hätte jetzt ohnehin nicht damit gerechnet, dass die 4090 bei "nativer" Leistung urplötzlich von einer 5070 oder sowas weggefegt wird.

So wie das aktuell ausschaut, greife ich die gebrauchte 4090 von meinem Bruder ab zum guten Preis und er gönnt sich dann die 5090.
Von uns Beiden nutzt so oder so keiner DLSS, dieses vermatschte Bild was da raus kommt, für ein bisschen mehr Leistung und weniger Kantenflimmern... nee danke.
„Vermatscht“? Dir ist schon bewusst dass DLSS oftmals besser als nativ aussieht?

Ab 17:10
 
  • Gefällt mir
Reaktionen: Kommando, computerfouler, GutenTag und 2 andere
Zurück
Oben