News GeForce RTX 4090: Erste Custom-Designs sind für 1.999 bis 2.549 Euro im Handel

Unti schrieb:
Finale Leistung zählt, das Gesamtpaket zählt.

Bedarf ist bei uns generell da, 4K ist noch so anspruchsvoll, dass wir eigentlich das nehmen müssen was da ist, oder immer Einbußen in kauf nehmen müssen...

Klar zählt die finale Leistung mehr, da die Anzahl an Cuda-Cores nicht perfekt skaliert, auf das Gesamtpaket von AMD bin ich ehrlich gesagt gespannt, da ich DLSS/RT als Nischenfeatures betrachte.

Obwohl ich nur eine RTX 3080 und 3060 Ti (Zweit-PC) besitze, fühle ich keinen Zwang die Preise von nvidia unbedingt mitgehen zu müssen, auch wenn ich die RTX 4090 nicht extrem unattraktiv finde, kostet allerdings auch soviel wie mein gesamter PC.

Mal schauen wann die Reviews kommen und wie das Fazit hier ausfällt.

Laphonso schrieb:
Native ist dann irgendwann am Ende.

Nur dank DLSS und FSR kommen wir hier überhaupt weiter.

DLSS und FSR kommen mir häufig eher wie Ausreden der Entwickler vor, um sich weitere Optimierungen zu ersparen, z.B. bei Hogwarts Legacy, aus den empfohlenen Systemanforderungen bei Steam:
"Zusätzliche Anmerkungen: SSD, 1080p/60 fps, High Quality Settings, Upscale Quality Setting"

Native Auflösung bietet einfach immense Qualitätsvorteile und bei einer 2000€ GPU stellst du doch die render resolution nicht auf 720p (DLSS Performance @1440p), oder doch?
Ergänzung ()

ThirdLife schrieb:
Die 4080er liegen im toten Niemandsland der Fantasiepreise. Zwingt dich aber auch keiner da hin zu reisen.

Mit Gebrauchtpreisen vergleichen ist immer schwierig, eine RTX 3080 12GB kostet aktuell ab 900€ neu.

Wenn man die bessere Effizienz, neue Features (DLSS3) und mehr Leistung (~10-15%) einrechnet, dann lassen sich plötzlich auch 1100€ rechtfertigen.

Und genau hier liegt das Problem der neuen Karten, sie bauen auf den Preisen der alten Generation auf, weil eben unglaubliche Lagerbestände vorhanden sind.

Entweder geht nvidias Plan auf und die Kunden kaufen, ansonsten wird man die Preise senken müssen.

Das ist eigentlich auch die größte Neuerung dieser Generation Performance pro Dollar wird nicht ein Stück besser.
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Es gibt überhaupt keine Notwendigkeit überhaupt den Flugsimulator spielen zu müssen.

Jetzt schreibst Du den anderen Gamern auch noch vor was sie zu spielen haben? Es gibt tausende Fans von Simulationen die nur MS Flugsimulator spielen und allein für das Equipment mehrere tausend Euros ausgeben.

.Sentinel. schrieb:
Zu Mining- Boom Zeiten waren es aber nicht NVIDIA oder AMD, die ihre Margen erhöht haben.
So viel zu Deine Unterstellung. Dabei bist Du es der falsche Tatsachen und heiße Luft hier verbreitet.

"Nvidias Jahresgewinn springt von 4,3 Milliarden auf 9,8 Milliarden US-Dollar – dank hoher Margen bei GeForce-Grafikkarten und GPU-Beschleunigern. Noch markanter als der Umsatzanstieg war die Gewinnexplosion von 125 Prozent auf 9,75 Milliarden US-Dollar im kompletten Jahr, einhergehend mit einer höheren Bruttomarge von 64,9 statt 62,3 Prozent"
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html

.Sentinel. schrieb:
Aber sonst ist alles in Ordnung bei Dir?

Bei Dir alles in Ordnung?

.Sentinel. schrieb:
Die Frage und da drehen wir uns im Kreis ist- Welches Zeichen setzt Du denn damit.

Versuche Angebot und Nachfrage zu verstehen, dann beantwortet sich die Frage von alleine falls Du in der Schule aufgepasst hast.

.Sentinel. schrieb:
Es wird hier nicht diskutiert. Und genau das ist der Punkt. Es werden hier ohne Grundlagen Behauptungen aufgestellt, gebasht und Stimmung gemacht. Sich zusammengerottet "um ein Zeichen zu setzen".
Und das alles aus rein egoistischen Gründen (Hersteller soll gezwungen werden die Preise zu senken, so dass Du und andere billiger einkaufen können). Also genau das, was man den Unternehmen vorwirft, wenn man vom Melken spricht.

Also sind 90% der User hier Stimmungsmacher oder Basher und nur Du bist der King der alles richtig macht und nur Deine Meinung zählt. Bravo! Nvdia sollte Dir den Nobelpreis verleihen als Dankeschön für die Milliarden Gewinne. Du bist es, der hier ohne Grundlagen falsche Behauptungen aufstellt. Siehe Dein Zitat zu: "Zu Mining- Boom Zeiten waren es aber nicht NVIDIA oder AMD, die ihre Margen erhöht haben."
 
Zuletzt bearbeitet:
Beg1 schrieb:
DLSS und FSR kommen mir häufig eher wie Ausreden der Entwickler vor,
Die Realität zeigt halt, dass dieses Features alternativlos sind.


Es ist schlichtweg beeindruckend, und ich spiele Cyberpunk sichern nicht unter krüppeligen 29 nativ fps ;-)

1664800792400.png


Wenn ich 50 haben kann (die mir immer noch VIEL zu wenig sind, sogar die 3090 ist im struggle hier)

1664800807865.png


Vor allem, wenn ich dank DLSS 3 demnächst 90 oder mehr haben kann .

Was "soll" ich noch mit nativer Resolution, außer mich selbst limitieren und mir das Spielerlebnis versauen?

Mit Augenzwinkern provokant gefragt, Du weisst, worauf ich hinauswill :)
 
  • Gefällt mir
Reaktionen: ALDeeN1982, ThirdLife und Wintermute
Laphonso schrieb:
Vor allem, wenn ich dank DLSS 3 demnächst 90 oder mehr haben kann .

Was "soll" ich noch mit nativer Resolution, außer mich selbst limitieren und mir das Spielerlebnis versauen?

Mit Augenzwinkern provokant gefragt, Du weisst, worauf ich hinauswill
Gegen die beachtlichen Zugewinne bei keinem massiven Verlust der Qualität hat niemand was dagegen.
Natürlich limitiert man sich selber nicht und solange das Spielgefühl aufkommt passt doch alles.

Du hast aber nur UWQHD am Start bei einem kleinen Display, da ist es fast schon egal was du einstellst, das sieht man i.d.R. nicht.
Kommt immer auf das restliche Setup an. Ich seh bei Cyberpunk im Quality Preset auf 77" in 4K einen massiven unterschied, egal ob DLSS oder FSR (hatte mal ne 3090 - kann also beides gut beurteilen).
Auf 27" oder 32" oder sogar noch 38" fällt dir das nicht so krass auf. Sobald du höher gehst und die PPI nicht mehr so massiv sind, geht dir so oder so "Schärfe" etwas verloren, von dem her hast du generell recht, auch wenn nicht immer auf jeden Anwendungsfall und jedes Setup bezogen.
 
  • Gefällt mir
Reaktionen: Laphonso
Unti schrieb:
Ich seh bei Cyberpunk im Quality Preset auf 77" in 4K einen massiven unterschied,
Ja okay, 77 Zoll ist nun noch mal eine völlig andere Liga, und da würde ich sicher auch nativ bevorzugen.

Aber da sind wir wieder beim Thema der Limits der Fertigungstechnik. Wenn wir "roh" nur 25-30% Performance netto gewinnen alle 2 Jahre, brauchen wir immer ein Jahrzehnt, um die fps zu verdoppeln, währen die Grafik noch besser wird und realistischer werden soll.
8 Millionen Pixel sind weiterhin eine Wand, die uns über Jahre noch bremsen wird.

Dann solltest Du mit Deinem usecase umso mehr hoffen, dass due Upscaling Ergebnisse iterativ besser werden.

Was die Framegenration mit den OFAs bringt, und ob das ein Mittel sein kann, dass besser funktioniert als das FSR und DLSS Scaling an sich, wird ja sehr spannend.

3 Kilo und 4 Slot GPUs sind irgendwie zukünftig kein tolles Szenario.
 
Laphonso schrieb:
Die Realität zeigt halt, dass dieses Features alternativlos sind.

Vor allem, wenn ich dank DLSS 3 demnächst 90 oder mehr haben kann .

Was "soll" ich noch mit nativer Resolution, außer mich selbst limitieren und mir das Spielerlebnis versauen?

Mit Augenzwinkern provokant gefragt, Du weisst, worauf ich hinauswill :)

DLSS Quality hat in 4K durchaus Momente in denen es besser aussehen kann als nativ (TAA halt), dafür muss man an anderen Stellen Abstriche machen (siehe dein verlinktes Video). In 1440p ist DLSS für mich bestenfalls noch auf Quality nutzbar, alles darunter verliert zu viel Bildqualität, wenn du mit DLSS3 Performance und 720p render resolution glücklich bist, freut mich das (hast du beim Benchmark aber nicht genutzt...).

Und eines meiner Hauptprobleme bei der RTX 4090 Präsentation ist auch einfach die Einstellung des Performance Preset (50% render resolution), damit man überhaupt auf dreistellige FPS-Zahlen kommt, das ist einfach realitätsfern bei einer 2000€ GPU.

Cyberpunk 2077 hat es dir wohl angetan? 99,99% der Spieler sind durch mit dem Game, die kommen auch mit einer 4090 nicht wieder.
Wollen wir jetzt wirklich diskutieren, warum ausgerechnet Cyberpunk 2077 ein schlechtes Beispiel für ein "gut optimiertes" Spiel ist? Ich mein selbst CDPR hat die Nase voll von der Engine und sie stammt von ihnen...

Und damit wären wir wieder bei dem Ausgangspunkt - mir kommen DLSS/FSR eher wie Ausreden vor, damit man nicht vernünftig optimieren muss.
 
Zuletzt bearbeitet:
Gaspedal schrieb:
Nein, so funktioniert das nicht. Gut dass Du nicht der Geschäftsführer einer Grafikkartenhersteller bist. Sonst müssten die Grafikkarten heute nach Deiner Logik über 10.000€ kosten verglichen mit letzten 20 Jahre.
Da weiss keiner worüber du dich eigentlich beschwerst. Es ist doch schon belegt, dass du heute die gleiche oder mehr Leistung für einen Bruchteil des Geldes und Stromverbrauchs kriegst. Was ist also das Problem wenn man nun ein absolutes Highendprodukt hoch einpreist ?

Ja eben nur dass DU sauer bist weil du es nicht zu deinem Wunschpreis kriegst.

Gaspedal schrieb:
Nur weil Du keinen kennst bedeutet dass es nicht dass es niemanden gibt der es braucht. Dann hast Du MS Flugsimulator noch nie mit einer 4k VR Brille und 120hz gespielt. Selbst ein 3090'er ist da total überfordert wenn man die Leistung nicht runterschraubt.
Ich seh da auch kein "brauchen". Wär schön das zu haben, aber ich sterbe nicht weil es nicht geht. Ich hab auch bis jetzt mit CP2077 gewartet. Habs erst angefangen aber dann nach ein paar Stunden aufgehört und mir gedacht das spar ich mir bis es performantere Karten gibt.

Wenn deine geringe Selbstbeherrschung einen Verzicht auf ein Spiel oder Produkt das nicht zulässt ist das allein dein Problem.

Gaspedal schrieb:
Ja, das sehe ich ein dass auch die Hersteller unter Kostendruck stehen und die Preise an den Kunden weitergeben. Aber zu Mining Boom - Zeiten waren sie davon noch nicht betroffen und die Miner wurden bevorzugt versorgt und palettenweise beliefert weil sie dreifache Preise dafür bezahlt haben. Die Gamer waren denen egal... Gibt genug Videos davon und auch Tweets von Miner.
Hatte aber ganz andere Gründe warum die Preise hoch waren (Scalper, Miner, Distributoren, Auftragsfertiger). nVidia und AMD haben lediglich durch hohe Absatzzahlen ihren hohen Gewinn gemacht, nicht durch die ach so hohen Margen. Es gab exakt zwei Karten die mit höheren Margen eingepreist wurden, das war die 3080 (12) Ti und die 3090 Ti.

Gaspedal schrieb:
Das "Melken" haben alle zu Mining-Boom Zeiten miterlebt. Wer da noch Belege dafür braucht ist wirklich verloren oder total blind.
Wie gesagt. Andere Gründe. Nicht der Hersteller.

Gaspedal schrieb:
Hä? Genau das tun wir doch, wir verzichten derzeit drauf. Nicht weil wir es uns nicht leisten können, sondern weil wir damit ein Zeichen setzen wollen. Aber wahrscheinlich bist Du auch so ein Grünen Wähler der sich alles schönredet und die ganze Entwicklung toll findet im Sinne der Umwelt. Koste was es wolle... Außerdem schreibst Du auch über Dein eigenen Gefühlszustand wie toll Du die Preise findest. Ja, schön für Dich! Kaufe es und werde damit glücklich. Ich gönn es Dir ja auch. Warum kannst Du aber nicht andere in Ruhe lassen, die solch eine Preisentwicklung und Preispolitik (und es geht schonab RTX 3070 los) kritisieren? Dafür ist ein Forum schließlich da.
Jo ich geh dann mal ins AMG Forum und kritisiere dort die steigenden Preise. Ich bin sicher wenn ich dort rumflenne dass mir das alles zu teuer is, dann wird man mir nen guten Sonderpreis machen.

Oder ich könnte einfach etwas anderes kaufen ? Schwierig, schwierig was jetzt die sinnvollere Wahl ist. 🤔

Gaspedal schrieb:
Was für heiße Luft? Schau Dir 90% der Beiträge an, die Bestätigen dass alle die Preise übertrieben finden. Wenn Du die Meinung anderer als heiße Luft bezeichnest und ein Problem damit hast, andere Meinungen zu respektieren, dann bist Du hier falsch.
Was eine reine Gefühlssache ist. Was sagen denn 90% aller Beiträge über das reale Gewinnverhältnis bei nVidia aus ? Nur weil 100 Fliegen finden Scheisse schmeckt geil muss dem so sein ? Abstruse "Logik" die du da hast.

Gaspedal schrieb:
Du hast definitiv nichts verstanden über was wir hier diskutieren. Jetzt fängst Du schon wieder damit an und unterstellst den Leuten, dass hier nur rumgemeckert wird weil die es sich die neuen Grafikkarten nicht leisten können.
Am besten fängst Du von ganz vorne an zu lesen.
Doch jeder verstehts. Dir passen die Preise nicht. Und du denkst wenn du laut genug meckerst (analog kleine Kinder) dann schenkt man dir Aufmerksamkeit seitens des Herstellers (Mama/Papa). Dem ist aber nicht so.

Und wenn du dir etwas leisten kannst, es aber nicht willst, dann ist das deine eigene, ganz bewusst getroffene Entscheidung. Sei doch zufrieden damit, du hast ja in diesem Fall die völlig freie Wahl. Worüber beschwerst du dich dann ? Du könntest wenn du wolltest, aber du willst halt nicht. Auch gut.

Beg1 schrieb:
Die xx80er hatten aber immer ein besseres Preis/Leistungsverhältnis (Preis prozentual niedriger als Performanceverlust), das ist mit dieser Generation Geschichte, diese Grafik ist einfach nur traurig:
https://www.reddit.com/r/nvidia/comments/xmwjab/evolution_of_adjusted_msrm_and_evolution_of/

Die Karten sind nicht nur (inflationsbereinigt) die teuersten, nein sie bieten zusätzlich auch keinen Perf/$-Vorteil, hier sieht man, dass die Lager bis obenhin mit Ampere voll sein müssen. Vermutlich hat nvidia auch noch langfristige Lieferverträge für RTX 3000 mit Samsung.
Die "4060"/"4070" werden diese Generation vermutlich eine herbe Enttäuschung, hoher Preis bei niedriger Leistung, dafür zumindest mit besserer Effizienz als Ampere WOOHOO.

Und du sagst die 4080 ist mit AD103 eine Stufe unter der 4090 - nur leider ist die 4080 12GB AD104 also ist eine "4080" gleichzeitig auch zwei Stufen darunter.

192-Bit Memory bus waren immer xx60er Karten - jetzt plötzlich xx80?
Hier z.B. eine Beispielrechnung die "belegt", dass es sich eher um eine 4060 Ti handelt:
https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/ (Topkommentar)

Siehe reddit über dir - es ist einfach faktisch falsch, die Reduktion der Cuda-Cores ist diese Generation riesig und der Kommentar setzt es in Relation zum Flagship, da ist die Namensgebung egal.
Alles richtig was hier geschrieben wurde. Ein Problem sehe ich dennoch nicht dabei. Ich würds halt einfach nicht kaufen. Es hat sich für mich schon bei der Präsentation mit Blick auf Specsheets und Diagramme in Sekunden ergeben, dass es entweder eine 4090 wird oder gar nix (oder RDNA3?).

Beg1 schrieb:
Jep das ist auch so ein Punkt, sage ich immer wieder, wer von uns (4K/120Hz) stellt bitte freiwillig auf DLSS3 Performance, dann kann ich auch gleich wieder in 1080p/1440p Pixelbrei rumhängen.
Naja, DLSS Quality in 4K wäre ein 1440p Upscale und ist weit entfernt von Pixelbrei. Ich würde behaupten dass du das in einem echten Blindtest nicht von nativem 4K mehr unterscheiden kannst. Ich zumindest kanns nicht mehr. Selbst DLSS Performance muss ich in CP2077 (1080p Upscale dann) bestimmte Situationen provozieren um die Differenz zu sehen (hinter Zäunen hoch runter, vor ner Palme links rechts, you get it).

Beg1 schrieb:
Native Auflösung bietet einfach immense Qualitätsvorteile und bei einer 2000€ GPU stellst du doch die render resolution nicht auf 720p (DLSS Performance @1440p), oder doch?
Je nach Game kann es sogar besser als nativ sein. Dazu muss die Auflösung aber hoch genug sein. Death Stranding und Control in 4K DLSS Quality sehen besser aus als nativ meine ich. In 1080p Performance würde ich das auch nicht spielen wollen.

Aber eine 4090 wäre dafür auch massivster Overkill oder etwa nicht ?

Beg1 schrieb:
Mit Gebrauchtpreisen vergleichen ist immer schwierig, eine RTX 3080 12GB kostet aktuell ab 900€ neu.

Wenn man die bessere Effizienz, neue Features (DLSS3) und mehr Leistung (~10-15%) einrechnet, dann lassen sich plötzlich auch 1100€ rechtfertigen.

Und genau hier liegt das Problem der neuen Karten, sie bauen auf den Preisen der alten Generation auf, weil eben unglaubliche Lagerbestände vorhanden sind.

Entweder geht nvidias Plan auf und die Kunden kaufen, ansonsten wird man die Preise senken müssen.

Das ist eigentlich auch die größte Neuerung dieser Generation Performance pro Dollar wird nicht ein Stück besser.
Naja, ich würde schon nach gebrauchten Karten dann schauen. Macht unter Umständen Sinn. Lieber ne gebrauchte 3090/3080 Ti als ne neue 3070 Ti.

Man muss sich einfach Gedanken machen wieviel Leistung man braucht/will und danach halt seinen Kauf skalieren. Ich finde nicht dass die Lage momentan schlecht ist. Gibt für jeden was.

Gaspedal schrieb:
Jetzt schreibst Du den anderen Gamern auch noch vor was sie zu spielen haben? Es gibt tausende Fans von Simulationen die nur MS Flugsimulator spielen und allein für das Equipment mehrere tausend Euros ausgeben.
Niemand schreibt dir was vor. Wo liest du das raus ? Du kannst dich aber gern im Verzicht üben wenn dir Preise nicht passen. Das predigst du doch selbst ständig, aber jetzt soll das auf einmal doch nicht möglich sein ? Entscheid dich mal.

Gaspedal schrieb:
So viel zu Deine Unterstellung. Dabei bist Du es der falsche Tatsachen und heiße Luft hier verbreitet.

"Nvidias Jahresgewinn springt von 4,3 Milliarden auf 9,8 Milliarden US-Dollar – dank hoher Margen bei GeForce-Grafikkarten und GPU-Beschleunigern. "
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html
Das sagt lediglich aus, dass sie doppelt soviel Verkauft haben. Die Margen haben sich ja nicht verdoppelt. Aber klingt halt so viel besser für den wütenden Pöbel. Bruttomargen um zwei Prozent erhöht, sagt halt nichts über die Nettomarge. Aber das klär ich für dich auf, die war nämlich wie folgt:

2018 -> 31,37 %
2019 -> 35,34 %
2020 -> 25,61 %
2021 -> 25,98 %
2022 -> 36,23 %

Man ist also 2022 erst wieder auf Kurs wie vorher. Die zwei Corona-Jahre waren schlecht für die Margen im Gegensatz zu dem was der der Forentenor immer rumkrakeelt und zu wissen vorgibt.
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html
Gaspedal schrieb:
Versuche Angebot und Nachfrage zu verstehen, dann beantwortet sich die Frage von alleine falls Du in der Schule aufgepasst hast.
Jo, man hat einige exklusive Features und eine hohe Nachfrage. Daher und dem Umstand des schlechten Euros und der hohen deutschen MwSt ist der aktuelle Preis geschuldet. Schön dass du es jetzt endlich auch verstand hast (hoffentlich).

Gaspedal schrieb:
Also sind 90% der User hier Stimmungsmacher oder Basher und nur Du bist der King der alles richtig macht und nur Deine Meinung zählt. Bravo! Nvdia sollte Dir den Nobelpreis verleihen als Dankeschön für die Milliarden Gewinne. Du bist es, der hier ohne Grundlagen falsche Behauptungen aufstellt. Siehe Dein Zitat zu: "Zu Mining- Boom Zeiten waren es aber nicht NVIDIA oder AMD, die ihre Margen erhöht haben."
Jep. Denn wie meine Zahlen (Quelle: https://de.marketscreener.com/kurs/aktie/NVIDIA-CORPORATION-57355629/fundamentals/) belegen, sind die Margen während des Mining Booms um teils über 10% geschrumpft.

Dein Weltbild ist halt nicht das was wirklich war.😂 Und wie @.Sentinel. schrieb, es geht hier um deine rein persönlichen Gefühle und Wunschvorstellungen. Die Zahlen widersprechen dir und zwar deutlich.
Ergänzung ()

Unti schrieb:
Gegen die beachtlichen Zugewinne bei keinem massiven Verlust der Qualität hat niemand was dagegen.
Natürlich limitiert man sich selber nicht und solange das Spielgefühl aufkommt passt doch alles.

Du hast aber nur UWQHD am Start bei einem kleinen Display, da ist es fast schon egal was du einstellst, das sieht man i.d.R. nicht.
Kommt immer auf das restliche Setup an. Ich seh bei Cyberpunk im Quality Preset auf 77" in 4K einen massiven unterschied, egal ob DLSS oder FSR (hatte mal ne 3090 - kann also beides gut beurteilen).
Auf 27" oder 32" oder sogar noch 38" fällt dir das nicht so krass auf. Sobald du höher gehst und die PPI nicht mehr so massiv sind, geht dir so oder so "Schärfe" etwas verloren, von dem her hast du generell recht, auch wenn nicht immer auf jeden Anwendungsfall und jedes Setup bezogen.
Im Gegenteil behaupte ich !

Ich habe auch eine recht große Glotze (83") und sehe keine Differenz bei DLSS zu Nativ. Teils finde ich es sogar besser. Man darf hierbei nicht ausser Acht lassen, dass DLSS qualitativ stark mit dem Ausgangsmaterial skaliert, wenn du also einen 32" 1440p Monitor hast und DLSS Quality nutzt wäre das nur ein 960p Upscale.

Bei 4K wären es aber 1440p Ausgangsmaterial, das sind Welten optisch.
 
  • Gefällt mir
Reaktionen: Laphonso
ThirdLife schrieb:
Das sagt lediglich aus, dass sie doppelt soviel Verkauft haben. Die Margen haben sich ja nicht verdoppelt. Aber klingt halt so viel besser für den wütenden Pöbel. Bruttomargen um zwei Prozent erhöht, sagt halt nichts über die Nettomarge. Aber das klär ich für dich auf, die war nämlich wie folgt:
Wer redete denn von Verdoppelung? Sentinel hat doch behauptet, dass die Hersteller die Margen nicht erhöht haben. Dem ist es nicht so. Von Verdoppelung der Margen war nie die Rede. Und fast 65% Marge ist schon verdammt viel im Vergleich zu anderen Produkten. Weil Ihr immer am heulen seid dass da dem armen Herstellern ja nichts übrigbleibt.

Auf den restlichen Quatsch von Dir gehe ich nicht mehr ein weil es sinnlos ist mit Kinder darüber zu streiten. So viel Dünnschiss kann man nicht mehr zitieren.
 
ThirdLife schrieb:
Je nach Game kann es sogar besser als nativ sein. Dazu muss die Auflösung aber hoch genug sein. Death Stranding und Control in 4K DLSS Quality sehen besser aus als nativ meine ich.

Ich bezog mich dabei in erster Linie auf UWQHD was Laphonso ja nutzt, die Vorteile in 4K kenne ich und nutze DLSS auch in Spielen wie Control, allerdings ist es für mich auch nach einigen Jahren "nur" ein Nischenfeature und kein Verkaufsargument.

ThirdLife schrieb:
Aber eine 4090 wäre dafür auch massivster Overkill oder etwa nicht ?

Naja, ich würde schon nach gebrauchten Karten dann schauen.
Man muss sich einfach Gedanken machen wieviel Leistung man braucht/will und danach halt seinen Kauf skalieren. Ich finde nicht dass die Lage momentan schlecht ist. Gibt für jeden was.


Hab eine 3080 FE (10GB), da macht nur die 4090 wirklich Sinn, ob ich wirklich den Drang verspüre sie zu kaufen weiß ich noch nicht, aktuell herrscht eher Spieleflaute.

Trotzdem macht eine 4080 12GB mehr Sinn als jetzt noch eine 3090 Ti (aktuell 1099 bei mf) zu kaufen, du sparst Strom, bekommst etwa die gleiche Leistung für den gleichen Preis und hast die neuen Features wie DLSS3. Der einzige Wermutstropfen sind die 12GB VRAM.
 
Laphonso schrieb:
Die Realität zeigt halt, dass dieses Features alternativlos sind.
Alternativlos für die Entwickler, die ihre Konsolenports dadurch nicht mehr so gut optimieren müssen, sondern sie einfach so auf den PC schmeißen können. Keine 60fps? Macht halt DLSS oder FSR an.
 
Beg1 schrieb:
Cyberpunk 2077 hat es dir wohl angetan? 99,99% der Spieler sind durch mit dem Game, die kommen auch mit einer 4090 nicht wieder.

au contraire :D



Und wie die wiederkommen werden. 1,7 Million views hat der Teaser.

Gänsehaut, denn Keanu is BACK :D

Cyberpunk war vor kurzem wieder das einzige Single Player Game in den Steam Top 10.

Und es ist die Effekt Referenz für Raytracing, noch vor Metro, Watchdogs und Control.
 
  • Gefällt mir
Reaktionen: ThirdLife
Gaspedal schrieb:
Sentinel hat doch behauptet, dass die Hersteller die Margen nicht erhöht haben.
Wo behauptet er das denn?

ThirdLife präsentiert Dir die offiziellen Zahlen auf dem Servierteller. Du weigerst Dich sie anzunehmen.

Was soll man denn da noch sagen?
 
  • Gefällt mir
Reaktionen: ThirdLife, Sinatra81 und Laphonso
Da ich jetzt auf einen 4K Oled geswitcht bin muss ich gestehen das ich auch mir Dlss oder FSR liebäugle.

Da ich aber zu 90% ein MMORPG zocke und das dann auch über Monate Jahre durchsuchte schaue ich welche GPU / CPU dort am besten Performt und aufe mir die.

Aber ich gestehe. Für Cyberpunk wäre eine 4090 schon ein nette schätzchen.
 
  • Gefällt mir
Reaktionen: Laphonso
.Sentinel. schrieb:
Wo behauptet er das denn?

ThirdLife präsentiert Dir die offiziellen Zahlen auf dem Servierteller. Du weigerst Dich sie anzunehmen.

Was soll man denn da noch sagen?

Bist ja schlimmer wie der Scholz der sich plötzlich an nichts mehr erinnern kann. Ein paar Threads zurück und Du findest Deine Gedächtnislücke wieder.
Und was hat der ThirdLife auf dem Servierteller präsentiert außer irgendwelche Zahlen die meine Behauptung sogar noch mehr Bestätigen, nämlich dass die Margen erhöht wurden und werden, egal ob Brutto oder Netto. Fakt ist nach wie vor dass Nvdia Rekordgewinne gemacht hat in den letzten Jahren und auch die Margen kontinuerlich erhöht wurden. Und Du sagst immer noch, Nvida hat die Margen nicht erhöht, das waren ja die Händler.... Dabei wurden Dir die Zahlen auf dem Servierteller präsentiert. Aber keine Sorge, Dein Anwalt kommt ja gleich und hilft Dir. :lol:
 
Zuletzt bearbeitet:
HerrRossi schrieb:
Alternativlos für die Entwickler, die ihre Konsolenports dadurch nicht mehr so gut optimieren müssen, sondern sie einfach so auf den PC schmeißen können. Keine 60fps? Macht halt DLSS oder FSR an.
Echtzeit Raytracing, dass wir ja sogar nur als Hybridmodell mometan nutzen, überfordert nach wie vor jede Hardware.

AMD hat ja Raytracing "optimiert" für Resident Evil und Far Cry 6, d.h. Raytracing so kastriert, dass es nur moderat mit Effekten die GPU belastet, damit die aktuellen RNDA2 und Konsolen GPUs hier nicht strugglen gegen die älteren Turing Chips.

Dieses "Optimieren" benötigen wir in der Tat nicht, sondern bessere Grafikfeatures, mehr Realismus in Zukunft für bessere Spielerlebnisse dank der (auch audio-)visuellen Immersion und Atmosphäre durch die Effekte und Features.

Sollten Scaling und Framegeneriung in den nächsten Jahren hier die Limits der Engines und GPUs sowieso CPUs teilweise sprengen können, ist das doch toll?
 
  • Gefällt mir
Reaktionen: ThirdLife
Am ende ist es ja egal woher die 120fps in 4K mit Maxed Out kommen. Solange sie Qualität nicht vermindern.. bzw kaum und man keine großen Latenzen hat.
 
  • Gefällt mir
Reaktionen: ThirdLife und Laphonso
Gaspedal schrieb:
Ein paar Threads zurück und Du findest Deine Gedächtnislücke wieder.
Ich bin immernoch gespannt... Ich finde es nicht. Somit erbitte ich einen Spoonfeed mit entsprechendem wortgleichen Zitat ohne Interpretation Deinerseits.

Gaspedal- Geh Mal von selbigem runter. Lass gut sein. Das ist eine unnötige Diskussion. Peace
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife, Sinatra81 und Laphonso
Laphonso schrieb:
...sondern bessere Grafikfeatures, mehr Realismus in Zukunft für bessere Spielerlebnisse dank der (auch audio-)visuellen Immersion und Atmosphäre durch die Effekte und Features.
Da bin ich bei dir, aber du schreibst es ja selber: "Echtzeit Raytracing, dass wir ja sogar nur als Hybridmodell mometan nutzen, überfordert nach wie vor jede Hardware."

Erst macht man die Bildqualität mit RT realistischer, dann muss man aber mit Software und AI rummurksen, damit das dann auch in höheren Auflösung flüssig läuft.

Ich sehe daher wenig Grund zum jubeln, besonders dann nicht, wenn die damit beworbene Grafikkarte nicht 200 sondern 2.000 EUR kostet. Zu so einem Edel-Preis erwarte ich auch Edel-Leistung.

Nvidia macht das schon sehr schlau und wie man sieht, gehen die Kunden reihenweise auf den Leim. Man pusht eine proprietäre Lösung (RTX und DLSS) als das Nonplusultra und alle stürzen sich drauf. Und weil der kleinere Konkurrent das nicht liefern kann, wird diese Software dann als Grund angeführt, warum man unbedingt Nvidia kaufen muss. Ein perfekter Zirkelschluss.

Bei Profisoftware mit CUDA und auch in Sachen AI/ML sind wir im Grunde schon in einer Monopolsituation und jedes hypen von DLSS ist ein Schritt in diese Richtung auch im Gamingbereich.

Den Profis ist das egal, die verrechnen die Kosten mit ihren Gewinnen und zahlen so weniger Steuern, der Gamer kann das nicht.

Dabei sollte man nicht vergessen, dass AMDs Grafikkarten auch RT beherrschen, nur eben langsamer. Daran muss AMD arbeiten und man darf gespannt sein, was RDNA3 bringt.
Ergänzung ()

Sunjy Kamikaze schrieb:
Solange sie Qualität nicht vermindern..
Da gibt es schon so einige nicht so schöne Screenshots.
 
HerrRossi schrieb:
Nvidia macht das schon sehr schlau und wie man sieht, gehen die Kunden reihenweise auf den Leim. Man pusht eine proprietäre Lösung als das nonplusultra und alle stürzen sich drauf. Und weil der kleinere Konkurrent das nicht liefern kann, wird diese Software dann als Grund angeführt, warum man unbedingt Nvidia kaufen muss. Ein perfekter Zirkelschluss.
Schlau ist AMD ja auch und verhindert DLSS in Far Cry 3 und Resident Evil ;)
Weil Nvidias Lösungen AMD akut unter Druck setzen.
Die stärkeren Featuresets liefert NVidia, egal wie doof man das findet. Haters gonna hate, die Realität kennen wir.

Genau deshalb sind wir jetzt ja bei der Preisdiskussion Ada vs RNDA3.

Es ist klar was wir von RDNA3 erwarten: Die fps Krone im alten non Raytracing Duell der Raster Benchmarks, um das zu vermarkten ("fastest GPU" etc.) und ein Angebot, das nicht bei 900 Euro beginnt.

Das sollte dieses Jahr leichter denn je sein bei Nvidias lineup mit 900, 1470 und 1950 Euro, oder?

Das ist der Elfmeter auf das Nvidia Tor ohne Torwart.
Leichter hatte es AMD nie, next gen GPUs zu verkaufen und Nvidia Marktanteile abzuluchsen.

Bin sehr gespannt.
 
  • Gefällt mir
Reaktionen: ThirdLife
Naja das Stärkere Featureset ist ja auch etwas das Individuel anders sein kann.

Ich finde z.B den AMD Treiber um Lichtjahre besser als den von nvidia. Optik Einstellungen etc etc.
Wenn man DLSS nicht braucht weil man es nicht will oder in nem Game einfach kacke aussieht (ja das gibts ja auch) wirds halt schon wieder eng.

Wir müssen ja auch mal sehen was AMD an rohleistung bringt und wie sich FSR weiter entwickelt. Diese Proberitäre Suppe nervt aber total meiner meinung nach.
 
Zurück
Oben