News GeForce RTX 4090: Erste Custom-Designs sind für 1.999 bis 2.549 Euro im Handel

XashDE schrieb:
Jede Generation von CPU & GPU die selbe Neiddebatte...

"Sinnig" ist so eine Karte aktuell für wahrscheinlich nicht mal 5% aller Käufer. Und?
Ich persönlich freue mich für jeden der so eine Karte kauft denn es sorgt mittel- bis langfristig dafür das Grafik in Spielen vorangebracht wird - sicherlich ein Gewinn für alle.

Und der Preis reguliert sich halt selber. Wenn 5M Kunden eine 4090 zu den Preisen kaufen ist es klar das diese angeboten und produziert werden.
Kauft sie niemand, nun, dann wird der Preis sinken, ganz einfach.
Von Neid reden immer nur diejenigen, die sich nicht vorstellen können, daß es auch andere Beweggründe geben könnte (sachlicher Art), die einen davon abhalten einen gewissen Preis mit zu gehen.
Wenn ich bei einer Auktion teilnehme gibt es 2 Gründe, weshalb ich vorzeitig aussteige... 1) ich habe nicht die finanziellen Mittel oder 2) mir ist der Gegenstand der aufgerufene Preis einfach nicht wert.. So simpel ist das. Kennt doch jeder von Ebay. Da redet doch auch keiner von Neid sondern ist es mir es wert oder nicht.
Neid klingt immer nach Schicht Denken und manche brauchen das vielleicht sogar für ihr Ego, um etwas zu kompensieren.
 
@Arones Einer der besten Kommentare/Beiträge hier die letzten Monate 👍 "Basiert" nennt man das heute, oder so.
 
Bin mal auf die Verfügbarkeit nach Release gespannt.
Gibt es hier bereits Tendenzen oder Werte bzw. Schätzungen die "greifbar" sind?

Wer eine 4080 16gb kaufen möchte - Ganz ehrlich 500 mehr und man bekommt die richtige Kanone.. ;-)
So würde ich das sehen, wenn ich die Leistung haben wollen würde.
 
F4711 schrieb:
Da redet doch auch keiner von Neid sondern ist es mies wert oder nicht.
Den Schuh musst Du Dir ja nicht anziehen :)
So wie Du das erläuterst, ist das auch völlig nachvollziehbar, aber einige Beiträge hier verbergen nicht mal mit halbgarer Mühe den Neid und akute Mißgunst und werten die Enthusiastengruppe ab.
So schlimm wie derzeit war es auch noch nie hier im Forum.
Wir hatten hier schon Begriffe wie "Idioten" oder "Dummköpfe" oder "Opfer".

Um die geht es. Wer sinngemäß wie Du sagt "Nope, so viel Geld für eine GPU, mache ich nicht mit", hakt das rational an und ist damit nie gemeint.
Und attackiert nicht die Gruppe, die Bock hat auf die kommenden Ada und RDNA3 Top GPUs. Schon gar nicht hier, in einem Technik- und Gamerforum, in dem man sich eigentlich unter Gleichgesinnten bewegt.
Ergänzung ()

Caramelito schrieb:
Wer eine 4080 16gb kaufen möchte - Ganz ehrlich 500 mehr und man bekommt die richtige Kanone.. ;-)
So würde ich das sehen, wenn ich die Leistung haben wollen würde.
Nvidia auch und wählt diesen Beitrag hoch :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: XashDE, Garack und ThirdLife
Coenzym schrieb:
Oh Mann. Doch 2300 Euro....Für 5000DM hab ich damals einen gesamten TOP PC zusammengebastelt..(incl. 3DFX SLI).
Daran können Sie sehr eindeutig erkennen wie viel Wert der €uro im Vergleich zur Deutschen Mark bereits verloren hat.

Die Inflation respektive Entwertung des €uro ist wirklich massiv!
 
Slipknot79 schrieb:
Dafür, dass die Tests in 2 Tagen erscheinen sollen, gibts noch zu wenige leaks? Oo
Dafür, dass NV die Karte einfach beiläufig auf der Keynote vorgestellt hat und davor - soooooooo - ein Hype und eine Leakmaschinerie lief ist es generell ganz schön ruhig um die Karte bzw. Karten geworden.

Glaub NV hat das so lieblos inszeniert inkl. der Preisschilder, inkl. vollere Lager, immer noch überteuerter Karten nach 2 Jahren, sodass der Kern, der diese Karten jetzt will/braucht - oder wie auch immer - einfach keinen Bock drauf hat (je weniger Hype, je weniger Interesse umso besser für uns).
Die Karte wird eh eine Enttäuschung was Rasterizing angeht, die letzten Leaks die ich dazu gelesen hatte sprachen nur bis maximal 70/80% anstelle von 100%....
NV konzentriert sich eh viel zu stark auf DLSS3, so als ob das der Heilsbringer ist, der überall in jedem Game verwendet werden würde, was ein Schwachsinn, wenn AMD viel günstiger, ist, gleiche Rasterizing Leistung hat wie die 4090 und im RT nur 10-20% langsamer ist und mit FSR2.0 aber konstant im high FPS Bereich spielbar ist, dann weiß ich wohin ich greifen werde^^.
 
  • Gefällt mir
Reaktionen: Slipknot79
Unti schrieb:
NV konzentriert sich eh viel zu stark auf DLSS3, so als ob das der Heilsbringer ist,
Wenn eine 4080-12 alias 4070er Chip als drittschnellste Nvidia GPU die schnellste AMD RDNA3 GPU 7900XT in z.B. Cyberpunk 4K Ultra fps mit DLSS 3 Quality sichtbar schlägt, Also Tier 3 Nvidia > Tier 1 AMD, .....dann sprechen wir nochmal ;)

Du unterschätzt die Wirkung von Benchmarks bei der Kaufentscheidung.

Wenn DLSS3 nicht nur Marketing ist, sondern gut funktioniert und DLSS fps Korridore nochmal um nur 50-100% erweitert, ist AMD im 4K und Ultramax Settings Gaming Rennen der Enthusiasten in schwerer Not.
Da spricht nichts mehr für den Kauf von RDNA3.

"Unmöglich"!"
Doch, das haben wir schon, siehe die Prävalenz von 3080ern und 3090ern vs 6900er GPUs.

"Aber FSR!" Ja, läuft auch auf Nvidia Chips.

Ich sagte schon vor Monaten, AMD wird die klassische Rasterizing Krone gewinne, locker mit 10% mehr fps.
Das steht für mich außer Frage.
Die 7900XT wird die 4090 in 4K raw souverän und messbar übertreffen.

Aber wen interessiert das (in der speziellen Enthusiasten/UWQHD/4K, Ultramax etc. Gruppe) wenn das Budget nicht so die Rolle spielt, sondern die bessere Grafik mit dem DLSS Featureset.
Nvidia geht all in mit Raytracring. Mein "ha! QED...." Moment kam mit der RTX 4000er Vorstellung.

Ich bin mehr gespannt auf das, was RDNA3 für das Raytracing mitbringt in der zweiten Generation der AMD Raycores/Chips .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
crypto.andy schrieb:
Daran können Sie sehr eindeutig erkennen wie viel Wert der €uro im Vergleich zur Deutschen Mark bereits verloren hat.

Die Inflation respektive Entwertung des €uro ist wirklich massiv!

Die eigentliche Frage die man sich stellen sollte ob diese Entwertung gerechtfertigt ist und wie lange noch produktive Bürger die Defizite Anderer auf ihrem Rücken tragen sollen und was man tun kann.
 
.Sentinel. schrieb:
Wie kommst Du auf den Trichter, dass es nicht genügend Leute gibt, die den Preis (Tests abwarten!!) nicht also OK und gerecht einschätzen könnten?

Ähhh... wie kommst Du auf den Trichter, dass ich geschrieben haben soll dass es nicht genügend Leute gibt, die den Preis nicht einschätzen könnten?

.Sentinel. schrieb:
Nehmen wir mal an, dass das Ding unter Nutzung all seiner Fähigkeiten durchgängig tatsächlich irgendwas zwischen minimum doppelt und maximal 5x so schnell ist, so könnte die Performance pro Euro als auch die Performance pro Watt in neue Sphären vordringen. So einen Sprung hätte es in noch keiner Generation jemals gegeben.

Nein, so funktioniert das nicht. Gut dass Du nicht der Geschäftsführer einer Grafikkartenhersteller bist. Sonst müssten die Grafikkarten heute nach Deiner Logik über 10.000€ kosten verglichen mit letzten 20 Jahre.

.Sentinel. schrieb:
Ich kenne keinen, der diese Leistung "braucht". Oder kommt der Triple- Setup- MS Flugsimulator Spieler plötzlich ins Krankenhaus, weil er mit einer 3090 und nicht mit einer 4090 spielt?
Nur weil Du keinen kennst bedeutet dass es nicht dass es niemanden gibt der es braucht. Dann hast Du MS Flugsimulator noch nie mit einer 4k VR Brille und 120hz gespielt. Selbst ein 3090'er ist da total überfordert wenn man die Leistung nicht runterschraubt.

.Sentinel. schrieb:
Fakt ist nunmal, dass Du ein Produkt nur dann "einfach so" im Preis günstiger stellen kannst, wenn die eigenen Kosten+Gewinn+Risikoaufschlag gedeckt sind und man darüberhinaus trotzdem noch eine Menge mehr darüberhinaus verlangt hat.

Ja, das sehe ich ein dass auch die Hersteller unter Kostendruck stehen und die Preise an den Kunden weitergeben. Aber zu Mining Boom - Zeiten waren sie davon noch nicht betroffen und die Miner wurden bevorzugt versorgt und palettenweise beliefert weil sie dreifache Preise dafür bezahlt haben. Die Gamer waren denen egal... Gibt genug Videos davon und auch Tweets von Miner.

.Sentinel. schrieb:
Gaspedal - Wenn Du überzeugt davon bist, dass das alles zu teuer ist und dem Hersteller "Melken" unterstellst, dann bist Du sicher auch in der Lage dies in irgendeiner Form zu belegen.

Das "Melken" haben alle zu Mining-Boom Zeiten miterlebt. Wer da noch Belege dafür braucht ist wirklich verloren oder total blind.
.Sentinel. schrieb:
Wenn Du diese Fragen nicht umfassend beantworten kannst, dann verbreitest Du hier heiße Luft.
Ich verstehe nicht, warum es inzwischen vielen so schwer fällt, sich einfach in Verzicht zu üben, ohne die ganze Welt dabei verurteilen, aufwiegeln und über den eigenen Gefühlszustand dazu informieren zu müssen.

Hä? Genau das tun wir doch, wir verzichten derzeit drauf. Nicht weil wir es uns nicht leisten können, sondern weil wir damit ein Zeichen setzen wollen. Aber wahrscheinlich bist Du auch so ein Grünen Wähler der sich alles schönredet und die ganze Entwicklung toll findet im Sinne der Umwelt. Koste was es wolle... Außerdem schreibst Du auch über Dein eigenen Gefühlszustand wie toll Du die Preise findest. Ja, schön für Dich! Kaufe es und werde damit glücklich. Ich gönn es Dir ja auch. Warum kannst Du aber nicht andere in Ruhe lassen, die solch eine Preisentwicklung und Preispolitik (und es geht schonab RTX 3070 los) kritisieren? Dafür ist ein Forum schließlich da.

.Sentinel. schrieb:
Wenn Du diese Fragen nicht umfassend beantworten kannst, dann verbreitest Du hier heiße Luft.

Was für heiße Luft? Schau Dir 90% der Beiträge an, die Bestätigen dass alle die Preise übertrieben finden. Wenn Du die Meinung anderer als heiße Luft bezeichnest und ein Problem damit hast, andere Meinungen zu respektieren, dann bist Du hier falsch.

.Sentinel. schrieb:
Wenn mir in jungen Tagen etwas zu teuer war, hab ich es nicht gekauft. Fertig. Hat damals schon gut funktioniert, mach ich also heutzutage auch so.

Du hast definitiv nichts verstanden über was wir hier diskutieren. Jetzt fängst Du schon wieder damit an und unterstellst den Leuten, dass hier nur rumgemeckert wird weil die es sich die neuen Grafikkarten nicht leisten können.
Am besten fängst Du von ganz vorne an zu lesen.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Wenn eine 4080-12 alias 4070er Chip als drittschnellste Nvidia GPU die schnellste AMD RDNA3 GPU 7900XT
Kann natürlich sein, kann aber auch sein, dass AMD ordentlich bei den RT Cores zugelegt hat und der Leistungseinbruch nicht so immens ist.
UND FSR2.0 hier ähnlich gut performt und am Ende nur 10-20% weniger Performance in ausgewählten Games dastehen und die Karte in RAW Performance wie du sagst 10% schneller wie ne 4090 ist. Dann ist die RX7900XT oder wie sie auch immer heißen mag maybe die im Gesamtpaket bessere Wahl.

Günstiger, ähnlich schnell, ggf. sparsamer und wegen der Konsolenarch. wesentlich mehr Chancen für viel FSR Support.
Natürlich kriegt man den bei NV Karten mit dazu, weil AMD hier etwas sozial zugange geht, aber für eine Handvoll Games jetzt mal überspitzt gesagt 1000 Euro mehr zahlen darf am Ende natürlich jeder für sich entscheiden, ich würds vermutlich nicht machen.

Laphonso schrieb:
Aber wen interessiert das (in der speziellen Enthusiasten/UWQHD/4K, Ultramax etc. Gruppe) wenn das Budget nicht so die Rolle spielt, sondern die bessere Grafik mit dem DLSS Featureset.
Es gibt Enthusiasten, die gehen eher mehr auf Quali oder eher mehr auf Performance.
Ich geh eher auf 4K - Max. - Native.
Und wenn ich dann mal nur 50-70 FPS hab, dann ist das so.
Nur im MP setze ich auf HighFPS.
Aber natürlich hast du recht, wobei DLSS im Vergleich zu FSR gerade nicht viel besser aussieht und das sag ich mit 77" 4K. Bei weniger " fällt dir das noch weniger auf....

Ich bin tatsächlich äußerst gespannt was kommt, vor allem ob AMD genauso Größenwahnsinnig wird wie NV und einfach die Preise -10% raushaut.
Und vor allem ob der 3.11 "Launch" ist oder nur eine Ankündigung.

Aber eigentlich hat man ja Zeit, der Winter läuft erst an, neue Games die wirklich mehr Leistung bräuchten sind noch rar, somit lässt sich auch gut bis Jan-Apr. 23 aushalten, bis dahin sind dann auch von allen Seiten gute Customs verfügbar (AiO oder Custom Wakü - wer sich die Karten luftgekühlt antut dem ist eh nicht mehr zu helfen).
Einfach abwarten, dann sind die Preise vll. schon so gesunken, weil beide auf die "Gosch" gefallen sind mit ihrer Politik (man darf noch träumen oder? :D)
:daumen:
 
Laphonso schrieb:
Das waren dann jeweils 20-30% Performance Unterschied.

Das sollte auch so sein, wenn man 1949 Euro statt 1469 Euro fordert.

Die 4090 steht nun für sich selbst in der AD102 Architektur, die 4080 ist eine Chipklasse mit 103 darunter
Die xx80er hatten aber immer ein besseres Preis/Leistungsverhältnis (Preis prozentual niedriger als Performanceverlust), das ist mit dieser Generation Geschichte, diese Grafik ist einfach nur traurig:
https://www.reddit.com/r/nvidia/comments/xmwjab/evolution_of_adjusted_msrm_and_evolution_of/

Die Karten sind nicht nur (inflationsbereinigt) die teuersten, nein sie bieten zusätzlich auch keinen Perf/$-Vorteil, hier sieht man, dass die Lager bis obenhin mit Ampere voll sein müssen. Vermutlich hat nvidia auch noch langfristige Lieferverträge für RTX 3000 mit Samsung.
Die "4060"/"4070" werden diese Generation vermutlich eine herbe Enttäuschung, hoher Preis bei niedriger Leistung, dafür zumindest mit besserer Effizienz als Ampere WOOHOO.

Und du sagst die 4080 ist mit AD103 eine Stufe unter der 4090 - nur leider ist die 4080 12GB AD104 also ist eine "4080" gleichzeitig auch zwei Stufen darunter.

192-Bit Memory bus waren immer xx60er Karten - jetzt plötzlich xx80?
Hier z.B. eine Beispielrechnung die "belegt", dass es sich eher um eine 4060 Ti handelt:
https://www.reddit.com/r/pcmasterrace/comments/xk2nsf/comment/ipbt3d3/ (Topkommentar)

hamju63 schrieb:
Wenn man davon ausgeht, dass die 90er jetzt die damaligen 80er ersetzen, dann ist das schon in Ordnung.
Die xx80Ti Karten waren in der Vergangenheit immer schon eine eigene Klasse für sich, die man eigentlich 90 hätte nennen müssen.

Siehe reddit über dir - es ist einfach faktisch falsch, die Reduktion der Cuda-Cores ist diese Generation riesig und der Kommentar setzt es in Relation zum Flagship, da ist die Namensgebung egal.
Ergänzung ()

Unti schrieb:
Es gibt Enthusiasten, die gehen eher mehr auf Quali oder eher mehr auf Performance.
Ich geh eher auf 4K - Max. - Native.
Und wenn ich dann mal nur 50-70 FPS hab, dann ist das so.

Jep das ist auch so ein Punkt, sage ich immer wieder, wer von uns (4K/120Hz) stellt bitte freiwillig auf DLSS3 Performance, dann kann ich auch gleich wieder in 1080p/1440p Pixelbrei rumhängen.
 
  • Gefällt mir
Reaktionen: Gaspedal
Beg1 schrieb:
Die xx80er hatten aber immer ein besseres Preis/Leistungsverhältnis (Preis prozentual niedriger als Performanceverlust)
Früher waren die 80er Karten immer das Maximum, erst seit 2016 hat NV total die Bodenhaftung verloren und seit RTX geht es straight durch die Decke^^.
Seitdem waren die 80er Karten nie das Beste sondern eher immer der Ausschuss der Mittleren Highend Klasse. Aber bei der RTX4000er Gen ist es einfach nur noch Dreist, mehr muss man dazu nicht sagen, eigentlich ist jede Diskussion darüber schon zu schade...

Beg1 schrieb:
192-Bit Memory bus waren immer xx60er Karten - jetzt plötzlich xx80?
Vollkommen egal, geht schließlich um die finale Performance und wenn das Ding ein 128-Bit Interface hätte wäre das auch rille (überspitzt ausgedrückt, mir sind die Hintergründe schon bewusst).
Finale Leistung zählt, das Gesamtpaket zählt.
Beg1 schrieb:
Jep das ist auch so ein Punkt, sage ich immer wieder, wer von uns (4K/120Hz) stellt bitte freiwillig auf DLSS3 Performance, dann kann ich auch gleich wieder in 1080p/1440p Pixelbrei rumhängen.
Freiwillig ist der Punkt. Ich würde es machen wenn die Quali absolut identisch wäre.
Meist ist sie das aber nicht, wobei FSR2 und DLSS2 im max. Preset schon sehr nah dran sind.
Siehe CoD MW2 Beta, musste dringend auf FSR1.0 Ultra Quality schalten, ansonsten hatte ich bei vielen Maps oder Groundwar teilweise im Min 99% <55 FPS, das geht mal gar nicht... mit FSR hatte ich konstant meine 117FPS fix....
Bedarf ist bei uns generell da, 4K ist noch so anspruchsvoll, dass wir eigentlich das nehmen müssen was da ist, oder immer Einbußen in kauf nehmen müssen...
 
Beg1 schrieb:
Und du sagst die 4080 ist mit AD103 eine Stufe unter der 4090 - nur leider ist die 4080 12GB AD104 also ist eine "4080" gleichzeitig auch zwei Stufen darunter.
Korrekt, die 4080-12 ist auch ein 104er Chip und damit noch ein Tier darunter und für uns alle keine "echte" x80er
Ergänzung ()

Unti schrieb:
Ich geh eher auf 4K - Max. - Native.
Das ist auch okay, aber die klassische Sicht.
Cyberpunk wird auch eine 4090 und 6900XT in 4K RT Psychosettings in die Knie zwingen, und ich glaube selbst die packen dort die minfps von 60 fps dauerhaft nicht.

Die 3090Ti erreicht momentan da selbst mit DLSS mit Ach und Krach die 50 dps.

Das Witcher 3 Remake mit Raytracing wird fps schreddern.
GTA 6 erst recht und vielleicht auch ein The Division 3

Native ist dann irgendwann am Ende.

Nur dank DLSS und FSR kommen wir hier überhaupt weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Laphonso schrieb:
Das ist auch okay, aber die klassische Sicht.
Cyberpunk wird auch eine 4090 und 6900XT in 4K RT Psychosettings in die Knie zwingen, und ich glaube selbst die packen dort die minfps von 60 fps dauerhaft nicht.
Joa auch ein Grund wieso ich den Titel bisher aussetze. 60FPS wären mir "Native" ehrlich gesagt schon recht und dabei brauch ich nur "etwas" RT für die Beleuchtung, der Rest bringt doch qualitativ bei dem Game eh nix, aber ohne RT sieht man massiv den Unterschied...
Laphonso schrieb:
GTA 6 erst recht und vielleicht auch ein The Division 3
GTA6 wird ein Next-Gen Game, welches im entferntesten Sinn für das Jahr 2024/2025 angedacht ist und vor allem ist das ein Spiel, welches 10 Jahre halten soll, so wie das 5er und wenn das Ding dann eben mit 10 FPS läuft und dafür aber Next-Gen Optik bietet, dann ist mir das auch recht^^.
Bevor The Division 3 kommt ist Ubisoft schon längst durch seine Skandale zugrunde gerichtet und aufgekauft xD.

Laphonso schrieb:
Native ist dann irgendwann am Ende.

Nur dank DLSS und FSR kommen wir hier überhaupt weiter.
Vollkommen in Ordnung, ich hab dagegen nichts, woher die FPS kommen bei selbiger Quali mag mir dann am Ende auch egal sein.
Jedoch sollten hierfür erstmal die neuen Games alle dafür gepatcht sein, was NICHT der Fall ist, somit muss man den "Native" Aspekt im klassischen Sinne im Auge behalten.
 
Man sollte zumindest die paar Wochen noch abwarten bis AMD seine Karten gezeigt hat, statt nVidia Blind die Kohle hinterherzuwerfen, außer natürlich man braucht wegen G-Sync, Shield o. Ä. unbedingt eine nVidia.
 
  • Gefällt mir
Reaktionen: Gaspedal und Sunjy Kamikaze
Capthowdy schrieb:
Man sollte zumindest die paar Wochen noch abwarten bis AMD seine Karten gezeigt hat, statt nVidia Blind die Kohle hinterherzuwerfen, außer natürlich man braucht wegen G-Sync, Shield o. Ä. unbedingt eine nVidia.

Ich hab das einmal getan, 2020, Oktober - Alternate Shop - verzweifelt versucht ne 3090 zu bekommen, dann hatte ich eine für 1640€ gekauft und dann hat Alternate die Bestellung storniert, ich kam mir richtig dämlich vor so ein Drama draus gemacht zu haben... nie wieder werf ich denen Geld hinterher...

Man sollte immer warten was die Konkurrenz bieten kann.

Btw: G-Sync ist heutzutage bei den meisten Monitoren eh egal. VRR unterstützen die meisten, somit ist quasi alles G-Sync Compatible oder eben nur noch "Freesync".
Und wer zockt wirklich mit ner Shield? Die meisten haben doch nichtmal passables Netzwerk zu Hause?!
Wie soll man da gscheit streamen können...

Somit, keine Ausreden! 3.11 abwarten, dann nach Bedarf kaufen, sofern einem der Preis zusagt, wenn nicht, lassen und abwarten bis ggf. durch glückliche Zufälle das Kartenhaus der Preispolitik zusammenfällt ;)
 
  • Gefällt mir
Reaktionen: Gaspedal
catch 22 schrieb:
2 Jahre nach Release, kurz vor Release der Folgegeneration und nach der Absichtserklärung von Nvidia die Ampere Preise auch weiterhin hoch zu halten, trotz und wegen der großen Bestandsmengen die noch auf Lager sind, ist der Geist der Worte eben nicht falsch, da spätestens jetzt normalerweise der Zeitpunkt ist, zu dem der "alte Kram" ordentlich im Preis gesenkt wird.
Ja und ? Da war ja was dazwischen. Corona, Mining, Fertigungs- und Lieferprobleme, enorme Nachfrage. Schon vergessen ?

Und ja klar können sie die Preise weiterhin hoch halten. Es scheint ja genug Nachfrage zu geben. Wüsste nicht warum die jetzt alles verramschen sollten, nur weil die Foristen hier Amok laufen weil sie keine 3090 im Sale für 299€ kriegen. 😂

Der "alte Kram" ist ja auch noch schnell genug für so ziemlich alles ausser vielleicht fünf handverlesene Games in 4K maximalen Settings und fps deutlich über 60. Nehmen wir doch mal besagte 3080 für 759€. Für weniger Geld bekämst du immerhin eine 6800 XT (ab 679€). Die kannst du jetzt ja konsequenterweise kaufen, weil nVidia dir zu teuer ist und du ihr Featureset nicht brauchst.

Wo ist das Problem ? Für jemanden mit zB einer 1080 oder 5700XT eine massive Steigerung.

Überhaupt scheint es hier eine sehr schizophrene Einstellung zu dem Thema zu geben. Einerseits wird erwartet dass alles billig ist, dann soll es aber mindestens doppelt so schnell sein, aber nur halb so viel verbrauchen dürfen. Und all diese Umgehung der Physik soll nVidia am Besten natürlich auch aus eigener Tasche finanzieren und mit maximal 2-5% Nettomarge.

Da passt eiiiiiniges nicht so ganz zusammen.
 
  • Gefällt mir
Reaktionen: Aduasen
Unti schrieb:
Joa auch ein Grund wieso ich den Titel bisher aussetze. 60FPS wären mir "Native" ehrlich gesagt schon recht
Ich kann Dir versichern, dass ich hier an meiner Kiste (kein 4K, aber ich bevorzuge 3440x1440 bzw. ultraweit und steige auch nur auf 4K oder 5K ultraweit irgendwann um) die größten Raytracing und DLSS Zweifler hatte, die Muskelkater hatten vom Arme verschränken und Falten vom Stirnzumzeln, weil ich von Metro und Cyberpunk RT maxed geschwärmt habe.

Und diese Kumpels und Kollegen habe heute ausnahmslos 3080er und 3090er.
Edit: Ich will den einen 6900XT Shooter Kollegen nicht unterschlagen, der das Budget priorisiert hat.

Und ich bekomme leider keine Provision von Nvidia ;-)

You can't unsee it- Cyberpunk ist auch ohne Raytracing optisch toll, wenn auch blasser, das haben sogar meine größten RT Kritiker um Freundeskreis zugegeben.
Metro Exodus ist dagegen für mich ohne Raytracing ein deutlich schlechteres Spiel.
Nicht im content, sondern weil die Atmosphäre und Immersion mit künstliuchem Licht und Schatten einfach nicht mehr konkurrieren können. Es geht nicht mehr.
Die "Tunnelpassagen", ohne Spoiler, werden mit Raytracing auf ein völlig anderes Niveau gehoben.
Was das Schattenspiel und die Dunkelheit da entfalten, ist der Hammer.

Das Problem: Die Raytracingeffekte und die beste Optik bei akzeptablen fps lassen sich natürlich bisher und leider jetzt wieder nur gut mit 1000-2000 Euro GPUs darstellen.

Bei einer 2070 nützt auch DLSS nichts mehr in Psychosettings in Cyberpunk, da machen wir uns keine Illusionen.

Davon abgesehen:Raytracing wirkt.
Und der DLSS "Qualitätsverlust" vs nativ in der Action ingame verschwindet in Blindtests.

Warum die Anführungszeichen: DLSS wird auf Sicht an nativ vorbeiziehen, da es mehr Bildinformationen liefert.
DLSS>nativ haben wir bereits in Death Stranding:


TDLR: Ich hoffe AMD und Nvidia sorgen für noch mehr Raytracing Vervreitung mit jeder Generation.
 
  • Gefällt mir
Reaktionen: Garack und Aduasen
0ssi schrieb:
RTX3090 UVP 1499$ damals 1250€ + 20% = 1500€
RTX4090 UVP 1599$ heute 1630€ + 20% = 1950€

Basierend auf den gestiegenen Produktionskosten sind nur 100$ mehr UVP doch fair !?
In den Staaten wird bestimmt Keiner wegen 1599$ rumheulen aber wir haben halt Pech.
Darum jetzt Nvidia als Bösewicht hinzustellen nur weil unser Geld wertloser ist, ist albern.
Man muss aber den Grips haben um globale Zusammenhänge zu verstehen. Und das scheint beim größten Teil der Wutredner hier einfach nicht der Fall zu sein. :freak:

Ich behaupte sogar an der 4090 verdient nVidia weniger als an der 3090 damals. Eine überschaubare Erhöhung, dazu massiv gestiegene Fertigungskosten (Samsung 8N war bestimmt nicht mal halb so teuer wie TSMC N5 jetzt) sowie schlechte Wechselkurse in der Eurozone sorgen dafür.
Ergänzung ()

f
Beg1 schrieb:
Die RTX 4090 hat mit Abstand das beste P/L-Verhältnis der neuen Karten.
Schau dir die 4070 Ti (RTX 4080 16GB) für 1199$ / 4060 Ti (RTX 4080 12GB) für 899$ an - da kannst du selbst mit den Dollarpreisen nicht mehr sinnvoll argumentieren UND genau diese Karten sollten eigentlich Massenware sein. Und nein die Bezeichnung 4080 lässt sich nicht rechtfertigen, die Lücke zur 4090 ist absolut gigantisch.

Mich würde mal interessieren, wie du die Preise rechtfertigst, das Topmodell finde ich auch "in Ordnung".
Gar nicht. Ich würde sie aber auch einfach konsequent nicht zu dem Preis kaufen. Hier zu flennen bringt mir aber nix.

Wenn ich keine neue Karte sondern eine ältere noch hätte, dann wäre für mich klar, entweder eine 4090 oder eine 3080 Ti der alten Gen gebraucht für 7-800 € irgendwo abstauben. Die 4080er liegen im toten Niemandsland der Fantasiepreise. Zwingt dich aber auch keiner da hin zu reisen.
 
Gaspedal schrieb:
Nein, so funktioniert das nicht. Gut dass Du nicht der Geschäftsführer einer Grafikkartenhersteller bist. Sonst müssten die Grafikkarten heute nach Deiner Logik über 10.000€ kosten verglichen mit letzten 20 Jahre.
Nein- Müssten sie nicht. Genauso wie Du heute für mehr Leistung immer weniger zahlst.
Musst nur warten.
Gaspedal schrieb:
Nur weil Du keinen kennst bedeutet dass es nicht dass es niemanden gibt der es braucht. Dann hast Du MS Flugsimulator noch nie mit einer 4k VR Brille und 120hz gespielt. Selbst ein 3090'er ist da total überfordert wenn man die Leistung nicht runterschraubt.
Es gibt überhaupt keine Notwendigkeit überhaupt den Flugsimulator spielen zu müssen.
Gaspedal schrieb:
Ja, das sehe ich ein dass auch die Hersteller unter Kostendruck stehen und die Preise an den Kunden weitergeben. Aber zu Mining Boom - Zeiten waren sie davon noch nicht betroffen
Zu Mining- Boom Zeiten waren es aber nicht NVIDIA oder AMD, die ihre Margen erhöht haben.
Der Markt an sich (Großhandel, Zwischenhändler, Skalper und teils die Auftagsfertiger) sind hier eskaliert und haben abgegriffen was nur ging.
NVIDIA und AMD haben jeweils nur mehr Geld gesehen, da sie mit jeder Charge höhere Kapazitäten zu besseren Preisen ordern konnten und natürlich deutlich mehr Volumen abgesetzt werden konnte.
Gaspedal schrieb:
Das "Melken" haben alle zu Mining-Boom Zeiten miterlebt. Wer da noch Belege dafür braucht ist wirklich verloren oder total blind.
Siehe oben- Das waren nicht die Hersteller, die hier gemolken haben. Wenngleich sie natürlich durch die Absatzmenge enorm profitiert haben.

Gaspedal schrieb:
Hä? Genau das tun wir doch, wir verzichten derzeit drauf. Nicht weil wir es uns nicht leisten können, sondern weil wir damit ein Zeichen setzen wollen.
Die Frage und da drehen wir uns im Kreis ist- Welches Zeichen setzt Du denn damit.
Gaspedal schrieb:
Aber wahrscheinlich bist Du auch so ein Grünen Wähler der sich alles schönredet und die ganze Entwicklung toll findet im Sinne der Umwelt. Koste was es wolle... Außerdem schreibst Du auch über Dein eigenen Gefühlszustand wie toll Du die Preise findest.
Aber sonst ist alles in Ordnung bei Dir?
Gaspedal schrieb:
Ja, schön für Dich! Kaufe es und werde damit glücklich. Ich gönn es Dir ja auch. Warum kannst Du aber nicht andere in Ruhe lassen, die solch eine Preisentwicklung und Preispolitik (und es geht schonab RTX 3070 los) kritisieren? Dafür ist ein Forum schließlich da.
Gerne- Wenn man Kritik übt, sollte diese aber nicht substanzlos und komplett unbelegt sein.

Gaspedal schrieb:
Was für heiße Luft? Schau Dir 90% der Beiträge an, die Bestätigen dass alle die Preise übertrieben finden. Wenn Du die Meinung anderer als heiße Luft bezeichnest und ein Problem damit hast, andere Meinungen zu respektieren, dann bist Du hier falsch.
Nochmal- Wenn ich irgendjemandem negative Dinge unterstelle (Kunden melken, überteuerte Preise usw.) dann ist es an mir, dies entsprechend zu begründen und mit fakten zu unterlegen.
Ansonsten ist es DIR einfach zu teuer. Es ist dann aber nicht generell "zu teuer", "unverschämt teuer" oder wie auch immer man hier versucht sein eigenes Empfinden auf auf andere überzustülpen.

Gaspedal schrieb:
Du hast definitiv nichts verstanden über was wir hier diskutieren.
Es wird hier nicht diskutiert. Und genau das ist der Punkt. Es werden hier ohne Grundlagen Behauptungen aufgestellt, gebasht und Stimmung gemacht. Sich zusammengerottet "um ein Zeichen zu setzen".
Und das alles aus rein egoistischen Gründen (Hersteller soll gezwungen werden die Preise zu senken, so dass Du und andere billiger einkaufen können). Also genau das, was man den Unternehmen vorwirft, wenn man vom Melken spricht.

Was würdest Du sagen, wenn sich herausstellt, dass durch die Gesamtkosten und niedrigen Absatzmengen NVIDIA dann bei jeder verkauften Karte draufzahlt obwohl sie 2000€ kostet? Ist es dann immernoch zu teuer?
 
  • Gefällt mir
Reaktionen: Sly123 und ThirdLife
Zurück
Oben