News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober

Lachsrolle schrieb:
Wenn DF eine Klage haben will, dann ja.
DF hat ein warmes Plätzchen in NVs Schoß, da ist nichts mit Klage: Für richtige Benches gilt die NDA, aber Performancevergleiche werden sie wohl wieder vor allen anderen veröffentlichen dürfen.
 
TigerNationDE schrieb:
Immerhin spricht man bei z.B. der 80er von 2-4x, bei keinem doppelten Stromverbrauch.
In RTX Titeln zusammen mit DLSS 3.0, beim Rest wirst du froh sein können, wenn du >1.5x bekommst.
 
Aus betriebswirtschaftlicher Sicht heraus, macht nVidia Alles richtig.
Als "normal-user" bin ich jetzt raus.
Lg
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, SirDoe, FoXX87 und 2 andere
Geforce2front schrieb:
Was waren das noch Zeiten wo High End bei 400 euro endete.

Selbst Dual Gpu Karten haben solche Preise nie erreicht.
Die waren technologisch aber auch ein Witz im Vgl zu dem, was GPUs heute können an Tasks, Prozessen und Workflows.
Damals war high end im Wesentlichen nur mehr raw power mit jeder weiterem Gem, mal reduziert gesagt,

Handys kosteten damals auch 100-200 Euro. Heute sind das Smartphones und hochkomplexe Alleskönner
 
Samuelz schrieb:
Also ich bin selber teuer Ampere User (3080 Ti) aber diese Preise sind wirklich nochmal heftiger. Vor allem sehe ich gar kein Spiel/Sinn wo eine Ampere Karte nicht reichen soll.

genau das ist der Plan von Nvidia, die neuen Karten holen sich eh nur Gamer, die sich das leisten können und wollen und die alten Karten bleiben weiterhin überteuert. Wird genug Gamer geben, die sich über eine 750€ 3080 freuen werden.
 
  • Gefällt mir
Reaktionen: Laphonso, mannefix und NDschambar
xexex schrieb:
Was willst du bei dem aktuellen Eurokurs auch erwarten? Als Ampere vorgestellt wurde, lag der Euro noch 20% höher zu Dollar und die 19% MwSt wurden damit ausgeglichen.
Anhang anzeigen 1262133

Solange die Entwicklung so weiter geht, werden wir uns noch an ganz andere Preise gewöhnen müssen. Vom Prinzip sind die Preise für die neue Generation human, nur in Deutschland sieht es richtig böse aus.
Sag das mal den Tschechen, die auf 20% zusteuern. Ich finde die Preise ehrlich gesagt, okay. Da sind halt 20-30% N4 Aufschlag und die TSMC Preiserhöhung drin. Natürlich muss man auch sich mal ansehen, wo die Rohleistung liegt, RTX ist nett, aber die FP32 ist besser Vergleichbar. Ich habe mit schlimmeren Preisen gerechnet, aber Nvidias Marktanalysten haben vermutlich dank der skalper die Schmerzgrenze gezeigt bekommen und lootet das nun aus. (Die Marge muss ja auch gehalten werden ;)) Im Sommer kostet die gpu dann 1000€ und alles ist fair. Und AMD muss auch noch launchen. Allerdings zeigt mir der Leistungszuwachs, dass auch RDNA mit 50% nicht zu hoch gestapelt hat. Wenn AMD die TDP einhalten kann, zieht man in FP32 an Nvidia vorbei und ist effizienter. Ich hoffe, dass AMD ihre 7900XT für 1000USD (999USD) bringt, aber ich denke auch hier eher Nvidia Preise. Eben weil die Prozesskosten massiv gestiegen sind. Wir werden Sehen. Aber die 4080 12G dürfte damit eher der Nachkomme der 3080 sein. Ich bin auf erste Tests und das Undervolting Potenzial gespannt
 
  • Gefällt mir
Reaktionen: dipity
therealcola schrieb:
Nvidia hat schon gewonnen, weil ohne Raytracing die neuen Games doch nix besonderes Grafisch zu bieten haben ... wenn wir mal ehrlich sind...
Naja das Raytracing können die AMDs ja auch, nur halt nicht so effektiv. DA wird das Problem liegen. Man hat die Gameri n den letzten Jahren alle von 1080p auf 1440 oder gar 2160 gedrängt und nun kommt der große Preishammer. Die 4K Monitore sind inzwischen richtig gut zu bekommen und auch für Einsteiger erschwinglich, jedoch bekommst du preislich halt bald keine Karte mehr mit der du ihn als Einsteiger nutzen kannst :D
 
  • Gefällt mir
Reaktionen: mannefix
Ist schon wirklich beeindruckend, was nvidia da zaubert.

Nur für die Leistung braucht man dann auch einen 140+ Hz UHD Monitor, damit sich das lohnt. Wer noch in 2k und niedriger unterwegs ist, wird sicher jetzt günstiger spielen können.
 
Laphonso schrieb:
Mit dem Ressourcen, die Nvidia opfern wollte, um all in zu gehen was Raytracing und DLSS angeht.
Beides geht nicht 1:1.
Die Steigerung im RT Bereich erzielt man nicht durch Brute Force, der "Rest" ist also in Rasterleistung gewandert. Das Ergebnis kannst du dir dann hoffentlich denken.
1663701537333.png



Genauso wenig sehe ich einen großen Bedarf an zusätzlicher Chipfläche für DLSS3.0, vermutlich hat man dafür nur die Tensor Kerne angepasst.
1663701801411.png


Ich lasse mich gerne eines besseren belehren, sehe AMD aber trotzdem nur als Gegenspieler zu den 4080 Modellen und sobald RT ins Spiel kommt vermutlich irgendwo bei 4070. Übrigens wollte AMD auch angeblich die RT Leistung um 60% steigern, das wird sie genauso Fläche kosten.

Vergesse eines nicht, Nvidia macht einen Sprung von 8nm Samsung (was eigentlich 10nm ist) auf N4 (5nm) TSMC, AMD macht im Vergleich dazu nur ein "Sprüngchen".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mazO! und Laphonso
Rock Lee schrieb:
Gesalzene Preise bei den 4080er Modellen. Der Leistungssprung ist zwar enorm aber... Davon ausgehend dass die 4080 16 GB ca 2 mal so schnell wie eine 3080 10GB sein könnte(Rasterizing) aber auch das doppelte kostet, hat sich das Preis/Leistungsverhältnis genau um 0 verbessert. Absolut lächerlich.

Besser kann man es nicht auf den Punkt bringen. nVidia will die Hersteller und Händler erstmal die Lager leer machen mit den alten 300er Karten. Danach kommt dann wahrscheinlich ein ordentlicher Preisdrop.
 
Taxxor schrieb:
In RTX Titeln zusammen mit DLSS 3.0, beim Rest wirst du froh sein können, wenn du >1.5x bekommst.
Genau das war ja schonmal mein Argument heute. Dieser Blender von AI Upscaling. Also DLSS und FSR.

Ich mochte früher diese Nativen Benchmarks. Heute kriegst du die halt kaum noch zum Kartenrelease und du bist gezwungen auf Reviews zu warten.
 
  • Gefällt mir
Reaktionen: mannefix
Geht es nur mir so, oder war das mal eine lahme Vorstellung? Wo sind die ganzen Techspecs und Benchmarks in zig Games? Was sollen wir mit dem Marketinggewäsch und den Preisen anfangen? Ist das einfach schlecht gemacht oder Arroganz? Enttäuschend für die 4000er Gen. Es scheint wirklich so zu sein, dass Nvidia nun sehen will was AMD macht und am liebsten erstmal nur 3000er Karten verkaufen möchte bis dahin. Schade.
 
Nvidia ist mir mittlerweile so sympathisch wie Nagelpilz.

Der kastrierte und somit 20% langsamere Chip wird dennoch als 4080/ 12 GB verkauft. Die suggerieren, dass die 4080/ 16 GB einfach nur 4 GB mehr Speicher hat - aber nein, die 4080/12 GB ist eine kastrierte Karte, die eigentlich 4070 heissen sollte.

Das ist doch Verarsche par excellence.
 
  • Gefällt mir
Reaktionen: Gene Jackman, Icke-ffm, ComputerJunge und 6 andere
Siddig Obakro schrieb:
Für die Kohle hab ich vor nicht all zu langer zeit nen kompletten mid range zocker pc gekauft.

Mid Range?
Vor... Alzheimer... 5 Jahren zu 1080Ti Zeiten hab ich für das Geld Enthusiasten PC Gebaut... 1080Ti hat ~800€ gekostet. Bleiben fast 1200€ für CPU, RAM und Mainboard.
Schönes Mobo ~250€, CPU ~500€, RAM ~200€... bleiben noch 250€ Acken um das Zeug in ein billiges Gehäuse zu pflanzen und dann ein wertiges Netzteil für ~150€ dranzuhängen.
Was für Zeiten... da wird man alt bei. 🥺
 
  • Gefällt mir
Reaktionen: Innocience, Icke-ffm, karl_laschnikow und 4 andere
Beatmaster A.C. schrieb:
Egal wie schnell eine GPU der X70 Serie ist (Ti ausgenommen), die ist mir nicht mehr Wert als 500-550€ maximal.
X80 Serien (auch hier Ti ausgenommen) bis max 700€. Alles darüber ist lediglich Wucher und Abzocke.

Und wer meint dass das nicht möglich, oder Wunschdenken ist: GTX8800, GTX9800, GTX280, GTX480, GTX580, GTX680, GTX780, GTX980 und GTX1080 waren alle für unter 700€ zu haben.
Nach der 1080 und der 2080 ging es dann so richtig mit dem melken der Gamer los. Die Pandemie und die Miner haben dann Ihren Teil hierzu beigetragen.

Den Vorteil den ich jetzt für bereitwillige Käufer sehe ist, das der Gebrauchtmarkt für 3080/3090 immens durch das Auflösen der Miningbestände/Farmen zunehmen wird.
 
  • Gefällt mir
Reaktionen: Celinna und Beatmaster A.C.
xexex schrieb:
Die Steigerung im RT Bereich erzielt man nicht durch Brute Force, der "Rest" ist also in Rasterleistung gewandert. Das Ergebnis kannst du dir dann hoffentlich denken.
Wie an dem Screenshot der vorherigen Seite zu erkennen, liegt die Performancesteigerung in Raster halt nur bei knapp über 50%.
Und die einzigen Titel die über 3x gekommen sind waren "Nvidia Racer RTX", also nicht mal ein wirkliches Spiel sondern eine Tech-Demo, und eine speziell angepasste Version von Cyberpunk mit noch mehr RT. Beide besitzen DLSS 3 Support, was auch aktiv war.
xexex schrieb:
Genauso wenig sehe ich einen großen Bedarf an zusätzlicher Chipfläche für DLSS3.0, vermutlich hat man dafür nur die Tensor Kerne angepasst.
DLSS 3.0 benötigt zusätzlich zu den Tensor Kernen einen "Optical-Flow-Accelerator", wie der Aussieht keine ahnung, aber es wird wohl zusätzliche Hardware auf dem Chip sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Illithide, Laphonso und Rockstar85
Jetzt die Kardinalsfrage... ist eine xx80er wirklich notwendig für den Durchschnittsgamer oder geht es hier einfach nur um die FPS Junkies mit 4K Monitore? Ich mein 4K geht ohnehin nur mit 60 FPS was ich bis dato so vernommen habe und die 1440p Gamer sind jene die +100Hz Monitore haben.

Nüchtern betrachtet benötige ich keine Doktor in Mathematik oder BWL um behaupten zu können, dass zu Zeiten einer 1080 man für Leistung weniger gezahlt hat als heute. Ich denke aber das viele sich nicht damit abfinden können eine Grafikkarte zu haben die mit 70 oder 60 endet obwohl die Leistung wohl ebenso mehr als ausreichend wäre. Ist ein bisschen so als würde man sich einen Ferrari kaufen um damit durch die Innenstadt zu brausen...
 
Bin mal auf die Tests gespannt und wie AMD performt. Zum Glück gibt es aktuell wirklich keinen Grund für mich zu Upgraden. Es gibt ja defacto nur ein Spiel, welches alle Register zieht und das ist Cyberpunk 2077 und zu meinen 250+ Spielstunden kommen vermutlich erst mit dem DLC nächstes Jahr weitere dazu. Dafür fände ich mehr Leistung durchaus super, damit ich auch mal mit mehr als 45 FPS spielen kann.
Bis dahin werden sich sicherlich auch die Preise etwas angepasst haben, da es ja dieses mal eigentlich keinen großen Run auf die Karten geben sollte; hohe Preise, Inflation, keine NextGen Spiele und kein lukratives Mining?!

Ich bin sehr gespannt auf die tatsächliche Effizienz und wie gut die sich noch tweaken lassen. Unter 300 Watt wäre schon mal super. Omniverse gefällt mir aber wirklich gut, bisher habe ich aber abseits von den Nvidia Trailern dazu wenig gesehen. Mal gucken ob sich das evtl. ändert.
 
minimii schrieb:
Hmm.
Meine RX6800XT war wohl vorerst das letzte Mal das ich ne Karte der aktuellen Gen habe…sollte AMD da preislich mitgehen :(

Die 4090…okay
Aber die 4080er Preise ?

Oder ist xx70 das neue xx80 ?
Quasi: 4090= Titan und 4080 Nachfolger einer 3090Ti ?
sehe ich ähnlich. für das 6800XT upgrade habe ich 500€ draufgelegt. für eine vergleichbare 40XX Karte werde ich vermutlich eher 800€ im nächsten Jahr los. DAS wäre mir das warten nicht wert gewesen.
 
Finde die 4090 für knapp 2000€ schon teuer, aber die 4080 und gerade die 4070 ("408012gb") für 1100€ schießt den Vogel ab. Wer soll da eine Karte kaufen? Bin nun gespannt auf AMD.

Eine Sache muss ich trotzdem positiv ansprechen. Die doppelte Leistung bei gleichem Stromverbrauch ist schon deutlich effizienter. Dazu hört sich DLSS3 auch erstmal sehr interessant an. Preis geht trotzdem nicht.
 
Zurück
Oben