News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober

Ich warte auf ne max 150Watt GPU für unter 200 Tacken.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, Fyrex, HdKCM und 2 andere
Da ist halt schon preislich einfach Schluss bei mir. Vor nicht einmal 5 Jahren hat man für weit unter 1000€ das Flaggschiff erhalten. Die haben einen an der Waffel.
 
xexex schrieb:
Es hatte schon seinen Grund wieso man für die Demo Cyberpunk 2077 aus der Grabbelkiste geholt hat, weil fast alles was danach kam auf AMDs mickrige RT Leistung kaputtoptimiert wurde.

Diese Aussage ist doch Schwachsinn.

Die Entwickler "optimieren RT kaputt", weil die Spieler nicht auf über 60% der FPS verzichten wollen. Da auch die RTX 30er Karten bei weitem nicht genügend RT Leistung hatten, ohne massive FPS Einbußen das ganze darzustellen.
 
  • Gefällt mir
Reaktionen: Innocience, thom_cat, Schokolade und 4 andere
Ich bin gespannt, wie die Leistung der 4080 16GB aussieht, wenn man die auf ~250W beschraenkt. Denn mehr Hitze ist mir (und meinem kleinen Buero) zu viel.
 
Pulverdings schrieb:
Und dann wenn niemand mehr die teuren 4000 Modelle haben will wird, wie bei der 3080TI/3090/3090TI, einfach der Preis gesenkt.
Ja, so funktioniert das Prinzip von "Angebot und Nachfrage" :p
 
zivilist schrieb:
Trotzdem würde ich die Spezifikationen lesen wollen.
Das ging mir in der Vergangenheit auch immer so. Nicht nur die Spezies, sondern, dass die auch gleichzeitig gelauncht werden. Aber Pustekuchen und besonders schade für die Käufer dieser Klassen.
Ich wünschte nur, die würden dieses Gebaren mal lassen. Aber es wird wohl ein Wunsch bleiben.
 
Wahnsinn. Dass ich die Sapphire Radeon RX 5700 XT Nitro+ Special Edition vor 2,5 Jahren für 400+ Euro gekauft habe, war ein Glücksfall. Für mich reicht es auf weitere ewige Jahre. Hoffentlich hält die ewig.
 
DeltaPee schrieb:
Bei mir läufts prima. Kann mich nicht beschweren. Fürn nen zwanni im Monat kann ich zum Preis einer Graka wie der 4090 (ohne drum herum Prozzi usw.) knappe 8-9 Jahre spielen. Aussehen tuts gut und FPS sind ausreichend. Keine Ahnung wie es bei dem Kumpel ist, aber ich hab meinen MAc per Lan angeschlossen, vllt. hilft das... ODer auf MAc läts halt besser. Abstürze hatte ich bisher keine. Apropos FPS, ich glaube das Bottleneck ist der eingesetzte Threadripper, Geforce Now Server nutzen die...
Keine Ahnung, aber ob MAC oder PC ist völlig egal, läuft eh alles über Browser.
Des weiteren kann man auch nichts Optimieren in GF-Now sofern es nicht "In-Game" möglich ist, also keinerlei Änderungen an z.B. Ini-Files oder anderen Config-Files für gewisse Spiele oder gar Taktraten, Temperaturen oder Voltage der Hardware.
nospherato schrieb:
@q3fuba
kA bisher hatte ich noch keine Probleme. Ich nutze GeforceNow immer mal im Urlaub für Lost Ark auf dem Surface Pro 6 und hatte bisher keine Probleme.
Solange die Leitung passt lief alles wunderbar und ich könnte das nicht vom nativen (auf meinem System in der Signatur) unterscheiden.
Mag aber natürlich auch vom Spiel und der eigenen Leitung abhängen.
Auf jeden Fall werde ich mir sicher keine 2k € Karte kaufen, gerade weil ich aktuell keine brauchen würde.

Entweder AMD liefert was sinnvolleres oder die 2080ti bleibt drin und muss reichen. Alternativ spiele ich halt mehr auf der Ps5.

2k €.. Und dann auch noch luftgekühlt.. Dafür bekommt ich einen (55",mehr passt nicht in die Wohnwand) OLED der Spitzenklasse..
Ja wenn du ne 2080Ti hast, wär ja umsteigen sowieso Blödsinn!
Die 3xxx Serie würde überhaut nicht lohnen und die 4xxx auch erst ab der 2nd Release Welle in nem Jahren, WENN überhaupt, denn die ersten Angaben sind ja nicht so Prickelnd der 4xxx Serie, außer dass die ne MENGE an Strom brauchen! ^^
Zu Lost Ark -> das läuft aber auch auf nem Toaster, ergo... :D

Aber "keine Probleme" sind ja nicht gleich "keine Probleme" für andere!
Wie schon gesagt, er (und viele andere) erkennen keine Unterschiede zwischen 60 und 144Hz und somit auch keinen Input-Lag oder FPS-Drops in den meisten Fällen.
Sowas fällt einem "Casual-Gamer" (nicht abwertend gemeint!) gar nicht auf und da ist natürlich GF-Now völlig in Ordnung.

Aber deswegen würde ICH z.B. nie Competitive Games über GF-Now spielen, sofern diese überhaupt verfügbar sind, was unter anderem noch ein GANZ anderes Problem/Thema bei GF-Now ist, denn eine 100% Availability-Rate gibt es auch nicht!
 
Kommt halt drauf an wie man zockt, Freelancer auf 1080p, da reicht dann auch ne 5700XT
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
Ich lasse mich gerne eines besseren belehren,
Ich mich ja auch. Es wäre allerdings tragisch, wenn RDNA3 nicht irgendwo fps bzw. Benchmark Siege einfährt. (Raytracing off)
Eigentlich sollte es für AMD leichter sein denn je, Nvidias Marktanteile beim Gaming zu attackieren.

Doch…..Auch AMD will kassieren.Wer also glaubt, man kann AMDs Flaggschiff unter 1000 Euro after market kaufem, wird böse erwachen.
Ich rechne mit 1100-1200 Euro auch für eine 7900XT Custom.
 
warum sie zwei x80er gemacht haben statt ner x70ti für die 12GB erschließt sich mir nicht.

wie auch immer, die sind wegen den großen monolithen auf 4 nm halt verdammt teuer zu fertigen. mal sehen was der konkurent anbieten wird. nicht zu vernachlässigen ist auch das überangebot an ampere was noch verkauft werden möchte
 
1.100 Tacken für eine verkappte 4070TI - ich würde sagen läuft bei Grün.
 
  • Gefällt mir
Reaktionen: Celinna, Illithide und konkretor
Wenn sich der Screenshot bewahrheitet wird eine kommende 4070 dann so schnell wie meine 6900xt und das dann für 700-800€?
1663702836483.png
 
  • Gefällt mir
Reaktionen: Celinna, KlaasKersting und mannefix
Also, auch wenn ich gegen den Strom schwimme mit der Aussage. Mir gefällt die 16GB 4080 echt gut.

320W sind total okay und wenn ich bedenke wie flott eine 3080Ti ist, dann wäre die 4080 schon extrem schnell. Das in Kombination mit DLSS 3.0, könnte für 4K120 echt gut sein.

Für mich eigentlich die ideale Karte. Die 4090 ist einfach ein Monster. Brauche ich für meine 4-5h BF2042 pro Woche nicht.
 
  • Gefällt mir
Reaktionen: Laphonso
Max007 schrieb:
Nvidia ist mir mittlerweile so sympathisch wie Nagelpilz.

Der kastrierte und somit 20% langsamere Chip wird dennoch als 4080/ 12 GB verkauft. Die suggerieren, dass die 4080/ 16 GB einfach nur 4 GB mehr Speicher hat - aber nein, die 4080/12 GB ist eine kastrierte Karte, die eigentlich 4070 heissen sollte.

Das ist doch Verarsche par excellence.
waren bei GTX 970 auch 4 GB, äh sorry...

Die 2-4 Mal schneller -kann Nvidia nicht einlösen. Das sind schön gerechnete DSSL 3 Werte. Im Durchnitt + 25 Prozent. Preislich das Doppelte. Mann kommt halt an das physikalisch Machbare. Die E-Funktion lässt sich nicht austricksen (auch nicht mit Werbung). Steiler Anstieg (Pascal), dann langsames Wachstum (Lovelace).
Und wer braucht 4 K bei 32 Zoll? Niemand (suggeriert dir die Werbung). Und dann sind die Monitore nicht mal mit OLED. Wahnsinn! (Kann man ja noch in 5 Jahren verkaufen).
 
Scheiße meine R290 pfeift aus dem Letztem loch schon teilweiße , und mein 4790k wird auch langsam ein wenig müde und dann solche Preise , warte mal was Tante Lisa so in ihrer Tasche hat
 
aldaric schrieb:
Die Entwickler "optimieren RT kaputt", weil die Spieler nicht auf über 60% der FPS verzichten wollen.
Jeder Spieler kann die Hand selbst an die Regler anlegen, Auflösung runter schrauben oder die Qualität senken, wenn ihm danach ist. Wenn allerdings nur noch Sparbrötchen rauskommen, die RT auf dem Papier mitbringen aber es nur noch an Stellen nutzen die man nicht einmal sieht, nützt dir die beste Karte nichts.

Die "Sparbrötchen" gab es in letzter Zeit zuhauf und die wird es auch weiter geben, solange der kleinste gemeinsame Nenner die Konsolen und AMD Karten sind. Das war leider schon immer so und richtig gute Spiele mit entsprechenden Effekten werden wir vermutlich erst sehen, wenn irgendwann eine neue Konsolengeneration anstehen wird.

Es hat schon seinen Grund wieso Jensen CB2077 aus der Kiste geholt hat, es ist mit das letzte Spiel was nicht in dieser Richtung kaputt optimiert wurde.
 
  • Gefällt mir
Reaktionen: Schokolade
Angeblich sollen laut Gamestar Komments die Preise aus Finnland sein, die haben ne höhere Steuer, wohl was um die 24%, also vielleicht 50 bis 100€ günstiger hier, aber die Karten werden eh alle round about 200 bis 300€ teuerer sein als empfohlen.
 
xexex schrieb:
richtig gute Spiele mit entsprechenden Effekten werden wir vermutlich erst sehen, wenn irgendwann eine neue Konsolengeneration anstehen wird.
Ich wollte gerade schreiben, dass das ja eigentlich immer gegen Ende einer Konsolengeneration gesagt wird und nicht am Anfang, da ist mir aufgefallen, dass die aktuelle Gen ja schon wieder 2 Jahre alt ist und in 1-2 Jahren die Pro Versionen anstehen sollten^^
 
  • Gefällt mir
Reaktionen: xexex
PS828 schrieb:
warum sie zwei x80er gemacht haben statt ner x70ti für die 12GB erschließt sich mir nicht.

wie auch immer, die sind wegen den großen monolithen auf 4 nm halt verdammt teuer zu fertigen. mal sehen was der konkurent anbieten wird. nicht zu vernachlässigen ist auch das überangebot an ampere was noch verkauft werden möchte
Das ist einfach. Eine 4070Ti kommt dann im Frühjahr. Nvidia macht das, was Intel jahrelang machte.

In meiner Branche haben wir auf elektronische Bauteile bis zu 400% Preisaufschlag. Ich kenne die Verträge nicht, aber ich denke Nvidia hat 6 Monats Verträge. Wenn selbst solid Caps ca 150% Aufpreis haben, und ICs so ca 75-90, werden die Spannungsbauteile und auch die Regler sicher nicht billiger sein. Die weltweiten Lieferketten sind mehr als nur gestört.
 
  • Gefällt mir
Reaktionen: PS828
Zurück
Oben