Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090 und 4080: Ada Lovelace startet für 1.099 bis 1.949 Euro ab Oktober
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
xexex schrieb:Es hatte schon seinen Grund wieso man für die Demo Cyberpunk 2077 aus der Grabbelkiste geholt hat, weil fast alles was danach kam auf AMDs mickrige RT Leistung kaputtoptimiert wurde.
Diese Aussage ist doch Schwachsinn.
Die Entwickler "optimieren RT kaputt", weil die Spieler nicht auf über 60% der FPS verzichten wollen. Da auch die RTX 30er Karten bei weitem nicht genügend RT Leistung hatten, ohne massive FPS Einbußen das ganze darzustellen.
hans_meiser
Lt. Commander Pro
- Registriert
- Jan. 2016
- Beiträge
- 1.515
Ich bin gespannt, wie die Leistung der 4080 16GB aussieht, wenn man die auf ~250W beschraenkt. Denn mehr Hitze ist mir (und meinem kleinen Buero) zu viel.
Ja, so funktioniert das Prinzip von "Angebot und Nachfrage"Pulverdings schrieb:Und dann wenn niemand mehr die teuren 4000 Modelle haben will wird, wie bei der 3080TI/3090/3090TI, einfach der Preis gesenkt.
Neronomicon
Captain
- Registriert
- Dez. 2009
- Beiträge
- 3.222
Das ging mir in der Vergangenheit auch immer so. Nicht nur die Spezies, sondern, dass die auch gleichzeitig gelauncht werden. Aber Pustekuchen und besonders schade für die Käufer dieser Klassen.zivilist schrieb:Trotzdem würde ich die Spezifikationen lesen wollen.
Ich wünschte nur, die würden dieses Gebaren mal lassen. Aber es wird wohl ein Wunsch bleiben.
q3fuba
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 937
Keine Ahnung, aber ob MAC oder PC ist völlig egal, läuft eh alles über Browser.DeltaPee schrieb:Bei mir läufts prima. Kann mich nicht beschweren. Fürn nen zwanni im Monat kann ich zum Preis einer Graka wie der 4090 (ohne drum herum Prozzi usw.) knappe 8-9 Jahre spielen. Aussehen tuts gut und FPS sind ausreichend. Keine Ahnung wie es bei dem Kumpel ist, aber ich hab meinen MAc per Lan angeschlossen, vllt. hilft das... ODer auf MAc läts halt besser. Abstürze hatte ich bisher keine. Apropos FPS, ich glaube das Bottleneck ist der eingesetzte Threadripper, Geforce Now Server nutzen die...
Des weiteren kann man auch nichts Optimieren in GF-Now sofern es nicht "In-Game" möglich ist, also keinerlei Änderungen an z.B. Ini-Files oder anderen Config-Files für gewisse Spiele oder gar Taktraten, Temperaturen oder Voltage der Hardware.
Ja wenn du ne 2080Ti hast, wär ja umsteigen sowieso Blödsinn!nospherato schrieb:@q3fuba
kA bisher hatte ich noch keine Probleme. Ich nutze GeforceNow immer mal im Urlaub für Lost Ark auf dem Surface Pro 6 und hatte bisher keine Probleme.
Solange die Leitung passt lief alles wunderbar und ich könnte das nicht vom nativen (auf meinem System in der Signatur) unterscheiden.
Mag aber natürlich auch vom Spiel und der eigenen Leitung abhängen.
Auf jeden Fall werde ich mir sicher keine 2k € Karte kaufen, gerade weil ich aktuell keine brauchen würde.
Entweder AMD liefert was sinnvolleres oder die 2080ti bleibt drin und muss reichen. Alternativ spiele ich halt mehr auf der Ps5.
2k €.. Und dann auch noch luftgekühlt.. Dafür bekommt ich einen (55",mehr passt nicht in die Wohnwand) OLED der Spitzenklasse..
Die 3xxx Serie würde überhaut nicht lohnen und die 4xxx auch erst ab der 2nd Release Welle in nem Jahren, WENN überhaupt, denn die ersten Angaben sind ja nicht so Prickelnd der 4xxx Serie, außer dass die ne MENGE an Strom brauchen! ^^
Zu Lost Ark -> das läuft aber auch auf nem Toaster, ergo...
Aber "keine Probleme" sind ja nicht gleich "keine Probleme" für andere!
Wie schon gesagt, er (und viele andere) erkennen keine Unterschiede zwischen 60 und 144Hz und somit auch keinen Input-Lag oder FPS-Drops in den meisten Fällen.
Sowas fällt einem "Casual-Gamer" (nicht abwertend gemeint!) gar nicht auf und da ist natürlich GF-Now völlig in Ordnung.
Aber deswegen würde ICH z.B. nie Competitive Games über GF-Now spielen, sofern diese überhaupt verfügbar sind, was unter anderem noch ein GANZ anderes Problem/Thema bei GF-Now ist, denn eine 100% Availability-Rate gibt es auch nicht!
M
Mucho79
Gast
Kommt halt drauf an wie man zockt, Freelancer auf 1080p, da reicht dann auch ne 5700XT
Ich mich ja auch. Es wäre allerdings tragisch, wenn RDNA3 nicht irgendwo fps bzw. Benchmark Siege einfährt. (Raytracing off)xexex schrieb:Ich lasse mich gerne eines besseren belehren,
Eigentlich sollte es für AMD leichter sein denn je, Nvidias Marktanteile beim Gaming zu attackieren.
Doch…..Auch AMD will kassieren.Wer also glaubt, man kann AMDs Flaggschiff unter 1000 Euro after market kaufem, wird böse erwachen.
Ich rechne mit 1100-1200 Euro auch für eine 7900XT Custom.
warum sie zwei x80er gemacht haben statt ner x70ti für die 12GB erschließt sich mir nicht.
wie auch immer, die sind wegen den großen monolithen auf 4 nm halt verdammt teuer zu fertigen. mal sehen was der konkurent anbieten wird. nicht zu vernachlässigen ist auch das überangebot an ampere was noch verkauft werden möchte
wie auch immer, die sind wegen den großen monolithen auf 4 nm halt verdammt teuer zu fertigen. mal sehen was der konkurent anbieten wird. nicht zu vernachlässigen ist auch das überangebot an ampere was noch verkauft werden möchte
der Unzensierte
Vice Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.147
1.100 Tacken für eine verkappte 4070TI - ich würde sagen läuft bei Grün.
Also, auch wenn ich gegen den Strom schwimme mit der Aussage. Mir gefällt die 16GB 4080 echt gut.
320W sind total okay und wenn ich bedenke wie flott eine 3080Ti ist, dann wäre die 4080 schon extrem schnell. Das in Kombination mit DLSS 3.0, könnte für 4K120 echt gut sein.
Für mich eigentlich die ideale Karte. Die 4090 ist einfach ein Monster. Brauche ich für meine 4-5h BF2042 pro Woche nicht.
320W sind total okay und wenn ich bedenke wie flott eine 3080Ti ist, dann wäre die 4080 schon extrem schnell. Das in Kombination mit DLSS 3.0, könnte für 4K120 echt gut sein.
Für mich eigentlich die ideale Karte. Die 4090 ist einfach ein Monster. Brauche ich für meine 4-5h BF2042 pro Woche nicht.
mannefix
Commander
- Registriert
- März 2008
- Beiträge
- 2.943
waren bei GTX 970 auch 4 GB, äh sorry...Max007 schrieb:Nvidia ist mir mittlerweile so sympathisch wie Nagelpilz.
Der kastrierte und somit 20% langsamere Chip wird dennoch als 4080/ 12 GB verkauft. Die suggerieren, dass die 4080/ 16 GB einfach nur 4 GB mehr Speicher hat - aber nein, die 4080/12 GB ist eine kastrierte Karte, die eigentlich 4070 heissen sollte.
Das ist doch Verarsche par excellence.
Die 2-4 Mal schneller -kann Nvidia nicht einlösen. Das sind schön gerechnete DSSL 3 Werte. Im Durchnitt + 25 Prozent. Preislich das Doppelte. Mann kommt halt an das physikalisch Machbare. Die E-Funktion lässt sich nicht austricksen (auch nicht mit Werbung). Steiler Anstieg (Pascal), dann langsames Wachstum (Lovelace).
Und wer braucht 4 K bei 32 Zoll? Niemand (suggeriert dir die Werbung). Und dann sind die Monitore nicht mal mit OLED. Wahnsinn! (Kann man ja noch in 5 Jahren verkaufen).
Gipsy Danger
Ensign
- Registriert
- Okt. 2007
- Beiträge
- 244
Scheiße meine R290 pfeift aus dem Letztem loch schon teilweiße , und mein 4790k wird auch langsam ein wenig müde und dann solche Preise , warte mal was Tante Lisa so in ihrer Tasche hat
Jeder Spieler kann die Hand selbst an die Regler anlegen, Auflösung runter schrauben oder die Qualität senken, wenn ihm danach ist. Wenn allerdings nur noch Sparbrötchen rauskommen, die RT auf dem Papier mitbringen aber es nur noch an Stellen nutzen die man nicht einmal sieht, nützt dir die beste Karte nichts.aldaric schrieb:Die Entwickler "optimieren RT kaputt", weil die Spieler nicht auf über 60% der FPS verzichten wollen.
Die "Sparbrötchen" gab es in letzter Zeit zuhauf und die wird es auch weiter geben, solange der kleinste gemeinsame Nenner die Konsolen und AMD Karten sind. Das war leider schon immer so und richtig gute Spiele mit entsprechenden Effekten werden wir vermutlich erst sehen, wenn irgendwann eine neue Konsolengeneration anstehen wird.
Es hat schon seinen Grund wieso Jensen CB2077 aus der Kiste geholt hat, es ist mit das letzte Spiel was nicht in dieser Richtung kaputt optimiert wurde.
M
Mucho79
Gast
Angeblich sollen laut Gamestar Komments die Preise aus Finnland sein, die haben ne höhere Steuer, wohl was um die 24%, also vielleicht 50 bis 100€ günstiger hier, aber die Karten werden eh alle round about 200 bis 300€ teuerer sein als empfohlen.
- Registriert
- Mai 2011
- Beiträge
- 21.335
Ich wollte gerade schreiben, dass das ja eigentlich immer gegen Ende einer Konsolengeneration gesagt wird und nicht am Anfang, da ist mir aufgefallen, dass die aktuelle Gen ja schon wieder 2 Jahre alt ist und in 1-2 Jahren die Pro Versionen anstehen sollten^^xexex schrieb:richtig gute Spiele mit entsprechenden Effekten werden wir vermutlich erst sehen, wenn irgendwann eine neue Konsolengeneration anstehen wird.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.965
Das ist einfach. Eine 4070Ti kommt dann im Frühjahr. Nvidia macht das, was Intel jahrelang machte.PS828 schrieb:warum sie zwei x80er gemacht haben statt ner x70ti für die 12GB erschließt sich mir nicht.
wie auch immer, die sind wegen den großen monolithen auf 4 nm halt verdammt teuer zu fertigen. mal sehen was der konkurent anbieten wird. nicht zu vernachlässigen ist auch das überangebot an ampere was noch verkauft werden möchte
In meiner Branche haben wir auf elektronische Bauteile bis zu 400% Preisaufschlag. Ich kenne die Verträge nicht, aber ich denke Nvidia hat 6 Monats Verträge. Wenn selbst solid Caps ca 150% Aufpreis haben, und ICs so ca 75-90, werden die Spannungsbauteile und auch die Regler sicher nicht billiger sein. Die weltweiten Lieferketten sind mehr als nur gestört.