News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

Almalexia schrieb:
Wer kauft sich heute noch einen Computer?
Für mich sind Konsolen und PCs zwei paar Schuhe. Nach der Logik hätte eine Mikrowelle auch den Herd verdrängen müssen. Trotzdem essen nicht alle Fertiggerichte...
Ergänzung ()

Almalexia schrieb:
Dafür braucht man aber keine Grafikkarte um 900€. Da reicht die integrierte GPU völlig aus.
Das kann ich eindeutig verneinen. Auf Arbeit hab ich nen Rechner stehen der benutzt eine RTX 3090 um Bildanalysen mit GPU zu beschleunigen, während ich privat seit 9 jahren eine GTX 970 benutze...
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., Zwirbelkatz, killbox13 und 4 andere
Nepenthes schrieb:
als sich einen Kredit aufzunehmen, die Verschuldung ist heute schon für viele (auch jüngere) ein nicht unerhebliches Problem

Verschuldet bin ich erst, wenn ich meine Fälligkeiten nicht mehr bedienen kann.
 
  • Gefällt mir
Reaktionen: TheAnswer42 und floTTes
Almalexia schrieb:
Dafür braucht man aber keine Grafikkarte um 900€. Da reicht die integrierte GPU völlig aus.

Je nach Spiel wird die integrierte GPU auch ansatzweise nicht ausreichen - wenn du Anno spielen willst und nicht SC 1 oder AoE II, wirst du selbst mit einer aktuellen integrierten GPU (z.B. bei einem 5700G, roughly GeForce 940MX Performance) schon in 1080p nicht weit kommen. Genauer gesagt, wird man selbst 20 FPS nicht erreichen können. So wird auch keiner spielen wollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beatmaster A.C.
Syrato schrieb:
Da Sie ja schon knapp 21h bei ComputerBase dabei sind, herzlich willkommen.

Zitat aus dem ComputerBase Test zu Hogwarts Legacy :

Der VRAM-Hunger des Spiels ist ordentlich

Apropos: Erwähnt werden muss noch der Grafikspeicher-Durst von Hogwarts Legacy, der seinesgleichen sucht. Erst bei einer Grafikkarte mit 16 GB läuft das Spiel problemlos, mit 12 GB fangen die Probleme bereits an und bei 8 GB muss man die schönsten Oberflächen gar nicht erst ausprobieren. Eine GeForce RTX 4070 Ti kommt bei maximaler Grafik in Ultra HD in Verbindung mit DLSS in Sachen Framerate zwar klar, jedoch werden dann nicht mehr alle Texturen geladen – bei der 900-Euro-Grafikkarte aus dem Januar müssen die Texturdetails reduziert werden.

Soviel zu, es reicht auch für 4K. Sicher könnte man die Details verringern, aber die Karte kostet 900€, da sins 12GB VRAM einfach pure Abzocke!
Stimmt, davon habe ich schon gehört auch etwas dazu gelesen. Ich denke, dass der Entwickler das noch optimieren wird mit Updates das sollte kein Problem darstellen.



Und danke, ich hoffe, ich bleibe hier noch einige Jahre:)
Ergänzung ()

Crifty schrieb:
Ich weiß nicht in welchem Metaversum man unterwegs sein muss um eine 4070 zu finden die in Raytracing deutlich schneller ist als eine 7900 XTX. Die 7900 XTX ist in Raytracing sogar mit der 4070 TI gleichschnell laut Computerbase Benchmarks.

In Zukunft werden die Spiele zunehmen die für die aktuelle Konsolengeneration gemacht werden, ohne die die jetzige Last-Gen und trotzdem zeigt sich heute schon das es vereinzelt Spiele gibt, die eine neue 900€ Grafikkarte wie ein altes Stück Metall aussehen lassen. Natürlich ist das alles andere als toll aber der Hang am PC aktuell sehr viele Spiele in einem "nur okay" Zustand auf den Markt zu bringen, ist sehr groß und steigender Tendenz.

Wenn man dann 900€ ausgibt und nicht mal die höchsten Texturen fahren kann, was nur eine Sache des Speichers ist aber die GPU nicht wirklich tangiert, läuft da was gehörig falsch.
Sorry, war ein Schreibfehler, gemeint war die Geforce RTX 4070 TI. Wie gesagt, ich zocke alles auf Ultra ohne die von dir beschriebenen Probleme.
 
Baxxter schrieb:
Verschuldet bin ich erst, wenn ich meine Fälligkeiten nicht mehr bedienen kann.
Nein, dann bist du insolvent... :rolleyes:

Verschuldet bist -und das sagt das Wort auch bereits- sobald ein Schuldverhältnis besteht, du also bei jemandem Schulden hast.
 
  • Gefällt mir
Reaktionen: Gesualdo, Pro_Bro, Beatmaster A.C. und 5 andere
Diejenigen die, die 12 GB der 4070/TI schönreden sind auch die gleichen leute die noch vor einigen Jahren meinten das 8GB mehr als ausreichend sind und auch in Zukunft reichen werden.
Es geht mir persönlich einfach nicht in den Kopf wie man sich sowas schönreden kann.
12GB sind und bleiben einfach ein Witz in dieser Leistungsklasse.
Und mehr Vram zu haben kann nie schaden, andersrum aber schon.
Hab vorhin mal Borderlands 3 gespielt und da waren immer so zwischen 12-13GB ausgelastet, ob nur reserviert oder wirklich gebraucht steht auf einem anderen Blatt. Fakt ist aber für mich die nächste Karte muss minimum 20GB haben, besser jedoch mehr.
 
  • Gefällt mir
Reaktionen: cbow, Austronaut, Beatmaster A.C. und 10 andere
HaRdWar§FreSseR schrieb:
Da sieht Mann wieder, dass AMD einfach wie immer hinterher hängt.
Ein Kartenmodell (RTX 4070Ti) liegt man aktuell zurueck, also da gab es schon deutlich unausgewogenere Zeiten was das Angebot an Leistungsklassen bei nVidia und AMD/RTG anging in der Vergangenheit.

Wieso kommt AMD/RTG noch nicht mit Navi 32 und 33 Karten heraus, weil man sich an den nVidia Preisen orientiert und das ist gar nicht einmal so dumm, zumal es AMD/RTG auch nicht mit mehr Verkaufszahlen und hoeherem Marktanteil gedankt wuerde, wenn sie vor nVidia damit an den Start gehen wuerden ;).


Apropos Berichterstattung, das sieht sehr ausgewogen aus mit den zahlreichen (aufgewaermten) nVidia Artikeln, da werden sich Jen-Hsun Huang und nVidia Deutschland freuen, dass Ihre Produkte so gut auf ComputerBase thematisiert(/vermarktet) werden (obwohl es aktuell keine neuen nVidia Produkte auf dem Markt gibt):

Untitled.jpg



Da wundert einen das Quasi-Monpol von nVidia trotz der Mondpreise bei diskreten Grafikkarten auch nicht mehr wirklich, wenn man so freundlich von den Medien in der Berichterstattung unterstuetzt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper, Beatmaster A.C. und Czk666
@Chismon nicht aufregen. Nvidia scheint gerade etwas umzugraben. AMD hat aktuell nichts im GPU Segment, was eine News wert wäre, dafür mit CPUs.
Vor 3 Wochen waren Radeon Grafikkarten in der Retro Rubrik.
Auch kaufen ausserhalb der Tech Bubble viel weniger Grafikkarten jenseits der 500€. Früher wurde die Masse mit < 500€ Modellen gemacht.

@Hatsune_Miku verstehe dieses beschützen auch nicht. VRAM kostet nicht viel und bei den Preisen die Nvidia aufruft müssten 16GB locker möglich sein.
 
  • Gefällt mir
Reaktionen: Clany, McTheRipper, Beatmaster A.C. und 3 andere
Kumpel wir sich einen PC kaufen aber momentan meine ich soll er noch warten, warum AMD nicht mehr rausbringt versteh ich nicht. Klar die wollen auch das Geld abschöpfen aber so langsam können die Mid Range Karten auch mal kommen, genauso FSR3
 
Freut sich hier noch irgendwer auf GPUs launches von NVidia oder AMD?

Highend Luxus-Segment macht Fortschritte. Alles andere ist bestenfalls Stillstand.
 
  • Gefällt mir
Reaktionen: vti und Einfallslos^99
Syrato schrieb:
verstehe dieses beschützen auch nicht. VRAM kostet nicht viel und bei den Preisen die Nvidia aufruft müssten 16GB locker möglich sein.
Es geht einfach nur darum die Leute zum Kauf des größeren Modells mit mehr Speicher zu verleiten, um nichts anderes. Immerhin bringen sie keine 4070 mit 8GB, wenn die Specs denn stimmen sollten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli
Crifty schrieb:
Die 7900 XTX ist in Raytracing sogar mit der 4070 TI gleichschnell laut Computerbase Benchmarks.
Aber nur wenn man die RTX 4070TI künstlich einbremst.

Bei PCGH ist die RX 7900 XT auch ziemlich gleichschnell wie die RTX 4070TI...mit FSR 1.0

Mal ein Beispiel.
Cyberpunk aus dem Raytracing-Index mit FSR 1.0
CP index.png

Mit DLSS 2 kann man höhere/bessere Einstellungen fahren als mit FSR und hat trotzdem mehr FPS
CP DLSS .png

Mit FG wird das Index-Ergebnis von PCGH einfach lächerlich gemacht.
CP DLSS 3.png

Warum soll mich ein Vergleich, mit Einstellungen die ich nie fahren würde, intessieren?

Soweit kommt es noch, dass ich zB ein CP/DyingLight oder Hogwartrs mit dem lahmen/schlechteren FSR spiele, nur weil das von den Redaktionen (zwecks Vergleichbarkeit) so getestet wurde.
 
wtfNow schrieb:
und AMD ist knauserig mit der Raytracing Performance
wobei der aktuelle große 50+ Spiele Vergleich von 7900xt und 4070ti bei Hardware Unboxed da einen interessanten Punkt aufweist, was Unreal Engine 5 bei, soweit mir bekannt, einem der Unreal Engine 5 Vorzeigetitel angeht, einer Engine von der bei RDN3 Release hier einige sehr wenige Stimmen nach einem sehr tiefen tiefen Blick in die Kristallkugel meinten äußern zu müssen, dass AMD da völlig untergehen würde, spätestens wenn dann auch noch Ray Tracing dazu kommt.

Die Epic Quality, Hardware Ray Tracing, TSR Epic, Super Res Quality, Lumen Epic, Nanite Unreal Engine 5.0 "mit immer dem neuesten Scheiß" Fortnite Benches in UHD und WQHD, sagen da wohl aber eher was anderes

Natürlich muss man beachten, dass das jetzt erst mal nur 1 Titel ist, soweit mir bekannt auch noch einer, bei dem die Entwickler wohl laufend Hand an die Engine anlegen, um die Performance zu steigern. Entsprechend kann man vermutlich da erst mal nichts bis bestenfalls wenig auf zukünftige (andere) Spiele (anderer Entwickler) mit der Unreal Engine 5 bzgl. der allgemeinen Performance übertragen.
Auch ändert sich dadurch derzeit erst mal an der grundsätzlichen Aussage bestenfalls wenig, dass man besser zu Nvidia Karten aus dem oberen Preissegment (mit den kleinen "günstigen" Karten wird man bei Ray Tracing derzeit im allgemeinen wohl eher nicht wirklich froh, auch dann nicht, wenn sie von Nvidia kommen) greift, sobald man als Gamer jetzt bereits Ray Tracing Ambitionen bei bereits veröffentlichten Spielen mit den unterschiedlichsten Engines hat. Bei diesen Spielen steht ja auch noch oft genug die Frage im Raum, ob die Hardware für die eher schwache bis durchwachsene Ray Tracing Performance verantwortlich ist, oder ob die Software es einfach an den falschen / unnötigen Stellen übertreibt und die Entwickler einfach noch nicht den Dreh raus haben, wie man Rasterizer Grafik sinnvoll mit Ray Tracing Elementen aufwertet (Siehe Cyberpunk 2077 mit Lichteffekten an Ecken und Enden, wo es gar keine derartigen Lichteffekte geben kann. Siehe Hogwarts Legacy, wo dunkle selbst stumpfe Steinböden in gar nicht mal so hellen Räumen das Licht reflektieren, als seien sie der Spiegel vom James Webb Weltraumteleskop. Oder um mal etwas aus der "Historie" zu verweisen, die ersten Spiele mit Tesselation, die mit absolut lächerlich hohen Tesselation Werten daher kamen, einfach nur damit die Hardwarehersteller sich profilieren konnten - Spieleentwickler lassen sich an der Stelle einfach immer wieder als Crashtestdummy mit völlig übertriebenen Vorgaben missbrauchen, weil es ja Geld bringt. Womöglich gute und natürlich kostenpflichtige Spiele werden im Gegenzug dadurch erst mal unspielbar, wenn man nicht die eine Einhorn-GPU hat, mit der man dann mit Glück und vielen Kniffen und Tricks auf grad mal so 60FPS kommt. Fuck the Techdemo!)
 
  • Gefällt mir
Reaktionen: Rockstar85, flatline1 und simosh
HaRdWar§FreSseR schrieb:
Wie gesagt, ich zocke alles auf Ultra ohne die von dir beschriebenen Probleme.
Du kannst schreiben was Du willst...die finden immer ein Spiel mit Einstellungen um zu labern. Meist eben mit Raytracing und 4K...auch wenn es da AMD auch nicht gebacken bekommt.

Wenn dann noch der VRam Wahn des Testers dazu kommt.....
Far Cry 6... komischerweise ohne FSR...um zu beweisen welcher VRam Krüppel die RTX 3080 ist
RTX 3080 .png

...und die Meute treibt die Sau duchs Dorf

Obwohl sie ja genau wissen, dass mit FSR, das VRam Geplapper hinten runter fällt und die RTX 3080 in UHD mit HD Texturen/Raytracing sogar vor der RX 6800 XT landen würde.
RTX 3080 FSR.png

Zuletzt liegt es an den Testern wie gut, oder wie schlecht man eine Karte aussehen lassen will.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vti und HaRdWar§FreSseR
Baxxter schrieb:
Verschuldet bin ich erst, wenn ich meine Fälligkeiten nicht mehr bedienen kann.
Nein, dann bist du zahlungsunfähig (insolvent).
 
  • Gefällt mir
Reaktionen: McTheRipper, Beatmaster A.C., medsommer und 2 andere
DaHell63 schrieb:
Du kannst schreiben was Du willst...die finden immer ein Spiel mit Einstellungen um zu labern. Meist eben mit Raytracing und 4K...auch wenn es da AMD auch nicht gebacken bekommt.

Es geht nur eben nicht um AMD vs Nvidia sondern darum, dass Nvidia die eigenen Produkte ohne Not kastriert und so einen 900€ (!!!) Speicherkrüppel bringt, der schon heutige Titel nicht mehr maxed out in 4K schafft.
Jede Form von Speicher ist heutzutage billig wie nie und trotzdem hat es in dem Verein Tradition mit VRam zu geizen damit die Konsumenten dann auch schön wieder die Folgegeneration kaufen.

Bei AMD hakt es dafür an anderen Stellschrauben. Die Tatsache, dass es beide Player nicht schaffen mir als Konsument ein Produkt zur Verfügung zu stellen, das ich kaufen würde, war für mich der Grund die Zeit bis RX8XXX/RTX5XXX mit einer PS5 zu überbrücken und zu hoffen, dass beide Hersteller mal auf den Boden der Tatsachen zurück kehren.
 
  • Gefällt mir
Reaktionen: C0rteX, Cempeg, n3cro und 5 andere
Hatsune_Miku schrieb:
Diejenigen die, die 12 GB der 4070/TI schönreden sind auch die gleichen leute die noch vor einigen Jahren meinten das 8GB mehr als ausreichend sind und auch in Zukunft reichen werden.
Hab vorhin mal Borderlands 3 gespielt und da waren immer so zwischen 12-13GB ausgelastet, ob nur reserviert oder wirklich gebraucht steht auf einem anderen Blatt. Fakt ist aber für mich die nächste Karte muss minimum 20GB haben, besser jedoch mehr.

Und warum benötigt Borderlands 3 bei dir 12-13 GB VRAM? Ich vermute mal wegen einer hohen Auflösung (4k?).

Ich kann Borderlands 3 mit 8 GB VRAM problemlos zocken. Ich spiele aber auch in 1080p.

Nur weil man selber nicht mehr in 1080p spielen will und einem deswegen der VRAM nicht mehr ausreicht, sollte man das nicht als Fakt darstellen das niemand mehr mit weniger als 16 GB VRAM neue Spiele in 1080p/1440P problemlos zocken kann für die nächsten 2-5 Jahre.

Und Hogwarts Legacy ist hier auch ein sehr schlechtes Beispiel, denn dieses Spiel ist auch katastrophal unoptimiert. Selbst Leute mit einer 4080/4090 haben starke FPS-Drops in Hogsmead.
Hier hätte der Entwickler mit besserer Optimierung auch für Grakas mit 8 GB VRAM bessere Leistung rausholen können.

Auch gab es immer mal wieder Spiele die der Zeit weit vorraus waren, wie z.b. Crysis, wo man selbst mit der aktuellsten Hardware nicht alles auf maximum stellen konnte.

Ich bin mir jedenfalls sicher das man mit 12 GB VRAM auch die nächsten 2-4 Jahre problemlos in 1080p/1440P neue Spiele zocken kann. Vorrausgesetzt die Spieleentwickler Optimieren auch richtig und hauen nicht ständig so unoptimierten Müll für PC raus wie in letzer Zeit.
 
Almalexia schrieb:
Wer kauft sich heute noch einen Computer?

Xbox X kostet 500€
Xbox S kostet 270€

Wenn eine 4060 schon nicht mehr leistbar sein wird.

In 5 - 10 Jahren hat Nvidia keine Kundschaft mehr.
Die Diskussion hatten wir bereits 1996 mit den "3D Beschleunigern" und 1998 mit den Vodoo SLI Karten, als eine Playstation nur den Teil eines 2000 DM Gaming PCs kostete.

Muss immer wieder schmunzeln über solche Aussagen :D
Ergänzung ()

Syrato schrieb:
Soviel zu, es reicht auch für 4K. Sicher könnte man die Details verringern, aber die Karte kostet 900€, da sins 12GB VRAM einfach pure Abzocke!
Ich widerspreche Dir nicht direkt, aber eine 4070Ti ist für mich keine 4K GPU.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro, Beatmaster A.C., Timmex und eine weitere Person
WhiteRabbit123 schrieb:
Es geht nur eben nicht um AMD vs Nvidia sondern darum, dass Nvidia die eigenen Produkte ohne Not kastriert und so einen 900€ (!!!) Speicherkrüppel bringt, der schon heutige Titel nicht mehr maxed out in 4K schafft.
Für allways 4K maxed out reicht die Leistung einer RTX 4070Ti bei weitem nicht....da könnte sie auch 50GB VRam haben.
Spielt ihr von euren Karten mit den selben Vorgaben...oder ist da max gaaanz was anderes?

Trotzdem immer wieder lustig wie wann und mit welchen Einstellungen man spielen soll um ein Szenario zu schaffen damit man eine andere Karte haten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper, TheAnswer42, HaRdWar§FreSseR und 3 andere
Wan900 schrieb:
Ich verstehte die Aufregung immer nicht ganz.

Natürlich ist diese Preisexplosion nicht gut zu heißen, aber keiner wird ja gezwungen zu kaufen.

(Die letzten Tage habe ich Heizöl bestellt für 1 Euro; Wenn ich sehe, dass an der Tanke der Diesel immer noch 1,80 kosstet ---> sowas ärgert mich)

Wenn ich mich im Bekanntenkreis so umsehe kaufen genügend Leute neue 40er Karten.
Das sind alles technisch versierte, erwachsene Personen,
die genau wissen, was ihnen ihr Hobby wert ist bzw. zu welchen Hersteller sie greifen wollen.

Und im Ernst:
Um auf 60FPS in 1440p spielen zu können braucht es keine 1000 Euro Grafikkarte.
Ich bin da bei Dir. Mich ärgern die Preise zwar auch, aber niemand muss eine 1500 € Grafikkarte kaufen, um gut spielen zu können.
Ich bin jetzt von 4K@60 auf 1440@165 Gsync „zurück“ und was soll ich sagen? Ich sehe nur einen geringen Unterschied, kann künftig aber locker eine Etage tiefer ins Regal greifen. Das entspannt mich gerade doch sehr in Hinblick auf die nächste Generation Grafikkarten. 4K ist eben Luxus, was sich Nvidia entsprechend vergolden lässt. Früher war man gezwungen eine neue Karte zu kaufen, ansonsten gab es ne Diashow. Heute haben wir ganz entspannt die Wahl zwischen 3 Auflösungen bzw. können an den Reglern schrauben. Full HD würde Ich mir zwar auch nicht mehr antun, aber Whqd schaut immer noch gut aus. Es ist also für jeden etwas dabei. Ich finde 4K im Vergleich zu 1440 jetzt auch nicht so innovativ, dass ich von einem Must have sprechen würde. Mein nächstes Upgrade wird irgendwann ein 4K 32 Zoll OLED Monitor mit HDR und Gsync für 500,00 €. Da rechne ich aber erst in 5 Jahren mit.
 
  • Gefällt mir
Reaktionen: Enigma, Zwirbelkatz, floTTes und 6 andere
Zurück
Oben