News Reaktion auf RX 7700 XT?: RTX 4060 Ti 16 GB unter 500 Euro, auch RTX 4070 günstiger

Hallo,

solang die nvidia Karten den neuen Stecker benutzen, kaufe ich mir davon keine. Hab jetzt so oft gelesen das es damit Probleme gibt.

Wie sieht es denn mit der 4060ti aus ? Hat die auch den neuen Anschluss ?

Da kann ich gut drauf verzichten. Meine 3070ti reicht zudem noch locker aus. Einzig der Stromverbrauch stört mich nun doch etwas.

LG
 
Ich sehe die aktuelle Situation genau wie in diesem Video:

Lässt sich für mich genauso auf 7700XT vs 4060 Ti übertragen.

Ist halt echt nicht mehr wirklich in unserem Sinne das Ganze. Ich denke auch, dass ich in Zukunft nur noch gebraucht kaufen werde.
 
  • Gefällt mir
Reaktionen: Gene Jackman und Coeckchen
MarcoHatFragen schrieb:
Wann testet ihr den endlich die Karte,
wenn Sie ein Testexemplar haben?
Artikel wird dann voraussichtlich mit Ablauf NDA veröffentlicht...? ;)
 
Allerdings sieht selbst AMD das Duell zwischen RTX 4070 und RX 7800 XT als eng an.
Das will ich mal nicht hoffen, was ihr von CB hier schreibt. Denn dann wäre die RX7800 XT nicht schneller als die RX6800 XT. Denn diese ist schon fast so schnell wie die RTX4070. Dann hätte AMD gut dran getan, den Navi 21 eine Überarbeitung + Shrink von N7 auf N5 zu machen als was die nun gezaubert haben.
 
Ich sehe schon kommen, 4030 für 240 € statt wie bisher für 75. @syfsyn schrieb schon richtig, RX 6800 ab 459 €.
3x 16, halber Terabyte Speicherbandbreite, 16 GB... und mit etwas Reduzierung beim Takt, bekommt man die sicher auf die Stufe der GTX 1080, mit den 180 W.

Ich hatte mal GTX 780 mit 3 Gb Speicher. Eine verreckt, die andere hier für 40 € gekauft. Alles wassergekühlt und es war immer der defekte Speicher. Mit dem neuen Monitor und Auflösung von 1440x2560, war der Speicher immer voll. Danach GTX 1080 mit 8 Gb. Bis heute, gab es kein einziges Spiel, dass den Speicher von 8 Gb , ausgereizt hat.

Aber in der Zukunft... die Sprüche gibt es seit dem es die 4-Kerner von Intel zur Verfügung stehen. Gibt es heute zumindest 1 Spiel, wo 8 Gb VRam nicht ausreichen? Gibt es heute zumindest 1 Spiel, dass die 8 Kerne nutzt. Ich kenne keins. Seit 2008 sind 15 Jahre vergangen. Und?

Ich spiele in nativer Auflösung 1440x2560. DLSS unterstützt die Karte gar nicht. Habe sogar nur 16 Gb Ram. Das einzige Spiel, was die 16 Gb Ram gesprengt hat, war Anno 1800. So ziemlich am Ende, mit Touristen und den Hochhäusern. Seht euch den Screen an, ist Assasin Creed Odyssey:
Sind 5 Gb. Das Bild musste in der Grösse auf 85 % reduziert werden, damit es hier akzeptiert wird. Seht ihr, die Spannung bei der CPU 1,168 V und 21 Watt? Maximal ausgelastet, verbraucht die 66 W. Also was, nur 3 Kerne und 5 Gb Vram?!

Die 8 Gb Vram sind nicht das Problem, sondern Wunschdenken. Das Problem ist der Preis. Das heutige 4060 TI, ist dasselbe, wie früher GTX 260.216 Shader. Die hatte ich auch mit einem 22" Monitor, etwa 6 Jahre. Die gab es jedoch ab 250 €. Hat sich mein Lohn verdoppelt? Eine von Asus GTX 1080, gab es 2018 ab 489 €. Das ist eine High-End Karte gewesen. Jetzt Einsteigerkarte auf unter 500 € Marke gefallen, WoW!
 

Anhänge

  • ACOdyssey_2023_09_02_08_19_24_304.jpg
    ACOdyssey_2023_09_02_08_19_24_304.jpg
    1,4 MB · Aufrufe: 222
Odyssey ist wie alt?

Bei "The Last Of Us" hatte ich bei Full HD mit maximalen Grafikeinstellungen oft 8,3-8,4Gb VRAM voll.
Bei Dead Space 2023 bin ich auch über 8GB gekommen.

8GB sind 2023 zu wenig.
DLSS, FG, FSR, FMF wird nicht flächendeckend angeboten, also zieht das Argument nicht, zumal ich bei Full HD eh kein Upscaling einsetze.
 
  • Gefällt mir
Reaktionen: SweetOhm und ReVan1199
Voldemordt schrieb:
Wie sieht es denn mit der 4060ti aus ? Hat die auch den neuen Anschluss ?
Ich hatte für 1 Tag die 4060ti von KFA2 , die hatte den Normalen Stecker,

Habe die Grafikkarte abgegeben da die Leistung bei meinen immerhin ~ 10 Jahre alten Spielen ein Witz für 400€ war.

Übrigens sollte man auch aufpassen wenn man schaut wie viel vRam sich ein Spiel Gönnt, es gibt da nämlich 2 werte die man sich anzeigen lassen Kann.
1x den wert der sich das Spiel Reserviert und 1x der Tatsächlich Benutz wird.
 
  • Gefällt mir
Reaktionen: SweetOhm und Gene Jackman
Die 4070 gabs vor n paar Tagen schon für 550€. Denke mal da wird der Preis auch hinfallen in den nächsten Wochen und Monaten.
 
  • Gefällt mir
Reaktionen: Simonsworld
Cowpower schrieb:
Ich finde den Fokus auf Nahmen echt nicht wichtig. Wie ein Produkt heißt ist für null ausschlaggebend. Wichtig ist Preis/Leistung Stromverbrauch etc. . Auch da war/ist die 4060 ti 16 GB auch kein Paradebeispiel.
Sehe das ähnlich.Es geht ja um die Leistung die man persönlich braucht und nicht um den GPU-Namen in der Signatur. 😉
Hab mir selbst im Frühjahr noch eine 6700 10GB um 295€ im Angebot geholt.

Da schrecken mich~ 500€ für die neue Mittklasse einfaxh echt. Ob sie die 200€ mehr wert ist?
 
  • Gefällt mir
Reaktionen: mastermc51, SweetOhm und Cowpower
Kann ganz beruhigt bleiben und einfach diese Graka-Generationen überspringen. Für mich akzeptabler Stromverbrauch finde ich nur bei der 4060, erst recht wenn man undervolten würde. Dann bleibt aber immer noch eine vom Speicherinterface beschnittene Karte. Nein Danke.
Der neue AMD Gegenspieler wäre zwar vom Speicher her interessant, aber diese gesamte 7000er Generation von AMD disqualifiziert sich 2023 einfach als aus der Zeit gefallene Stromschlucker (hoher idle-Verbrauch). Also wird gewartet.
 
nomika schrieb:
wir werden demnächst alle nicht losrennen uns eine 4060 TI 16 GB zu kaufen. Egal wie tief der Preis fällt.
Oh doch!
Für 349 Euro wäre die 4060 Ti 16GB DIE Empfehlung schlechthin im unteren Preisbereich.
In allen Belangen besser als die 6700 XT.
 
trastero schrieb:
Leicht OT, aber kann mir vielleicht jemand einen brauchbaren Grafikkarten-Tipp für den MSFS geben für VR mit HP Reverb 2. Aktuell fliegt es sich zwar noch immer ganz gut in mittleren Einstellungen, aber die Konfiguration (s.u.) ist jetzt deutlich über zwei Jahre alt. Und wo sich der Markt ja anscheinend etwas entspannt...
Danke schon mal!

Ryzen 7 5800, 32 GB RAM, 2070S mit 8 GB, Motherboard X570-P.
Am besten wäre es, dafür einen eigenen thread zu eröffnen, ansonsten ist eben die Frage, wie dein Budget ausfällt. Mit einer 4090 wirst du natürlich das Beste Spielerlebnis bzw. Am meisten FPS bekommen, aber die ist eben auch ziemlich teuer.
-Für 330€ würde ich für msfs die 6700xt nehmen
-Budget von 550-600€ würde ich zur 4070 greifen oder noch kurz auf die 7800xt warten
-für ~800€ ist die 7900xt eine Empfehlung wert, für round about 1000€ dann eben die 7900xtx oder rtx 4080.
Kannst ja schauen, wie viel du ausgeben magst und dann eben die entsprechende Karte wählen.
 
  • Gefällt mir
Reaktionen: SweetOhm und BGnom
Bin gespannt wie die 7700XT gegen die 6800 (ohne xt) schlägt. Ich wollt auf 16GB setzen und war damals der festen Meinung, beide Karten sollten ähnlich schnell sein, Ausnahme RT.
Mein Beweggrund war aber eher eine leisere Karte zu haben und um 430 zum damaligen Zeitpunkt fand ich gut.

Tuetensuppe schrieb:
Oh doch!
Für 349 Euro wäre die 4060 Ti 16GB DIE Empfehlung schlechthin im unteren Preisbereich.
In allen Belangen besser als die 6700 XT.
Du meinst, wenn die Karten gleich teuer sind, ist die 4060ti die bessere Karte, wegen 4gb und 7% mehr Performance. RT natürlich auch.
Der Punkt ist aber eben der Preis, aktuell ist die Karte mit 500 euro 30% teurer.
Die 6700xt wird eigentlich recht "teuer" verkauft, für dass es noch rdna2 und 7nm ist. Aber die Konkurrenz lässt es nun zu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Cerebral_Amoebe schrieb:
Odyssey ist wie alt?

Bei "The Last Of Us" hatte ich bei Full HD mit maximalen Grafikeinstellungen oft 8,3-8,4Gb VRAM voll.
Bei Dead Space 2023 bin ich auch über 8GB gekommen.

8GB sind 2023 zu wenig.
DLSS, FG, FSR, FMF wird nicht flächendeckend angeboten, also zieht das Argument nicht, zumal ich bei Full HD eh kein Upscaling einsetze.
Es sind schlechte "PC" Ports, wie "Hogwarts Legacy" und "The Last Of Us". Am Ende aber, ja, will man die spielen, dann wird es gebraucht. Meiner Einschätzung nach, war es auch nicht bei "Elden Ring" kritisch. Da auch, offene Welt.
Fuzetea schrieb:
Ich hatte für 1 Tag die 4060ti von KFA2 , die hatte den Normalen Stecker,

Habe die Grafikkarte abgegeben da die Leistung bei meinen immerhin ~ 10 Jahre alten Spielen ein Witz für 400€ war.

Übrigens sollte man auch aufpassen wenn man schaut wie viel vRam sich ein Spiel Gönnt, es gibt da nämlich 2 werte die man sich anzeigen lassen Kann.
1x den wert der sich das Spiel Reserviert und 1x der Tatsächlich Benutz wird.
Borderlands 3 war auch so ein Spiel, wo man aufpassen musste. Doch auch da ist mir nicht bekannt, dass die zumindest 6 Gb überschritten worden sind.
Ben_computer_Ba schrieb:
Am besten wäre es, dafür einen eigenen thread zu eröffnen, ansonsten ist eben die Frage, wie dein Budget ausfällt. Mit einer 4090 wirst du natürlich das Beste Spielerlebnis bzw. Am meisten FPS bekommen, aber die ist eben auch ziemlich teuer.
-Für 330€ würde ich für msfs die 6700xt nehmen
-Budget von 550-600€ würde ich zur 4070 greifen oder noch kurz auf die 7800xt warten
-für ~800€ ist die 7900xt eine Empfehlung wert, für round about 1000€ dann eben die 7900xtx oder rtx 4080.
Kannst ja schauen, wie viel du ausgeben magst und dann eben die entsprechende Karte wählen.

Habe immer noch nicht auf 5700x aufgerüstet. Warum? Es fehlt die Notwendigkeit.

Die Kosten für die Wohnung wurden erhöht. Die Kosten fürs Strom sind um 80% gewachsen oder explodiert. Die Lebensmittel von 40 bis zu 300%. Dafür sei der Regierung "gedankt". Selbst 300 €, was nach den heutigen Massstäben nichts ist, ist schwierig zusammenzutragen. Und hier spricht man von 500 €, als ob es Taschengeld wäre. Es war noch nicht einmal, Mitte Neunziger der Fall. Nun gut, persönliche Probleme, sollen persönlich bleiben.

Gibt es einen Test, der nachweislich, bestätigt, dass 288 Gigabyte pro Sekunde heute nicht ausreichen, bei 1440x2560? Meine läuft sogar auf 346.
 

Anhänge

  • bandicam 2023-09-02 11-08-03-934.jpg
    bandicam 2023-09-02 11-08-03-934.jpg
    88,7 KB · Aufrufe: 167
  • Gefällt mir
Reaktionen: hadtoreg1st3r und Tekwin
500 €, wow, ein echter Schnapper, kommt wieder, wenn das Ding bei 350 € liegt, denn dort gehört die Karte hin.
 
  • Gefällt mir
Reaktionen: hadtoreg1st3r, Icke-ffm und Gene Jackman
gidra schrieb:
Mit dem neuen Monitor und Auflösung von 1440x2560, war der Speicher immer voll. Danach GTX 1080 mit 8 Gb. Bis heute, gab es kein einziges Spiel, dass den Speicher von 8 Gb , ausgereizt hat.

Aber in der Zukunft... die Sprüche gibt es seit dem es die 4-Kerner von Intel zur Verfügung stehen. Gibt es heute zumindest 1 Spiel, wo 8 Gb VRam nicht ausreichen? Gibt es heute zumindest 1 Spiel, dass die 8 Kerne nutzt. Ich kenne keins. Seit 2008 sind 15 Jahre vergangen. Und?

3440 x 1440 hier und ich habe meine 3070 mit 8GB vor fast zwei Jahren gegen eine vermeintliche langsamere AMD getauscht, weil die nvidia karte hart ins vram Limit lief und die gpu dann nicht richtig ausgelastet war. Die langsamere AMD Karte ohne vram Limit hat dann gleich mal 15% mehr frames gebracht.

Gibt mittlerweile sehr viele games bei denen dies der Fall ist und auch in der vergangenheit etliche Male bei nvidia passiert: gtx 580 hat der wenige vram das Genick gebrochen nach ein paar Jahren.

Jetzt mit den Preisen noch sinnloser das leute wirklich nvidia kaufen...xx50er karte und wir kriegen eine jubelmeldung, dass sich der preis nur noch bei der UVP einer gtx 580 befindet :D
 
  • Gefällt mir
Reaktionen: GERmaximus
MelbarKasom schrieb:
Der neue AMD Gegenspieler wäre zwar vom Speicher her interessant, aber diese gesamte 7000er Generation von AMD disqualifiziert sich 2023 einfach als aus der Zeit gefallene Stromschlucker (hoher idle-Verbrauch). Also wird gewartet.
Die Preise sind aber schon wieder gesunken wenn du einen Vertrag für 2024 abschließt zahlst soweit ich das überblicke wieder 20 Cent weniger wie für 2023 hab noch 55 Cent/ KWh mit neuem Vertrag für dieses Jahre bezahlt und würde bei nem neuen Vertrag 30-36 Cent / KWh zahlen (Preisgarantie 12 Monate).

Da 2023 bald zu ende ist, weiß ich nicht ob 2023 so relevant ist was Strompreis an geht außer es geht dir um irgend ne Ideologie. Laut dem check24 spar ich fast 30 euro und zahl nur noch 46 Euro statt dann eben 75 Euro jetzt, Karten schneller neu kaufen, selbst wenn man die alte als 2. Karte kauft oder jemand anders gebraucht schneller aufrüstet irgendwo gammelt dann eine zusätzliche in nem 2. oder 3. pc irgendwann am Ende der Verwertungskette rum oder irgend jemand stellt eine in nen Schrank oder in Keller.

Also auch aus grüner Ideologie darf man den Energieverbrauch von mehr verkauften Grafikkarten weil man die geplante RAM Obsoleszenz akzeptiert, nicht auf gehen. Klar wenn sagst kaufst beide nicht ist das kein starkes Argument.

Laut TDP haben die 7900 xt 300W real verbrauchen sie 306W laut Test, die 4070 ti haben ne TDP von 285W real 290W, also find die 4070 hat ziemlich genau 200W TDP und Verbrauch, also kann man die TDP schon grob nehmen. Im 144 FPS Limit ist die 4070 ti gerade mal 7-8% effizienter wie die 7900 xt.
Und die Vergleiche Hinken, weil da wohl nur Spiele oder Settings zum Einsatz kamen wo keine Abstürze passierten oder Frames einbrachen oder die nicht gezählt wurden oder Matchtexturen ja auch nicht irgendwie in die Effizienz rein gerechnet werden, wenn die Karte weniger Arbeit Leistet wegen Matsch ist ein Effizienzvergleich dumm. Das ist wie wenn ich sage wir beide haben 7h gearbeitet und beide geschwitzt aber ich hab hochwertige Arbeit geleistet und du hast gepfuscht... aber wir haben beide z.B. nen Boden verlegt, nominal haben wir die gleiche Effizienz 1 Boden verlegt in 7h aber beim einen Will der Kunde vielleicht ne Nachbesserung oder Geld zurück oder irgendwas.

Aber geschenkt, die 7800 xt wird vor der 4070 liegen, aber das mal ignoriert hat die 7800xt ne TDP von 263W laut was wir wissen ist sie aber 10% schneller im Schnitt, für nen Vergleich können wir die also noch ab ziehen macht 26W weniger also runden wir auf 240W auf, heißt auf gleiche FPS umgerechnet sind wir bei 40W unterschied und ja du könntest beide Undervolten und verm. Würde sich der Unterschied in % nicht ändern sehr wohl aber der Absolute unterschied wenn beide um 20% reduzierst im Verbrauch sinkt auch noch der Abstand, aber rechnen wir mit den 40W.

Bei 35 Cent pro KwH und 5h / Tag im Schnitt sind wir bei 25 Euro Stromkosten pro Jahr. Ich denke das ist verkraftbar, das ist jetzt Spekulation da Leute teils einfach stur nach Marke kaufen könnte der Wiederverkaufspreis bei der 4070 nicht stärker fallen auch wenn die Karte bei neueren Spielen mehr und mehr den Anschluss verlieren wird wie die 7800xt, aber alleine das du schneller Aufrüsten würdest im Schnitt, wird einen Aufpreis auf die nächste Karte schneller verlangen und dadurch hast die 25 Euro fuer 1 Jahr vermutlich schon wieder drin zumal sie ja Stand diese News sie immer noch 40 Euro billiger ist das reicht ja auch schon fast für 2 Jahre Stromverbrauch, dieses Starfield noch nicht mal eingerechnet.

Sorry bisschen langatmig aber musste die Preise und Verbraeuche und alles Recherchieren.
 
  • Gefällt mir
Reaktionen: Gene Jackman
snaapsnaap schrieb:
Wären die 3070 mit 16GB gekommen, und die 3080 mit 20GB, wären das noch heute "zukunftssichere" Karten, gleiches Schicksal werden beide 4070er Karten erfahren mit den 12GB.

Hat man mit Frame Generation dann aber schnell beendet.
Siehe 3090 vs 4070.
man empfiehlt die 4070 trotz kleineren Speicher und weniger Leistung aufgrund eines Features für eine Hand voll spiele.
 
gidra schrieb:
Die Kosten für die Wohnung wurden erhöht. Die Kosten fürs Strom sind um 80% gewachsen oder explodiert. Die Lebensmittel von 40 bis zu 300%. Dafür sei der Regierung "gedankt". Selbst 300 €, was nach den heutigen Massstäben nichts ist, ist schwierig zusammenzutragen.
Sind inzwischen (2 Personen Haushalt) jährlich bei Stromkosten von fast 2500€, ist nicht mehr normal. Ich weiß wir sind nicht sparsam usw. Aber die Kosten für Strom sind hier in Mainz echt nicht niedrig. Aber wurde von den Experten ja so gewählt;) Bei Lebensmitteln konnte ich bis jetzt eigentlich zwei Dinge feststellen: Preis X2 und inhalt -30%, was will man machen. Wir müssen zwar nicht aufs Geld schauen, aber was man teilweise auch so im Freundeskreis mitbekommt ist wirklich übel.
gidra schrieb:
Gibt es einen Test, der nachweislich, bestätigt, dass 288 Gigabyte pro Sekunde heute nicht ausreichen, bei 1440x2560? Meine läuft sogar auf 346.
Naja, was will man da nachweisen? Es ist eben Fakt, dass die 4060 und vergleichbare Karten in höheren Auflösung häufig mehr Leistung verlieren, als Karten mit mehr Durchsatz. Sagen wir mal beispielweise die 3080 ti ist in full HD 40% schneller als die 4060, in wqhd ist sie 48% schneller und in uhd sogar 53%, man verliert also Leistung aufgrund des geringen Durchsatzes. Du verstehst denke ich, was ich meine. Wie groß der Unterschied tatsächlich ist, sieht man dann ja in den jeweiligen Benchmarks.
 
Zurück
Oben