Test Nvidia GeForce RTX 4060 Ti im Test: 8 GB sind in dieser Klasse für 439 Euro nicht mehr genug

TriceO schrieb:
Gut, halbiert war falsch.
Aber das ist doch trotzdem ganz ordentlich:

Anhang anzeigen 1360241

Bei FPS-Limit 57% mehr Stromverbrauch seitens der 3060Ti
195W gegen 151W sind 77,5% was ca 1/4 ist und das ist die richtige Richtung aber keine 128Bit 8GB Vram und 430€.
Schöne Sachen kann man sich immer raussuchen, aber wenn mein Spiel ruckelt und ich für um 450€ Karte in FHD Einstellungen runter regeln muss, da ist mir der Verbrauch auch egal.
 
  • Gefällt mir
Reaktionen: JJJT, Reaper75, xXBobbyXx und 2 andere
domian schrieb:
nicht immer alles glauben, was über die VRAM Größe gemeckert wird...
Am Besten hört dieser blödsinnige "aber in diesem Video" Unsinn auf und wir diskutieren nicht mehr über die Meinung von Clickbait Youtubern. Schade, dass immer mehr Beiträge im Kommentarbereich mit YT Links vollgemüllt werden.

Wenn man bei NVIDIA weiß, dass bessere Effizienz und Technologie (DLSS, natürlich auch FSR) künftig größer als reiner Spec-Race sind - wer könnte das widerlegen? AMD jedenfalls nicht, sind die also auch zu blöd/gierig/hochmütig/irgendwas?

So wie vor vielen Jahren der Takt bei CPUs kaufentscheidend war und heute nur noch Enthusiasten drüber reden (früher war der Takt oder Features wie MMX sogar Teil des Produktnamens!), sehe ich es für VRAM ähnlich kommen.

Meine Meinung: 8GB für die Karte in dem Preisbereich (blabla früher) sind absolut in Ordnung, Teil der Wahrheit ist eben auch DLSS3 und FG. "Reicht in einigen Spielen nicht mehr" und Witcher 3 zeigt genau das Gegenteil - keine weiteren Fragen.

Vielleicht sind eher die Entwickler/Studios das Problem? Ach wir testen hochoptimierte Spiele, um Hardware und Specs zu validieren? LOL!

(Randnotiz: mein MSI Stealth 14 Studio mit 90W 4050 Laptop GPU hat in FHD mit keinem Spiel irgendwelche "Probleme", keine Ruckelorgien, keine Abstürze, kein "plötzlich Festplatte leer" weil 6GB VRAM). Schaut euch mal das neue Zelda auf der Switch an - und DIE ist Gammelhardware, aber wen interessiert es? Schadet es den Spielen? Kurz: nö. Nintendo optimiert eben alles aus dem Teil raus, seit über 4 Jahren.

Und wir PC-Spieler baden im Tränenmeer, weil
  • es erst keine GPUs gibt wegen Mining,
  • dann zu teuer sind,
  • wieder verfügbar werden, billiger sind aber immer noch genauso viel VRAM haben
  • der aber nun aber nicht mehr reicht

TL;DR: Technologie (DLSS, FG, FSR, XeSS etc) und Effizienz > Specs und The Witcher 3 zeigt das eindrucksvoll.
 
  • Gefällt mir
Reaktionen: thuering und aLanaMiau
Rickmer schrieb:
Die Verbesserungen zwischen Generationen werden durch die Reihe nach unten hin schlechter...

3090 -> 4090: +73%
3080 -> 4080: +49%
3070 -> 4070: +27%
3060Ti -> 4060Ti: +8%
Durchweg kalkuliert. Nvidia will Upselling zu margenreicheren Produktserien erzwingen.
Das ist der offizielle Mittelfinger an alle Konsumenten des Gamingsektors.
 
  • Gefällt mir
Reaktionen: thom_cat, xXBobbyXx, MoinWoll und eine weitere Person
Jenergy schrieb:
Die 6800 XT basiert auf dem Navi 21, dem 519 mm² grossen Chip. Das ist keine Midrange-GPU. Die RTX 4070 ist dermassen überteuert, dass sie sich mit den Highend-Karten der vorherigen Generation messen muss.
naja bei 600€ ist die 4070 nicht "dermassen" überteuert wenn sie das wäre dann wären auch die 6800xt bis 6950xt überteuert

die 4070 ist noch die einzige der neuen Grafikkarten von nivida und amd die halbwegs Sinn macht
als ehemaliger Besitzer einer 6900 würde ich ohne lang zu überlegen die 4070 vorziehen

mscn schrieb:
Meine Meinung: 8GB für die Karte in dem Preisbereich (blabla früher) sind absolut in Ordnung, Teil der Wahrheit ist eben auch DLSS3 und FG. "Reicht in einigen Spielen nicht mehr" und Witcher 3 zeigt genau das Gegenteil - keine weiteren Fragen.

Bei 8GB Vram willst du auch noch Frame Generation anmachen?:p
Mal abgesehen davon ist die Karte eh zu lahm für Frame Generation, ab 40-50FPS bringt das was vorher kannst Frame Generation vergessen weil es beschissen aussieht aus und das schafft das lahme ding teilweise nicht mal in Full HD . Übrigens wird Frame Generation von fast keinem Spiel unterstützt
 
Zuletzt bearbeitet:
Wenn ich mir die Signaturen hier so durchlese, wundert es mich nicht. Ihr gebt dem Unternehmen doch ein klares Zeichen „Ich habe die Kohle und bin bereit diesen Preis zu bedienen.“
Die 4060 ist ein nach unten skaliertes Problem. Eine GPU für 2000€ - klar, kann man machen. Auch für 1600€ (4080) oder für 1100 (XTX). Es wird ja anscheinend genug gekauft, sonst würden die Preise noch mehr fallen.

Selbiges bei CPUs - wie oft ich lesen durfte, dass jetzt AM4 zu kaufen sinnlos wäre. Dass man aber für ca. 450€ 16 - 32GB RAM, B550 MoBo und 5800X3D gebraucht bekommt und der 7800X3D quasi keinen Mehrwert unter 4090 / bei 4K bietet, dafür signifikant mehr kostet, wird gern unter den Teppich gekehrt 🙂
 
  • Gefällt mir
Reaktionen: xXBobbyXx, konkretor und Jan
flappes schrieb:
Wäre alles vollkommen OK, für 299 Euro.
oder sie würden Sie rtx 450 nennen bei den Einschränkungen ,also ich finde sie ehrlich gesagt noch für 299 ,- zu teuer.
Müll bleibt Müll auch wenn man Ihn verramscht.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
cyberpirate schrieb:
Nein das merken Sie nicht weil es nicht so ist. Gekauft wird trotzdem.
Außerdem sieht sich Nvidia doch offiziell nicht mehr als Hersteller von Gaming Grafikkarten, sondern als Technologie Anbieter der sich auf Computing / KI Lösungen konzentriert. Alles was für den Gamer von Interesse ist, ist für Nvidia nur noch ein Beifang, mit dem man zwar auch Geld verdienen kann, aber immer mehr an Bedeutung verliert

Da die Featureset der Gamer und Pro Karten identisch sind, muss Nvidia die Preise für die Gamer Produkte anziehen, weil sich sonst kaum wer eine A6000 für 5000€ kauft, wenn er mit zwei bis höchstens drei 4090 das gleiche erreichen kann, die bei realistischer Gamingkarten Bepreisung in Summe nur die hälfte bis zwei drittel einer A6000 kosten würden
 
  • Gefällt mir
Reaktionen: Simonsworld und GERmaximus
mibbio schrieb:
195W gegen 151W sind 77,5% was ca 1/4 ist
151W für die 4060Ti und 210W für die 3060Ti (195W ist die 4070) sind ja für maximum FPS.
Wenn beide im FPS-Limit sind (Tabelle darunter), dann beträgt die Differenz 57%.

Maxysch schrieb:
aber wenn mein Spiel ruckelt und ich für um 450€ Karte in FHD Einstellungen runter regeln muss, da ist mir der Verbrauch auch egal.
Da bin ich natürlich bei dir.
 
Die Karte ist nur 7 Prozent schneller als der Vorgänger. Der Generationen-Sprung ist winzig
 
  • Gefällt mir
Reaktionen: xXBobbyXx
süße karte, aber völlig unbrauchbar
 
  • Gefällt mir
Reaktionen: xXBobbyXx
flappes schrieb:
Wäre alles vollkommen OK, für 299 Euro.
Die 4060Ti ist 4 Jahre alte Performance einer etwas schnellere 2080 Super , nur mit DLSS3 features.

Das ist GPU Power aus 2019.

Auch 300 Euro sind hier nicht “okay”,
 
  • Gefällt mir
Reaktionen: Fernando Vidal, xXBobbyXx, SVΞN und 3 andere
GERmaximus schrieb:
Es muss Nvidia sein, ist der vram noch so klein.
Die RX 7600 hat auch nur 8GB, aber naja. Lagerhetze ist hier ja "in".
 
  • Gefällt mir
Reaktionen: thuering und mscn
Viel Arbeit und Daten für eine solch uninteressante Karte am Ende des Tages. Wird mit 8GB hoffentlich ein Ladenhüter. Wie beide Lager aktuell Karten erscheinen lassen, die ob ihrer Buffersize schon mehr oder weniger obsolet sind, kann man nur als Kundenverarsche bezeichnen. Und es ist nicht das Selbe wenn man jetzt schon eine 8GB oder weniger Karte hat, seine Gamesettings kennt und damit super klar kommt, sondern es wird dir ein Produkt angeboten, was nicht auf der technischen Höhe ist und das nur um Geld zu sparen und dann ab der nächsten Gen mit 10GB oder 12GB (oder immer noch 8?:rolleyes:) in dem Bereich wieder Kunden zu ködern. Da fällt einem langsam nichts mehr ein zu außer pfui!
 
TriceO schrieb:
151W für die 4060Ti und 210W für die 3060Ti (195W ist die 4070) sind ja für maximum FPS.
Wenn beide im FPS-Limit sind (Tabelle darunter), dann beträgt die Differenz 57%.
UPS da war ich blind dann sind wir bei 73%, aber immer noch 1/4 :schluck:
 
Jup eine 450€ GPU bei der man schon in full HD Einstellungen tweaken muss grau das hab ich von der 4060 erwartet.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, rumpel01 und adrianbauerino
@TriceO irgendwie hast du das was falsches zitiert. Das was du da von mir zitiert hast, habe ich gar nicht geschrieben.
 
bad_sign schrieb:
Sind wir im Jahr 2010? 3.0 ist seit über 10 Jahren Standard.
Als Akademischer Test OK aber sonst vollkommen irrelevant
Wir reden von idR. >800€ Grafikkarten, jede Gummel 50€ CPU leistet mehr als damalige CPUs und hat mind. PCIe 4
es ging um deine Aussage pciE Version egal, Hauptsache genug RAM. Das konnte dieser Test Wiederlegen. Aus deiner Aussage war mit keinem Wort etwas von nur PciE3/4 zulesen. Es ist auch egal ob die Karte 2000€ oder 200€ kostet. Die Aussage betraf einzig und alleine auf dein Kommentar
bad_sign schrieb:
die Regel ist simpel. PCIe Version ist egal, solange die GPU genug VRAM hat
 
MrHeisenberg schrieb:
Die RX 7600 hat auch nur 8GB, aber naja. Lagerhetze ist hier ja "in".
Ohne das jetzt befeuern zu wollen, aber die Konkurrenz zur 4060Ti ist nicht die 7600, sondern die 6700XT/7700XT und die haben zumindest 12GB bei der 6700XT und was immer dann die 7700XT hat.

Allerdings kommt eventuell heraus, dass die 3060 mit 12GB besser als die 7600 mit 8GB ist.
Ergänzung ()

mibbio schrieb:
irgendwie hast du das was falsches zitiert.
Ja Sorry, da kam was durcheinander.
 
  • Gefällt mir
Reaktionen: vti, Wilfriede, C0rteX und 2 andere
MrHeisenberg schrieb:
Die RX 7600 hat auch nur 8GB, aber naja. Lagerhetze ist hier ja "in".
Die 7600 ist auch die falsche Karte, es ist die 7700xt mit 12gb.


Was war letztes Mal als 8 vs 12 oder 10 vs 16 angetreten sind?
 
  • Gefällt mir
Reaktionen: Wilfriede
Zurück
Oben