Test Nvidia GeForce RTX 4060 Ti im Test: 8 GB sind in dieser Klasse für 439 Euro nicht mehr genug

orioon schrieb:
Wo kommt diese Behauptung her?
8auer hat die Lanes halbiert und es waren 5-10 % Unterschied.
Das spricht nicht dafür, dass wir uns in einem krassen Bandbreitenlimit bewegen.

Natürlich gilt: Sind wir im Memory Limit, so werden die Probleme durch eine geringe Bandbreie noch weiter verschärft.
Das einzige was bei der 4060ti High-End ist, ist die Kühllösung.

Problematischer sehe ich eher, dass der Chip weniger Cache als im Notebook hat.

Wenn man bedenkt wen Scamvidia als Zielgruppe für die Karte sieht, dann ist es schon ein Problem. Besitzer von 2060super und älteren Karten werden zu nem großen Anteil noch Mainboards mit nur PCIe 3.0 haben. Den geht dann je nach Anwendung eben genau jene 5-10% an Leistung verloren, wobei zum aktuellen Punkt ja noch nicht klar ist wie viel Leistung gegenüber ner 3060ti im Worst Case (also VRAM läuft über und die Karte muss in den VRAM auslagern, was mit der reduzierten Bandbreite nochmal deutlich mehr Leistung kosten sollte) verliert. Und genau dann lohnt sich die 4060ti halt überhaupt nicht mehr.

Ich hoffe von Hardware Unboxed kommt da evtl. noch n Test um das aufzuklären.
 
  • Gefällt mir
Reaktionen: coral81, Mcr-King und simosh
Geforce4070 schrieb:
findest du? das war ein polaris chip size at double the price. amd hat nichts anderes gemacht was nvidia nun mit der 4060ti gemacht hat. aber das wurde damals einfach akzeptiert. finde ich schon komisch.
Das ist 2070 Leistung für ca. 100 Euro günstiger, sieh es mal von der Seite.

Die Polaris Karten waren zur Veröffentlichung auch nicht 199,-- Euro.
 
Das ist genau die Seite die amd wollte nämlich mit nvidia mitziehen und trotzdem gut aussehen. hat geklappt bravo.

nun sind wir bei über 1000€ für Gamer Gpus die nicht einmal den vollausbau mit sich bringen.

Midrange die teurer ist als die vorgen wobei sie fast gleichschnell sind.

Gut gemacht.
 
  • Gefällt mir
Reaktionen: Mcr-King
kachiri schrieb:
Das ist aber auch nur deine Eingruppierung. Die X50 und X60 waren schon immer die "Mittelklasse". Während die X70 und X80 das "High-End"-Segment bildeten und sich die X90 (und die Titan) an die "Enthusiasten" richtete.
Entry-Level waren dann eher die GT-Karten...
Naja ich finde diese Versuche GPUs in Klassen einzuteilen immer sehr problematisch. Natürlich geht man davon aus wie die jeweiligen Karten in den Generation vorher konfiguriert waren und was sie gekostet haben. Aber das hilft auch immer nur teilweise. Denn zb die X090er gab es früher gar nicht, da war unter der Titan nur die X080ti. So war die 1080ti definitiv eine Enthusiasten Karte, war sie doch quasi genauso schnell wie die Titan X Pascal damals, dafür aber auch nicht so viel teurer als die 1080ti. Volta gab es dann nur als Titan für 3000€ bei Turing kostete die Titan dann auch 2500€. Die X060ti gibt es auch erst seit Ampere, davor gab es nur normale X060er. Mal gibt es eine X080ti mal nicht.
Das macht es dann auch direkt schwerer die Karten aufgrund ihrer Leistung und dem Leistungszuwachs einzuordnen. Mal ganz davon abgesehen das der in jeder Gen auch immer schwankt. Mal gibt es Zuwächse von 30-50% mal auch nur 15-25%. Auch die Chips die eingesetzt werde sind immer wieder andere. Die X080 hatten mal den 104er mal den 103er mal den 102er Chip.
Von daher lasse ich das mit dem Einordnen in Klassen direkt sein. Da gibt es einfach keine wirkliche Regelmäßigkeit als das man da ableiten könnte welche Karte wie konfiguriert sein sollte. Ich schaue immer nur auf die Leistung die am Ende dabei rum kommt. Und solange die stimmt ist mir egal welcher Chip da drin steckt. Die 4080 könnte von mir aus auch den 106er Chip haben wenn die Leistung entsprechend wäre.

Und das finde ich ist neben den überzogenen Preisen der größte Kritikpunkt der 4000er Reihe. Die Abstufung der Leistung ist einfach komplett unsinnig. Bei der extrem starken 4090 hätten alle Karten darunter mal locker 20% schneller sein können. Warum die Karten nach unten so extrem viel langsamer werden kapiere ich einfach nicht. Es hätte Nvidia doch nicht wirklich geschadet ganz im, Gegenteil. Wären die Karten schneller und hätten etwas mehr VRAM dann würden sich die wenigsten über die Preise beschweren und Nvidia würde wesentlich mehr absetzen. Aber so ist es einfach nur lächerlich wenn man sieht was die 4090 leistet, das dann die 4060ti nur noch paar Prozent schneller als das Vorgängermodell ist. So ist quasi das gesamte Lineup außer der 4090 ein viel zu großer Kompromiss als das man die karten bei den Preisen noch irgendwie rechtfertigen könnte.
Ich kann mir einfach nicht vorstellen das sie mit ihrer upselling Strategie wirklich mehr Umsatz machen. Denn die wenigsten werden sich mal eben die 1600+€ teure 4090 kaufen. Mal ganz davon abgesehen das die negative Presse auch noch dazu kommt.
Für Nvidia wäre es doch viel besser gewesen die Karten nicht so extrem zu beschneiden. Die Karten wären dadurch für Nvidia wohl nicht wirklich so viel teurer geworden und sie hätten dadurch bessere Presse und mehr Umsatz gehabt.
So wirkt es irgendwie so als würden sie das Consumer Geschäft einfach aufgeben wollen. Ich verstehe es einfach nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Die Namen der Karten sind Schall und Rauch. Zu beachten gilt imo die Chipbezeichnung:

AD 106 --> 4060 (ti)
GA 106 --> 3050 (ti)

Dann wirds deutlich was Nvidia versucht zu verkaufen.
 
  • Gefällt mir
Reaktionen: AI94, Mcr-King, iceshield und eine weitere Person
Dai6oro schrieb:
Die Namen der Karten sind Schall und Rauch. Zu beachten gilt imo die Chipbezeichnung:

AD 106 --> 4060 (ti)
GA 106 --> 3050 (ti)

Dann wirds deutlich was Nvidia versucht zu verkaufen.
Naja bei der einen Karte vielleicht und bei den zwei Generationen. Aber die GTX 1050ti war zb ein 107er Chip und die 1060 dann ein 106er. Und schon bringt es wieder gar nichts auf den Chipnamen zu schauen.
Und was ist mit dem 103er der 4080? Da ist es dann gar nicht mehr deutlich wenn man nur auf den Chipnamen schaut. Da es auch schon X080er mit einem 104er Chip gab oder halt auch mit 102er ist hier die Einordnung wieder nicht wirklich machbar.

Es gibt einfach keine Regelmäßigkeit die man da ableiten könnte. Außer das Nvidia die Chips in den Serien immer wieder lustig durchwürfelt wie es halt gerade passt.
 
Die 4080 betrifft es ja genauso. Früher waren die 80er Karten beschnittene 102er. Was meinst warum die Lücke zwischen 4080 und 4090 so groß ist? Eigentlich ist die 4080 ne 4070ti.
 
  • Gefällt mir
Reaktionen: AI94, nurfbold, Mcr-King und eine weitere Person
InsideInfinity schrieb:
Mach aus den 300€ mal 450-500€ dann können wir das in einen realistischen Rahmen im Jahre 2023 setzen. Die 4080er dann ebenfalls auf 750€ hochpushen und die 4090er kann von mir aus bei 1200 bleiben, das halte ich für fair
Der realistische Rahmen ist, das FullHD heute absolutes Standard und minimum ist. Und du praktisch ja eine 4070 brauchst, um diesen Standard komplett easy zu fahren oder mit Dual Monitoren zu betreiben.
Ich denke so realitätsfern ist es nicht. Die Bitcoin/Mining Zeit + Corona Zeit hat die Leute nur etwas verändert. Wären diese 2 künstlich erzeugten Zeitebenen nicht da, wären wir heute genau in dieser Realität.
Denn die 4060Ti ist nur eine 4050 die als Nachfolge für die 3050 kommt, und die 4070 die Echte 4060Ti sein müsste.
Es ist wirklich nur Elektroschrott der zum Teil das Geld nicht wert ist. Es ist nicht so kompliziert Platinen zu löten und ein paar Lüfter in einer Kunststoff Case drauf zu montieren. Das konnte man schon in den 90er und hat damals auch nicht 1/5 des Gehalts gekostet.
 
  • Gefällt mir
Reaktionen: Mcr-King
Killerattacks schrieb:
Und bei 1440p sind beide Karten in etwa gleichauf obwohl die 4060 Ti ja etwas schneller ist. Gibt halt mehr Cache-Misses bei 1440p.
Grundsätzlich hast du recht damit, dass es bei 1440p mehr misses gibt, allerdings scheint es weitesgehend zu reichen. Zwischen 9% in Full-HD und 7% in WQHD liegen jetzt keine Welten. Ob nun das Speichersystem oder die Rohleistung ein paar Prozent mehr FPS mitmachen würde kann man bei jeder Karte diskutieren. Eine harte Limitierung würde ich anders nennen.
 
AssassinWarlord schrieb:
so eine Karte dient nur als Köder für den Verkaufsstrategischen Decoy-Effekt
Ganz genau, sie werden dadurch mehr 4070er oder gar 4070 Ti verkaufen. Ich hoffe AMD kann davon profitieren und mehr 6700er verkaufen oder, sollte es ein gutes Angebot werden, mehr 7600er.
 
Zuletzt bearbeitet:
SANDTIGER schrieb:
Weil Anno immer stark CPU limitiert ist sicherlich nicht gleich anfangs aber später immer aber dieses Genre kann man auch mit 30FPS noch ertragen :)

Nun das ist das einzige Genere was ich regelmäßig spiele.
Da ich in 5k Auflösung Spiele treibe ich das Spiel normalerweise ans GPU Limit, vor allem wenn ich die Regeler gern oben habe.

Es ist auch traurig, dass Computerbase kein einziges Spiel aus diesem Genere testet. Stattdessen viele Spiele die sehr ähnlich sind und sogar die gleiche Engine haben.

Mit 30 FPS ist das Spiel nicht ertragbar. Wenn es für dich nicht relevant ist, dann solltest du aber doch Verständnis dafür zeigen das ich aus der (neuen!) Liste der getesteten Spiele von Computerbase kein einziges Spiel spielen möchte.
 
Dai6oro schrieb:
Die 4080 betrifft es ja genauso. Früher waren die 80er Karten beschnittene 102er. Was meinst warum die Lücke zwischen 4080 und 4090 so groß ist? Eigentlich ist die 4080 ne 4070ti.
Nö das stimmt so auch nicht. Die GTX 980 war zb ein 104er Chip und kein beschnittener 102er. Ebenso die GTX 1080 die war auch ein 104er Chip, da hat sich auch niemand beschwert und gesagt das wäre nur ne 1070, weil die Leistung eben gestimmt hat. Bei der GTX 780 der 110er Chip. Die RTX 3080 dagegen war der 102er aber auch im Gegensatz zu den Generationen davor nur paar % langsamer als die Top Karte, sonst waren die 80er Karten immer ein gutes Stück langsamer als die Top Karten.

Wie gesagt es gibt einfach keine Regelmäßigkeit die man da ableiten könnte.
Natürlich ist die Lücke zwischen der 4090 und der 4080 viel zu groß, aber das ist sie bei allen anderen Modellen auch. Das ist ja das große Problem dieser Gen das alle Karten unter der 4090 viel zu langsam sind, egal wie der Chip nun heißt der drin steckt. Wäre die 4080 nur 20% langsamer als die 4090 hätte sich wohl niemand beschwert und dann hätte es auch nicht geheißen die 4080 ist ne 4070 egal welcher Chip drin ist.
 
  • Gefällt mir
Reaktionen: AI94 und Klever
Fallout667 schrieb:
Natürlich ist die Lücke zwischen der 4090 und der 4080 viel zu groß, aber das ist sie bei allen anderen Modellen auch.
Die Lücke zwischen 4070 und 4080 ist sogar noch deutlich größer, die beiden trennen ca 50%.
Aber da gibt es auch bereits die 4070Ti, die perfekt in die Mitte passt, weil sie ~25% schneller als die 4070 ist.

Ergänzung ()

Fallout667 schrieb:
Wäre die 4080 nur 20% langsamer als die 4090 hätte sich wohl niemand beschwert
Sie ist 25% langsamer, das ist auch nicht so viel weiter weg
1684941664024.png


Udn genau wie zwischen 4070 und 4080 wird hier eine 4080Ti Mittig diese Lücke gesteckt werden, dafür muss sie nur ~15% schneller als die 4080 sein, also hier im Ranking auf ~85% der 4090 kommen.
 
  • Gefällt mir
Reaktionen: AI94
Hier mal ein Vergleich zwischen der 6650 xt (238 Euro im Angebot) und der 4060 Ti.
Ist schon eine Frechheit, was einem NVIDIA da andrehen will.


Taxxor schrieb:
Die Lücke zwischen 4070 und 4080 ist sogar noch deutlich größer, die beiden trennen ca 50%.
Bist du ein Zauberer oder wie kommen die 50% zustande? Vielleicht in einigen wenigen Titeln mit RT, wo der 4070 Ti der VRAM ausgehen. Ansonsten sind es 20-25%.
 
Nvidia will keine 4060Ti verkaufen sondern 4090er. Die Generation besteht aus lauter upsellern. 4060TI 8GB mit zu wenig Speicher und zu Teuer, 4060TI 16GB nicht genug leistung für den Speicher und zu Teuer, 4070/ti zu wenig speicher für die Leistung und zu Teuer, 4080 zu Teuer für die Leistung. 4090 Bestes Preisleistungsverhältnis und genug Speicher für die Zukunft :D. Alles unterhalb der 4090 besteht aus ganz schlechten Kompromissen und Nvidia weis das.

Naja die BWL Justusse die das eingefädelt hat werden sicher kein Fiat 500 fahren sondern ne richtig dicke Protzkarre haben und damit Sexytime ohne ende bekommen. Alles richtig gemacht aus seiner Perspektive. Abhängigkeitsverhältnis erfolgreich ausgenutzt.

Und viele heulen hier zwar rum, würden aber in der gleichen Situation nicht anders Handeln. Wie viele sich hier im Forum positiv übers Mining ausgesprochen haben und der meinung waren "Ja mir is doppelte UVP egal ich hab das geld in 3 Monaten wieder drinne mit Crypto".
Und CB hat es auch noch wunderbar Supportet mit einem eigenen Unterforum das es immer noch gibt :D

Wie viel Scheuklappen muss man haben um offensichtliche zusammenhänge nicht erkennen zu können? Ach stimmt, CB braucht ja auch Geld, da ist das Klientel eig egal. Da Hofiert man dann notfalls Schneeballsysteme die den Kern des Forums -> Computerhardware, für die breite basis Zerstören.

Ich frag mich wie viele sich sogar hier aus dem Forum abgewendet haben weil sie sich dieses Teure hobby eh nicht mehr leisten können und sich für den Preis einer 4060ti 16GB einfach ne PS5 oder Xbox gekauft haben.

Wenn das so weiter geht werde ich bei der nächsten Konsolengeneration wahrscheinlich auch vom PC abspringen und brauch hier auch nicht mehr rumgammeln weil mich PC hardware dann nicht mehr zu interessieren braucht.
 
  • Gefällt mir
Reaktionen: Knut_Knudsen und Godyjin
Fallout667 schrieb:
Die GTX 980 war zb ein 104er Chip und kein beschnittener 102er. Ebenso die GTX 1080 die war auch ein 104er Chip, da hat sich auch niemand beschwert und gesagt das wäre nur ne 1070, weil die Leistung eben gestimmt hat.
Eigentlich haben sich damals eine Menge Leute darüber beschwert. Einfach mal den Kommentar-Thread zum 1080-Test ansehen. Es kommt ja noch hinzu, dass die 1070 extrem nahe dran war ...
Ein Beispiel unter sehr (!) vielen:
gesperrter_User schrieb:
15% mehr Leistung (980ti OC vs 1080 OC) für einen 800€ Mittelklasse Chip :freak:

Billige Augenauswischerei die durch Mafia-News wie "Pascal-OC-Benchmarks deklassieren Titan X" gefördert wird.
Oder:
KlaasKersting schrieb:
Es ist keine 1080 Ti, sondern eine 1080.
Mit dieser Generation scheint man die Preise fast eine gesamte GPU-Klasse nach oben schieben zu wollen.
Ist wirklich amüsant, weil man sieht, wie sich einerseits Geschichte wiederholt und andererseits, wie sehr das damals noch angesichts der aktuellen Preisgestaltung Meckern auf hohem Niveau war. Die Episoden um GTX 670/680, GTX 980 und 1080 belegen aber eigentlich eher die Upselling-These, als dass sie sie schwächen würden. Das, was nvidia aus unterschiedlichen Gründen (Mangel an leistungsfähiger Konkurrenz ...) zu mehreren Zeitpunkten versucht hat, teils punktuell, machen sie eben jetzt konsequent und gnadenlos für das komplette Lineup. Es bleibt spannend, ob und in welchen Segmenten die Kundschaft das durchgehen lässt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Coeckchen
TriceO schrieb:
Ihr seid immer witzig. Da gibt es Menschen, die verdienen ihr Geld damit, Grafikkarten zu testen und können auch immer alles mit Diagrammen belegen.
Ja, klar. Nur weil menschen geld mit test verdienen, heißt das nicht, das sie absolut recht haben. Tolles argument...und woher weißt du, das ich das nicht mache?
TriceO schrieb:
Ich suche mal eins hervor:
Anhang anzeigen 1360524
Ne 6900XT liegt grob im Bereich der 4070Ti. Objektiv "flüssig" nennt man sowas heute nicht mehr.
Schönes beispiel. The last of us war jetzt nicht der titel, welcher eine optimale entwicklung definiert hat. (auch wenn es schon deutlich schlechtere konsolenports gab) Er sieht halt bombe aus und ist deswegen referenz. (zu recht)
Ich zitiere mal aus den test das fazit:
Bei der Grafikqualität hat TLoU Part I also den ersten Platz sicher, bei der zugrundeliegenden technischen Qualität der PC-Umsetzungen dagegen nicht.
Ob man zudem das spiel auf Ultra spielen muss, sei dahin gestellt (ich sagt ja hoch oder besser).
TriceO schrieb:
Was passiert, wenn wir DLSS/FSR einschalten:
Anhang anzeigen 1360525
Nun sind wir im Bereich, der gemeinhin als "flüssig" bezeichnet wird.

Dass du mit niedrigeren Settings (in deinem Fall Hoch statt Ultra) andere FPS erreichst ist ja wohl klar. Und dass nicht jedes Spiel solche Werte hervorbringt auch. Und dass man Spiele auch mit <60 FPS spielen kann sowieso.
Schade das du meinen post nicht gelesen hast. Flüssig spielbar ist für mich 60Hz. Damit kann ich shooter super spielen. Wer dreistellig erst als spielbar bezeichnet, der lebt in einer anderen welt. (esportler brauch das halt...hatten wir früher selten und da war es nicht der gamechanger, aber das war halt früher)
Aber wer als normaler spieler sagt ein shooter ist mit 60Hz nicht flüssig spielbar, der hat ein augenproblem...(selbst 45 wäre, abhängig von dem frametimes, noch "spielbar", aber nicht unbedingt flüssig)
 
Ich will dir nix Böses. Sollte auch kein Angriff sein.

Shadak schrieb:
Nur weil menschen geld mit test verdienen, heißt das nicht, das sie absolut recht haben.
Da ich davon ausgehe, dass die Messwerte stimmen und Wolfgang keine Zahlen fälscht, hat er in Bezug auf den Testparkour absolut recht ja. Und da sich seine Aussage auf seine Tests bezog, dürfen wir eben jene Messwerte auch zur Grundlage nehmen.

Du störst dich an der Aussage, weil du am Rechner in 4K60 ohne Gedöns spielst, aber verwendest nicht dieselben Einstellungen wie im Testparkour und hast einen anderen Anspruch. Das ist legitim, aber macht doch die Aussage nicht falsch. Vor allem wenn man sie an Messwerten belegen kann.

Shadak schrieb:
Schönes beispiel. The last of us war jetzt nicht der titel, welcher eine optimale entwicklung definiert hat.
Wir können das auch anhand anderer Titel angucken, wenn du das vertiefen möchtest. Und ja, TLoU ist sehr anspruchsvoll, aber ein aktuelles Spiel.

Shadak schrieb:
Ob man zudem das spiel auf Ultra spielen muss, sei dahin gestellt (ich sagt ja hoch oder besser).
Ich spiele auf 720p Lowest Settings mit teilweise miesen FPS und habe Spaß. Andere bekommen da Würgreflexe.
Hier wird aber nunmal offiziell mit "Ultra" getestet.

Shadak schrieb:
Schade das du meinen post nicht gelesen hast. Flüssig spielbar ist für mich 60Hz. Damit kann ich shooter super spielen.
Ich hab deinen Post gelesen, nur 4k60 bedeutet UltraHD Auflösung mit 60Hz und die Display-Bildwiederholfrequenz von 60Hz hat ja nichts mit den gezeichneten Frames pro Sekunde zu tun, die die Grafikkarte ausspuckt.

Wenn du damit sagen wolltest, dass du 60 FPS anpeilst (oder mit Vsync spielst), dann klappt das halt, s.o., mit Ultra Settings nicht mehr unbedingt. Und dann - und darauf bezog sich die Ursprungsaussage des Anstoßes - müsste man DLSS/FSR/XeSS einschalten, um höhere FPS zu bekommen.

Ich persönlich finde die Idee hinter DLSS/FSR/XeSS pervers, den Leuten mangelnde Hardwareressourcen durch Bildverschlechterungen schmackhaft machen zu wollen, nur damit die FPS stimmen.

Insofern will ich dir überhaupt nichts Böses und bin auch absolut bei dir, dass man nicht alles auf Ultra und mit dreihundert FPS spielen muss.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich denke die Karte wird sich gut verkaufen, da weit von 1000€ entfernt und auch unter 500€ kostet, Nvidia 4060 Ti draufsteht und viele Leute wenig Ahnung haben, Nvidia ist eben in den meisten Ländern der Platzhirsch.
 
Zurück
Oben