News Nvidia GeForce RTX 4060 Ti: Die kleinste 16-GB-GeForce ist jetzt ab 423 Euro erhältlich

Der eigentliche Gegenspieler die RTX 3070 fehlt in dem Vergleich !
Schade..
 
Zuletzt bearbeitet:
Mal ne dumme Frage:

Warum wird die 16GB-4060Ti nur für FHD in dem Artikel so richtig vgl.? ... 423€ für FHD ist nach m.E. crazy
Da sollten schon ein paar WQHD-Games damit laufen.

preislich wären außer der 7700xt-Dual@Cashback auch noch die 6750+6800
zu beachten
 

Anhänge

  • 6750 vs 4060Ti.JPG
    6750 vs 4060Ti.JPG
    89,2 KB · Aufrufe: 80
Zuletzt bearbeitet:
Schade das in der Abstimmung die 3060 12GB fehlt.

Aber die 4060TI 16GB klingt schon interessant.
 
pacifico schrieb:
Ggf schaust du mal nach wie ein Durchschnitt berechnet wird und welche Erkenntnisse man daraus ableiten kann :-P
Dann müsste man aber auch den Durchschnitt der Stromaufnahmen mehrerer Spiele/Auflösungen gegenüberstellen und nicht die jeweilen Maximalwerte vergleichen mit einem Leistungsdurchschnitt vergleichen.
 
Selbst wenn die Karte umsonst ist , NEIN .... das selbe gilt für die 7600XT
 
  • Gefällt mir
Reaktionen: JarlBallin
Hält sich immer noch der Mythos bei vielen hier, dass eine Grafikkarte mit viel VRam zu langsam wäre um diese ja auslasten zu können ? du kannst wunderbar mit dieser Karte in 4K den Texturenregler auf Anschlag ziehen, während du alle anderen auf low-medium ziehen musst um einigermaßen vernünftige FPS raus zu bekommen, richtig !

Aber die 16GB VRam bringen in jeder Auflösung einen Vorteil, gerade und vor allem was die Texturen angehen. Nur hat sie von der Rohleistung nicht viel Luft und dementsprechend muss man dann die Regler bedienen, trotz alledem kostet sie die hälfte einer 4070Ti Super und dementsprechende Leistung bekommt man dann für sein Geld.

Was die PCIe 3.0 Diskussion betrifft, auch da hat sich gezeigt das dies kein Problem ist, wenn man eine PCIe 4.0 Karte mit x8 Anbindung auf einer alten Plattform nutzt. Bis auf wenige Ausnahmen wie bei einer 5500/6500XT mit nur 4GB VRam.
 
Verak Drezzt schrieb:
du kannst wunderbar mit dieser Karte in 4K den Texturenregler auf Anschlag ziehen, während du alle anderen auf low-medium ziehen musst um einigermaßen vernünftige FPS raus zu bekommen, richtig !

Stimmt halt einfach nicht. Siehe:

Abgesehen von "last of us" ist bezüglich der FPS auf ultra kaum ein Unterschied zwischen der 16GB und 8GB 4060 - meistens sind die FPS exakt gleich oder +/- 2. Auch gibt es keine matschigen Texturen oder andere Unterschiede. Da braucht es schon sehr spezifische Szenarien.
 
@Alioth müsst halt verstehen das die Größe des VRam's nichts mit der Rohleistung der Karte zu tun hat, da Texturen keine Leistung kosten, solang denn genügend VRam vorhanden ist, kann man im Grunde nicht genügend VRam auf der Karte haben

das macht sich aber auch erst bei Titeln bemerkbar die den VRam auch entsprechend füllen, es gibt Leute da draußen die sich auch mit low-medium Details in 4K zufrieden geben und die nicht mehr als 450€ ausgeben wollen, für die ist so eine Karte oder eine 7700XT mit ihren 12GB mehr als ok und die dann entsprechend den Texturenregler auf Anschlag ziehen können

aber auch in FullHD oder WQHD wo 8GB Karten mit ihrem VRam schon an ihre Grenzen stoßen ist so eine Karte sinnvoll, auch wenn wie gesagt man alle anderen Regler dann auf medium Details ziehen muss um spielbare FPS raus zubekommen
Ergänzung ()

aber ja, wenn ich in FullHD unterwegs wäre, würde ich mir wohl auch die 60€ Aufpreis zur 16GB Version sparen, außer man hat halt den Anspruch wenigstens den Texturenregler auch in Zukunft immer auf Anschlag zu ziehen
 
Zuletzt bearbeitet:
@Verak Drezzt

Erstens wiederholst du dich und zweitens: Hast du dir das Video angesehen? Die details sind in allen Auflösungen auf ultra und nicht low-medium.
 
Alioth schrieb:
Die details sind in allen Auflösungen auf ultra und nicht low-medium.
hätte gerne mal die Frametimes der Games gesehen unter 4K und WQHD, einfach nur die FPS Zahlen zu posten, joa ne
Ergänzung ()

sieht dann nämlich genau so aus:


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Cohen schrieb:
Dann müsste man aber auch den Durchschnitt der Stromaufnahmen mehrerer Spiele/Auflösungen gegenüberstellen und nicht die jeweilen Maximalwerte vergleichen mit einem Leistungsdurchschnitt vergleichen.
Das was du da ermitteln willst, haben Nvidia und AMD bereits erledigt.

Die Kennzahl nennt sich TDP und wird von beiden Herstellern angegeben.

Easy oder,?
 
Reset90 schrieb:
Für Leute die nicht mehr als 450€ für eine Grafikkarte ausgeben wollen, ist die doch super
Nein, das ist ne Ti, keine Super 😋

Späßle...
Ergänzung ()

Svennc schrieb:
Die Zeiten sind leider vorbei...

Aber manche bzw viele sind heutzutage eben schon bereit locker ein paar Hunderter mehr zu zahlen für die selbe Unter-/Mittel-/Oberklasse/High End, die sie sonst kaufen würden.

Ich sah es an mir selbst....habe immer im 150-300€ gekauft. Dafür gab es wenigstens noch gute Einsteiger-/Mittelklasse Karten. Meine letzte RX5700 zb für 330€.
War sehr lange sehr zufrieden.
Nachdem ich nun endlich aufrüsten wollte, gab es aber absolut kein lohnendes Upgrade für cs 300€. :D
Eine RX7600?! Ein Sidegrade grob gesagt...
Oder Eine RTX4060? Die war hier zum Kaufzeitpunkt auch schon deutlich über 300€ und nur mehr oder weniger ein Miniupgrade.
Also musste ich wohl oder übel ne (Preis-) Klasse höher greifen.
Eine nicht viel schnellere 4060ti 8GB für 450€? Niemals. Ne 4060ti 16GB für satte 550€....never für das Geld.
Aber mein persönliches Limit war dann ca 500€ und dafür bekam ich auf AMDs Seite halt eine für mich deutlich flottere 7800XT mit sinnvollen 16GB.

So bin also selbst ich beim GPU Kauf von 3 auf 500€ nach obengerutscht. Wer hätte es gedachte.... :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin und Svennc
pacifico schrieb:
Das was du da ermitteln willst, haben Nvidia und AMD bereits erledigt.
Die Kennzahl nennt sich TDP und wird von beiden Herstellern angegeben.
Easy oder,?
Nein, nicht easy.

Bei deiner "30 Prozent Mehrleistung mit ca 45 Prozent höherer Stromaufnahme" gehst du seltsamerweise davon aus, dass bei Spielen mit weniger Mehrleistungsunterschied (durch Flaschenhälse wie z.B. CPU) der Stromaufnahmeunterschied gleichbleibt und sich nicht auch verringert.

Tatsächlich verringert sich der Stromaufname-Unterschied bei "Gaming-Maximum" von 40,3% (442/315 - 1) bzw. bei "A Plague Tale: Requiem" in UHD von 42,3% (431/307 - 1) und bei Metro Exodus EE in UHD und mit Raytracing von 42,6% (442/310) auf nur noch 19,1% bei Control (WQHD + RT) oder sogar nur noch 0,7% (268/266 -1) bei Anno 1800 in FullHD:

pcgh_watt2.png

Auch bei den CB-Stromaufname-Tests verringern sich der Stromaufnahme-Unterschied bei "Metro Exodus (ohne EE)" von 37% in UHD auf nur noch 28% in WQHD oder sogar nur noch 10% in FullHD:

cb-watt 2160.png cb-watt 1440.png cb-watt 1080.png

Du gehts aber stumpf von 45% in sämtlichen Auflösungen und im kompletten Spieleparcour aus, wenn du die Effizienz von der Durchschnittsperformance des kompletten Spiele-Mixes ableitest und bei den Stromaufnahme-Unterschieden nur die Extremfälle berücksichtigst.

Wir können ja spaßeshalber mal aus diesen 8 Stromaufnahme-Werten den Durchschnitt bilden: 140,3% + 142,3% + 142,6% + 119,1% + 100,7% + 137% + 128% + 110%) / 8 = 127,5%. Und je mehr Stromaufnahme-Werte man ergänzt, um so genauer wäre dann eine Effizienz-Betrachtung.

Ideal wäre natürlich, wenn bei sämtlichen von CB + PCGH getesteten Spielen auch die Stromaufnahme mitgetestet würde, aber das wäre natürlich ein Heidenaufwand.

Immerhin scheint PCGH weitere Titel hinzuzunehmen, um das Gesamtbild abzurunden (AC Mirage, Starfield, Dying Light 2, Cyberpunk 2077).
 
Zuletzt bearbeitet:
Cohen schrieb:
Bei deiner "30 Prozent Mehrleistung mit ca 45 Prozent höherer Stromaufnahme" gehst du seltsamerweise davon aus, dass bei Spielen mit weniger Mehrleistungsunterschied (durch Flaschenhälse wie z.B. CPU) der Stromaufnahmeunterschied gleichbleibt und sich nicht auch verringert.

Du hast dir in bester CB Forum Manier genau deine speziellen Szenarios und Beispiele rausgesucht die deine Meinung bestätigen sollen.

Netter Versuch :-)

->Das die 4090 in FHD nicht ausgelastet wird, und ergo dort nicht viel Energie benötigt, hast du mit deinen Grafiken gut dokumentiert... Mehr sagt das aber nicht aus. 4K/8K sind die Auflösungen für die nvidia und die 4090 bewirbt. Und in diesen Auflösungen passt das was ich geschrieben habe....

BTW. Während du die Mittagszeit mit Recherche für deinen Meinungsbeitrag verbracht hast, bin ich bei bestem Frühlingswetter spazieren gegangen.

Jedem das seine ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
pacifico schrieb:
Du hast dir in bester CB Forum Manier genau deine speziellen Szenarios und Beispiele rausgesucht die deine Meinung bestätigen sollen.

Netter Versuch :-)

->Das die 4090 in FHD nicht ausgelastet wird, und ergondort nicht viel Energie benötigt, hast du mit deinen Grafiken gut dokumentiert... Mehr sagt das aber nicht aus. 4K/8K sind die Auflösungen für die nvidia und die 4090 bewirbt. Und in diesen Auflösungen passt das was ich geschrieben habe....
Dann zeige doch bitte die entsprechenden Tests in 4K/8K-Auflösungen, in denen der Stromaufnahme-Unterschied zwischen 4080 und 4090 deutlich höher ist als der Performance-Unterschied zwischen 4080 und 4090.

Ansonsten ist das eine unbelegte Trotzbehauptung deinerseits.

Und meinst du wirklich, das Performanceverhältnis in 8K verbessert sich zugunsten der 4080? Da sind dann beide an ihrem TDP-Limit (4090 = 140 - 150% der 4080)... aber das Performanceverhältnis wird in den meisten Fällen weitaus höher sein.

Hier nur ein Beispiel:

Hier noch ein paar 4K-Tests... kannst ja gerne selbst den Dreisatz bemühen, um zu errechnen, ob Performance-Unterschied oder Stromaufnahme-Unterschied jeweils höher sind:

youtube4k.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alioth
Für 400€ bekommt man eine gebrauchte 3080er mit 10GB Ram. Wäre das die bessere Wahl?
 
  • Gefällt mir
Reaktionen: JarlBallin und Alioth
Zurück
Oben