News Nvidia GeForce RTX 4060 Ti: Die kleinste 16-GB-GeForce ist jetzt ab 423 Euro erhältlich

Haldi schrieb:
RTX 4090! Alle anderen Grakas diese generation sind Krüppel.
Moment... korrektur... auch die RTX4090 ist ein Krüppel. Die müsste eigentlich viel mehr Leisten für was sie hat. Wird aber iwo noch limitiert und bringt das nicht auf die Strasse.
Die 4090 ist tatsächlich nicht gut weil sie ineffizient ist. Auch wenn Raff von PCGH nicht müde wird was anderes zu erzählen..

Die 4090 hat knapp 80 Prozent mehr Shader als die 4080 und bringt damit gerade einmal 30 Prozent mehr Leistung auf den Bildschirm. Diese 30 Prozent Mehrkeistung werden mit ca 45 Prozent höherer Stromaufnahme erkauft. Das Verhältnis vom Takt zu Stromaufnahme skaliert derart schlecht bei der 4090 das nviids die Karte lieber bei 450W abgeriegelt hat.

Diese Karten sind super für GPGPU Anwendungen aber zum spielen ist die 4090 nur zweite Wahl wenn man effiziente Hardware steht...

/fixed it.
 
  • Gefällt mir
Reaktionen: JarlBallin und Alioth
1709377973997.png

@Vitche

ich tue mir da schwer bei den preisen und der ausstattung. Wie soll man den einen Tot(en) empfehlen.... und hat bei jeder GPU mindestens einen Tot, den Preis, den alle in der Liste sind vom Preis eine Frechheit.... und das allein könnte man ja noch fressen....

Aber Speichergrüppel für über 300€, no way
1709379975554.png


BUS Krüppel will man in dieser Preisregion eigentlich auch nicht haben.
1709380169096.png


und übrig bleiben nur noch 3 GPUs.... die aber wiederum kein DLSS und bei der Raytracing leistung schwächen..... und dafür 3 Tode sterben.... Preis, DLSS, Raytracing.... dafür QHD ab 370€, 410 bzw 523.... im Jahr 2024.... Wen es wirklich nicht anders geht.... weder mein rx480(580) noch meine gtx980 werden es noch sehr lange machen.... aber das ist halt auch keine Empfehlung.... Sondern ein notwendiges Übel.... für ein Hobby welches immer mehr in ein Qual verwandelt...

1709380308458.png
 
Der anhaltende Preisverfall ist positiv für Leute die überlegen diese Karte zu kaufen. Der Preisverfall ist aber eben auch nicht grundlos.
 
Gibt es eigentlich einen logischen Grund warum in Laptops immer nur die Hälfte an Vram verbaut wird? Die 3050 hat nur 4 GB VRam und die 4060 8GB VRam in der Laptopversion. Warum gibts da keine 16 bzw. 8? Will mir nur aus diesem Grund keinen PC mehr zulegen müssen.
 
  • Gefällt mir
Reaktionen: JarlBallin
Nur 10% schneller als meine 3060ti, die ich damals um unpackbare 860€ erstand :)
Wo bringen die 16GB was?
 
PS: Vielleicht gibts dann endlich mal eine Desktop-Lovelace in den Steam Top-10. Kann ja sowieso nicht sein, dass die Leute noch immer auf ihren GTX 1650, 1060 oder 1050ti rumömmeln, offensichtlich wurden die damals viel zu günstig verkauft. Der Führer tobt!
 
  • Gefällt mir
Reaktionen: JarlBallin und Alioth
Marius schrieb:
Nur 10% schneller als meine 3060ti, die ich damals um unpackbare 860€ erstand :)
Wo bringen die 16GB was?
860€ dafür ist wirklich viel
 
GOOFY71 schrieb:
Eigentlich im Vergleich noch immer etwas zu teuer, zumal man im Gamingbereich nicht wirklich von den 16GB profitiert. Der Chip ist zu langsam. Aber immerhin DLSS 3 mit FG, darauf zielt die Karte im Vergleich zum Vorgänger, obwohl die Rohleistung nicht viel höher ist.
In diesem Preisbereich ist ganz klar die 7700XT vorzuziehen, trotz der 12GB VRAM.
Geht z.Zt. ab 409 Euro los.
Sehe ich auch so .
 
  • Gefällt mir
Reaktionen: GOOFY71
conglom-o schrieb:
... die man mit einem weit höheren Verbrauch "bezahlt"!
ja 45W im 144hz Limit (zur 8gb Variante die 16gb verbraucht vermutlich noch bisschen mehr), bei 4h pro Tag sind das bei 33 Cent 21 Euro.

Also im ersten jahr kostet sie 6 Euro mehr danach 27 Euro und spätestens nach 2 Jahren verkauft mans ja eh.


Dafür ist sie aber 20% Schneller in Spielen wo es eng wird, das sind die vielleicht 27 Euro Aufpreis wert, kommt natürlich auf ide Spielewahl an und wieviel Stunden du spielst nur würd mich wundern wenn jemand sich so ne billige Karte kauft um dann jeden Tag damit 8h zu zocken. Hardcore Zocker mit Lowendkarte ist komische Mischung.

Der Punkt ist für Civilisation süchtige sind die Karten zu gut da reicht eben dann auch IGP oder ne rx 480 oder irgend sowas :D
 
  • Gefällt mir
Reaktionen: JarlBallin
"günstigste" Grafikkarte zur Auswahl mit 338€. Einfach übertrieben.

Ich hab gerade einem Bekannten empfohlen seine RX580 zu einer 6650XT aufzurüsten. 239€. Weniger Geld, als er damals für seine RX580 bezahlt hat.

RX580:
185W TDP

6650XT
180W TDP
und +221% mehr Leistung in Spielen, sowie FSR3 Frame Generation Support..

Ich überlege gerade, wie die News wären, würde AMD eine "7400" für 239€ herausbringen. Das wäre quasi eine blinde Kaufempfehlung. Die 6650XT ist effektiv nichts anderes.
 
  • Gefällt mir
Reaktionen: Bänki0815
Ich glaub ich habe schon zu sehr aktzeptiert das ich gebraucht kaufe und da ich eh wenig bis fast gar kein AAA spiele ist mein Upgradedruck nicht sehr hoch, daher finde ich diese immer noch zu teure Sprüche teils befremdlich auch wenn es auf mich zu trifft, nehm mich einfach nicht als Massstab.

Ich weiß nur nicht ob die jeh so billig sein könnten das ich nicht gebraucht kaufen würde sowieso, da ja immer die Gebrauchtpreise mit fallen und ich nicht das neueste schnellste brauche.

Aber wo würde ich vielleicht ins Grübeln kommen sagen wir ne 7800 xt für 180 Euro vielleicht sogar bis zu 280 wenn es nicht eben massiv bessere Gebrauchtwerte gibt, aber das wird noch mindestens ein (eher 2) Jahr dauern denke ich, aber selbst dann hätte ich noch einige Anschaffungen für das Geld die mir wichtiger wären, Steam deck, gebrauchter Oled TV etc...
 
  • Gefällt mir
Reaktionen: Alioth
Marius schrieb:
Wo bringen die 16GB was?
Ich sehe das genauso, die 16GB bringen nur etwas im produktiven Bereich wie KI Bildgeneratoren und sehr speicherfressenden Games, man kann dazu viel lesen.
Die Wahrheit ist jedoch, dass die 4060 Ti plötzlich nach dem Shitstorm der Communities aufgetaucht ist und zu Release mit 530 Euro das unterirdischte Preisleistungsverhältnis hatte.
Raytracing ist sicherlich nicht wegdiskutierbar, aber für mich nicht auschlaggebend.
Ich habe meine XFX 7800 XT Qick 319 für 479 Euro aus den Mindstars (abzüglich der 20 Euro, die ich für den Avatar Key bekommen habe). Ich hatte das Game schon.
Wer noch immer oder gerade jetzt 439 Euro für eine 4060 Ti 16GB ausgibt, hat m.M.n keine objektiven Vergleiche gezogen.
Hervorzuheben wäre noch die niedrige Leistungsaufnahme und die Verbaubarkeit in Mini ITX Systeme, das ist ein weiterer kleiner Vorteil zur 7700 XT.
 
  • Gefällt mir
Reaktionen: Alioth
Redirion schrieb:

Es sind "nur" 121% mehr, aber immer noch genug ;)

Im Prinzip mache ich es genauso: wenn mir die Mehrleistung bei gleichem Preis nicht ausreicht, warte ich einfach länger, und spare im Endeffekt Geld.

Die Spielehersteller sind auch dem Markt unterworfen, und wenn sie mit den Hardwareanforderungen für vernünftige Spielbarkeit zu sehr übertreiben, hagelt es eben Shitstorms, Refunds, und Kaufverweigerungen.

Lachende Dritte sind die Entwickler genügsamer Spiele wie Overwatch 2, CS 2, Valorant, LoL, Genshin Impact, Honkai Star Rail etc. - vom Gameplay-Aspekt sehe ich diese Sorte Spiel sowieso schon oft den AAA-Produkten überlegen.
 
blackiwid schrieb:
Wenn die 7700xt aber billiger und leicht schneller ist in Raytracing ist das doch weg diskutierbar.
Im Grunde genommen hast du Recht, hier in den CB Tests ist das auch tatsächlich so. Aber auf PCGH und in einigen anderen Tests stehen zum Teil andere Werte. Darum habe ich hier das Mittel genommen.
 
  • Gefällt mir
Reaktionen: Alioth
Quidproquo77 schrieb:
Ich greife dich nicht persönlich an,
Naja du hast schon recht oft einen gewissen Unterton, der mitschwingt wenn du meine Beiträge kommentierst. ;)

Quidproquo77 schrieb:
Und ich mache dich auch gerne nochmal darauf aufmerksam, dass dir die V-ram Menge, wenn es um Nvidia Karten geht sehr wichtig ist, bei AMD Karten, wo es schlechter mit der V-ram Verwaltung läuft keine Erwähnung wert ist. Was verrät uns dies? Das lasse ich an dieser Stelle offen. ;)
Richtig, ich kritisiere recht oft Nvidias VRAM Geiz in der 700-1000€ Klasse (4070 und 4070ti bei Release), weil es einfach bewusst beschnitten ist und trotzdem so viel Geld dafür genommen wird. Dazu kommt, dass diese Karten auch für WQHD+ und die 70ti auch eher auch mal für 4K gekauft werden und es hier recht übereinstimmend, von vielen HW Techsites bewiesen, zu Einschränkungen kommen kann. Schon quasi bei Neukauf.

Und ja, 12 und 16GB gab es bei AMD eben schon bei der 6700xt und 6800(XT) für 350€ bis 500/600€. Das ist ausgewogen und passt auch für die Zukunft noch recht gut.
Dass AMD mit ihrer Speicherverwaltung nicht ganz an NVs Speicherverwaltung rankommt ist mit sehr gut bewusst, jedoch auch nicht so gravierend besser.
Wenn NV 11GB braucht, braucht AMD eben 12-13GB, wenns viel ist.
Das macht den Kohl aber net fett. Dafür gibt's halt 4GB mehr bei AMD.

Aber wenn ein HUB Test eine damals ähnlich schnelle und preislich ähnlich platzierte 3070 mit 8GB 2 Jahre nach Release gegen eine 16GB RX6800 antreten lässt, und die RTX dann sogar in den RT Parade Settings deutlich gegen die 16GB AMD Karte abstinkt, dann gibt mir meine Kritik eindeutig Recht, dass NV an falscher Stelle spart. Die RTX Karte müsste deutlich vor der RX6800 liegen. Tat sie im Test aber selten.
Die 6800 16GB kannst heute noch empfehlen, eine 3070 8GB nicht mehr.
Und 4GB Vram kosten vll 20-30€ mehr. Dann muss man die Karten eben sinvoller designen. AMD schafft diese Abstufung beim SI und Vram ja auch. Selbst im Notebook Bereich.

Und auch bei dieser Meinung bleibe ich, die 4070S ist mit knapp 600-700€ zu teuer für 12GB. Auch wenn sie sonst eine tolle Karte ist.
Die 4070ti S ist endlich eine Runde Karte mit der man bedenkenlos alles machen kann. Diese Karte hätte zu Release so veröffentlicht werden sollen, NV hat aber erstmal die 12GB Sparvariante für knapp um 1000€ verkauft.
Und sowas kritisiere ich, ja.

So, habe fertig. :)
 
  • Gefällt mir
Reaktionen: JarlBallin
pacifico schrieb:
Die 4090 ist tatsächlich nicht gut weil sie ineffizient ist. Auch wenn Raff von PCGH nicht müde wird was anderes zu erzählen..

Die 4090 hat knapp 80 Prozent mehr Shader als die 4080 und bringt damit gerade einmal 30 Prozent mehr Leistung auf den Bildschirm. Diese 30 Prozent Mehrkeistung werden mit ca 45 Prozent höherer Stromaufnahme erkauft.

Dann schauen wir uns doch mal die Spieletests inkl. Leistungsaufnahmetests an, bei denen die CPU nicht bremst:

Bei PCGH sind das als Rasterizing-Spiel "A Plague Tale Requiem" und als Raytracing-Spiel "Metro Exodus EE", beide in UHD getestet:

pcgh_watt.png


pcgh_leistung.png

Bei A Plague Tale in UHD werden 47 Prozent Mehrleistung mit 42,6 Prozent (442 / 310 Watt) höherer Stromaufnahme "erkauft", die RTX 4090 hat also bei diesen Settings eine bessere Effizienz als die RTX 4080.

Bei "Metro Exodus EE" in UHD werden 44 Prozent Mehrleistung mit 42,3 Prozent (437 / 307 Watt) "erkauft", die RTX 4090 hat also bei diesen Settings eine bessere Effizienz als die RTX 4080.

Wo bekommst du denn deine "30 Prozent Mehrleistung" weg? Durch alle Auflösungen und einen Spielemix? Dann müsste aber auch bei sämtlichen dieser Spiele und Auflösungen die Stromaufnahmen mit der jeweiligen Mehrleistungen verglichen werden... sonst vergleichst du letztendlich Äpfel mit Birnen.
 
  • Gefällt mir
Reaktionen: Alioth
GOOFY71 schrieb:
Ich sehe das genauso, die 16GB bringen nur etwas im produktiven Bereich wie KI Bildgeneratoren und sehr speicherfressenden Games, man kann dazu viel lesen.
Aktuelle Spiele mit guten Texturen lassen sich ohne mindestens 10 bis 12GB V-ram nicht mehr auf ultra spielen.
Die Zeit von 8GB Karten ist endgültig vorbei. Frame Generation lässt sich damit kaum mehr aktivieren, geschweige denn anständig zocken. Die 8GB Versionen sind rausgeworfenes Geld.
8GB waren schon für die 3070 zu knapp um auf ultra zu spielen.
GOOFY71 schrieb:
Im Grunde genommen hast du Recht, hier in den CB Tests ist das auch tatsächlich so.
Ja, denn es ist die 8GB Version. Immer noch nicht verstanden?
Die 16GB Version dürfte in RT ~20 bis 25% schneller sein.

danyundsahne schrieb:
Dass AMD mit ihrer Speicherverwaltung nicht ganz an NVs Speicherverwaltung rankommt ist mit sehr gut bewusst, jedoch auch nicht so gravierend besser.
Wenn NV 11GB braucht, braucht AMD eben 12-13GB, wenns viel ist.
Was die 7700XT zum eigentlichen stärkeren Problemfall als die in Rasterleistung kaum schnellere RTX 4070 macht. Du schreibst selbst regelmäßig, dass 12GB, die eigentlich 13 bis 14 Radeon GB entsprechen nicht einmal für WQHD noch reichen sollen und man Nachladeruckler hätte. Ich kenne keinen solchen Fall, sondern nur eine eine Hand voll in 4K, früher oder später wird es aber kommen.
Auf der anderen Seite sind dann aber 12GB für die 7700Xt genug, obwohl diese eigentlich nur ~10,5 bis 11 Nvidia Gigabyte hat.
danyundsahne schrieb:
Das macht den Kohl aber net fett. Dafür gibt's halt 4GB mehr bei AMD.
Und die gibt es eben bei der 7700XT nicht und somit hat die Karte nicht genügend Speicher für die Zukunft.
Der Speicher limitiert schon heute bei Alan Wake in QHD mit FSR und lässt die FPS ins bodenlose stürzen, wenn ich auf dem Megaport Rechner meines Neffen AMDs Treiber FMF aktiviere. Die Frames steigen und fallen nach 5 MInuten zocken auf ~5 FPS wegen Speichermangels. Die 4070 packt das Szenario noch mit knapp 10,8GB Auslastung ohne Probleme, selbst in 4K mit DLSS Performance. Die Radeon klappt zusammen. Nein nicht wegen RT, das ist seit einem Treiberupdate ganz gut spielbar.
danyundsahne schrieb:
Und sowas kritisiere ich, ja.
Wenn ich die Speichermenge in Relation zum Preis setze, kann ich das auch bei Leistung/Effizienz/Upscaling/RT machen und das nimmt sich für mich unter dem Strich nichts.
Ich will nur sagen, dass man versuchen sollte die Sachen mit den gleichen Maßstäben zu bewerten, das schaffe ich aber auch nicht immer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne
Cohen schrieb:
Wo bekommst du denn deine "30 Prozent Mehrleistung" weg? Durch alle Auflösungen und einen Spielemix? Dann müsste aber auch bei sämtlichen dieser Spiele und Auflösungen die Stromaufnahmen mit der jeweiligen Mehrleistungen verglichen werden... sonst vergleichst du letztendlich Äpfel mit Birnen.
Ich bin verwundert das jemand der solch detaillierte Beiträge schreibt, im letzten Satz nicht versteht wie Mehrleistung definiert wird...

Ggf schaust du mal nach wie ein Durchschnitt berechnet wird und welche Erkenntnisse man daraus ableiten kann :-P
 
  • Gefällt mir
Reaktionen: JarlBallin
Zurück
Oben