News GeForce RTX 4060 Ti 16 GB: Tests zum Start am 18. Juli sind sehr unwahrscheinlich

Killerattacks schrieb:
Warum eine vollkommen überteuerte 4050, verpackt als 4060 kaufen und Nvidia davon kommen lassen?
Weil es der DAU nicht besser wissen tut. Der Mensch ist ein Gewohnheitstier. Wer noch eine 1060/2060 hat kauft halt nun schlicht das Nach-Nachfolgemodell und damit hat es sich für ihn erledigt...das ist halt die Masse die eventuell (wenn überhaupt) einen Test nur überfliegt und auf die Balken schaut. Laut dehnen ist das Ding stärker als die Generationen zuvor und schon passt es. Der Text dabei wird nicht gelesen und das das Teil eigentlich zu teuer für die Leistung ist wird mit alle Preise gehen ja hoch abgetan....
 
Lol 300€ für 8GB Graka im Jahr 2023...never
 
conglom-o schrieb:
Nein, dann nimmt man eine 3060 Ti (ohne GDDR 6X). Leistung der 4060 Ti (auch auf alten Systemen) für ca. 100 EUR weniger. Dank Undervolting auch nicht mehr ganz so durstig.

Ich bin ansonsten bei Dir - die 4060 (Ti) sind nicht so schlecht, wie sie hier manchmal dargestellt werden. Sie sind halt einfach nur für das Gebotene zu teuer! P/L passt da im Vergleich zu 3060 (Ti) vorne und hinten nicht! Die 3060 12 GB kostet auch ca. 10% weniger als die 4060 und bringt 50% mehr VRAM mit.
Wie gesagt, es mag andere Preferenzen geben. Ich würde 20% mehr leistung und 30% weniger Verbrauch den 50% mehr VRAM vorziehen.
Aber genau das zeigt ja das Nvidia, die Grafikkarte gut platziert hat. Denn ein schnäppchen, dass die bestehenden Angebot rund herum kanibalisiert weil es einfach wesentlich besser in P/L ist, ist eben nciht im sinne des herstellres. Zumindest solange es keinen starken externen competitor gibt.
Insofern sind die hoffnungen der Kunden darauf zwar verständlich aber halt auch spätestens seit AMD seine karten vorgestellt hat, völlig unrealistisch.
 
  • Gefällt mir
Reaktionen: conglom-o
Pelzi schrieb:
Insofern sind die hoffnungen der Kunden darauf zwar verständlich aber halt auch spätestens seit AMD seine karten vorgestellt hat, völlig unrealistisch.
Was gefällt dir denn an den Karten nicht? Wenn AMD die 7700 und 7800 vorstellt hat AMD Nvidia in allen Preisbereichen komplett vernichtet (außer 4090) Ansonsten ist die 4070ti vernichtet mit der 7900XT die 4080 mit der 7900XTX, die 4060 ist vernichtet mit der rx 7600 die in 1440p sogar stärker ist und sonst einfach deutlich besseres Preis/Leistung hat, und wenn man noch die 6xxx gen mit berücksichtigt und oder den Gebrauchtmarkt haben auch die 4060ti und 4070 letztendlich wenig zu melden.

Wenn man aber sagt, ohh ich will nimmer warten ich bin bereit 100-200 Euro Nvidia Steuer zu zahlen damit ich sofort was neues hab, ja dann leg halt nochmal 100-200 oben drauf für ne 4070, die Karte ist nicht totaler Schrott wie die 4060 Reihe.

Da du Nvidia kaufen willst und glaubst die 4060ti wäre irgendwie akzeptabel belegt ja schon das du für wenige % mehr Leistung in 1 Auflösung bei manchen Spielen massiv mehr bezahlen bereit bist, dann kannst das auch für die 4070 tun.

Ansonsten kannst mir auch mal 100 Euro überweisen für nen Luftballon, du merkst dann wohl nicht wenn jemand dir Wucherpreise abverlangt oder lässt dich eventuell auch gerne betrügen, denn die 4060 grenzt ja schon an Betrug, halt legaler Betrug man verkauft ne 4050 um-gelabelt zu 4060 für 60er Preise, würde das ein OEM oder Privatmensch machen wäre es Betrug aber Nvidia darf das aus irgend einem Grund.
 
Die 16GB Version performt auch schlechter als die 8GB Version, da wundert mich das nicht-vorhanden sein der 16GB Version im Handel nicht.
 
Pelzi schrieb:
Wie gesagt, es mag andere Preferenzen geben. Ich würde 20% mehr leistung und 30% weniger Verbrauch den 50% mehr VRAM vorziehen.
Nur ist die 4060 keine 20% schneller als die 3060 sondern eher 10%. Und das nur auf modernen Systemen. Für das Geld der 4060 bekommt man auch eine 3060 Ti. Die ist dann nochmal schneller.

Einziges Argument für die 4060er bleibt die Effizienz und ggf. FG. P/L liegen sie weit hinter ihren Vorgängern.
 
Fenkel schrieb:
Was der VRAM von 16 GB auf dieser hoffnungslos kastrierten Karte soll, weiß nur Nvidia selbst.
Naja, hier meckern doch alle immer das Texturen das wichtigste für die Grafik sind und keine Leistung kosten sondern nur Speicher. Wo also ist die verkrüppelte Karte ein Problem? Das 128-bit Interface war in den ersten Tests auch kein Problem. Die Karte ist halt nur dann schneller wenn der 8GB Version der Speicher ausgeht. War doch alles schon bekannt vorher.
Wenn man also die 16GB Speicher braucht, dann ist die Karte besser als die 8GB Version. Man braucht ihn halt nur sehr selten. Nur wurde doch die ganze letzte Zeit überall die 8GB sind zu wenig Keule geschwungen, Jetzt hat sie 16GB ist aber auch falsch. Ja was denn jetzt?
 
Zuletzt bearbeitet:
@Fallout667 Die Karte ist zu langsam, um überhaupt höchste Details einstellen zu können, um die 16 GB nutzen zu können. Die Speicherbandbreite ist ein Witz und wird nicht durch den größeren Cache ausgeglichen.
 
Taurus104 schrieb:
die 6700XT hat gegenüber der 4060 non Ti selbst eine bessere Raytraycingleistung.
Nicht wirklich, laut Tests hier auf CB (die bei RT eh pro AMD sind da nur minimalte Settings gefahren werden) ist die 4060 3% schneller als die 6700XT. Demnach sind die Karten unter RT bestenfalls gleich schnell. Erhöht man die RT Last wird der Abstand noch größer zugunsten der 4060.
Im Raster ist die 6700XT dann 12% schneller und 12GB, dafür aber auch 40€ teurer.
Also irgendwie tun die sich alle nichts im Einstiegsbereich. Und bei allen muss man mit mehr oder weniger starken Kompromissen leben.
Entweder fehlt Speicher, es sind nicht alle neuen Features vorhanden, die Energieverbrauch zu hoch, die Leistung ist generell etwas mau und allesamt sind sie zu teuer.
Die 6700XT ist zwar noch die "beste" der Karten aber auch zu teuer. Ihr einziger Vorteil sind die 12GB, dafür dann fast 70€ mehr als für eine 3060 12GB hinzulegen und dabei noch fast 50% mehr Strom zu verbrauchen ist dann etwas zu happig mMn.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LamaMitHut und shaboo
Test von Hardware Unboxed mit dem Thumbnailtitel "Nvidia's $500 Joke 💩":


Der dazugehörige Tweet lautet: "Worst value GPU of the year/ever?"
 
Fenkel schrieb:
@Fallout667 Die Karte ist zu langsam, um überhaupt höchste Details einstellen zu können, um die 16 GB nutzen zu können. Die Speicherbandbreite ist ein Witz und wird nicht durch den größeren Cache ausgeglichen.
Wieso? Maximale Texturen kosten keine Leistung, wie kann die Karte da zu langsam sein? Und ob es für max Details neben den Texturen auch reicht oder nicht hängt dann vom Spiel ab.
Diablo 4 kannst du mit der Karte ohne Probleme auf UHD mit max Settings spielen. Und die 16GB Speicher werden auch schnell genug geladen, trotz des 128-bit Interface. Da ist sie auch entsprechend schneller als die 8GB Version, da der der Speicher ausgeht.
Bei anderen Titeln reicht es dann nicht für UHD. Muss man dann halt individuell je nach Titel beurteilen.

Klar ist die karte nicht der Knaller und eine 4070 oder 6800XT immer klar vorzuziehen, aber Schrott ist sie auch nicht. Nur viel zu teuer. Bei 350€ wäre sie eine echt brauchbare Karte.
 
  • Gefällt mir
Reaktionen: Kommando
blackiwid schrieb:
Was gefällt dir denn an den Karten nicht? Wenn AMD die 7700 und 7800 vorstellt hat AMD Nvidia in allen Preisbereichen komplett vernichtet (außer 4090) Ansonsten ist die 4070ti vernichtet mit der 7900XT die 4080 mit der 7900XTX, die 4060 ist vernichtet mit der rx 7600 die in 1440p sogar stärker ist und sonst einfach deutlich besseres Preis/Leistung hat,
Satire bitte kennzeichnen. Eventuell nimmt das noch jemand ernst.
 
  • Gefällt mir
Reaktionen: AI94, Fallout667 und shaboo
Fallout667 schrieb:
Wieso? Maximale Texturen kosten keine Leistung, wie kann die Karte da zu langsam sein? Und ob es für max Details neben den Texturen auch reicht oder nicht hängt dann vom Spiel ab.
Weil es einen Zusammenhang zwischen Speicher und Speicherinterface gibt. Das Speicherinterface bestimmt die Bandbreite. Je mehr FPS mit wechselnden Szenen ich habe, desto kritischer ist die geringe Bandbreite der 4060 ti. Ich fülle ja auch keinen 10 Liter Eimer mit einem Schlauch, der nur 1 cm Durchmesser hat.
Da die Karte von der Rechenleistung her mit FullHD ihr Maximum hat, sinkt auch der Bedarf an VRAM, denn weniger Pixel bedeuten (komprimiert) auch weniger Platz. Daher wären die 16 GB in der 4070 sehr viel sinnvoller gewesen.
 
blackiwid schrieb:
hat AMD Nvidia in allen Preisbereichen komplett vernichtet..

denn die 4060 grenzt ja schon an Betrug...
Komplett vernichtet, noch mehr übertreiben konntest du nicht oder?
AMD vernichtet ganz genau gar nix von Nvidia. Die paar % Unterschied zwischen den jeweiligen Modellen sind nicht wirklich die Rede wert. AMD besser in Raster Nvidia besser in RT.
Die Preise sind auch sehr ähnlich und unterscheiden sich nur um paar %.
Dafür saufen die AMD Karten dank RDNA3 Bugs alle zu viel und bringen nicht annähernd die Leistung die geplant war. Und FSR 3 lässt immer noch auf sich warten.

Ja AMD hat Nvidia in allen Preisbereichen komplett vernichtet. LOL

Und wieso Betrug? Weil du als Experte, wie viele andere hier auch, einfach entscheidest das es eine 4050 ist?
Wenn das ein 4050 ist dann zeig mir die gesetzlichen Vorgaben laut denen das eine 4050 ist. Gibt es nicht? Tja dann ist es wohl doch eine 4060 wenn Nvidia das sagt. Nur weil du dir hier den Anspruch hast das der Chip einer "echten" 4060 so und so zu sein hat stimmt das noch lange nicht.
Mal ganz davon abgesehen hat bisher noch niemand schlüssig belegen können das es eigentlich ein 4050 Chip ist. Alle diese tollen Diagramme und Tabellen mit Chipgrößen und % Unterschieden in der Leistung und so, kenne ich alle. Und keines davon zeigt eine Regelmäßigkeit nach der man es beurteilen könnte.

Natürlich ist die 4000er und auch die 7000er Gen nicht das gelbe vom Ei. Alle hatten mehr erwartet und zumindest auf bessere Preise gehofft. Aber dieses echt üble gehate hier die ganze Zeit ist mittlerweile nur noch nervtötend. Hier wird nur noch Gift und Galle versprüht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
Die zudem schnellere 6700 XT kostet 80€ weniger als die 4060 ti 8 GB. Dafür kann ich eine Menge Strom verbrauchen. Wenn es Nvidia sein muss, würde ich jetzt eher noch zur 4070 greifen und den kräftigen Aufschlag zahlen.
 
Fenkel schrieb:
Weil es einen Zusammenhang zwischen Speicher und Speicherinterface gibt. Das Speicherinterface bestimmt die Bandbreite. Je mehr FPS mit wechselnden Szenen ich habe, desto kritischer ist die geringe Bandbreite der 4060 ti. Ich fülle ja auch keinen 10 Liter Eimer mit einem Schlauch, der nur 1 cm Durchmesser hat.
Da die Karte von der Rechenleistung her mit FullHD ihr Maximum hat, sinkt auch der Bedarf an VRAM, denn weniger Pixel bedeuten (komprimiert) auch weniger Platz. Daher wären die 16 GB in der 4070 sehr viel sinnvoller gewesen.
Ja und erste Tests haben eben gezeigt das das Interface nicht zu langsam ist. Und jetzt?

In Full-HD sind aber auch 8GB manchmal zu wenig, 12GB gehen nicht wegen des Interface, also 16GB. Wo ist das Problem? Wenn man die 16GB braucht kann man diese auch nutzen auf der Karte.

Klar wären 12GB besser und 16Gb für die 4070 schöner gewesen, aber die Chips sind nunmal so produziert worden, die 16GB waren ja nie geplant. Erst als sich die Community aufgeregt hat weil 8GB zu wenig sind haben sie verdoppelt. Und jetzt meckert die Community das 16Gb sinnlos sind.
 
Zuletzt bearbeitet:
Man merkt dass die Schulferien begonnen haben wenn wieder die Rede von "Vernichten" und " Boden Wischen" ist.🤣
 
  • Gefällt mir
Reaktionen: Kommando, compujack, Zarlak und 5 andere
Fenkel schrieb:
Da die Karte von der Rechenleistung her mit FullHD ihr Maximum hat, sinkt auch der Bedarf an VRAM, denn weniger Pixel bedeuten (komprimiert) auch weniger Platz. Daher wären die 16 GB in der 4070 sehr viel sinnvoller gewesen.
Wo sie das Maximum hat, bestimmt nicht allein die Auflösung. Du kannst auch bei einer 4060 in 1440p zocken und 8k Texturen einstellen, wenn es das Game anbietet. Und dann hat die 16gb Version den Vorteil, dass sie nicht so schnell ins Limit kommt, während die 8gb Version rasch voll ist, ständig umschichten muss und dadurch deutlich an Frames verliert.

Fallout667 schrieb:
Mal ganz davon abgesehen hat bisher noch niemand schlüssig belegen können das es eigentlich ein 4050 Chip ist.
Nunja, es ist ein 107er Chip. Der wurde schon seit der 1000er Reihe immer nur für die xx50 Reihe verwendet. Also das Line-Up wurde wirklich nach unten verschoben bei Nvidia.

Aber warum sich jetzt alle auf Nvidia einschiessen versteh ich auch nicht. Die AMD Radeon 7600 hat ja auch nur 8gb. Dort wird nicht so ein Aufstand gemacht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben