News GeForce RTX 4060 Ti 16 GB: Tests zum Start am 18. Juli sind sehr unwahrscheinlich

ruthi91 schrieb:
Ja mei 103 oder 104, ich beziehe mich auf Shader bzw. Chipgröße und da liegen zwischen 4090 und 4080 einfach Welten, sprich da klafft eine 60% Lücke.
Ich finde die Argumentation schwierig.
Wäre es besser gewesen, wenn NVIDIA wie in der letzten Generation bei der keine Fertigung von der Resterampe genutzt wurde, bei 470mm^2 Fläche (GP102) oder niedrigerer Transistordichte geblieben wäre?

AD102 ist ein riesiger Klopper. Das hat vermutlich auch AMD überumpelt. GP102 ist näher am AD103 dran als am AD102.
 
rg88 schrieb:
400€ für eine Grafikkarte der Einstiegs- bis unteren Mittelklasse :D LOL
Aber es gibt wohl noch zu viel Lemminge, die genau sowas kaufen und vorallem auch die überteuerten Modelle darüber.

Bin da bei dir.

Was machen jedoch Leute, die eine neue Gpu brauchen und auf PC Gaming eben nicht verzichten wollen?
Entweder gebraucht kaufen, was auch immer noch teuer und risky ist mMn. oder eben ein gewisses Budgets einhalten kaufen.

Das sind keine Lemminge. Diese Leute zu beleidigen ist halt falsch.
Kenne genug deren GTX 1060/1070 eingegangen ist und die dann lange gesucht/überlegt haben und schlussendlich einfach gekauft haben.
 
  • Gefällt mir
Reaktionen: FrankN84, Oudenstekelig und Gsonz
Finde beleidigen auch nicht den richtigen Stil. Bis Herbst letzten Jahres hatte ich für mein System auch noch eine 1070 am laufen, und habe die dann doch noch gegen eine 3060 Ti gekauft. War angesichts des gegebenen Systems vielleicht ein wenig zu stark sogar, Stichwort CPU-Flaschenhals, trotzdem macht mir die Karte bis heute viel Freude. Selbst wenn sie mit 520 nicht günstig war, für FHD-Gaming reichts, und laut Geizhals ist dieses Modell bis heute sogar preisstabil. Und abzüglich der alten Karte hab ich plusminus 330 Euro bezahlt, was ich in Ordnung finde.

Würde ich mir heute ein neues Sys kaufen, würde ich wohl echt überlegen ob AMD oder Nvidia. Hab die letzten Jahre immer die grünen gehabt, aber die Preisentwicklung finde ich dann doch recht zweifelhaft. Mal sehen. Wird wohl eh erst nächstes, vermutlich eher übernächstes Jahr ein Thema.
 
Gsonz schrieb:
Die 4080 hat 16GB und ist schneller als eine 3090Ti, das ist eigentlich eine sehr gute Karte wenn sie denn günstiger wäre.
Das Problem der Karten sind eigentlich nicht die technischen Spezifikationen, sondern die Preise. Bei 200€ für eine 4060 würde wohl keiner über die Beschneidungen meckern.
Ergänzung ()

Caramelito schrieb:
Bin da bei dir.

Was machen jedoch Leute, die eine neue Gpu brauchen und auf PC Gaming eben nicht verzichten wollen?
Entweder gebraucht kaufen, was auch immer noch teuer und risky ist mMn. oder eben ein gewisses Budgets einhalten kaufen.

Das sind keine Lemminge. Diese Leute zu beleidigen ist halt falsch.
Kenne genug deren GTX 1060/1070 eingegangen ist und die dann lange gesucht/überlegt haben und schlussendlich einfach gekauft haben.
Also wenn einem eine 1060 / 1070 eingeht 2023 bekommt man auf dem Gebrauchtmarkt bei 200€ sehr guten Ersatz in Form der RX5700XT oder auch RX6600XT, muss also nicht unsummen investieren.
Natürlich hat man damit keine Vram Erhöhung oder 200% Leistungssteigerung, aber eben mit den älteren Karten in 2023 dürfte der Anspruch sowiso gemässigt sein und man bekommt hier zumindest leistbar Ersatz, der doch an die 50% schneller sein sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando, Robot und Desmopatrick
Fallout667 schrieb:
Ich kenne genug Gamer denen die Preise komplett egal sind. Die sind dann Ärzte, Anwälte, Naturwissenschaftler usw. die einfach genug Geld haben und dazu nach Job und Familie sehr wenig Freizeit für das eigene Hobby. Die wollen sich gar nicht damit beschäftigen welche Hardware sie kaufen. Die kaufen meistens einfach das dickste fertig System was sie bekommen können. Ich habe im persönlichen Freundeskreis und der Familie niemanden der was kleineres als eine RTX 3090 im Rechner hat. Ob der neue PC jetzt alle paar Jahre 5000€ oder 6000€ kostet interessiert da niemanden. Aber Intel und Nvidia muss es bei jedem sein, damit haben sie gute Erfahrungen gemacht also wird das gekauft.
Kenne ich auch einige von. Aber die Gruppe, die @Caramelito skizziert hat, ist halt eine völlig andere.
 
Vitec schrieb:
Also wenn einem eine 1060 / 1070 eingeht 2023 bekommt man auf dem Gebrauchtmarkt bei 200€ sehr guten Ersatz in Form der RX5700XT oder auch RX6600XT, muss also nicht unsummen investieren.
Die wollen keine neue AMD kaufen, und dann soll es eine gebrauchte werden? ^^

Ich hole heute die nächste 7900 XT ab .. Für mich die besten Grafikkarten aktuell.
Ist quasi die "neue" GTX 1070 für mich.

Leistung für heutige Verhältnisse sehr gut.
VRAM perfekt und zukunftsfähig!
Und man findet sie zu halbwegs vernünftigen Preise für heutige Verhältnisse.
 
  • Gefällt mir
Reaktionen: cruscz
@Trelor Ja bei der 4090 bzw. AD102 haben sie nicht gekleckert sondern geklotzt. Neue Architektur + deutlich mehr Takt + 5nm Shrink ist dann der Triple-Wumms. Bei der 3090 wurden schon die Augen groß mit 350W TDP, nachdem praktisch ein Jahrzehnt Highend Karten bei 250W TDP (Referenzmodelle) die Messlatte war.
Die 4090 setzt sich mit 450W (ohne Ti, OC oder sonstiges) nochmal oben drauf.

Ob AMD von der 4090 überrumpelt wurde? Zum Teil glaube ich ja, bzw. ihre Informationslage/Spione waren einfach schlecht. Aber sie hatten fast ein halbes Jahr mehr Zeit und ihre eigene Benennung der Karten zeigt ja wo sie hin wollten. Und in das Messer sind sie mit Anlauf reingerannt.
Die Rohdaten der 7900 klingen auch konkurrenzfähig und sie waren sich nach der 6900XT bestimmt auch ziemlich sicher wieder mit RDNA3 ganz vorne mitspielen zu können. Aber das Chiplet Design (was bei Zen1-2 auch noch Probleme hatte) ist nun auch auf der 7900 vorerst in die Hose gegangen. So Pi mal Daumen hatten sie sich 500Mhz mehr Takt bei 100W weniger Verbrauch erhofft, aber einen Fehler im Chipdesign bügelt man halt nicht mal so eben schnell aus. Selbst den verspäteten Release haben sie ja schon mit Biegen und Brechen noch in 2022 gedrückt. DLSS Frame Generation hat sie komplett kalt erwischt, mussten panisch FSR 3 ankündigen, fehlt immernoch jede Spur von.

Immerhin haben sie nun endlich den idle Verbrauch überwiegend gefixt.
 
Caramelito schrieb:
Diese Leute zu beleidigen ist halt falsch.
Das sollte keine Beleidigung sein.
Aber im Grunde sind diese Leute genau der Grund, warum der Markt kaputt ist. Man kann am Markt nur das verlangen, was die Kunden bereit sind die Zahlen. Würden sie die Dinger gar nicht loswerden, würden die Preise wieder sinken (tun sie ja eh schon in letzter Zeit).
 
Ja gut, dennoch bleibt die Frage: Auf PC Gaming verzichten oder eben kaufen?
Die Leute wollen halt ihrem Hobby nachgehen :-)
 
  • Gefällt mir
Reaktionen: Gsonz
Artikel-Update: Nvidia hat der Spekulation, Boardpartnern vor dem Marktstart die Bemusterung zu untersagen, gegenüber ComputerBase widersprochen. Partner könnten Muster an die Presse aussenden - auch vor dem 18. Juli. Weil es sich bei der 16-GB-Variante der GeForce RTX 4060 Ti nur um eine Variante einer bereits seit Mai verfügbaren Serie handelt, sehe Nvidia von einer eigenen Bemusterung allerdings ab. Die Meldung wurde entsprechend angepasst und um Informationen, warum auch die Boardpartner höchstwahrscheinlich keine Muster vorab liefern, ergänzt.
 
  • Gefällt mir
Reaktionen: cruscz, FrankN84, C4rp3di3m und 2 andere
rg88 schrieb:
Masochist? ;) Also ein C2Q ist ja schon im Desktopbetrieb ne zähe Angelegenheit
Ja wirklich? :o Hoffentlich liest mein C2Q (@ 3,8 GHz) hier nicht mit, denn der weiß nix davon zäh zu laufen. ;)

yaegi schrieb:
Des CBs Zocker-Kurzsichtigkeit... Es gibt auch Menschen die arbeiten mit ihren Rechnern. Und da ist einem ne "langsamere" Grafikkarte mit viel VRAM 100mal lieber!
[ernst gemeint] Von welchen Arbeiten sprichst Du genau?
 
@Jan
Hattet ihr schon darüber nachgedacht bei zukünftigen Grafikkartentests das Thema KI zumindest oberflächlich mit einzubeziehen?
Also z.B. die Zeit die es brauch um ein Bild in Stable Diffusion zu erstellen.
Mich würde z.B. interessieren ob bei dieser 4060Ti (die sich mit 16GB ja theoretisch dafür anbieten würde), das kleine Speicherinterface zur Bremse wird.
 
  • Gefällt mir
Reaktionen: Krazee, 9t3ndo, BGnom und eine weitere Person
Jan schrieb:
Ich nehme Vorschläge zum Thema, gerne inklusive "Anleitung", per PM gerne entgegen! :) @Xes
Anleitungen kann ich dir leider nicht geben, denn ich bin in dem Bereich nur interessierter Laie, aber eventuell liest dies hier ja jemand, der sich damit besser auskennt und kann das übernehmen. 😉
Würde mich freuen. 👍
 
  • Gefällt mir
Reaktionen: BGnom und Jan
denn der weiß nix davon zäh zu laufen
....musst es ihm halt mal sagen das er ein zähes Stück Alteisen ist, woher soll er das sonst wissen, wenn es ihm keiner sagt! ;)
Aber mal ehrlich, ich bin gerade von einem 4930K auf den kleinen Intel i5 13600K umgestiegen und die neue Technik mit vielen Kernen, super schnellen M2 SSDs und viel RAM ist wirklich eine neue Computerwelt!

Habe den jetzt schon seit rund 4 Wochen und jedes mal wenn ich ihn anschalte, ein Programm öffne, freut es mich zu sehen das ich noch nicht mal schaffe die Hand von der Maus zu nehmen und das Programm ist bereit!
Selbst so etwas zähes wie Photoshop, was mit dem alten Rechner rund 15 Sekunden gedauert hat, ist jetzt innerhalb von 1 Sekunde einsatzbereit!
 
Lars_SHG schrieb:
Selbst so etwas zähes wie Photoshop, was mit dem alten Rechner rund 15 Sekunden gedauert hat, ist jetzt innerhalb von 1 Sekunde einsatzbereit!
(Bei einem first-start nach einem Kaltstart, also nicht im cache liegend) - Niemals nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m, Grundgütiger und DerFahnder
Wird trotzdem interessant sein wie die 128bit BUS Kastratte damit klar kommt.

Es bleibt dabei XX60 sollte 192er BUS haben und 12GB dann wäre es ein faires Geschäfft und 1440p geht ok.
Jetzt bei den Speicher Ramschpreise so viel Aufschlag zu verlangen ist halt Lederjackenstyle.

mfg
 
  • Gefällt mir
Reaktionen: Sascha631 und BGnom
C4rp3di3m schrieb:
Es bleibt dabei XX60 sollte 192er BUS haben und 12GB dann wäre es ein faires Geschäfft und 1440p geht ok.
Beziehst du das Caching in deine Überlegung mit ein?
Ja nach Hitrate ist ein 128b Interface auch bei gleichen Speicherchips schneller.
 
  • Gefällt mir
Reaktionen: bensen
Trelor schrieb:
Ja nach Hitrate ist ein 128b Interface auch bei gleichen Speicherchips schneller.
Das werden wir dann sehen und bei der ist der (L3) eher klein.

In der Therorie ist eine Sache, in der Praxis in den Tests eine andere.

Grüße
 
Zurück
Oben