News Eckdaten und Preise: GeForce RTX 4060 Ti 16 & 8 GB und RTX 4060 8 GB sind offiziell

@Saint81
Als wenn AMD wieder richtig gute Karten auflegt, würde mich - bei vergleichbarem Preisniveau - eine "nur" gute der Konkurrenz vielleicht nicht (mehr) reizen.
 
Zuletzt bearbeitet: (Formulierung)
  • Gefällt mir
Reaktionen: BGnom
Saint81 schrieb:
Ich bete dafür das AMDs nächste Generation richtig gut wird, damit nVidia mal wieder eine Motivation hat, gute Grafikkarten zu vernünftigen Preisen raus zu bringen.
Und wie wäre es, einfach AMD mit einem Kauf zu belohnen, wenn sie es schaffen Nvidia in Bedrängnis zu bringen?

AMD nur als Erfüllungsgehilfen zu sehen, ist am Ende nicht sonderlich förderlich. Wenn AMD mit einem besseren Produkt nichts verdient, weil alle anschließend zum Konter von Nvidia greifen, ist man doch direkt wieder an einem Punkt, wo AMD nicht mithalten kann und Nvidia sich weiter den Erfolg vergolden lässt.

Ähnliches nervt mich auch immer wieder bei CPUs, wo Einige nur hoffen, dass sie durch starke Konkurrenz von AMD ihre Intel-CPU günstiger bekommen können.

Welche Motivation hätte AMD also, Nvidia oder Intel zu übertrumpfen, wenn sich das nicht in Verkäufen auszahlt?
 
Zuletzt bearbeitet: (Rechtschreibung)
  • Gefällt mir
Reaktionen: JohnDonson, Oudenstekelig, Eli0t und 11 andere
Sinatra81 schrieb:
Stromverbrauch? DLSS?
Es ist keine Innovation, sondern verar$e,
während meine 1080 die fsr von amd nutzt, damit ich so ein schlecht optimiertes Game wie Hogwards spielen kann, wird dlss3 sogar so „alten“ Karten wie 30xx vorenthalten!
Evtl. Weil es dann klar wird, dass die Rohleistung eben nicht so sehr gewachsen ist.
 
  • Gefällt mir
Reaktionen: Eli0t und Mcr-King
Schiech schrieb:
wird dlss3 sogar so „alten“ Karten wie 30xx vorenthalten!
Sowohl für DLSS2 als auch DLSS3 braucht es spezielle Hardware. Das FSR2 überhaupt so gut mithält finde ich daher sogar recht beeindruckend.

Zu den 4060er: Hauen mich nicht vom Hocker. Technisch sind im Grunde alle 4000er Karten recht solide, aber die Preisschilder und Platzierung der Karten sind so ne Sache. Als ich auf meine 6800 gesetzt habe vor ca. einem halben Jahr, hab ich darauf gesetzt, dass ich im Sommer 2023 nichts gravierend besseres bekomme für 500€. An der Stelle mal alles richtig gemacht. Die 4060ti 16GB könnte auch bald zu dem Preis erhältlich sein und ist im Vergleich bisschen besser. Dafür zocke ich mit der 6800 schon ein halbes Jahr und hatte zwei Spiele dabei. Davon taugt mir sogar eines was (Dead Island 2).

Was eigentlich schon traurig ist. Ein halbes Jahr später mit der nächsten Generation.
 
  • Gefällt mir
Reaktionen: Stuffz und Mcr-King
Saint81 schrieb:
Anhang anzeigen 1359041
Ich bete dafür das AMDs nächste Generation richtig gut wird, damit nVidia mal wieder eine Motivation hat, gute Grafikkarten zu vernünftigen Preisen raus zu bringen.
Ich würde eher sagen selber Schuld. Man kann ja auch mal wenn AMD gute Karten bringt *hust rx6000er series hust, diese auch mal kaufen und AMD´s gute Leistung honorieren oder? Weil dann ist es auch egal ob Nvidia gute Karten bringt oder nicht. Denn die jetzige Situation haben wir doch nur, weil man selbst bei guten Karten von AMD, trotzdem zu Nvidia gegriffen hat und der Anteil an dedizierten Grafikkarten 83:17 Prozent für Nvidia steht.

Jetzt frag dich mal wie es aussehen würde wenn AMD komplett den Consumer Markt verlassen würde...Denn dann sind merkwürdig konzipierte Grafikkarten dein kleinstes Problem. AMD ist kein Preisdrücker für die Huldigung Nvidias.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, Orok91, eXe777 und 4 andere
Freue mich riesig auf die 4060ti mit 16gb und hoffe der Preis fällt ein wenig, aber wäre für mich genau die Karte, die ich bräuchte :D
 
void95 schrieb:
Freue mich riesig auf die 4060ti mit 16gb :D
Derzeit wäre ein 6800XT die bessere Wahl..
Ich wage zu behaupten, dass die 4060Ti / 16 nicht in der Lage ist den VRAM auszulasten.
 
  • Gefällt mir
Reaktionen: ComputerJunge
mibbio schrieb:
Und wie wäre es, einfach AMD mit eine Kauf zu belohnen, wenn sie es schaffen Nvidia in Bedrängnis zu bringen?
Und genau deswegen habe ich soeben eine 6700XT bestellt. Naja, auch weil die kurz in Deals aufgetaucht ist, und eine der Marken war, die ich sowieso auf dem Radar hatte. Und weil ich nicht einsehe, eine Krücke mit nur 8GB für mehr als 400€ zu holen. 8GB hatte ich schon vor einem halben Jahrzehnt, und neue Karten mit dieser Ausstattung (und auch noch mit reduzierter PCIe-Bandbreite) herauszubringen ist in meinen Augen eine Frechheit.

Jedenfalls hat mich meine 1060@6GB lange genug genervt. Sie ist keine schlechte Karte, aber ich will endlich FreeSync über HDMI (Kabel einsparen). Und gescheite Lüftersteuerung unter Linux (mit freien Treibern, keine proprietären, wo man so gut wie keinen Support hat, wenn man auf Bugs stößt). Und überhaupt stabilen Betrieb unter Linux, auch keine Bugs mit Erkennung der Ausgänge nach Standby und ähnlichen Späßen.
Ergänzung ()

Crifty schrieb:
Jetzt frag dich mal wie es aussehen würde wenn AMD komplett den Consumer Markt verlassen würde...Denn dann sind merkwürdig konzipierte Grafikkarten dein kleinstes Problem. AMD ist kein Preisdrücker für die Huldigung Nvidias.
Eben. Den Mist hatten wir früher schon mal mit CPUs - der Geizkragen namens Kunde meinte, die Wettbewerber sollten nur die Preise drücken - gekauft hat man dann vom Marktführer. Und dann waren Cyrix und VIA u.a. dann eben weg vom Fenster.
 
  • Gefällt mir
Reaktionen: Eli0t, eXe777, Schneee und 2 andere
Rockstar85 schrieb:
Derzeit wäre ein 6800XT die bessere Wahl..
Ich wage zu behaupten, dass die 4060Ti / 16 nicht in der Lage ist den VRAM auszulasten.

Ich will die GPU hauptsächlich für AI Bildgeneration nutzen, da ist AMD leider komplett nutzlos aktuell. und die 16GB Ram kommen mir da auch sehr zugute :)
 
Crifty schrieb:
. Denn die jetzige Situation haben wir doch nur, weil man selbst bei guten Karten von AMD, trotzdem zu Nvidia gegriffen hat und der Anteil an dedizierten Grafikkarten 83:17 Prozent für Nvidia steht.

.
Sind allerdings nur die Zahlen Weltweit von ausgelieferten bzw. Produzierten Chips.

Steam ist zum Großteil China/Indien/Russland mit Internetcafe vertreten.

Bei den normalen Verkäufen kann AMD sehr gut mit Nvidia mithalten, teils auch mehr verkaufen.
Google mal die Sales von RTX4070, in ein paar US Foren und auch hier geben die Händler zahlen raus oder werden wie bei Mindfactory öffentlich sichtbar.

NV beliefert sich mit GeForce Now auch selbst und die AI Rechenzentren sorgen auch für Absatz neben den alt Bekannten.

In 4 Wochen beginnt die Urlaubszeit! Wen interessiert da ernsthaft ne überteuerte Grafikkarte?
Verkaufszahlen gehen jetzt schon in den Keller.
 
  • Gefällt mir
Reaktionen: Mcr-King
Die 5060 wird dann 1 GB L2 Cache haben bei 2 GB VRAM und Nvidia wird uns sagen, das würde wie 24 GB VRAM funktionieren?
 
  • Gefällt mir
Reaktionen: Eli0t, Grundgütiger und Mcr-King
Vitche schrieb:
Und bei der 4060, was soll man da groß sagen. Von 12 GB auf 8 GB runter, aber zum Preis einer 3070, die mehr Leistung und eine höhere Bandbreite bietet? Die Karte hätte man sich auf den ersten Blick imho sparen können und einfach die 3070 weiter im Preis fallen lassen sollen. Von der 6700 XT von derzeit zuverlässig unter 400 Euro muss man da gar nicht anfangen.
Wo genau kostet die 4060 so viel wie eine 3070? Die 4060 kommt für 330€ und die 3070 kostet über 440€?

Die 4060 wird keine gute Karte für den Preis sein. Aber sollte sie für 330€ kommen und die 3070 knapp 25-30% mehr performance haben, ist die Preis/Leistung ebenbürtig, bloß braucht die 4060 die Hälfte vom Strom und bietet DLSS 3.

Wie gesagt, mir gefällt die Karte auch nicht, aber sie ist trotzdem wichtig für den Markt, weil AMD sonst die 7600 und 7600XT zu hoch vom Preis ansetzen würde. Die 7600 wird basically eine 6650XT mit 20-30 Watt weniger Verbrauch und besserem raytracing, was bei der Leistung und 8GB sowieso größtenteils irrelevant ist.

Die darf keinen Dollar über 249$ kosten, was hier knapp 270-280€ wären, was halt genau eine 6650XT kostet. Fürs gleiche Geld nimmt man dann definitiv die 7600, muss man aus den zwei Karten wählen, aber für knapp über 300€ gibt's die 6700 10GB und knapp 360€ die 6700XT mit 12GB.

229$ wird die 7600 nicht kosten, so weit runter will AMD bestimmt nicht gehen, ich hoffe einfach auf eine 7600 für 249$, eine 7600XT für 299$, wird leicht schneller als die 4060 sein in Raster, langsamer in raytracing und braucht 50-60 Watt mehr Strom. Die werden definitiv im Preis fallen, weil kaum einer die kaufen wird.

Die 6600 wäre unter 200$ auch echt ne top Karte. Das gute an den neuen Karten ist glaube ich nicht, dass sie wahnsinnig gut sind, sondern das sie ungefähr gleich gut sind wie die alten Karten sind, also entweder fallen die Preis der alten Karten, der neuen Karten oder von beiden...
 
Zuletzt bearbeitet:
flug_rosetto schrieb:
ich frage mich: wenn die eh nur 1080p vernünftig kann, was soll ich dann mit 16gb speicher?
~3070 Performance ist plötzlich nur noch für 1080 gut ?
Lupin III schrieb:
wie sagt man es am schonensten... geistig benachteiligte(?) geben, die sowas echt auch kaufen und eventuell auch toll finden
Du hast momentan kaum eine Wahl. AMD bekommt nix gebacken und ist vermutlich mehr oder weniger genau so teuer. Was bleibt sind die Reste von RDNA2 nur was baue ich ein wenn die denn Mal alle Abverkauft sind ?
 
  • Gefällt mir
Reaktionen: Mcr-King, BGnom und Lupin III
nomika schrieb:
Die 5060 wird dann 1 GB L2 Cache haben bei 2 GB VRAM und Nvidia wird uns sagen, das würde wie 24 GB VRAM funktionieren?
Wie auch immer sie das VRAM Thema lösen, wenn es funktioniert dann funktioniert es.
Am wahrscheinlichsten ist deren KI Lösung um massiv VRAM Kapazität zu sparen.
Wird bei einigen Alteingesessenen aber ein paar Generationen brauchen bis es in den Köpfen ankommt. Sieht man ja frisch wie viele noch an der Speicherbandbreite rumreiten und den L2 Cache ignorieren oder nicht verstehen wollen.
 
BOBderBAGGER schrieb:
Du hast momentan kaum eine Wahl. AMD bekommt nix gebacken und ist vermutlich mehr oder weniger genau so teuer. Was bleibt sind die Reste von RDNA2 nur was baue ich ein wenn die denn Mal alle Abverkauft sind ?
Das ist das Problem an einem 86/14 Markt. Erinnern wir uns in der CPU-Historie zurück: Hätten manche Käufer damals nicht zur ersten Generation Ryzen gegriffen und ein Zeichen Richtung INTEL gesendet, sähe der CPU-Markt höchstwahrscheinlich immer noch so aus, das 4 Kerne das Non-Plus-Ultra wären. Im Zweifel ist RDNA3 nicht schlecht. Nur die gerade überzogenen Preise würde ich im Moment nicht zahlen, egal für welchen Hersteller. Wenn RDNA2 zwei EOL und abverkauft ist, muss RDNA3 preislich nachrücken, sonst sinken die Verkäufe auch dort gen null. Meine persönlich Meinung... für eine 4060er Karte über 500€, tut mir leid, eher fällt mir der Dödel ab.
 
  • Gefällt mir
Reaktionen: BGnom
Chesterfield schrieb:
Bin gespannt wann es soweit ist , dass eine 4060ti 16GB Custom oc Modelle an der 4070 12GB vorbei zieht.
Wird nicht lange dauern, genauso wie ein Spielen in vielen aktuellen Titeln mit der 3060 12GB Smotther ist wie mit einer 3060ti mit ihren Krüppeligen 8GB.
 
flug_rosetto schrieb:
ich frage mich: wenn die eh nur 1080p vernünftig kann, was soll ich dann mit 16gb speicher?

DLSS FG braucht schon in WQHD 1GB mehr VRAM gut möglich dass man damit die 8GB Schwelle gerade so überschreitet. Siehe oben.

Was soll das heißen kann nur FullHD? Texturen kosten keine Leistung. Soll Leute geben die lieber in höhere. Auflösungen mit reduzierten Details spielen!
Dann noch die Möglichkeit zukünftig von FullHD auf WQHD oder 4k zu gehen und halt die Regler nach links zu schieben.

Sind die Texturen nativ sehen die meisten Spiele auch auf Low/Med mix noch ganz gut aus.

Das Problem ist halt dass durch das 128bit Interface tatsächlich Leistung verloren geht in höheren Auflösungen.
Aber der VRAM ist immer sinnvoll!
 
  • Gefällt mir
Reaktionen: DerRico, Mcr-King und BGnom
Nolag schrieb:
Eigentlich braucht es keine KI um massiv VRAM einzusparen. Würden die problematischen Games z.B. DirectStorage SFS implementieren, wären 8GB mehr als ausreichend.
Es gibt noch nicht mal auf der Konsole ( mit gleicher Hardware) ein Game das das nutzt. Evtl ist das alles nicht so einfach wie hr euch das immer so vorstellt. Nur weil es möglich ist heißt es nicht, dass es einfach, kostengünstig und damit für die Entwickler lohnenswert ist. Was meinst warum Nvidia regelmäßig ihre Leute für irgendwelche Implementierungen zu den Studios schickt? Weil es ansonsten keiner machen würde.
Alternativ könnte Nvidia mal ihren Geiz überwinden aber wir wissen ja dass sie das nicht müssen.
 
Nebula2505 schrieb:
Die 4060 wird keine gute Karte für den Preis sein. Aber sollte sie für 330€ kommen und die 3070 knapp 25-30% mehr performance haben, ist die Preis/Leistung ebenbürtig, bloß braucht die 4060 die Hälfte vom Strom und bietet DLSS 3.

Also ist es neuerdings schon ein Verkaufsargument, wenn man bei ner 60er Karte einer neueren Generation das gleiche P/L bekommt wie bei ner 70er Karte der alten Generation, obwohl die 60er eigentlich ein besseres P/L haben sollte? :freak:

Egal wie man es dreht und wendet, der Preis für ne als 60er rebrandete 50er Karte ist viel zu hoch.
 
  • Gefällt mir
Reaktionen: DerRico und iceshield
Zurück
Oben