News Eckdaten und Preise: GeForce RTX 4060 Ti 16 & 8 GB und RTX 4060 8 GB sind offiziell

Chismon schrieb:
Zum Glueck muss man keine nVidia Karte jetzt oder danach kaufen, denn es gibt ja (noch) welche von AMD/RTG und Intel :).

AMD ist für mich leider nicht kaufbar im Grafikkartenbereich. Die Effizienz ist schlecht bis miserabel im Gegensatz zu Ada. Dazu profitieren viele Anwendungen von Nvidia Grafikkarten. Dazu Features wie GSync, Reflex, DLSS3, Raytracing, Pathtracing und noch 2-3 andere Vorteile. Da spare ich dann nicht 100€ bei AMD und habe jede Menge Nachteile.

Bei den Prozessoren hat man hingegen wirklich 2 gute Optionen und da bevorzuge ich AMD aktuell.
 
Sinatra81 schrieb:
Stromverbrauch + DLSS
Hört doch mal auf damit, ist einfach Lächerlich sich alles damit schön zu Reden, egal bei welchem Hersteller.

DLSS und FSR sind Fake, da wird via upscale eine Leistungssteigerung interpoliert die Physisch nicht vorhanden ist. Wer ernsthaft eine GPU kauft weil die mehr Leistung mit so was bringt als eine andere ohne, das ist kein Argument. Ebenso wie der Verbrauch, wir reden hier von wenigen Euro im Jahr, die meisten überschätzen dass. Zum einen läuft eine potente GPU die gar kein upscalegedöns braucht, selten am Limit. Dann wie viel Zeit Spielen die Leute am Ende damit Netto und wie lange läuft die Karte dabei auf Anschlag.

Bei Anschaffungskosten von um, oder weit über 1000€ wo Spielt das dann wirklich eine Rolle? Eben, gar keine.

Ganz Ehrlich; 16x Anbindung PCIE v4/v5, min. 192bit BUS und min. 16GB VRAM. Alles andere ist kalter Kaffee.
Upscale+RT braucht man nicht. Strom ist auch unwichtig.

16GB ist ein Schritt in die richtige Richtung, aber 128Bit Bus ist Schmutz und wie viele PCiE Lines hat die eigentlich?

mfg
 
  • Gefällt mir
Reaktionen: phil76
Master Chief ! schrieb:
Wie kann man bei den Preisen von Speicher für 8GB mehr heute 110€ Aufpreis verlangen?
Man probiert es einfach? Ich weiß, eine schnippische Antwort.

Die aktuellen dGPU-Lineups sind ein Trauerspiel. Für den Preis eines 4-Gang Gourmet-Menüs gibt es bei AMD und Nvidia immerhin einen Hauptgang mit Beilage. Im grünen Restaurant wird ein Wiener Schnitzel mit deftigen Speckbratkartoffeln in noch akzeptabler Menge samt Beilagensalat serviert. Im roten Gasthaus erhält man ein Schnitzel Wiener Art mit einem Berg nicht ganz knusprigen Pommes, dazu dafür einen etwas größeren Salat.

Bei Nvidia passt es zumeist technisch, dafür gibt es weiterhin (noch) eine Absurdhöchstpreisgarantie. Unterhalb der 1.000€-Grenze gibt es gratis dazu die Backpfeife in Form der Speicherbestückung. Da hilft auch die 4060 Ti mit 16 GB nicht, für mich ist diese Karte technisch einfach unausgewogen.

Abgesehen von meinem ersten 3D-Beschleuniger (Voodoo) kamen bis Januar dieses Jahres alle meine 3D-Karten aus dem Hause ATI/AMD. Ich war mit den Karten zufrieden und hatte mich in diesem langen Zeitraum auch mit der AMD-spezifischen Semantik des Adverbs "bald" in Bezug auf Software-Support arrangieren können. Es gab ja immer wieder großartige Karten - sofern man warten konnte.
Aber RDNA3 finde ich bisher enttäuschend, VRAM hin oder her. Und bzgl. der Treiberoptimierungen hatte ich nicht erneut Lust auf Herumgeeiere und Intransparenz ("we're working on it", "bald"). Ohne Zweifel gibt es da ein größeres Problem, welches nur schwer oder gar nicht per Software fixbar ist. Ansonsten würde AMD nicht der marktbeherrschenden Konkurrenz erlauben, das Feld über die gesamte Spannbreite der aktuellsten Produkte SKU für SKU alleine zu besetzen.
 
  • Gefällt mir
Reaktionen: danyundsahne, TodboT, Wichelmanni und 2 andere
Ayo34 schrieb:
zwar auf Effizienz-Perspektive. Die 4090 hat deutlich mehr Leistung, aber eben auch nur die 24GB der 3090.


Mit Wiedereinfuehrung einer 90er Karte bei nVidia und mangels neuem Titanmodell, ist die RTX 3090 damals extrem ueppig mit 24GB Speicher ausgestattet worden (eben nicht als Spielerkarte sondern eher an semi-professionelle und nicht primaer Spieler addressiert) und daher auch sehr langlebig aber eben nur fuer die Early Adopter und Hobby-Enthusiasten-Gruppe wegen des hohen Preises je von Interesse gewesen.

Das hat sich mit den massiv ansteigenden Speicherbeduerfnissen bei Spielen sicherlich gewandelt und mehr als 24GB Speicher braucht es jetzt und voraussichtlich fuer 4K/UHD auch 4 Jahre lang nicht in aktuellen/neuen AAA Spielen (jetzt werden 16GB idealer Weise genutzt, in ca. 2-3 Jahren dann 20GB und erst danach in 4-5 Jahren 24GB, zumindest sagt das meine Glaskugel voraus).

Darunter ist aber massiv neben dem Speicher die Leistung gekuerzt worden und alle Modelle eigentlich eine Stufe niedriger in der Leistung als von der Bezeichnung her angesetzt (das hatte ich ja schon vorher ausgefuehrt und MLID, JayzTwoCents und einige andere Influencer oder Tech-Tuber teilen diese Meinung) und das geht neben der horrenden Preiserhoehung (fast 50% bei der 80er Serie, mehrere Hundert Euro bei der 70erTi usw.) leider gar nicht und ist komplett daneben, egal wie schoen die Effizienz ist (ewig duerften die wenigsten Ada Lovelace halten und genutzt werden)

Ayo34 schrieb:
Die 4070er Karten sind auch deutlich besser mit 12GB anstelle von 8GB und zudem auch wieder sehr effizient geraten. Ich fand die 3000er Generation mit 8 bzw. 10GB bei 70er und 80er Karte völlig daneben.

Die jetzigen 70er Karten sind die heutigen mit dem Speicherausbau in 2 Jahren, sorry, aber das muss man leider so hart einschaetzen, denn fuer einige UHD/4K Titel reichte es schon ab Marktstart nicht mehr, nicht wegen der dGPU-Leistung sondern 12 GB grossen, dafuer eben (bewusst) knapp bemessenem Speicher und selbst in WQHD mit RT-RT wird es mittlerweile sehr knapp und die Karten sind gerade erst einmal wie viel Monate oder Wochen auf dem Markt?

Man koennte sogar argumentieren, dass der Speicher zum Martkstart und kurz danach bei der RTX 3070(Ti) noch nicht so knapp auf Kante genaeht war wie jetzt bei den Nachfolgekarten.

Ich will Dir und anderen damit die Karte nicht madig reden, aber das nur anmerken, zumal ich mit 16GB Speicherbedarf in 2 Jahren fuer WQHD rechne, so dass die RTX 4070(Ti) Karten zwar von der Leistung noch locker reichen werden, aber eben vermutlich am Speicher verhungern duerften in anspruchsvollen neuen Spielen (Immortals of Aveum duerfte schon vorher gruessen lassen, insbesondere fuer eine RTX 4070, auch wenn da noch eine RTX 3080Ti mit 12GB fuer WQHD in hohen Detaileinstellungen gefordert wird bzw. eine RX 6800XT mit 16GB).

Da die 12 GB Version der RTX 3080 (mit unwesentlich Mehrleistung gegenueber der Vanilla Version und eben den sehr relevanten 2GB mehr) leider viel zu spaet, mitten im Kryptomining-Boom mit i.d.R. zu hohem Aufpreis kam, war Ampere fuer mich auch herzlich uninteressant, aber genau diese Leistung bietet jetzt noch nicht einmal eine RTX 4070 (von der RTX 3080Ti ganz zu schweigen).

Also ich bin da sehr skeptisch und wuerde die nVidia 70er Ada Lovelace Karten nicht empfehlen, in dem Preisbereich (nahe der RTX 4070) eher die RX 6950XT, die - mit Ausnahme der Effizienz - den idealen Kompromiss mit 16 GB und einer Leistung knapp unter der RTX 4070Ti im Schnitt ist und aktuell auch noch relativ locker fuer Einsteiger-UHD/4K reicht.

Was die kommende (viel zu spaete) RX 7800XT angeht, so duerfte diese preislich, effizienztechnisch und das weitere Warten (zum Glueck habe ich darauf nicht gewartet) nicht lohnen, dann besser gleich auf RDNA4 oder RTX 5000er Karten (bei denen der Speicherausbau dann hoffentlich wieder besser ausbalanciert ist und Leistung(sklassse/szuwachs) fuer den Preis wieder stimmt) ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AI94, TodboT und Mcr-King
DerRico schrieb:
Bei AMD ist es noch schlimmer, die "7900xtx" ist ein absoluter Witz ggü. der damaligen 6900xt. Kaum schneller, verbuggt, versoffen, viel teurer.

Keine Konkurrenz, keine guten Preise
Naja zumindest ist bei AMD die RT Leistung gestiegen und im Gegensatz zur RTX40 die DLSS3 exklusiv gedöns. 😉 FSR2 für alle. 😉
 
coral81 schrieb:
Die 4060 /8GB ist aufgrund des niedrigen Stromverbrauch von 110 Watt für den einen oder anderen empfehlenswert.
So eine RTX 4060 8 GB mit nur 75 Watt TBP in ITX-Format wäre super 🙂
 
C4rp3di3m schrieb:
DLSS und FSR sind Fake
C4rp3di3m schrieb:
Wer eine RTX-Grafikkarte besitzt und DLSS nutzt, der kann sowas nicht von sich geben, weil es schlicht falsch und völlig unnötig abwertend ist. Und Meinungen aufgrund von Hörensagen als Fakten verbreiten zu wollen, ist gefährlich und sollte man auch tunlichst unterlassen. ;)
Mcr-King schrieb:
FSR2 für alle. 😉
Es gibt ein Vielfaches an Nvidia-GPUs, die verkauft werden und im Umlauf sind. Selbst wenn AMD wollen würde, wäre man nüchtern gar nicht in der Position, FSR ausschließlich für die eigenen GPUs verfügbar zu machen. Damit schadet man sich als krasser Underdog nur selbst auf Dauer.
 
Ayo34 schrieb:
Die Effizienz ist schlecht bis miserabel im Gegensatz zu Ada
Naja, also das ist doch irgendwie schon eine Ausrede, wie ich finde, zumal eine RX 6800 (non-XT) so ziemlich die effizienteste dGPU der letzten Generation war (zudem noch untervoltbar ist fuer noch mehr Effizienz) und mit 16 GB und anstaendiger Leistungsreserve (ca. auf dem Level einer RTX 3070Ti) zudem mittel- bis langfristig gut bestueckt und mittlerweile gibt es diese - in der sehr soliden und schicken MSI Gaming Z Trio Topmodell-Ausgabe - schon unter 470 Euro.

Untitled.png


Diese wuerde ich jedem eher empfehlen als die hier im Artikel angekuendigten (z.T. deutlich teureren) RTX 4060(Ti) Karten.

Gut, im Endeffekt ist das aber natuerlich Deine Entscheidung, wenn Du Dich so limitieren willst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne, Solavidos, Rockstar85 und 2 andere
Sunweb schrieb:
2016: Release GTX 1060, UVP 299$
2023: Release RTX 4060, UVP 299$

Aber alles jammert über den Preis und wenn man nichtmal das schafft, rechnet man sich halt irgendwelche Zahlen schön.
HuschHusch ab in den Supermarkt und beim Markleiter rumjammern, warum es denn keine Milch im 2L Pack für 0,79€ gibt...
Nur blöd, dass die 1060 Leistung einer gtx 980 mit mehr RAM bot, während die 4060 wahrscheinlich auf 3060 ti Niveau liegt, wenn überhaupt
 
  • Gefällt mir
Reaktionen: danyundsahne, iceshield, Mimir und 2 andere
Da finde ich die alten 6700XT, 6800 und 6800XT im Abverkauf interessanter, als diese Karten.
 
  • Gefällt mir
Reaktionen: danyundsahne, Icke-ffm, DF86 und 4 andere
Linmoum schrieb:
Es gibt ein Vielfaches an Nvidia-GPUs, die verkauft werden und im Umlauf sind
Ja und wie viele von den können DLSS3 und FG genau nur RTX40er und da ist dass Problem dass NV ihre Benchmarks DLSS 2 und DLSS3 mit FG vergleicht. 😉 Mal sehen was die RTX4060er VRAM games rocken. 😉
 
Mcr-King schrieb:
Naja zumindest ist bei AMD die RT Leistung gestiegen und im Gegensatz zur RTX40 die DLSS3 exklusiv gedöns. 😉 FSR2 für alle. 😉
Das wissen wir doch noch gar nicht? Die Gerüchte sagen doch, FG/FSR 3 mur auf RDNA 3, weil es vorher keine KI-Einheiten gab
 
Chismon schrieb:
Die jetzigen 70er Karten sind die heutigen mit dem Speicherausbau in 2 Jahren, sorry,

Sehe es einfach anders. Meine letzte Karte war die 1070, die ich wegen den 8GB Ram gekauft habe und genau deswegen konnte ich sie auch problemlos über 6 Jahre benutzen. Genau das sehe ich bei der 4080 auch. Mit 16GB wird man auch 4k in 6 Jahren noch spielen können. Der Speicherbedarf steigt nicht kontinuierlich immer weiter an.

Aber das wird wohl die Zukunft dann zeigen. Übrigens schätze ich in etwas 20GB bei AMD so wie 16GB bei Nvidia aktuell ein beim Bedarf.
 
DerRico schrieb:
Das wissen wir doch noch gar nicht? Die Gerüchte sagen doch, FG/FSR 3 mur auf RDNA 3, weil es vorher keine KI-Einheiten gab
Ja da sagt ja keiner was nur DLSS3 wäre locker auf RTX30er oder RTX20er möglich da alle RTX Ki Einheiten besitzen. 😉
 
  • Gefällt mir
Reaktionen: Chismon
Chismon schrieb:
Bei einer RTX 4070 und einer RTX 4070Ti sind hingegen 16GB bitter noetig gewesen, aber das hat man bei nVidia leider versaeumt/(bewusst)falsch angesetzt.
Das hängt doch ausschließlich vom konkreten Anforderungskontext ab. Ich habe noch keinen Speichermangel erlebt.

Ich bin allerdings auch "nur" mit WQHD unterwegs. Zudem kaufe und nutze ich keine schlechte Software (Ports). Also: Mir langt der Speicher bisher.
Ist das ein Kompromiss? Sicher! Ein schlechter? Das wird mir die Zeit zeigen. Meine 8GB Vega reichte mir auch länger als zwischenzeitlich befürchtet. HBM hat dabei ein bisschen geholfen - aber vor allem die Tatsache, dass auch bei deren Nutzung sinnvolle Reglerbedienung erforderlich war. Das war mir aber vor dem Kauf beider Karten klar.

Und so spiele ich Anno 1800 halt erst jetzt, im Gegenzug dafür von Beginn an mit allen DLCs. Es gibt für mich weitaus schlechtere Kompromisse.
 
  • Gefällt mir
Reaktionen: Viper2000 und Mcr-King
Linmoum schrieb:
Wer eine RTX-Grafikkarte besitzt und DLSS nutzt, der kann sowas nicht von sich geben, weil es schlicht falsch und völlig unnötig abwertend ist. Und Meinungen aufgrund von Hörensagen als Fakten verbreiten zu wollen, ist gefährlich
Vorher hatte ich eine RTX Karte
 
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Ayo34 schrieb:
Mit 16GB wird man auch 4k in 6 Jahren noch spielen können.

4 Jahre vielleicht, aber 6 Jahre halte ich fuer sehr unwahrscheinlich in 4K/UHD, da wirst Du wohl schon auf WQHD nach unten die Karte durchreichen muessen.

Bis dahin duerfte auch eine PS6 und ein XBSX Nachfolger am Start sein mit mehr Speicher und das wird sich auch auf den Speicherbedarf in PC Spielen relativ zuegig danach auswirken bei den ersten Ports.

Ayo34 schrieb:
Übrigens schätze ich in etwas 20GB bei AMD so wie 16GB bei Nvidia aktuell ein beim Bedarf.

Das erklaert dann auch Deine obige 6 Jahre These, aber bisher ist die Speichermenge und nicht das Management bei gleicher Speichergroesse entscheidend und bisher sehe ich kein Indiz, dass sich das aendern duerfte und bei AMD/RTG hat es noch deutlich mehr Speichermanagemenoptimierungspotential als bei nVidia - wie es scheint - welches irgendwann wohl auch dort mehr in Angriff genommen werden duerfte.
Zudem liegt AMD/RTG beim Speicher-Cache-System (durch HBCC seit RX Vega und dann Infinity Cache) vor nVidia, die jetzt mit Ada Lovelace gerade einmal aufgeholt haben.

Ergo, warten wir es ab, die RTX 4080 mag zwar von den Spezifikationen am stimmigsten wirken in der Ada Lovelace Generation, aber in Sachen Preis-Leistung ist die Karte die groesste Witznummer und der mit Abstand schlechteste Deal (weil man nVidia noch dafuer belohnt/durch den Kauf absegnet, weniger Leistung und horrende Preissteigerungen generationsuebergreifend zu liefern) und solange die 80er Serie nicht dahin zurueck kehrt wo diese als Gamer-Karte und nicht Luxus-/Enthusiastenkarte hingehoert (deutlich unter 1000 Euro) ist diese fuer mich und viele andere erst einmal gestorben.
Eine (immer noch fehlende) RTX 4080Ti kann man fuer einen Preis ueber 1000 Euro vielleicht noch akzeptieren (als "light"/speicheraermere Version der RTX 4090, zumal es mehr als genug Platz dafuer zwischen einer RTX 4090 und einer RTX 4080 gibt), aber die RTX 4080 (die eigentlich eher eine RTX 4070Ti ist von der Leistung her) nicht, wie ich finde.

Ja, da haben wir wohl eher kontraere Ansichten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: phil76 und AI94
@C4rp3di3m

Das dachte man als DLSS rauskam, deine Vorstellung davon ist aber definitiv falsch. Da ist nicht mehr "Fake" als bei den Kantenglättungsverfahren.
Unabhängig von der Rohleistung wird DLSS und FSR die Gegenwart und nahe Zukunft prägen. Die verschwinden nicht wieder.
 
  • Gefällt mir
Reaktionen: Mcr-King, panzercrak und ComputerJunge
Zurück
Oben