News Eckdaten und Preise: GeForce RTX 4060 Ti 16 & 8 GB und RTX 4060 8 GB sind offiziell

Verak Drezzt schrieb:
ich denke die 7800XT liegt irgendwo zwischen einer 4070 und 4070Ti

Wenn sie nicht nachgebessert haben, wird es so kommen.

Die lange Wartezeit gibt aber Mut zur Hoffnung. Ich persönlich gehe von 2-3 Stellen auf dem Chip aus, wo man einfach zu viel Spannung braucht, um hohe Taktraten zu erzielen.

Wenn man die gefunden hat, kann auch der kleinere Chip mit den gewünschten 3+ Ghz und vernünftigem Verbrauch landen.

So eine 7800XT mit 3.5 Ghz bei 250 Watt Verbrauch, wäre z.B. ziemlich "lecker".

Ob AMD das stemmen kann, wird nur die Zukunft zeigen.

mfg
 
  • Gefällt mir
Reaktionen: Rockstar85, Farcrei und Verak Drezzt
Cleric schrieb:
Ja, sie bauen günstigere Karten (von der Komplexität her ist die 4060 eher eine 4050,5), erhöhen damit doppelt die Preise und die Margen und bieten auf Kante genähten Speicher, wodurch sie super ihre proprietären Lösungen wie DLSS ins Rampenlicht rücken können. Gleichzeitig zwingen sie mit ihrem Marktanteil Gamer und Entwickler ins eigene Ökosystem. Hardware-Herstellung ist dauerhaft deutlich teurer als sowas wie DLSS.

Wie, der Speicher ist zu knapp? Na dann nutzt man doch einfach DLSS. Und schon passt es wieder. Sehr kleverer Schachzug von NVIDIA.
Klär' mich mal auf - DLSS 3 braucht doch auch "mehr" Speicher bspw. gegenüber DLSS 2 ... also warum sollte der freie Speicher nicht auch mit DLSS 3 knapper (als mit DLSS 2) werden?
Davon abgesehen hasse ich Artefakte, die z.B. mit DLSS 3 plötzlich auftreten, mit DLSS 2 aber nicht da waren/sind.
 
[wege]mini schrieb:
So eine 7800XT mit 3.5 Ghz bei 250 Watt Verbrauch, wäre z.B. ziemlich "lecker".

Ob AMD das stemmen kann, wird nur die Zukunft zeigen.
gehe eher so um die 270W aus, mal schauen was da in paar Wochen kommen wird und wie gut sie die midrange/ unteres highend Segment optimiert bekommen haben, 250W bei einer 7800XT wäre natürlich sehr geil
 
  • Gefällt mir
Reaktionen: [wege]mini
Verak Drezzt schrieb:
250W bei einer 7800XT wäre natürlich sehr geil

Wenn sie dann aber auch nur bis 2.5 Ghz im Turbo boostet, wird das nix mit "Konkurrenzfähig".

Hier sagt man nicht, der Ton macht die Musik, sondern durch Takt kommt Leistung.

AMD hat sich für den Weg der langen Pipeline entschieden und wollte über hohe Taktraten gehen. War leider nicht erfolgreich, da sie zu viel Strom verbrauchen.

Wer Schuld ist, ist total egal.

Besser machen und gut ist.

Sollte das Design nicht gut sein und es einfach nicht mehr hergibt, gar nicht erst bauen. :heilig:

Für die dicken Bomber findet man immer Käufer, die auf große Zahlen stehen. Bei den "vernünftigen" Karten sieht das anders aus. Und alleine die Tatsache, dass ich eine 700 Euro Karte, die noch nicht einmal existiert, als "vernünftig" Einstufe, ist nur unsere heutigen Zeit geschuldet.

Wer es kaufen mag, darf es jederzeit kaufen. Ich lunsche immer im 250-300 Euro Bereich. :evillol:

mfg
 
  • Gefällt mir
Reaktionen: Rockstar85 und Verak Drezzt
Verak Drezzt schrieb:
250W bei einer 7800XT wäre natürlich sehr geil
Naja man muss auch die Leistung dazu beachten.

Eine 7900XT ist aktuell bei ~310W ca 30% stärker als eine 6900XT bei 300W.

Eine 7800XT schätze ich daher auf ca 10% stärker als eine 6900XT ein.
Wenn sie dafür 270W braucht, wäre das ziemlich schlecht, denn dann wäre sie noch ineffizienter als Navi31, 250W wäre also eher nicht "sehr geil" sondern eher das Maximum, was sie ziehen dürfte.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Taxxor schrieb:
Wenn sie dafür 270W braucht, wäre das ziemlich schlecht, denn dann wäre sie noch ineffizienter als Navi31
wenn man es so sieht stimmt schon, aber ich geh halt wie du schon beschrieben hast von einer 7900XT mit 310W aus und denke nicht das eine 7800XT da 60W oder gar mehr drunter liegt und sah ja mit der 6800XT zur 6900XT nicht wirklich anders aus vom Verbrauch, denke 270W sind da realistisch wenn sie sich auf dem Leistungs-Niveau einer 3080Ti platziert.

Wir werden wie gesagt in paar Wochen sehen was Fakt ist. Bin zuversichtlich, selbst wenn sie 270W schluckt und hoffe dann auf RDNA4 bzw. 5 das sie dann bei der x800XT noch mehr optimieren werden. Je nach Preislage wird es dann eine 8800XT oder danach eine 9700XT mit ansatzweise der Leistung einer 4090.
Ergänzung ()

oder auch eine Intel Karte, je nachdem was bis dahin an Leistung so wie Qualität der Treiber dann in 2-3 Jahren draußen ist
 
Verak Drezzt schrieb:
ber ich geh halt wie du schon beschrieben hast von einer 7900XT mit 310W aus und denke nicht das eine 7800XT da 60W oder gar mehr drunter liegt und sah ja mit der 6800XT zur 6900XT nicht wirklich anders aus vom Verbrauch,
6800XT und 6900XT war ja auch der gleiche Chip und gleichzeitig auch die beiden Topmodelle, analog zur 7900XTX und 7900XT. Nur dass die 6000er sogar beide die gleiche TBP hatten.

Die 7800XT wäre hier dann schon eher das was die 6800 war, und die lag mit angegebenen 250W und real verbrauchten ~230W auch 70W unter 6800XT und 6900XT.
Ergänzung ()

Verak Drezzt schrieb:
Wir werden wie gesagt in paar Wochen sehen was Fakt ist.
Kommt da nicht erst die 7600?
 
  • Gefällt mir
Reaktionen: Verak Drezzt
NoNameNoHonor schrieb:
Klär' mich mal auf - DLSS 3 braucht doch auch "mehr" Speicher bspw. gegenüber DLSS 2 ... also warum sollte der freie Speicher nicht auch mit DLSS 3 knapper (als mit DLSS 2) werden?
Davon abgesehen hasse ich Artefakte, die z.B. mit DLSS 3 plötzlich auftreten, mit DLSS 2 aber nicht da waren/sind.
Es war allgemein die Rede von DLSS vs nativ.
DLSS 3 bzw. FG braucht minimal mehr VRAM als DLSS 2, aber immer noch weniger als nativ, gerade in UHD.
Darauf (DLSS 3) bin ich mit der 4070 Ti auch angewiesen, aber in erster Linie wegen der dreistelligen fps @UHD, VRAM reicht überall.
Die minimalsten Artefakte (und geringere "Lebensdauer") nehme ich liebend gern in Kauf, dafür dass sie heute im hier und jetzt eine 7900 XTX FPS-seitig zum Frühstück vernascht und das bei fast halben Verbrauch.
Zur nächsten Generation werden wieder alle Karten neu gemischt;)
 
Taxxor schrieb:
Kommt da nicht erst die 7600?
ja schon, aber soll doch auch kurz darauf dann die 7800XT und die 7700XT erscheinen, auch wenn das vielleicht dann doch noch bis August/ September werden könnte, abwarten und Tee trinken was AMD da ankündigen wird ggf. auch direkt zum Release der 7600
 
Zuletzt bearbeitet:
Irgendwie traurig das es jetzt schon das dritte Jahr ist wo man sich einfach keine Grafikkarte kaufen will obwohl man eine braucht, aber man diese Verarsche am Markt nicht mitmachen möchte.
Und jede Karte die neu vorgestellt wird schießt den Vogel noch mehr ab, wird ja immer unattraktiver nach unten. 350€ Karten kosten 550€…. nein danke, ich warte weiter und wenn es sein muss, gehts halt bald auf eine Konsole.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
  • Gefällt mir
Reaktionen: Verak Drezzt
399€ für die 16 GB Variante der 4060ti, vielleicht ein Gedanke wert, wenn die Leistung ok ist. Im Grunde ist das ja eher eine 4060, und die 4070 eine 4060ti. Dann stimmt das Verhältniss schon eher.

Für über 400€ eine 8 GB Karte ist völliger Blödsinn. Für ein derart kastriertes Produkt gebt ich vielleicht 200-250€ aus. Das ist absolut unterstes Einstiegsniveau. Die Leistung ist ja fast egal, weil man die sowieso nicht ausspielen kann mit allem was auch nur einen halbwegs durschnittlichen Anspruch an VRAM hat ab 2023. Raytracing ? Nur bei alten Spielen.

Wie gesagt, 16 GB VRAM und wir können reden. Alles andere ist Tinnef.
 
simosh schrieb:
FG wird beim durchschnittlichen User das Feature schlechthin.
Der durchschnittliche Spieler/User hat nicht mal eine Ahnung was RT, DLSS, FG sind und informiert sich auch nicht ob seine gespielten Games dieses Feature unterstützen und ob man es aktivieren kann in irgendwelchen Ingame Einstellungen.
 
  • Gefällt mir
Reaktionen: Eli0t, Rockstar85 und Dai6oro
Taurus104 schrieb:
Der durchschnittliche Spieler/User hat nicht mal eine Ahnung was RT, DLSS, FG sind und informiert sich auch nicht ob seine gespielten Games dieses Feature unterstützen
Nvidia sorgt schon dafür das die Spieler von den Features hören.
 
  • Gefällt mir
Reaktionen: simosh
[wege]mini schrieb:
Sollte das Design nicht gut sein und es einfach nicht mehr hergibt, gar nicht erst bauen.
Das ist ein Nett6 gemeinter Vorschlag.

Das ein Design nicht gut funktioniert, sieht man erst nach dem Tapeout.
Und dann kann man nicht mehr zurück ans Reißbrett ohne mindestens eine Verzögerung von knapp einem Jahr zu verursachen.
Ergänzung ()

MalWiederIch schrieb:
So unterschiedlich sind die Ansichten, mit Konsolen habe ich auch mal als Kind rumgespielt, in der Praxis benötige ich aber deutlich mehr als eine Konsole hergibt …
Notebook? Habe ich meinem Arbeitgeber gleich behalten lassen, nein danke :rolleyes:
Und „der Rest“ geht mit Smartphone bequemer von der Hand? Ich lach mich schlapp :lol:

Du bist halt einfach etwas altmodisch, lieber Booner..
 
  • Gefällt mir
Reaktionen: Rockstar85
"16 GB für 549 Euro kommen wie die RTX 4060 im Juli"

Also jetzt mal ganz abgesehen vom Preis, der ja immer machen kann, was er will, gerade über lange Zeit(später mal günstiger?), finde ich das ja mal ne sinnvolle GPU. Endlich mal genug Speicher für so ein Modell.

Die kann man dann als gutes Custom Modell, gut gekühlt, geschont, undervoltet auch mal jahrelang unbesorgt nutzen.
(Ohne dass man Angst haben muss, vor zu wenig GPU Speicher)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schneee
NoNameNoHonor schrieb:
Klär' mich mal auf - DLSS 3 braucht doch auch "mehr" Speicher bspw. gegenüber DLSS 2 ... also warum sollte der freie Speicher nicht auch mit DLSS 3 knapper (als mit DLSS 2) werden?
Davon abgesehen hasse ich Artefakte, die z.B. mit DLSS 3 plötzlich auftreten, mit DLSS 2 aber nicht da waren/sind.

Ich meinte eher DLSS 2.
Aber da hast du mich auf dem falschen Fuß erwischt. Ich hab mal nach Vergleichen gesucht, wo der VRAM-Verbrauch von nativer Darstellung mit DLSS 3 bzw. DLSS 2 + 3 vergleichen wird. Und hab nichts gefunden. Wie hoch ist denn der Mehrverbrauch gegenüber der nativen Darstellung?
 
was hat es mit den 554GB/s und 453GB/s "effective" auf sich? wo kommen die her? Gibt Nvidia diese magischen Zahlen auch bei den anderen Karten an?

Sunweb schrieb:
2016: Release GTX 1060, UVP 299$
2023: Release RTX 4060, UVP 299$
wurde zwar schon debunked, aber ich finde es wirklich bezeichnend, wie Nvidia hier die Leute SCHON wieder verarscht..

4060 mit AD107 erinnert doch sofort an die letzte Story:
"The RTX 4080 12GB is a fantastic graphics card, but it’s not named right. Having two GPUs with the 4080 designation is confusing."

Was ist mit der 4060 Ti und 4060?
Sind doch auch zwei GPUs mit dem gleichen Namen. Die 4060 ist eine 4050 Ti. Das 4060er Label ist falsch. Reines Marketing von Nvidia.

4050 Ti für $299 klingt natürlich weniger attraktiv, wenn man die UVP der 1050 Ti mit $139 dagegen betrachtet. Ist aber nun mal leider so.
 
  • Gefällt mir
Reaktionen: Rockstar85 und eXe777
Redirion schrieb:
Was ist mit der 4060 Ti und 4060?
die Frage ist ja auch wie der Performancezuwachs gegenüber der alten Generation ausfallen wird, während eine 3070 noch so schnell war wie eine 2080Ti zuvor, kommt nun eine 4070 nicht mal über eine 3080 hinaus und wie sieht das dann erst bei der 4060Ti und der 4060 aus

einfach nur lächerlich was Nvidia da abzieht
 
  • Gefällt mir
Reaktionen: AI94 und Rockstar85
Taurus104 schrieb:
Der durchschnittliche Spieler/User hat nicht mal eine Ahnung was RT, DLSS, FG sind und informiert sich auch nicht ob seine gespielten Games dieses Feature unterstützen und ob man es aktivieren kann in irgendwelchen Ingame Einstellungen.
Der durchschnittliche Spieler hat mittlerweile eine Konsole. Und ich würde auch niemanden zu den Preisen zu so einer Karte raten, da würde ich sagen kauf dir ne Konsole in dem Preisbereich macht einfach mehr Sinn.
 
  • Gefällt mir
Reaktionen: Sly123, BGnom und HierGibtsNichts
Zurück
Oben