News Gerüchte zur RTX 50 Series: 16 GB VRAM für die GeForce RTX 5060 Ti, 8 GB für die RTX 5060

5060 Ti mit 16 GB schön und gut. Da die aktuelle 4060 Ti 16 GB bereits genauso viel wie eine deutlich stärkere 7800 XT kostet, ist das die Karte, die man niemanden empfehlen kann.
 
shaboo schrieb:
Den MSRP der 4060 von $299 wird Nvidia bei der 5060 - wenn überhaupt - um maximal $50 erhöhen,
Warten wir es ab, dass Du Dich da 'mal nicht irren wirst, denn mit der Marktstellung kann sich nVidia viel erlauben (die anderen Konkurrenten, vornehmlich AMD, werden sich nur daran orientieren preislich und schauen, dass diese auch möglichst viel für die eigenen Produkte erzielen können und profitabel sind) und spätestens mit einer RTX 4060 Super könnte das dann weiter steigen Richtung 500 Euro (alleine schon wegen der u.U. möglichen 12GB dann).

Angeblich verkauft Intel die jetzigen Battlemage Arc Karten alle mit einem Verlust, wenn man MLID glauben will, so dass es ein Segen für Intel wäre, wenn die im Nachhinein die Preise ansteigen lassen könnte um wenigstens Richtung schwarzer Null zu streben und keinen Paperlaunch hinlegen bzw. gar Chips an Arc Boardpartner begrenzen zu müssen, um größere Verluste einzudämmen.
Ergänzung ()

Clonedrone schrieb:
Da die aktuelle 4060 Ti 16 GB bereits genauso viel wie eine deutlich stärkere 7800 XT kostet, ist das die Karte, die man niemanden empfehlen kann.
Da dürften Dir einige nVidia Fans widersprechen, die einen grossen/relevanten Vorteil bei den nVidia Features (DLSS und RT-RT Leistung) sehen, der die viel höhere Rasterizerleistung ausgleichen würde und die nVidia Karte rechtfertigen könnte, aber ich bin auch bei Dir und glaube, dass die RX 7800XT die bessere Wahl wäre als einer RTX 4060Ti mit ebenfalls 16GB (zumal man den Quasi-Monopolisten nVidia nicht auch noch damit unötig unterstützt).

Die deutlich geringere Relevanz von RT-RT, ganz zu schweigen von RT-PT, im Vergleich zu Rasterizerleistung bei Mittelklassen Karten (die es schwer haben schon RT-RT überzeugend mit spürbarem Mehrwert zu leisten) wird übrigens (wegen des Rauschproblems) auch noch im neuesten Hardware Unboxed Video unterstrichen.


Ergänzung ()

Antimttr schrieb:
danke dir für den Exkurs. :)
Gerne :).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
MaverickM schrieb:
Von RT abgesehen: Nein!?
Die 7900 XTX kann also in Raster mit einer 4090 mithalten? Geschweigedenn wird AMD der 5090 etwas entgegensetzen können? Nach aktuellen Gerüchten wird es auch kommende Generation maximal 4080-Niveau. Bei RT wohl etwas weniger.

Und nein. NV ruht sich halt nicht aus. G-Sync, Raytracing, DLSS, FG, ... Kann man doof finden, dass das alles proprietär und kein offener Standard ist und teils nur auf bestimmter (neuerer) Hardware läuft. Aber von "Ausruhen" ist NV weit weg.
Auch nicht, als AMD mit RDNA2 gegen Ampere zumindest zeitweise auf Augenhöhe agieren konnte. Zur Wahrheit gehört aber eben auch, dass NV hier noch auf einem - im Vergleich zu AMD - veralteten Fertigungsprozess bei Samsung war.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Bright0001
kachiri schrieb:
Die 7900 XTX kann also in Raster mit einer 4090 mithalten?

Nein, die kostet aber auch weniger als die Hälfte. Wenn Du natürlich nur nach einem Halo-Produkt gehst...
Ergänzung ()

kachiri schrieb:
G-Sync, Raytracing, DLSS, FG, ...

G-Sync UItimate ist quasi tot, ansonsten ist FreeSync die bessere Alternative. Bei Raytracing ist man vorne, habe ich ja schon geschrieben. Bei DLSS ist der Unterschied marginal und Frame Generation ist bei AMD besser.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Mcr-King
News gelesen, kurz nachgerechnet: Eine 5060 Ti mit GDDR7 hat im Prinzip am Ende die gleiche Speicherbandbreite wie eine 4070, wahrscheinlich auch die gleiche Leistung und 16GB. Könnte interessant sein. Auf jeden Fall interessanter als eine 4060 Ti oder eine 5070 mit 12GB.
Wie schon einmal von mir gesagt: 5070 18GB wäre was. Darauf warte ich.
 
MaverickM schrieb:
Nein, die kostet aber auch weniger als die Hälfte. Wenn Du natürlich nur nach einem Halo-Produkt gehst...
Die 4080 (Super) kostet auch nur die Hälfte und landet häufiger vor der 7900 XTX als dahinter...
Die 4070 Super liegt inzwischen häufiger eher an der 7900 XT als an der 7900 GRE. Selbst im "VRAM-Killer-TItel" Indiana Jones - wo selbst die 4070 non-Super 7800 XT und 7900 GRE schlägt.
Der Witz: Bei den 1% wird der Abstand hier sogar höher.
 
Ich glaube in der Tat, dass die Aufpreise deutlich geringer ausfallen werden, als es die ganzen Apokalyptiker und Panikmacher prophezeien. Ich glaube, wir werden lediglich bei der 5090 einen etwas deutlicher erhöhten Preis sehen, während alle anderen Modelle gleiche bis nur minimal erhöhte Preise haben werden. Es gibt ganz nüchtern auch überhaupt nichts, das auf etwas anderes hindeuten würde, weder die vermutete Fertigungstechnologie noch die vermuteten Leistungszuwächse. Man braucht sich ja nur mal den vorletzten Nvidia-Modellwechsel zu betrachten (von 2000 nach 3000); da war's ja ähnlich.

Nvidia mag ja gewinnorientiert sein, aber sie sind nicht komplett bescheuert. Denen ist auch klar, dass es Leute gibt, die sich nicht an einer bestimmten Leistung, sondern an einem bestimmten Preis und dort an einer gewissen persönlichen Obergrenze orientieren. Da kann ich mir niemanden vorstellen, der es für clever hält, die Zielgruppe unter 500 Euro zukünftig komplett zu ignorieren. Damit die 5060 in Deutschland 500 Euro kostet, müsste sie in den USA aktuell eine MSRP von rund 440 Dollar haben; das wären fast 50% mehr als bei bei 4060! Will. Not. Happen.
 
  • Gefällt mir
Reaktionen: Ituran und Quidproquo77
Damit meiden die Leute die 5070 und 5060 und kaufen die 16GB Dinger für mehr Kohle ist doch klar.
 
Mal wieder irre faszinierend, wie die ganzen selbsternannten, realitätsverlustbehafteten Experten hier schon wieder die Hexe Nvidia verfluchen und an den Weihnachtsbaum ketten, um sie zu foltern und zu verbrennen...

...aufgrund irgendwelcher dubioser, selbsterfundener Internetgerüchte und Spekulatiusspekulationen eines anonymen, random Internetkevins auf der glaubhaftesten Internetseite diesseits des Universums namens Wccftech (natürlich ganz echt ohne irgendwelche Quellenangaben!!!!1!!!11!! FakeCheckExamination mit Magna Cum Laude bestanden!1)...

...ohne dass Nvidia bisher irgendetwas gemacht hat. Ja. Doch. Faszinierend. Irgendwie.

Und die Fliesentischbesitzercommunity auf CB ist selbstverständlich wieder instant on fire and not amused, jeder weiß natürlich wieder bescheid, alle wedeln wieder ganz aufgeregt mit ihren Heugabeln und alle versuchen sich wieder gegenseitig mit ihrer Ahnungslosigkeit zu übertrumpfen, damit sie morgen dann auf dem Schulhof wieder mit ihren hier knallhart selbst recherchierten Fakten angeben und Karriere machen können. Das nenne ich mal Einsatz, Jungs. Weiter so!

Haste schon was offiziell vorgestellt, Hexe Nvidia? "Nö"...
Haste die Dinger schon aufn Markt gebracht, Hexe Nvidia? "Nö... Wir wollten eigentlich erst in ein paar Woch...."
A-A-A-A-Aber ich hab doch die Wahrheit schon in diesem neumodischen Internet gelesen...VERBRENNT DIE HEXE! SELBSTERFUNDENE GERÜCHTE SIND IMMER WAHRE FAKTEN!

Die ich-habs-euch-ja-gesagt-Fraktion wartet derweil schon wieder sehnsüchtig in Habachtstellung darauf, der gesamten Welt ihre überbordende Überlegenheit zu beweisen, falls irgendeines der Gerüchte zufällig richtig geraten wurde, um dann zu glänzen mit: S-seht i-ihr, i-ich ha-ha-ha-habs euch ja g-gesagt!!!1! Gut so, Jungs. Weitermachen!

Ihr seid so drollig. Irgendwie.
 
K3ks schrieb:
Darüber kann man sich streiten. 😅
Stimmt, man kann durchaus behaupten, dass es ein Fehler von Nvidia ist, überhaupt noch Consumerkarten zu verkaufen. Der Absatz ihrer Datacenter- Produkte wird wohl eher durch die Fertigungskapazitäten als durch ausbleibende Nachfrage begrenzt.

Ich habe inzwischen den Verdacht, dass wir Geforce überhaupt nur noch angeboten bekommen, damit auch in dem Bereich möglichst wenig Kohle bei den Marktbegleitern landet.
K3ks schrieb:
Wohl wahr, ich halte Karten zum Daddeln für ein Luxusgut.
Im wesentlichen ja, aber auch ein wenig nein. Wer am Existenzminimum lebt, wird wohl keine Grafikkarten kaufen. Aber ich kenne auch einen jungen Menschen, der wirklich nicht viel hat, aber auch wirklich gerne zockt. Und der hat halt seine xx80er und xx90er. So Leute kommen dann halt irgendwann unter die Räder, wenn eigentlich nur noch das (natürlich immer exorbitant teurer werdende) Topmodell sinnvoll ist.

Und der Spaß mit den 200 €- "Jedermann"- Karten, mit denen man auch aktuelle Spiele halbwegs vernünftig zum Laufen brachte, dürfte auf ewig vorbei sein.
 
Quidproquo77 schrieb:
Geht mir genauso. Kompletter Unfug den du erzählst. In so eine Bubble die sich an irgendwelchen Spezifikationen aufhängt, ohne sie zu verstehen, will ich auch nicht rein.^^
Ich versteh mehr als du mir zutraust und freue mich, dass du mich unterschätzt und dies zu deiner Belustigung beiträgt. Hoffe du hattest heute deinen Lacher.

Wenigstens bin ich nicht so dreist, Zitate aus anden Threads zusammenhangslos zu quoten um mir dann einen drauf runterzuholen weil ich so ein toller Hecht bin, nur weil mir die Meinung einer anderen Person nicht gefällt. Slowclap für dich.

Quidproquo77 schrieb:
Genau, man darf nicht vergessen, dass AMD mit RDNA3 den Vogel abgeschossen hat und Featuremäßig im Abseits steht, bzw. Kracher mit PT darauf eigentlich gar nicht lauffähig sind.
Du vergleichst ernsthaft CPUs mit GPUs und lässt die Unterschiede in den Generationen komplett außer Acht und beziehst dich auf meinen Post aus der AMD News? Kann man dir irgendwie helfen?

Es ging um ein bescheuertes 128bit Speicherinterface, und du bringst dann so ne Nummer und freust dich auch noch über "Realsatiere" per PN? Auf sowas wie dich kann ich echt verzichten.
 
  • Gefällt mir
Reaktionen: eXe777, Quidproquo77 und MaverickM
Mich würde mal interessieren, wieso die nicht überall 24GB draufklatschen? Ist Vram so teuer?
 
Vexz schrieb:
Warte mal. Die 5060 Ti soll 16 GB VRAM kriegen, die 5070 aber nur 12? Dann wird doch garantiert keiner die 5070 kaufen.
Das ist ja gerade der Sinn der Sache: Du machst von der 5060 oder der 5070 ein upgrade auf die jeweils schnellere Karte, weil sich ja das mehr an Speicher lohnt, für den Konsumenten aber finanziell auch für den Hersteller.
 
memberofmayday schrieb:
ohne dass Nvidia bisher irgendetwas gemacht hat. Ja. Doch. Faszinierend. Irgendwie.
Meh, well, die Karten mögen noch nicht vorgestellt sein, aber die Kritik der Speichermenge, siehe z.B. 3000er und 4000er Karten, hat Geschichte, insbesondere 3070 und 3080 hätte mehr Speicher doch deutlich besser gestanden.
🤡NV🤡: 3070/ti 8GB, 3080 10GB/12GB und 4070/4070s/4070ti mit 12GB

Spekulatius dies, Spekulatius das, aber magere Speichermengen werden einen definitiv nicht überraschen.
memberofmayday schrieb:
Fliesentischbesitzercommunity
Höhöhö, ich hab auch einen Bierbauch und Mullet Vokuhila.
memberofmayday schrieb:
Ihr seid so drollig.
Gesehen was NV so macht? 🥴

jenhls schrieb:
200 €- "Jedermann"- Karten
Auf FHD low läuft so eigentlich alles ziemlich flupschig.
jenhls schrieb:
dass wir Geforce überhaupt nur noch angeboten bekommen
🤷

takkyu schrieb:
Teuer, Marktsegmentierung, Stromverbrauch yadda yadda


E: Das Profi oder "Profi"-Segment würde sich auch über mehr VRAM freuen.

Aber positiv ist dass die Karten heute trotzdem länger halten! Ernsthaft! Wenn man sich so 2003 oder 04 einen dicken Bomber, ka, damals vermutlich 300€ so, gekauft hat, war die 5 Jahre später schon so ziemlich am Ende, während ich heute noch viele Titel mit einer Mittelklasse-Karte für weniger €€€ aus 2014 spielen kann.

Damit kann man wirklich noch die meisten Titel spielen, klar, auf low und etliche neuere Titel laufen nicht und in einigen krepiert die Karte dann am VRAM, aber so schnelllebig wie früher sind wir nicht mehr, und noch früher war es afaik noch schlimmer.

EE: COD/BF/X3 lief dann z.B. vlt. nicht mehr mit einer "GF2", oder Doom 3 sah aus wie absolute Grütze und ruckelte auf einer "GF3". Tja... Wenn ich so an 1060/rx480 denke was damit noch (@ Potato Settings) geht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
takkyu schrieb:
Mich würde mal interessieren, wieso die nicht überall 24GB draufklatschen? Ist Vram so teuer?
In der Tat wären mehr Karten mit 24GB+ wünschenswert.. So muss man sich bei höherem VRAM-Bedarf halt eine 5090 kaufen, auch wenn's vielleicht von der Rechenleistung her nicht unbedingt ;) nötig wäre.
 
sloven schrieb:
Das ist ja gerade der Sinn der Sache: Du machst von der 5060 oder der 5070 ein upgrade auf die jeweils schnellere Karte, weil sich ja das mehr an Speicher lohnt, für den Konsumenten aber finanziell auch für den Hersteller.
Ich hatte eher an ein Downgrade gedacht. Also statt sich die 5070 zu holen, holt man sich lieber die 5060 Ti, weil mehr VRAM.
 
Chismon schrieb:
Die deutlich geringere Relevanz von RT-RT, ganz zu schweigen von RT-PT, im Vergleich zu Rasterizerleistung bei Mittelklassen Karten (die es schwer haben schon RT-RT überzeugend mit spürbarem Mehrwert zu leisten) wird übrigens (wegen des Rauschproblems) auch noch im neuesten Hardware Unboxed Video unterstrichen.
HWUB sind mittlerweile Nvidia und RT hater. Sie sind schon seit längerem nicht mehr neutral.
Liegt auch daran, das sie als Aussies (Australier) am Popo der Welt noch schlechtere Preise bekommen wie wir hier...

Recht haben sie mit dem Noise. Um rauschfrei RT erzeugen zu können brauchen wir mindestens noch 1000% mehr Leistung oder andere Computer-Techniken für RT.
Raytracing selbst ist schon fast 40 Jahre alt, nur hatte man nie die Leistung dafür.
Nvidia hat es zumindest schon heute lauffähig gemacht, wenn halt mit Abzügen.

Hier ist z.b. ein Beispiel was Nvidia tut um das Rauschen zu verbessern:
https://research.nvidia.com/publication/2021-06_real-time-neural-radiance-caching-path-tracing
Das ist übrigens von 2021, das Resultat davon ist z.b. DLSS Ray Reconstruction.
 
Bright0001 schrieb:
Technologieführerschaft anzweifeln

Na, wenn Du die viel relevanteren Preisbereiche mit Konkurrenz ignorierst, mag das sein. Aber so ein Halo-Produkt sagt halt nicht viel aus, vor allem nicht, wenn es Konkurrenzlos dasteht. Es ergibt auch gar keinen Sinn, eine 4090 mit irgend etwas anderem zu vergleichen...
 
  • Gefällt mir
Reaktionen: K3ks
Zurück
Oben