News Gerüchte zu Nvidia Blackwell: GeForce RTX 5070 Ti mit 16 GB, RTX 5090 nicht ganz mit 600 W

habla2k schrieb:
Schreibe ich das irgendwo? Aber 1.000 € für ne WQHD Karte? Dein Ernst?

Ne 5060 TI oder 5070 würde völlig reichen hätte die einfach nur mehr VRAM. Meine jetzige 3070 würde auch noch überwiegend reichen, aber die 8GB limitieren da einfach.


Die allermeisten kaufen das aber nicht jedes Jahr, sondern zahlen das in Raten über den Vertrag. Sonst täte das nämlich niemand mehr.
habla2k schrieb:
Schreibe ich das irgendwo? Aber 1.000 € für ne WQHD Karte? Dein Ernst?

Ne 5060 TI oder 5070 würde völlig reichen hätte die einfach nur mehr VRAM. Meine jetzige 3070 würde auch noch überwiegend reichen, aber die 8GB limitieren da einfach.


Die allermeisten kaufen das aber nicht jedes Jahr, sondern zahlen das in Raten über den Vertrag. Sonst täte das nämlich niemand mehr.

Es geht nicht um die Form der Bezahlung. Es geht um die Ausgabe per se. Zahlen oder damit Abfinden und entsprechend seines Budgets/Geschmacks zahlen. Ich geh doch auch nicht zu Mercedes und hätte gern eine S-Klasse, nörgel aber rum, dass sie mir zu teuer ist. Diese Preisdiskussionen entbehren jeder Grundlage.
 
  • Gefällt mir
Reaktionen: Pisaro und ElliotAlderson

CueSystem schrieb:
RTX5090 so verdammt sexy, dass ich wohl jeh nach Preis ein Update durchführen werde. Sie scheint einfach einen gewaltigen Performance Boost gegenüber der 4090 zu liefern
Das Gegenteil wird der Fall, es wird wohl nur einen kleinen Boost geben.
Diese Gen zu überspringen wird wohl seit Langem Pflicht für viele 4090 Besitzer.
 
  • Gefällt mir
Reaktionen: Pisaro
Btw die Aktie gibs grad relativ güstig, jetzt kaufen, januar/feb. verkaufen und schon ist die 5090 bezahlt—
 
-MK schrieb:
Was soll denn dieser Blödsinn mit 16gb bei der 5080? 🙄
Den Blödsinn hast du den treuen Kunden zu verdanken, die alles mitmachen.
 
  • Gefällt mir
Reaktionen: konkretor und Chismon
Garack schrieb:
Btw die Aktie gibs grad relativ güstig, jetzt kaufen, januar/feb. verkaufen und schon ist die 5090 bezahlt—
Selbst wenn sich die Aktie bis dahin verdoppeln würde, muss man, um von dem Gewinn beim Verkauf die 5090 bezahlen zu können, heute schon mehr reinstecken, als die 5090 kostet.
Wer das Geld nicht übrig hat für ne GPU, wird es wohl auch nicht übrig haben für spekulative Aktien^^
 
  • Gefällt mir
Reaktionen: Grundgütiger und Fighter1993
Soll kaufen wer will...ich schmeiß nach meiner 1080 TI NVIDIA kein Geld mehr in den Rachen.
Werde wieder zu ATI,sorry AMD wechseln!!
 
kachiri schrieb:
Wenn die 8800 XT wirklich irgendwo auf Niveau einer 4070 Ti Super oder 4080 rauskommt, wirst du das nicht für 499 Dollar bekommen.
eine 7900xtx hat die Leistung der 3090ti und auch nur die hälfte bei Markteinführung gekostet.
und eine 4080 ist eben auch. nur noch mittelklasse sobald die RTX5 da sind und wird schnell vom Markt verschwinden.
Warten wir es ab im Januar wissen wir mehr.
 
Dreamcatcher3 schrieb:
Ich warte erstmal auf den reellen verbrauch.
Bei der 4090 hieß es auch 600W. Wo sie effektiv gelandet ist weiß man.

Dazu kommt noch was wenn man FPS Limitiert. Bei einem RPG brauch ich keine 120FPS. Da reichen mir stabile 60-80FPS.

Power Limit reduzieren. Wie ist die Effizienz bei 80-90%. Wie viel FPS verliere ich im Verhältnis zum Verbrauch.

Bei mir wird es entweder eine 5080 oder 5090. Meine 3080 10GB ist an der Leistungsgrenze und die schluckt 300-330 Watt.
Wird halt mal 6 Monate weniger in den ETF gepumpt.

Mal ganz ruhig durch die Hose Atmen.
Ich hab auch eine rtx 3080 10 gb aber willst du wirklich 1200-1400€ zahlen für wahrscheinlich weniger Leistung im raster als die rtx 4090 mit nur 16gb?

Nvidia will hier dreifach abkassieren! Sowas sollte man boykottieren auch wenn man es zahlen kann...
 
  • Gefällt mir
Reaktionen: Nekkepenn
  • Gefällt mir
Reaktionen: Grundgütiger, ElliotAlderson und LDNV
DerRico schrieb:
aber die 8GB-Karten gehen immer noch in FHD, die 12GB Karten in WQHD und in 4K reichen die 16 auch immer noch locker.
Das Wort "gehen" finde ich schwierig, wie ist das definiert das das Spiel startet und nicht abstürzt? 60hz Minimum in allen games? Nur Raster ohne RT?

Selbst das packt ne 4060 nicht, nicht mas im Schnitt bei Raster mit UE Titeln packt sie 60fps sondern nur 55, ohne UE Titel packt sie 65 aber auch nur im Schnitt minfps sind dann sicher auch nicht über 60hz.

Klar man kann natürlich sagen die GPU ist einfach zu schwach nicht der Speicher, aber wenn ich mir Dragon Age anschaue das doppelt so schnell min und avg ist, (dabei ne Arc B580 oder auch 6700 xt immer noch nicht auf 60fps kommt aber auf 40 wenigstens.

Ghost of Tsunami nicht mal die 4060 Ti packt hier 60fps knapp drunter aber drunter, ein B580 schafft das easy.

Indiana Jones 4060 Ti schafft nur 30fps und 18fps min ist das "spielbar"? B580 schafft 52fps und 43 min, auch nicht ideal aber spielbar halbwegs.

Ja bei einigen Spielen reicht es noch, aber auch nur im Raster, aber bei manchen Spielen reicht es eben nicht mehr.

Nun muss man also vor dem Kauf so ner Karte in Benchmark schauen und die Spiele abchecken die man spielen will, bevor man die Karte kaufen kann, aber wenn die später raus kommen kann man das ja nicht...

Aber das ist ja immer so das die meisten Spiele mit schrottigen Karten gehen, alleine weil die meisten spiele älter sind, aber mit dem Argument hätte auch noch die Karte die man davor im PC hatte meist gereicht.

Es geht immer um wenige Titel das ich hier 3 aus dem Parkur von CB nennen kann ist schon viel früher wars immer das berüchtigte Crysis.

Man kann es vielleicht auch anders noch deutlicher machen ne 7700xt für 420 euro ist 10% schneller in Raster und 30% in Raytracing (ja sind eher geringere Raytracing Effekte aber das ist nunmal das was auch dominiert in den meisten games mit RT) vor ner 4060 Ti mit 8gb kostet 390 also nein 8gb reichen nicht.

Klar kann man sagen wäre es nicht Nvidia und die Marge wäre wie bei AMD wäre sie wahrscheinlich 50 Euro billiger und daher interessant, dann hätte man aber immer noch ne Handvoll Titel wo sie abkackt wegen zu wenig VRAM teils um eben 50%.

Und dabei hab ich noch nicht mal Matschtexturen berücksichtigt die bei 8gb in manchen Games kommen mit 12gb aber nicht mehr oder weniger.
 
@legenddiaz hab auch für die 3080 damals 1000€ bezahlt

und wie ich geschrieben habe: erstmal abwarten was wirklich kommt. dann entscheide ich obs ne 5080 oder 5090 wird.

@Garack wer 40k rumliegen hat um mal eben die in aktien zu schubsen, macht sich keine gedanken was eine 5090 kostet.
 
  • Gefällt mir
Reaktionen: Nekkepenn
wtfNow schrieb:
Der Gaming Markt ist Peanuts für die
Naja der KI Markt ist Neu & wird noch erschlossen, da wird aber mMn auch eine Sättigung eintreten, dann werden sich einige noch umschauen und schwupp ist der Gamingmarkt wieder interessanter....
 
  • Gefällt mir
Reaktionen: LDNV
habla2k schrieb:
Stand heute bräuchte man dann mindestens eine 5070 TI für WQHD, das ist mir einfach zu teuer. Dann lieber ohne RT und eine AMD.
Was meinst du mit "ohne RT", gerade die 8800xt soll ja deutlich aufholen was RT angeht, aber natürlich können auch die jetzigen Karten das schon für leichtere RT Werte eignen die sich teils besser wie Nvidia wegen dem Ram Geiz.
 
Icke-ffm schrieb:
die 5070ti ist uninteressant, was fehlt ist die 5080ti-16GB am 512Bit Si...
Wenn man keine wirklichen Kritikpunkte findet, muss man sich eben welche ausdenken. Das SI ist völlig irrelevant mit GDDR7 und 32 Gbit/s. Was zählt ist die Bandbreite und von dieser gibt es mehr als genug.

AMD verbaut nur 256bit und GDDR6, mal so nebenbei. Also abgesehen von der 5070 mit 12GB die wohl als kosteneffiziente Karte gegen die RX 8800XT gestellt wird sehe ich kaum Spielraum für Kritik ohne die finalen Fakten zu haben.
Icke-ffm schrieb:
das wäre eine brauchbare Hardware für 1k, die 5070ti eher so 5-600€ wird aber wohl eher 900-1k werden
AMD wird ihre 8800XT auch nicht verschenken wollen und 600 bis 700 Euro verlangen, wenn man mit RT+Raster auf Level der 7900XT oder leicht drüber landet. Ist ja von der UVP auch ein Fortschritt nach unten.
Icke-ffm schrieb:
aber schon lustig das immer noch alle Nvidia haben wollen obwohl die Ihre Kunden nur verarschen weniger Hardware für mehr geld und das mit jeder Gen
Ich finde die Kritik die hier geäußert wird völlig ohne Substanz. Weniger Hardware für mehr Geld?

Vergleiche doch mal die 3090 Ti mit einer 4070 Super. Das ist weniger als der halbe Preis für vergleichbare Leistung.

Was machen denn Intel bzw. AMD? Intel ist am Kämpfen überhaupt konkurrenzfähige Hardware auf den Markt bringen zu können und AMD bringt ein Cost-Down Produkt für die Mittelklasse mit wohl maximal 16GB Speicher. Und matürlich werden High End Produkte sukzessive teurer. Ein 800mm2 Chip auf 20000 Dollar Wafern.

Da kostet allein der Chip schon das 6 fache eines 285K bzw. das 8 fache eines 9950X. Die 5090 wäre unter 1500 Dollar wahrscheinlich gar nicht kostendeckend anzubieten in 4N, also wird auch ein Preis von 2000 Euro nicht völlig abgehoben sein.
 
  • Gefällt mir
Reaktionen: Wilfriede, Innocience und FreedomOfSpeech
Fighter1993 schrieb:
Könnte sich sehr schleppend verkaufen das ganze.
Als ob, made my day! In 30min wird alles ausverkauft sein.
Ergänzung ()

Quidproquo77 schrieb:
Ein 800mm2 Chip auf 20000 Dollar Wafern.
53$ pro Chip bei 100% Yield. 300mm*300mm*pie/20000
 
Nordwind2000 schrieb:
Ja... Weil kaum einer seine 5090 im Gaming mit 600W rödeln lassen wird. Das wird dann aufs Jahr gesehen ein teurer Spaß.

Problematischer werden dann eher die Lastspitzen. Die sollte aber ein gutes Netzteil abfangen können.
Wer das Kleingeld für ne 5090 hat kann sich auch gerade noch 15kwp PV aufs Dach zimmern lassen 😂
 
  • Gefällt mir
Reaktionen: konkretor und Nordwind2000
Icke-ffm schrieb:
mehr wie 499$ launch preis wird die nicht kosten
Ok, wenn die RX 8800 XT dann nur 500 Euro kostest und die Leistung einer RTX 4080 hat, werde ich diese sofort kaufen. Bin dabei :daumen:
Leider glaube ich nicht dran...
 
  • Gefällt mir
Reaktionen: Wilfriede, Pisaro, LDNV und eine weitere Person
FreedomOfSpeech schrieb:
53$ pro Chip bei 100% Yield. 300mm*300mm*pie/20000
1734356948896.png


Bei ca $20.000 pro Wafer macht das ca $340 pro Chip.

Gehen wir von einer realistischeren Defect Density von 0.05 aus, kommen nur noch 41 nutzbare Chips raus, womit wir bei ca $490 pro Chip sind.
 
  • Gefällt mir
Reaktionen: Grundgütiger, konkretor, Wilfriede und 2 andere
Zurück
Oben