News Gaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti

CDLABSRadonP... schrieb:
Nichts desto trotz hätte auffallen müssen, dass Nvidia massiv schummelt. GREATEST GENERATIONAL LEAP, wie es auf einer anderen Folie hieß, war auf Geforces bezogen bereits nachweislich falsch. Und die Effizienzfolie war Ultra-Dreist, sprach sie doch von +90%

Wegen des aufkommenden Kryptomining-Booms und Preisverdoppelung bis -verdreifachung ist das doch leider komplett unter gegangen und die Effizienz wird nur heraus gestellt, wenn man sich (für die Marke nVidia werbend) damit brüsten kann, was dann zu Ada Lovelace Zeiten und nicht mehr so billiger Samsung Fertigung auf einmal wieder angesagt war und ist, auch wenn das auf TSMCs und nicht nVidias Mist/Leistung gewachsen ist.

Ist Wolfgang nicht neuerdings auch auf einer (High-End) nVidia Karte (neuem PC zumindest laut CB Funk) privat unterwegs (?) und hatte angekündigt Full-HD Tests (der den Großteil der Gamer immer noch betrifft, vor allen Dingen wenn selbst eine RTX 4090 in 4K/UHD max. Einstellungen keine 60fps mehr schafft, siehe MechWarrior 5 : Clans) in meist mies optimierten/entwickelten Unreal Engine 5 Mainstream-Engine Zeiten hier einstampfen zu wollen?

CDLABSRadonP... schrieb:
Nvidia hat hier glatt betrogen und das hätte ihnen von Anfang an um die Ohren gehauen werden können

Wenn man (Quasi-?)Monopolist ist und der Großteil der Presse einen feiert, kratzt das eben nicht mehr, was wirklich wahr oder gelogen ist, die meisten (Uninformierten) kaufen per Pressebeurteilung/Testartikeln hier und anderweitig (nicht Gamers Nexus oder Hardware Unboxed Testvideos, wobei sich das aber zukünftig ändern könnte) vermutlich ein.
Auch die absehbar knappen 10GB bei der RTX 3080, ganz zu schweigen von den zu knappen 8GB bei der RTX 3070(Ti) wurden schnell - was Kritik angeht - übersehen und vergessen (außer man ist nachher betroffen/gelackmeiert gewesen).

Wenn die Wettbewerbehüter schon so milde mit nVidia umgehen, kann man das von der Presse wohl auch nicht mehr verlangen, insbesondere, wenn diese davon profitiert den Laden und deren Produkte schön zu reden und das klappt ja schon ziemlich lange.

Das letzte Mal als nVidia zu kämpfen hatte und richtig gefordert war, das dürfte zu Fermi/Thermi Zeiten gewesen sein, was dann zu Kepler und danach Maxwell (mit dem ersten großem Speicher -und damit Kundenbeschiss durch nVidia bei der GTX 970) geführt hat.

Durch die Tatenlosigkeit der Wettbewerbshüter über all die Jahre und weil das Marketing und Produktleistung bei der Kundschaft gezogen haben, konnte dann nVidia immer weiter deren aggressive Marktstrategie so anpassen und ist damit ungeschoren durch gekommen um eine Marktherrschaft in dem Bereich aufzubauen und Wettbewerber auszuschließen oder zu benachteiligen, Boardpartner gefügig zu machen, usw.

Ändern lässt sich das nur noch durch rigorose Maßnahmen, aber das eine schlagkräftige und konsequente Kartellregulierungspolitik unter Trump und Musk erfolgen wird, ist eher anzuzweifeln und ich würde eher mit einer noch größeren Kartellbegünstigung - insbesondere bei amerikanischen Unternehmen (als Teil der "America First" Strategie) zu denen nVidia zweifelsohne gehört - rechnen als aktuell/zuvor.

CDLABSRadonP... schrieb:
Klar, sie ist nicht so schlimm wie bei Apple, wo sich auch (zurecht!) ständig drüber lustig gemacht wird. Aber ich finde, dort wird die Hardwarepresse durchaus ihrer Aufgabe, den Finger in die Wunde zu legen, gerecht.

Nun gut, bei Apple ist das Betriebssystem aber auch auf weniger Speicherressourcen ausgelegt bzw. kommt man mit weniger Speicher durchaus besser/länger aus als auf dem Windows PC, was mich aber trotzdem nicht von dem (für Gaming eher ungeeignetem) Schicki-Micki System MacOS überzeugen konnte.

Da Apple Lifestyle Produkte/Ökosystem für mich seit 15 Jahren kein Thema mehr sind (zu Jobs Zeiten als ich mein erstes/einziges MacBook/Apple-Produkt damals kaufte, war Apple noch kein Lifestyle Konzern), kann ich da nicht so einen direkten Vergleich mit aktuellen Produkten ziehen und Apple ist mir als Unternehmen/Marke mit deren beänstigender Marktmacht und fragwürdigen Produkt(preis)- und Kundenpolitik zugegeben aus gleichen Gründen auch ähnlich unsympathisch wie nVidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Nach dem Release der 5090 ist die 4090 also die zweitschnellste Grafikkarte am Markt. Und die mit dem 2. höchsten VRAM. Und wird es bleiben wenn nicht eine 5080 Ti irgendwann folgen sollte, die dann technisch an das Level kommen könnte. Bis die 4090 in den Benchmarks weiter nach hinten rutscht, dauert es also noch bis zur Folgegeneration. Ist für die Besitzer auch irgendwo nice, diese Langlebigkeit, die vor 10 Jahren und noch früher bei Top-End-Karten völlig undenkbar war. Mit der 1080 Ti war es ähnlich der Fall und kompensiert zumindest etwas den Preis.
 
  • Gefällt mir
Reaktionen: Jethro
eine 70er mit 192 Interface^^
Es ist nichts weiter als eine "60er"........was ein Dreck!
Und es gibt User, die das noch feiern:))))))
 
  • Gefällt mir
Reaktionen: Chismon, ElHanzo und SweetOhm
Wird spannend, ob Nvidia wieder Nvidia-Sachen macht und eine Karte, die Leistung für 4k hat, wieder mit Speicher für Full-HD ausstattet.
Wir haben ja schon hier auf CB im Test von Star Wars Outlaws mit RTXDI gesehen, dass selbst die 16 GB der 4080 nicht mehr dafür ausreichen. Da ist es natürlich geil, wenn man den Speicher bei mutmaßlich gleicher Leistung noch weiter zurückfahren kann und damit noch ein paar mehr Karten upsellen kann :D
 
  • Gefällt mir
Reaktionen: SweetOhm und onkuri
blackiwid schrieb:
ne 4090 ist mit 2000 Euro grad unbezahlbar
Warum ist eine GPU für 2000€ unbezahlbar? Ich habe meine Zotac 4090 damals für 2.200€ gekauft. Da hatte ich die Paliz 4090 für etwa 1.800€ auch schon hier liegen, diese hat allerdings nicht funktioniert.

Deswegen gleich die zweite bestellt um zu testen ob die Grafikkarte einen Fehler hat oder mein Board/ whatever.

Ist das, wie in meinem Fall, dumm eine 4090 für 2.000€+ zu kaufen? Definitiv. War mir persönlich dann aber egal. Ich stehe zu meiner Dummheit.
 
Schaut doch einfach auf die Daten der Karte und gut ist.
Scheiß egal wie die heißt!?

Wenn ihr ne Hosengröße 33 habt und die neue Hose passt nicht, kaufste doch auch ne 34 wenn die passt?
 
  • Gefällt mir
Reaktionen: Volvo480 und Dedenne1987
Das VRAM Gegeize bei Nvidia stört schon ein wenig.
Bei Nvidia kriegt man nie richtig was man will. lol

Die 11 GB VRAM habe ich jetzt schon sei 7 1/2 Jahren bei meiner Consumer Grafikkarte.
Und jetzt sind wir bei 16 GB VRAM bei den "bezahlbaren" Grafikkarten. Lächerlich.😜

Ehrlich gesagt bin ich mir dann auch gar nicht mehr so 100% sicher, ob ich ein Upgrade mit ner 50xxer brauche.
 
  • Gefällt mir
Reaktionen: usernamehere und SweetOhm
Meine HD 5850 hab ich bei Release für 260€ gekauft, hatte die zweitschnellste Karte am Markt und Preis/Leistungsmäßig war sie besser als alle früheren Karten.
Heute wird mit einer neuen Gen immer nur oben angesetzt rein preislich. Irgendwas ist da echt kaputt.
Der Preis für 10 Tb Hdd mit grob 200€ ist in 10 Jahren quasi null gefallen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere und Fyrex
Die RTX 5090 kann gar nicht früh genug kommen. Letzte Woche erst mal schön den FBW A380 im MSFS angeworfen und ein paar 8K Texturen (LH, BA, AF) für den Flieger gezogen. Zack. Die kompletten 24GB VRAM bis oben hin voll :D .
 
tomgit schrieb:
Letztes Mal war es ja auch nur wegen dem Shitstorm eine 4070Ti dann
Dieses Mal gibt es dann eben eine 5070Ti und eine 5070 Ti SP oder so..

Sollten aber die Gerüchte zu AMDs UDNA sich bewahrheiten, vllt ist das ein Zeichen, dass RX8000 zumindest bis zur 5080 mithalten kann. Schön wäre es
 
Pisaro schrieb:
Warum ist eine GPU für 2000€ unbezahlbar?
Man muss ja nicht jedes Wort auf die Goldwaage legen, ja natürlich gibts viele Leute die das Geld aufm Konto haben sogar die meisten daher ist es logischerweise streng genommen bezahlbar, ok hast mich erwischt aus versehen schlechtes Wort gewählt.

Was ich sagen wollte ist ein Betrag den ich für ne 2 Jahre alte Karte die beim Release weniger (UVP) gekostet hat, halte ich es für extrem Dumm HEUTE solch eine Karte für diesen Preis noch zu kaufen, wenn man nicht in irgend ner Extremsituation ist und oder die Karte irgendwie professionell braucht um damit Geld zu verdienen.

Es macht halt nen Unterschied wann eine Hardware welchen Preis kostet, wann hast du deine wie viel auch immer Karten gekauft in den letzten Tagen / Wochen oder vor >1 Jahr?
 
  • Gefällt mir
Reaktionen: Chismon, SweetOhm und usernamehere
Stanzlinger schrieb:
Die 4090 ist aber auch 400% schneller. Da darf die auch mehr Strom benötigen
Was faselst du da ?
Du verlgleichst die TDP (Stromaufnahme) einer Mittelklassen-GPU mit einer Highend-Gpu? Das nenne ich mal Abenteuerlich.
 
  • Gefällt mir
Reaktionen: Piak und SweetOhm
Icke-ffm schrieb:
was mir da definitiv fehlt ist eine 5080ti 512Bit -16GB, die wird sicher kommen, und breislich dann wohl die 4090 beerben selben ausbau wie die 4090 aber eben 512Bit und GDDR7 vorteil dafür nur noch 16GB zur UVP von $1599 die 5090 geht dafür dann eben auf UVP$2199. ist dann aber nur noch minimal schneller und hat das mehr an Speicher.
bleibt nur zu hoffen das es zumindest eine 4060ti mit 192Bit und 12GB gibt und diese bei 399 UVP bleibt das wäre dann eine schöne FHD Karte.
wenn aber Nvidia wirklich die erste 32GB Karte bringt wird es bis zur Nachfolge Gen dann definitiv endlich games geben die in UHD dann nicht mehr nur mit popligen 16GB auskommen.
Das die ganzen neuerscheinungen noch fast immer mit 8GB in FHD Ultra settings auskommen, verwundert mich jedesmal aufs neue.

Die 5080Ti kommt erst 1 Jahr später, wenn es die 1,5 GB VRam Chips gibt um ihr dann 24 GB Vram zu spendieren, den eine 5080Ti mit 16 Gig würde, für den Haufen Kohle, keiner kaufen.
 
  • Gefällt mir
Reaktionen: Coronium und SweetOhm
Da wäre ich mir nicht so sicher, auch wenn ich es wie du sehe. Die 5070 wird ja scheinbar auch schon wieder mit 12gb ausgeliefert, als ob NVIDIA bewusst auf die usermeinungen 💩 . Spannend wird es mit der 60** Reihe, da kommen auch allmählich die neuen Konsolen und dafür wird der Standard gelegt.
 
Die 5070 Ti ist nur mit 16 GB "interessant" ! Wenn jene mit lediglich 12 GB (wie 5070) kommt, ist eine 4080 Super mit 16 GB für 999 € die vermutlich bessere Wahl ... :rolleyes:
Ergänzung ()

GrumpyDude schrieb:
Freue mich auf den RTX 5090, wird direkt gekauft.
Freue mich für die Freuer, wird direkt nicht gekauft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon, ErichH., lubi7 und eine weitere Person
Ich kann bestätigen dass Nvidia zum Start von Blackwell eine 070 ti bringt.. Sie nennen sie 5080. (badabummtss)
 
  • Gefällt mir
Reaktionen: SweetOhm
Chismon schrieb:
nVidia zu kritisieren wäre von diesen abhängigen Hardware-Journalisten/-Seiten dann doch schon fast Majestätsbeleidigung und könnte schmerzliche Isolierung (nicht nur durch Liebesentzug der Markenfans auf deren Webseite) nach sich ziehen, wohingegen die o.g. unabhängigen TechTuber sich das leisten können/wollen.
Ich habe einen völlig anderen Eindruck, nämliche den, dass grundsätzlich Spiele, Hardware und Co meistens völlig unsachlich zerrissen werden, während Hardware Journalisten die keinen auf Clickbait machen wesentlich sachlicher und differenzierter Kritik üben und man wesentlich besser informiert wird.
Chismon schrieb:
Im Endeffekt werden einige wie üblich prinzipienlos herumheulen bzgl. der Preise, aber dann trotzdem wieder "alternativlos" neueste nVidia Grafikkarten zu neuen Höchstpreisen kaufen, weil sie diese angeblich zum daddeln brauchen (bei der Preisverdoppelung von RTX 3080 auf RTX 4080 hat es auch nicht so viele gestört und das Upselling ist wieder einmal ein Erfolg gewesen, ähnlich wie davor bei der GTX 1080Ti auf die RTX 2080Ti).
In deinen Beitägen schwingt immer das Verlangen mit, andere dafür zu verurteilen, weil sie sich für ihr Hobby schnelle Hardware kaufen und aus dem speist sich auch deine Kritik gegenüber dem Marktführer.
Inhaltlich ist das nichts worauf es sich zu reagieren lohnen würde.

Es gab zwischen 3080 und 4080 keine Preisverdopplung, denn dann hätte sie bei 1400 Dollar starten müssen.
Außerdem entschied sich AMD dazu ihre schwächere Generation wieder für 999 Dollar zu verkaufen, womit 1199 Dollar für die 4080 einem vergleichbarem P/L Verhältnis entsprach. Und zudem gab es auch Preissenkungen, eine 7900XTX ist stellenweise für 870 Euro zu haben, eine 4080 Super erst vor paar Tagen für 939 Euro über MyDealz. Du redest von prinzipienlosem Herumheulen, aber erfüllst selbst jedes noch so oberflächliche Klischee alles und jedem die Schuld für etwas zu geben.

Bei dem was GPUs heutzutage alles können und wie lange sie halten, ist die Preiskritik dann noch weniger substanziell.

Chismon schrieb:
Auch die absehbar knappen 10GB bei der RTX 3080, ganz zu schweigen von den zu knappen 8GB bei der RTX 3070(Ti) wurden schnell - was Kritik angeht - übersehen und vergessen (außer man ist nachher betroffen/gelackmeiert gewesen).
Und deine Kritik an der mangelnden RT Leistung von AMD, sowie an dem viel schwächeren Upscaling bzw. restlichem Featureset auch im Bezug auf professionelle Anwendungen findet man wo? Die findet gar nicht statt.
Und somit ist es nur logisch, dass ein Hersteller theoretisch etwas schwächere Hardware für den gleichen Preis anbietet, wenn dafür die Software besser ist. Die eierlegende Wollmilchsau kostet dann dementsprechend.
Chismon schrieb:
Wenn die Wettbewerbehüter schon so milde mit nVidia umgehen, kann man das von der Presse wohl auch nicht mehr verlangen, insbesondere, wenn diese davon profitiert den Laden und deren Produkte schön zu reden und das klappt ja schon ziemlich lange.
Das sind ja heftige Vorwürfe an die Presse, wie weit willst du dich noch disqualifizieren?
Chismon schrieb:
...oder zu benachteiligen, Boardpartner gefügig zu machen, usw.
Die AMD Boardpartner haben vergleichbare Margen. Da nimmt sich AMD und Nvidia gar nix.

Chismon schrieb:
(...) und Kundenpolitik zugegeben aus gleichen Gründen auch ähnlich unsympathisch wie nVidia.
Und das ist eben der Knackpunkt. Bei dir dreht es sich um Sympathie, nicht um Fakten.
 
Zuletzt bearbeitet:
nun die sku Planung nimmt langsam fahrt auf
70sm 300w sagen mir zwei dinge
Es handelt sich um gb203 um ein Monolithen in tsmc n4 node quasi ein ad103 ersatz
man nutzt den ganzen n4p node Takterhöhung 3,0ghz
ich vermute stark das man das Si auf nur 224bit kürzt =14gb
das macht die sku fasst so schnell wie die rtx4080 mit 300w
am ende wird die sku etwa +15% schneller als die rtx4070ti super oder +25% zur rtx4070ti
Daraus ergibt sich das auch die rtx5080 3,0ghz mit 84sm hat +15% 16gb

Das bedeutet ein beibehalten der sm Struktur hin und wäre ein Super gau für alle den damit ist mit samsung sf4 node mit stillstand zu rechnen
50sm 2,5ghz gleich schnell wie 46sm und 2,8ghz 235w = rtx5070 12gb
36sm 2,5ghz = schnell wie 34sm 2,6ghz 175w = rtx5060ti 8gb/16gb
28sm 2,5ghz = schnell wie 24sm 2,8ghz 130w= rtx5060 8gb
Damit ändert sich nix zur aktuellen Lage außer das die Bandbreite bei rtx5060ti drastisch erhöht vs rtx4060ti
Womit ich dieser preis Struktur rechne

rtx5060 8gb 310€ +-5%
rtx5060ti 8gb 400€ +-5%
rtx5060ti 16gb 510€ +-5%
rtx5070 12gb 620€ +-0
rtx5070ti 14gb 960€ +15%

Der einzige Grund für ne rtx5060ti 16gb spräche wäre 16gb und unter 200w tbp
Diese ist aber langsamer als ne rtx4070 -40%
und das sagt auch aus das nvidia nicht mit einen Preiskampf rechnet womit die amd sku's so schnell wird
rx8600xt 32cu 3,0ghz +10% 300€ (rx7600xt)
rx8700xt 48cu 3,0ghz +35$ 450€ (rx7700xt)
rx8800xt 56cu 3,0ghz +20% 550€ (rx7800xt)
rx8800xtx 64cu 3,0ghz +-15% 650€ (rx7900gre)

aktuelle Lage amd vs nvidia
rtx4060 vs rx7600xt amd wins +10%
rtx4060ti vs rx7700xt amd win +10%
rtx4070 vs rx7800xt nvidia wins +10%

reine raster perf. in realen Bedingungen nvidia 2,7-2,8ghz amd reale 2,3ghz-2,7ghz

dann ist es
rtx5060 vs rx8600xt amd wins +16%
rtx5060ti vs rx8700xt amd wins +25%
rtx5070 vs rx8800xt amd wins +14%

Das bedeutet das nvidia die dxr perf. misst und nicht rechnet das amd ada perf. erreicht.
amd braucht aktuell doppelt so viele cu für die gleiche dxr perf wie nvidia
Dann sind es nur noch +40% mehr cu vs sm

Also bleibt die Wahl mehr perf. rtx4070 12gb oder mehr vram und nenn tick zu wenig perf. rtx5060ti 16gb

Das verzögert das upgrade eventuell auf 2026 wenn 24gbit da sind und hoffentlich samsung sf3 node marktreif wird. Den das hat potenzial bis 18% Takt. und mit ner 36sm sku dann bei grob 18,6tf zu kommen grob die rx7700xt. Dies aber wieder mit 12gb
Egal wie ich es Wende es bringt nix unter der rtx4070 bzw rtx5070 lohnt kein upgrade.

Das ist das schlimmste Szenario das passieren konnte Preisstillstand mit tbp regression
 
CDLABSRadonP... schrieb:
Nichts desto trotz hätte auffallen müssen, dass Nvidia massiv schummelt. GREATEST GENERATIONAL LEAP, wie es auf einer anderen Folie hieß, war auf Geforces bezogen bereits nachweislich falsch.
Naja, man hat den größeren Chip in die Mittelklasse gebracht, was wohl auch vorher durch den günstigen Samsung Prozess wohl auch so angedacht war. Man hat dem Mittelklassechip einen High End Chip gegenüber gestellt und dann eben von "Greatest Generational Leap" gesprochen.
Marketingfolien kann und sollte man kritisieren, aber letztendlich zählt sowieso nur der Produkttest.
CDLABSRadonP... schrieb:
Und die Effizienzfolie war Ultra-Dreist, sprach sie doch von +90%, weil einfach geschaut wurde, wie viel elektrischer Leistung für die gleiche Performance benötigt wird.
Ja, diese Metrik führte Computerbase aber auch in deren Tests an, nämlich die FPS zu begrenzen und dann zu schauen was das Ding noch verbraucht. Sie 4090 ist dabei die effizienteste Karte.
Das kann man schon vergleichen, gerade für Notebooks interessant.
CDLABSRadonP... schrieb:
Nvidia hat hier glatt betrogen und das hätte ihnen von Anfang an um die Ohren gehauen werden können;
Das ist nicht wirklich richtig, da man das Limit über den Treiber hart hätte setzen müssen, damit die Telemetrie der Karte wie gewünscht arbeitet. Ampere hat mit den üblichen Mitteln einfach voll durchgeboostet und somit reduzierte sich die Leistunsgaufnahme mittels V-sync nur geringfügig.
CDLABSRadonP... schrieb:
Zu wenig Gegenwind bzgl. fehlendem DP 2.1 bei Ada ist aktuell wirklich das, was mMn. am meisten unter den Tisch fällt.
Also das mit Abstand unbedeutendste Feature überhaupt für das es bis heute kaum Anwendungsfälle gibt.
Jetzt erst starten langsam die Monitore damit und der Effektive Nachteil beim ASUS ROG Swift PG32UQXR sind 160 Hertz bei einer 7900XTX und folglich nur 138 Hertz auf einer Geforce Karte, die in der Auflösung nur schwerlich zu erreichen sind, vor allem mit der Radeon, bzw im Extremfall 240 Hertz vs 120Hertz auf einem 4K Panel bei 10 bit pro Farbkanal, zudem gibt es noch DSC.

Bei euch beiden fehlt halt jede Bereitschaft halbwegs zu differenzieren. Bei Ampere gab es sicherlich einiges zu kritisieren, bei der Konkurrenz aber nicht weniger und das fällt völlig flach.
Wenn Produkte bei Nvidia wirklich schlecht sein sollten, dann wird der Absatz einbrechen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
Zurück
Oben