News Gaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti

CDLABSRadonP... schrieb:
Aber es ging in der Praxis eben nicht bloß im Mittel der Reviews, sondern auch in jedem Mittel innerhalb der (analysierten) Reviews, knapp in Punkto Performance zu Gunsten der 7800 XT aus:
Ja, stimmt. Bei PCGH war die Karte 1% schneller.
 
  • Gefällt mir
Reaktionen: pacifico und MalWiederIch
Vitche schrieb:
Die 4090 ist auf dem Papier auch 70 Prozent stärker aufgestellt als eine 4080 (S), in der Praxis aber auch in UHD mit hartem GPU-Limit nur sehr selten mehr als 30-33 % schneller.
CB hat in früheren Test mal 5k Benches mit teilweise ~50% Vorsprung, in UHD sind es eher um die 30-40%. Die Frage ist hier eher, wenn man die Anforderung noch weiter erhöht, ob das dann noch größer wird. Es ist zumindest davon auszugehen, dass dem so ist. Allerdings muss das nicht zwangsweise nur durch Erhöhung der Auflösung sichtbar sein.
Ihr bei CB testet ja mittlerweile gern auch mit per default aktiviertem Upscaling Techniken. Sprich das verfälscht das Bild bei der Anforderung relativ stark, wo die Pixelbasis dort dann gern auch mal nur in der Region WQHD oder nur unwesentlich darüber zu finden ist und dann auf UHD hoch gerechnet wird. Das wirkt der Skalierung der TopEnd GPUs natürlich entgegen...
Vitche schrieb:
Die Specs von 5070 und Ti haben genau so Lücken, dass sie zusammen eine vollständige Zeile in der Tabelle in der News ergeben würden. Disjunkt meint einfach nur, dass sie in keiner Spalte beide einen (leeren) Eintrag haben (außer halt bei GPU und TDP, ...
Aber genau diese beiden GPU und TDP Einträge, genau so wie der "Name" als dritte Spalte machen das Thema damit aber nicht mehr disjunkt, weil es schlicht eine Schnittmenge der drei Mengen ist, wo ein Eintrag vorhanden ist, die eben genau dieses Wort damit nicht mehr passend macht. Der Sinn hinter "disjunkt" ist dass es keine Schnittmenge gibt. Keine meint auch keine, nicht aber, dass man da links und rechts was ausblendet und in der Mitte dann die Differenzen stehen hat...

Was du im Artikel schreibst ist im Grunde eine doppelte Negierung Denn eine "Lücke" impliziert in dem Zusammenhang genau so wie "disjunkt", dass sich das in diesem Punkt nicht überschneidet. Also keine Schnittmenge vorhanden ist.

Ich bin dafür, keine komischen Fachwörter in den Meldungen zu verwenden
Einfach schreiben dass die Spezifikationen beider Karten Lücken aufweisen und gut ist... Hübsch es auf und formuliere deine Erklärung von wegen, "Die Specs ... haben genau so Lücken, dass sie zusammen eine vollständige Zeile in der Tabelle in der News ergeben würden." Dann versteht auch Jeder was gemeint ist und es ist nicht halbgar wo die beiden "Mengen" von Daten beim Punkt TDP, Name und GPU (und dort an der exakt selben Stelle noch ein Fragezeichen) faktisch nicht disjunkt sind.
 
  • Gefällt mir
Reaktionen: Cohen, SweetOhm, serve1chilled und 3 andere
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: prayhe, iron_monkey, SweetOhm und 5 andere
Kann nvidia bitte aufhören, immer solche Stromfresser rauszuhauen? 300 Watt soll die neue Mittelklasse sein?
Ich erinnere da an Zeiten, als ne 1070 sich mit der Hälfte begnügte.
 
  • Gefällt mir
Reaktionen: coral81, BlackVally, SweetOhm und 3 andere
Chesterfield schrieb:
Und jedes Mal aufs Neue wird eine VRAM Diskussion folgen das NVIDIA damit geizt und AMD so viel spendabler ist auf den Karten 🥱
jo und die Leute die vor 6 Jahren eine Radeon Vega 7 mit 16GB Vram gekauft haben wegen der "Zukunftsfähigkeit, weil 16 GB ist wichtig" gurken gerade mit 15 FPS in aktuellen Games rum :D

Diese VRAM Diskussion ist eine Glaubensfrage für viele AMD Fanatiker geworden.

Ja VRAM ist in bestimmten Spielen, mit bestimmten Texturen und Auflösungen wichtig, aber so hoch wie es von AMD Jüngern hochstilisiert wird und auf Nvidia eingedroschen wird ist es auch nicht so wichtig.

Nicht falsch verstehen, ich bin selber AMD Fan und habe fast nur AMD CPUs verbaut und auch AMD Grakas gekauft.
 
  • Gefällt mir
Reaktionen: Zocker1996, stevefrogs, Cohen und 4 andere
Kinkerlitzchen* schrieb:
Kann nvidia bitte aufhören, immer solche Stromfresser rauszuhauen? 300 Watt soll die neue Mittelklasse sein?
Ich erinnere da an Zeiten, als ne 1070 sich mit der Hälfte begnügte.
Die 4090 ist aber auch 400% schneller. Da darf die auch mehr Strom benötigen
 
Mr. Smith schrieb:
Wenn die Gerüchte so eintreten sollten, wäre dass eine extreme Lücke zwischen der 5080 und der 5090.
Bei der 5090 ist ja quasi alles 5080*2 (außer der TBP).

Lässt wieder sehr viel Spielraum für spätere 5080 Super, 5080Ti und 5080Ti Super...

Gibt aber keinen wirklichen Grund für Nvidia das zu machen, wenn AMD nicht mal Konkurrenz zur 5080 hat, kann man die 5090 schön teuer anbieten mit einer riesigen Lücke dazwischen und so den geneigten High End Käufern eine 5090 verkaufen, weil sich alles andere ja nicht lohnt.

Natürlich könnte Nvidia eine 5080Ti bringen, die den großen Chip nutzt, aber wozu? Wozu den größten Chip günstiger anbieten, wenn genug Leute die 5090 kaufen und man den großen Chip abseits von Gaming mit riesen Margen verkkaufen kann.

Da sehe ich eine Titan oder 5090Ti als wahrscheinlicher an, als das Sie an eine 5080Ti einen großen Chip "verschwenden". Das Fertigungsverfahren ist auch so ausgereift, dass man keinen so großen Ausschuss hat, dass man unbedingt den Abfall loswerden muss.
 
Eine 5070ti mit 16 GB vram wäre unter 700 euro tatsächlich verlockend.
Ich vermute wenn sie direkt kommt, dass die 8800xt eine ernsthafte Konkurrenz ist.
 
  • Gefällt mir
Reaktionen: Paladin-HH, onkuri und nurfbold
"5070 Ti" ?

Jetzt wird's ja langsam interessant.
Ich warte nämlich auf die RTX 6070 Ti Super. :D

So lang' hält meine 3090 durch.
 
  • Gefällt mir
Reaktionen: Czk666
Du willst eine 24 GB Karte mit einer 12 GB-Karte ersetzen? :p
 
  • Gefällt mir
Reaktionen: Zocker1996, coral81, Cohen und 6 andere
Quidproquo77 schrieb:
Ja, stimmt. Bei PCGH war die Karte 1% schneller.
Noch ergänzend: Ich bin definitiv kein Fan davon, wie AMD in der gerade noch aktuellen Generation die Karten benannt hat. Ich bin auch kein Fan davon, was AMD insgesamt für SKUs aufgelegt hat.
Persönlich hätte ich das so gemacht
Tatsächlicher NameBesseres Namesschema
7900 XTX7900 XT
7900 XT7900
7900 GRE7800 XT
7800 XT7800
7700 XT7700
7600 XT7600 XT
76007600
Ergänzend dazu hätte ich noch folgende SKUs eingeführt:
Eine 7700 XT mit der Chipconfig wie bei der 7700, aber mit vier MCDs, entsprechend auch 16GiB, nur halt den billigsten GDDR6, den AMD bekommen kann. (weil die Bandbreite dicke reicht) Wäre nett gewesen, aber kein MustHave.
Und eine 7500 XT / Eco / Whatever, basierend auf Navi 33 und darauf getrimmt, ohne Stromstecker auszukommen. Das wäre hingegen ein MustHave, denn mit so einer Karte hätte AMD Nvidia demütigen und entsprechend ordentlich Marktanteil abnehmen können: Nvidia hat im Februar 2024 die 3050 6GB gebracht, AMDs Karte wäre schlicht auf und davon gezogen. Solch einen klaren Sieg im kleinen hätte AMD mal wieder nötig gehabt. (denn Nvidia hat schlicht keinen aktuellen Chip im Angebot, den sie ins Feld hätten führen können)

Rüber zu Nvidia: Ich bin kein Fan von dem Schema, das Nvidia gewählt hat. Ich bin aber auch kein Fan von der Auslegung der SKUs. Hätten sie sie besser ausgelegt, dann hätte AMD allerdings auch überhaupt keine Luft zum atmen gehabt, von daher ist es vielleicht ganz gut so, wie es gekommen ist...
Kurz angerissen: Bekanntermaßen ist der AD102 im Vollausbau viel stärker als das, was auf der 4090 zum Einsatz kommt. Bekanntermaßen litten einige Karten unter zu wenig VRAM. Hätte Nvidia die Karten auch mit verdoppelten VRAM angeboten oder bei Micron GDDR6X-DIEs mit 1,5facher Kapazität bestellt, hätte AMD wirklich keine Luft gehabt.

Wenn die 4090 als 4080 und mit 350W als Limit sowie eine Variante nahe am Vollausbau mit 450W Limit als 4090 gelaunched wäre --- uff. Die tatsächliche 4080 dann als 4070, als 4070ti mit 24 GiB und 1,5fachen DIEs, die 4070ti als 4060ti mit 1,5fachen DIEs und als 4060 mit normalen Speicher-DIEs (und alle SKUs mit PowerLimit und SpaWas näher am SweetSpot) wäre einem Todesstoß für die RDNA3-Radeons gleichgekommen.
 
  • Gefällt mir
Reaktionen: cruse, ScareEm, pabu.roar und 5 andere
Ne 5070TI mit 16 Gb zum Marktstart wäre fein und gekauft, wenn das Preis-Leistungs-Verhältnis passt. Es sei denn AMD liefert mehr. Träfe auf auf jeden Fall auf die Gerüchte zu, dass die 70er derzeit auch schon abverkauft werden.
 
fdsonne schrieb:
Ihr bei CB testet ja mittlerweile gern auch mit per default aktiviertem Upscaling Techniken. Sprich das verfälscht das Bild bei der Anforderung relativ stark,
Verfälschen würden wir das Bild, wenn wir mit praxisfernen Einstellungen testen würden, die die Leistung und mitunter Bildqualität reduzieren, nur um Unterschiede zu suggerieren, die in der Praxis beim Spielen gar nicht bestehen. Wohlgemerkt, du beziehst dich auf Spieletests, die sind außerdem nicht mit GPU-Tests zu verwechseln; da werden Benchmarks mit unterschiedlichen Zielen erstellt.
fdsonne schrieb:
Aber genau diese beiden GPU und TDP Einträge, genau so wie der "Name" als dritte Spalte machen das Thema damit aber nicht mehr disjunkt,
Der Name und die TDP der GPU sind weiche Kriterien, die Nvidia im Grunde genommen nach Lust und Laune anpassen kann, bevor das Produkt finalisiert wird. Das trifft auf die specs der GPU selbst nicht in dem Ausmaß zu.

Zum Wort selbst: Das erschien mir in dem Kontext als passender und vielsagender als die paar Alternativen, die mir aus dem Stegreif eingefallen sind, daher hab ich es verwendet. Als Informatiker ist der Begriff halt allgegenwärtig. Ich wollte in dem Absatz auch kein Fass mehr aufmachen und da im Detail drauf eingehen; ich dachte, das anzusprechen reicht, damit jeder weiß, was gemeint ist.
 
  • Gefällt mir
Reaktionen: Zocker1996, prayhe, 12nebur27 und 4 andere
Zwirbelkatz schrieb:
Es wäre schön, eine einigermaßen erschwingliche Karte kaufen zu können, die min. 16GB Speicher hat und mit etwas Anpassung noch an einem 550w Netzteil läuft.
Bei nVidia wohl eher eine illusorische Vorstellung, denn so eine Grafikkarte gibt es doch schon mit der RTX 4070Ti Super mit 16 GB dort (m.E. die einzige andere halbwegs sinnvolle Grafikkarte im nVidia Angebot neben einer RTX 4090), nur eben leider erst für so vollkommen überzogene Preise ab 800 Euro.

So gesehen, rechne ich bei einer etwas schnelleren RTX 5070Ti mit 16 GB, falls so eine denn bald kommen sollte, eben mit etwas mehr Geschwindigkeit als bei dem o.g. Modell und evt. neuen Features (die mehrere Jahre vermutlich kaum einer brauchen wird, weil dafür wieder nur eine Hand voll gesponsorte Vorzeige-Spiele erst einmal nur herhalten dürften, ähnlich wie bei RT-RT, RT-PT und FG davor) für einen deutlichen Aufpreis, mit Glück vielleicht 999 Euro (eher US$ plus Steuern)?

Schon letztes Mal hat nVidia versucht die Kundschaft für blöd zu verkaufen mit einer RTX 4080 12GB aus der dann schnellstens eine RTX 4070Ti wurde als sich TechTuber darüber empörten und der Preis um Hundert Taler oder so leicht gesenkt wurde und das will man dort bestimmt nicht noch einmal so laufen lassen.

Außerdem gibt es von AMD (geschweige denn Intel) erst einmal keine Karte in gleicher Leistungsklasse, so dass das nVidia (nicht mehr "Quasi-")Monopol dann dort greifen wird, welches sich so viele nVidia Fans hier auch sehnlichst wünschen (und ich diesen mit den resultierenden fetten Aufpreisen zur RTX 5000er Serie für zunehmend weniger (Produkt-)Leistung und danach gerne gönne).

Für mich persönlich wird es im PC Desktopbereich frühestens wieder ab RDNA5 interessant (evt. auch erst ab UDNA .... wobei RDNA5 ja angeblich UDNA werden soll laut Chiphell Forum, aber das ist auch nur gemutmasst), wenn diese denn wirklich Ende kommenden Jahres kommen sollten, wie vor langer Zeit gemunkelt (das glaube ich bei AMD erst, wenn ich es sehe).

Die hier und anderweitig wie üblich zelebrierte nVidia Jubelshow von Presse und Fans des Monopolisten kann mir gestohlen bleiben, denn den Mehrwert sehe ich bei der aktuellen Entwicklung (vorbei an der großen Masse echter Gamer) nicht mehr wirklich.

Interessant wird für mich vorwiegend, ob nVidia endlich nach vielen Jahren der Stagnation im Laptopbereich den mobilen dGPUs mehr Speicher spendieren wird, aber bei der ähnlich monopolistischen Marktstellung im mobilen dGPU Bereich, ist das auch eher zu bezweifeln und dürften wieder nur unzureichende 8 GB bspw. für mobile RTX 5060 und evt. auch RTX 5070 verbaut werden.

Damit bleibt die Hoffnung auf passende mobile RDNA4 Ableger, aber bisher war AMD in dem Bereich in den letzten Jahren leider eher rückschrittig unterwegs mit Exklusiv-Deals/einzelnen Laptopmodellen.

Höchste Zeit wäre es für Verbrauchschützer und Wettbewerbshüter/-behörden endlich 'mal Sturm gegen nVidia zu laufen (von mir aus auch gerne den Konzern zu zerschlagen), aber dafür sind letztere evt. schon zu einflußreich und mächtig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Chismon schrieb:
Die hier und anderweitig wie üblich zelebrierte nVidia Jubelshow von Presse und Fans des Monopolisten kann mir gestohlen bleiben, denn den Mehrwert sehe ich bei der aktuellen Entwicklung (vorbei an der großen Masse echter Gamer) nicht mehr wirklich.
Wo siehst du die denn? Also das Stöhnen über Preise ist doch drastisch, das über VRAM-Mengen ebenfalls. Etwas zu kurz kommt meiner Meinung nach die Kritik daran, dass Nvidia DP 2.1 nicht in Ada implementiert hat. Das hat dem Monitormarkt nachhaltig geschadet; die Konsequenzen werden wir noch viele Jahre lang spüren.
BTW, @Jan @Vitche : Ist da eigentlich mal was durchgesickert bzgl. DP 2.1 und Blackwell, seit dem Gerücht damals im November 23? (das war aber noch mit N3 verknüpft und ist entsprechend nicht belastbar)
 
  • Gefällt mir
Reaktionen: stevefrogs
Dadurch dass ich meinen vram beim nächsten Upgrade verdoppeln möchte, fällt diese Gen schon mal weg. Mal sehen was die 6000er bringen.
 
DavidsMind schrieb:
Dadurch dass ich meinen vram beim nächsten Upgrade verdoppeln möchte,
Sowas kann ich sehr gut verstehen. Habe mir auch gesagt, dass ich bei jedem Systemwechsel (also jetzt nicht, wenn eines ausfällt und deshalb ersetzt werden muss oder so, sondern eben geplante Schritte) der System-Ram und die System-Platte sich vervierfachen sollten.
DavidsMind schrieb:
fällt diese Gen schon mal weg. Mal sehen was die 6000er bringen.
Hmm? Also mit GB202 im Vollausbau, vmtl. 5090, wird doch sogar 32GiB zum Start drinnen sein. Mit GB203 im Vollausbau zum Start nur 16GiB, aber die Wahrscheinlichkeit, dass eine Variante mit GDDR7-DIEs mit 1,5facher Kapazität nachgeschoben wird, ist sehr hoch. Klar, kann auch sein, dass Nvidia den Refresh dann 6000er nennen wird, aber das ist gehopst wie gesprungen.
 
Tigerfox schrieb:
Das hoffe ich doch sehr, eine 5070Ti mit 16GB (oder später 24GB) wäre meine nächste Grafikkarte.
Bei mir ebenso. Ich möchte einfach nur eine Karte auf dem Leistungslevel einer RTX 4080 (also ca. doppelt so schnell wie meine aktuelle RTX 3070), mit mind. 16GB VRAM (primär für Stable Diffusion, für Games würde ich vermutlich noch mit 12GB auskommen), mit den neuen Features der nächten Generation, nicht allzu viel Verbrauch und einem fairen Preis.
Das wären, ausgehend vom aktuellen Preis der RTX 4070Ti Super, welche diesen "Wunschdaten" schon recht nahe kommt, maximal 800€.

Dazu ein Ryzen 7 5700X3D oder gebrauchter 5800X3D und meine Kiste wäre für <1000€ wieder "fit" für die nächsten Jahre und endlich auch ein Monitorupgrade auf 4K und Oled. Mal sehen, was wir dann in ein paar Monaten von Nvidia vorgesetzt bekommen.
Wenn neuen Karten abseits des sündhaft teuren Topmodells wieder mit so krassen Kompromissen kommen, wird es eben eine gebrauchte RTX 4080.
 
Wenn die 5080 eine halbe 5090 sein soll, was ist dann eine 5070ti, etwa eine Viertel 5090?
 
  • Gefällt mir
Reaktionen: TheChris80 und Coeckchen
Zurück
Oben