News Gaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti

@AnkH Mich würde es schon ärgern wenn die 5080 nicht die Geschwindigkeit der 4090 erreicht. Aber davon ist ja leider auszugehen. Die 4080 hat die 3090 noch übertroffen, wenn auch "nur" um 20%. Wenn die 5080 aber sogar langsamer wird als die 4090 und damit nur einen geringen Vorteil zur 4080 hätte würde ich mich doch ziemlich wundern wie Nvidia uns das dann andrehen will.
 
sethdiabolos schrieb:
Hat ja nix mit knausern zu tun
Genau, das arme Nvidia würde schon seit Jahren sooo gerne mehr VRAM verbauen, aber sie können einfach nicht. Die Möglichkeit, ein entsprechendes Speicherinterface mit mehr Speicher zu verbauen, hat sich AMD vermutlich patentieren lassen, weswegen das am Ende auch ausschließlich deren Schuld ist. Verflucht seist du, AMD! :D
 
  • Gefällt mir
Reaktionen: DiePalme
@Habu Nö, man kann einfach älteren langsameren VRam verbauen und Technologiesprünge vermeiden.
 
@sethdiabolos Man kann auch mit GDDR5 oder meinetwegen GDDR6 nicht mehr VRAM auf 192Bit unterbringen. Ich bau keine Grafikkarten, aber ich bin mir sicher, dass Nvidia diese technische Hürde überwinden könnte, wenn das gewollt wäre.
 
AnkH schrieb:
Oder kurz: es gibt sehr wohl viele Gründe, warum man über die VRAM Entscheide von nVIDIA diskutieren kann und meiner Meinung nach auch muss.
Natürlich gibt es Gründe bei NV darüber zu diskutieren.
Aber was bei NV der VRAM ist sind fehlende oder schlecht umgesetzte Features bei AMD.
Was ich sagen möchte es gibt immer einen Grund was man am jeweiligen Herstellers auszusetzen hat.

Bei AMD mit fehlenden Features kann man noch sagen dass es technisch für AMD nicht möglich war.
Bei NV ist es reine Gewinnmaximierung um die teuren Karten los zu werden und an den Kunden zu bringen. Und eine Ausnutzung der aktuellen Monopol Situation im High End Bereich.
Klar würde ich eine 5070TI mit 24GB, 384 Bit begrüßen. Haben ist besser als brauchen.
Aber in meinem UseCase reichen 16GB aus.
Und mich stört es nicht eine Einstellung der Texturen von Ultra auf Sehr hoch oder Hoch zu setzen, solange das Game dadurch nicht viel schlechter aussieht.
Schließlich kaufe ich eine 70TI und keine High End Karte. Irgendwo müssen noch Argumente für die Leute übrig bleiben die ü2000€ nur für die Karte zahlen.
Ist am Ende alles Marketing
 
Vitche schrieb:
Verfälschen würden wir das Bild, wenn wir mit praxisfernen Einstellungen testen würden, die die Leistung und mitunter Bildqualität reduzieren, nur um Unterschiede zu suggerieren, die in der Praxis beim Spielen gar nicht bestehen.
Das würde ich so nicht unterschreiben. Denn ihr macht das selbe ja im CPU Testbereich mit 720p lowres Tests um irgendeine theoretische Leistung für ein Produkt zu suggerieren.
Mit verfälschen meine ich, dass man bei Upscaling die Anforderung an die GPU bewusst reduziert und das exakt beim Thema der Skalierung der Hardware mit der Anforderung natürlich die Ergebnisse verfälscht - wir kamen ja argumentativ von: UHD mit harten GPU Limit und 30-33% wie du sagtest, an Vorsprung für die 4090... Mit noch höheren Anforderungen - und da meine ich bspw. die Renderauflösung zu steigern, kann das durchaus nochmal deutlich stiegen. Ohne eben automatisch in unspielbarkeits FPS zu rutschen.
So kann ein UHD mit Upscaling letztlich manchmal nur unwesentlich höhere Anforderungen setzen als bspw. ein WQHD Test ohne Upscaling, wenn unter der Decke die selbe Auflösung gerendert wird.

Anyway. Am Ende ist das eure Sache wie ihr testet. Ich denke aber man muss sich durchaus die Argumentation gefallen lassen, dass Upscaling die Anforderungen reduziert. Was ja für das Endresultat am Ende auch beim Spieler sinnig ist. Bei der reinen Skalierungsbetrachtung von GPUs bzw. der Hardware von Grafikkarten ist das allerdings hinderlich.
Vitche schrieb:
Der Name und die TDP der GPU sind weiche Kriterien, die Nvidia im Grunde genommen nach Lust und Laune anpassen kann, bevor das Produkt finalisiert wird. Das trifft auf die specs der GPU selbst nicht in dem Ausmaß zu.
Das spielt aber weniger eine Rolle wenn man absolut den Bezug zu einem definierten Wort erzeugt, was nur schwarz oder weis kennt. Keine Schnittmenge ist nunmal keine Schnittmenge.
Vitche schrieb:
Ich wollte in dem Absatz auch kein Fass mehr aufmachen und da im Detail drauf eingehen; ich dachte, das anzusprechen reicht, damit jeder weiß, was gemeint ist.
Alles gut. Ich wollte nur drauf hinweisen, dass das hier konkret ein wenig unglücklich gelaufen ist und ein Fachwort im Grunde für viele Leser wahrscheinlich noch ein unbekanntes dazu, für so eine banale Sache ggf. nicht die eleganteste Beschreibung ist. Das ist meiner Ansicht nach auch kein Fachwort, was mal als Informatiker automatisch irgendwo aufschnappt. Das verbinde ich eher mit Mathematik bzw. dem Studium. In der (IT) Praxis ist mir das in 20 Jahren nicht begegnet, zumindest ist mir rückblickend kein Zusammenhang mehr bewusst. Aber genug OT von mir dazu...
 
MalWiederIch schrieb:
Sieht man doch gerade bei CB nur allzu oft, dass mit zweierlei Maßstäben gemessen wird :p
Ergänzung ()


Und wieviel Watt brauchst du für die Leistung einer läppischen GTX 1070 heute?
Immer diese sinnfreien Kommentare - die Effizienz bewegt sich seit jeher nur in eine Richtung, wenn du die Leistung nicht benötigst gibt es super Grafikkarten ganz ohne zusätzliche PCIe Stromstecker :)

Und wieviel zockt der übliche Grafikkarten-Käufer denn, dass der Verbrauch unter Last überhaupt relevant im Verhältnis zum Kaufpreis ist?

Hier mal zur aktuellen Mittelklasse:

10-20 Stunden die Woche? Im Schnitt wird es bei berufstätigen Menschen eher die Hälfte sein, sprich 0,6kWh bzw. 16 Cent (!!!) pro Woche. In einem ganzen Jahr hat man sich da nicht einmal einen Döner zusammengespart und das trotz einer 55% höheren Effizienz, die es selten gibt.

Der Verbrauch unter Last ist viel irrelevanter, als manche es scheinen lassen wollen …

Sinnfrei ist es, solch verallgemeinerndes Geschwurbsel rauszubringen.
Ich bin berufstätig in Vollzeit mit massig Überstunden. Trotzdem zeigt Steam mir 50 Std in den letzten 2 Wochen an.

Einen Stromtarif für 16 Cent / 0,6 kwh (26,6 Cent / kwh) musst du mir auch erst einmal zeigen. Ich zahle nämlich 33 Cent / kwh und gehöre damit in einem Quervergleich unter der Nachbarschaft noch zu den günstigsten Tarifen.

Rechnet man jetzt die 50 Std auf ein Jahr hoch, kommt man auf einen Wert von 1300 Spielstunden.
Multipliziert man das bspw. mit der Differenz bei der Leistungsaufnahme im Spielbetrieb zwischen einer 4070S und einer 4070 Ti S von 63 Watt in WQHD, (289 vs 226 )kommt man bereits auf 81,9 kwh, was bei 0,33 € pro kwh 27,03 Euro entspricht.
Über eine Nutzungszeit von 5 Jahren ergibt das für mich 135 € oder 15 bis 25% des Kaufpreises. Warum sollte ich dies vernachlässigen und nicht in meine Kostenüberlegungen miteinbeziehen? Damit kaufe ich mir ein neues Mainboard, SSD, ein besseres Custom-Modell oder sogar eine neue CPU.

Es ist zwar schön, dass es eine 110W 4060 gibt. Nur hat diese 8 GB VRAM. Im Gegensatz zu den 12 GB der 3060 ziemlich knapp.
Wie gut eignet sie sich, um WQHD 144 Hz zu befeuern? Doch nicht wirklich eine ideale Lösung...

Und dann kommen da noch weitere Faktoren.
Die zusätzliche Kühlung muss gewährleistet sein.
Das ganze muss auch noch leise passieren.

Das Netzteil... Ich habe ein 550W-NT, mit dem ich seit 5 Jahren super zufrieden bin. Warum soll ich mir für über 100 Euro ein neues kaufen, wenn dieses immer noch sehr gut ist, nur weil ich eine neue Mittelklassegrafikkarte kaufen möchte?

Also ein bisschen über den Tellerrand schauen, wäre nicht schlecht, bevor man anderen Sinnbefreitheit unterstellt. Nur weil du nicht auf die Leistungsaufnahme schaust, heißt das nicht, dass das auch für andere kein Kriterium sein muss.
Als Kunde möchte ich ein rundes Produkt haben, was meinen Bedürfnissen entspricht und nicht erst n' Haufen Zeit (die ich für meinen Beruf, Familie und eben auch Spiele mit Freunden brauche) fürs Undervolten und/oder Einstellen von fps-/Watt-Limits und Lüfterkurven verschwenden.
 
Für mich kommt keine Graka mehr in Frage, welche nur 12GB VRAM hat bzw. nur noch mit/ab 16GB
und erst recht nicht wenn man dafür viele hundert oder um die 1000 "Geld" :( hinblättern soll.

Hab kein Problem ein paar Euro mehr als bei AMD zu bezahlen, weil es für mich bei NVIDIA immer
das (unterm Strich) beste Gesamtpaket gab. Aber wenn Lederjacke meint ab der 4070 keine 16GB verbauen zu müssen oder zu wollen, hat sich RTX 5000 erledigt - aus Prinzip - weil es REICHT irgendwann ^^

Bei RTX 4000 war das noch gerade so "ok" aber jetzt und für die Zukunft.. never ever!

Und wenn es wieder Salamitaktik ist, sprich, erst 12GB dann mit "Super/Ti bla blubb" 16GB die Leute abzocken,
mit mir sicher nicht.

Ich erachte 12GB als absoultes Minimum bis zur 5060Ti und 16GB ab der 5070.
Alles andere kann Lederjacke auf seiner Mega-Yacht lagern.. mir Banane.. :D
 
  • Gefällt mir
Reaktionen: Kinkerlitzchen* und Kommando
lubi7 schrieb:
5080Ti mit 16 Gig würde, für den Haufen Kohle, keiner kaufen.
das Sie später kommt agree, aber mehr wie 16 GB glaube ich nicht dran, Nvidia würde ich sogar zutrauen das sie die ti dann einfach mit 384Bit und nur 12GB verkaufen reicht ja aktuell noch bei 90% der Games. Nvidia Jünger kaufen eh alles aber wenn 24GB dann gibt es eben nur noch 384Bit SI
 
Ich hätte echt mal wieder Bock auf ne GeForce im Tower.
Die gute GTX 1080Ti war mein letzter Besitz aus dem Hause Nvidia.

Nur leider reicht für mich "Bock drauf" alleine nicht mehr aus um so viel Geld auszugeben.

Vorraussetzung für mich ist also, dass ich in irgendeiner Weise nicht mehr zufrieden bin mit meiner RX6900XT.
Dem ist aber (sicherlich noch eine ganze Weile) nicht so. :heul::D
 
  • Gefällt mir
Reaktionen: UnidkQ und Kommando
Ich bin sehr glücklich über meine RX 6800XT, mich nervt es allerdings das FSR und AFMF hinterher hängt oder wie das heißt.

Ich würde mich echt freuen, wenn das alles so weit und so gut wäre wie DLSS.

Trotzdem bin ich gespannt wie die RX 8800 XT wird.

Ich bin eben auch nicht bereit für jeden Preis was besseres zu bekommen.

Die 6800XT ist eine sehr gute WQHD Karte und competitive games laufen sowieso mit 300-400 fps.

Nachtrag: meistens spiele ich ohne den Schnickschnack FSR und Frame Generation, aber wenn es gut laufen würde, würde ich es auch nutzen.
 
Zuletzt bearbeitet:
Habu schrieb:
@sethdiabolos Man kann auch mit GDDR5 oder meinetwegen GDDR6 nicht mehr VRAM auf 192Bit unterbringen. Ich bau keine Grafikkarten, aber ich bin mir sicher, dass Nvidia diese technische Hürde überwinden könnte, wenn das gewollt wäre.

Klar kann man. Mit GDDR6 gehen inzwischen 4GB je Baustein, mit GDDR5x ebenso und bei GDDR5 wird vermutlich inzwischen 8GB je Stein drin sein. Ist aber alles im Vergleich elend langsam und das will ja auch niemand.

Das ist doch wirklich nicht schwer zu verstehen. bei 192Bit gesamt, auf 6x 32Bit aufgesplittet gehen eben 6 Bausteine mit der maximalen Größe der jeweilgen Technikstufe. Und Nvidia baut den VRAM ja nicht selbst, sondern ist auch auf den Hersteller angewiesen und was der ermöglicht. 4GB-Steine gibt es ggf. schon, aber sind wirtschaftlich noch nicht attraktiv genug, einfach weil jeder Baustein z.B. 100$ kostet, der 2GB Stein aber nur 15$. Die Leute beschweren sich jetzt ja schon über teure Karten, wenn die 5080 dann plötzlich 600$ mehr kostet udn eine 5090 bei 4000$ beginnt wird ja auch wieder gejammert. Ich hatte bisher noch nie Probleme mit einer GPU und dieses Denken, dass immer alles auf Max. gestellt der Maßstab ist, ist auch erst in den letzten Jahren gekommen. Früher hat man lieber die Regler bedient um flüssige Frames zu bekommen, anstatt very high Settings mit möglichen 20-30 Fps zu nutzen. :freak:
 
  • Gefällt mir
Reaktionen: UnidkQ
UnidkQ schrieb:
Trotzdem bin ich gespannt wie die RX 8800 XT wird.

Primär wird es ja eher ein Sidegrade werden mit verbesserter Technik. Etwas schneller wie die 7800XT/6800XT, aber bessere Raytracing-Einheiten udn vielleicht noch etwas mehr AI um AFMF stabiler zu machen und FSR endlich mal auf ein vernünftiges Niveau zu hieven. Rein leistungstechnisch werden sie dann jedoch nur die halbe Leistung, vielleicht sogar weniger als die 5080 haben, von der 5090 ganz zu schweigen. Wenn AMD nicht komplett blufft, darf eine 8800XT auf keinen Fall mehr als 450-550€ kosten.
 
Silencium schrieb:
Rhetorische, unnötige Frage 😋
Tatsächlich stelle ich Genrespiele wie z.B. Factory/Strategie jedoch auf 60 Hz cap. weil mir das reicht. Sehe ich den Unterschied? Klar, aber ist mir dieser das mehr an Verbrauch von wertvoller Energie wert? Nein. Mein Display kann ohnehin Max 120Hz.

Du vermischt Bildwiederholfrequenz und Bildwiederholrate, mein Monitor läuft immer mit 165Hz, die Spiele jedoch mit unetrschiedlichen FPS-Caps, je nachdem was benötigt wird.
 
  • Gefällt mir
Reaktionen: Silencium
@sethdiabolos
Genau darauf liegt aktuell meine Hoffnung. NVIDIA hat für mich unterm Strich die besseren Grakas.
Dafür kosten die zurecht auch etwas mehr.

AMD hat in Rasterizing gern mal etwas mehr FPS, dafür NVIDIA wieder deutlich mehr beim RT.
Bei kleineren Karten hat AMD auch mal mehr VRAM bzw. 16GB an Bord im Gegensatz zu NVIDIA und
ist günstiger. Ein halber Vorteil, weil NVIDIA eben auch effizienter ist und das spart auch wieder etwas Geld.
Features wie DLSS und CUDA Kerne etc. sind halt auch ne andere Hausnummer.

In meinen Augen konnte AMD gut Karten verkaufen, weil eben, wenn RT, die bessere Effizienz und z.B. besseres Upscaling sowie CUDA (Streaming etc.) nicht wichtig ist, konnte man güsntiger sehr gute Grakas mit 16GB VRAM bekommen.

Wenn AMD jetzt bei den 8000er an der Effizienz schraubt, am RT und das zum weiterhin (evtl. deutlich) günstigen Preis - also sinngemäß ne 4070 Ti Super von AMD für 550€ oder so, dann denke ich,
würden viele NVIDIA links liegen lassen. Erst recht wenn 5070 mit 12 GB kommt - wer kauft das bitte zu den Preisen?

Jeder kauft was für ihn und zu seinen Anforderungen und zum Geldbeutel am besten passt.
Ich hoffe für uns alle, das AMD es schafft so gut wie möglich an NVIDIA ranzukommen und
am besten INTEL noch mit. Damit es ggf. mal etwas mit den Preisen runtergeht.

Bin jedenfalls gespannt was genau kommt und wie die Dinger jeweils im Test abschneiden und zu welchem Preis man was bekommt.
 
  • Gefällt mir
Reaktionen: iron_monkey
sethdiabolos schrieb:
Klar kann man. Mit GDDR6 gehen inzwischen 4GB je Baustein, mit GDDR5x ebenso und bei GDDR5 wird vermutlich inzwischen 8GB je Stein drin sein. Ist aber alles im Vergleich elend langsam und das will ja auch niemand.
Naja, deswegen macht das wohl auch keiner. Aber eine breitere Speicheranbindung, das macht zum Beispiel AMD. Warum kann Nvidia das nicht? Das ist eigentlich der einzige Punkt, der für mich schwer zu verstehen ist. Dass mit dem gewählten Speicherinterface nicht mehr geht, ist schon klar. Aber warum muss das so gewählt werden? Warum kann ich die Leistung meiner Karte nicht voll ausreizen, weil der Speicher fehlt? Klar ist es kein Riesenverlust da ein paar Details zu reduzieren, aber ist doch ärgerlich, wenn die Karte eigentlich ausreichend schnell wäre.
 
Standeck schrieb:
würde ich mich doch ziemlich wundern wie Nvidia uns das dann andrehen will.

Als Preise für das Top-Modell verlangt Nvidia mittlerweile so viel, dass sie mit den Nachfolgern nicht einfach den Wiederverkaufswert zu sehr torpedieren dürfen. Denn entgegen der breiten Meinung, sind 4090 Käufer sicherlich nicht überwiegend reich, sondern halt tief im Hobby drin aber da wird auch durchaus aufs Geld geschaut!

Apple macht es auch so, der Wiederverkaufswert bleibt hoch und so sind die Willigen eher bereit das neue Top-Modell zu kaufen.

Wenn Nvidia 2300-1800€ von mir für die 5090 möchte, dann muss ich für die 4090 noch n bissel was bekommen, sonst ändert sich meine Meinung schnell von „lohnt ja eigentlich kaum aber was solls“ zu „eigentlich ziemlich doof, so nicht!“.

Wenn die 5080 und 4090 in etwas gleich schnell sind und man bei der 4090 mehr VRAM bekommt, dann werden die Preise sicherlich nicht so stark einbrechen wie bei gleicher Ausstattung.

Die 4080/5080 Käufer sind aber keine 5090 Käufer, deshalb bekommt ihr die Kröte und die 4090/5090 Käufer werden mit dieser Verkaufsstrategie "bevorzugt".

Nvidia möchte mit dieser Strategie auch darauf hinweisen, dass ihr lieber die Karte mit der 90 am Ende kaufen solltet :-D
Ergänzung ()

Habu schrieb:
Aber warum muss das so gewählt werden? Warum kann ich die Leistung meiner Karte nicht voll ausreizen, weil der Speicher fehlt? Klar ist es kein Riesenverlust da ein paar Details zu reduzieren, aber ist doch ärgerlich, wenn die Karte eigentlich ausreichend schnell wäre.

iron_monkey schrieb:
Nvidia möchte mit dieser Strategie auch darauf hinweisen, dass ihr lieber die Karte mit der 90 am Ende kaufen solltet :-D
 
  • Gefällt mir
Reaktionen: Habu
sethdiabolos schrieb:
Das ist doch wirklich nicht schwer zu verstehen. bei 192Bit gesamt, auf 6x 32Bit aufgesplittet gehen eben 6 Bausteine mit der maximalen Größe der jeweilgen Technikstufe. Und Nvidia baut den VRAM ja nicht selbst, sondern ist auch auf den Hersteller angewiesen und was der ermöglicht.

Oh, 3GiB pro Baustein, vulgo 18GiB, wären wohl mehr als genug...

Andonsten: Meines Wissens unterstützt auch GDDR7 den Clamshell Mode - oder vertue ich mich da?
 
Zurück
Oben