News Gaming-Blackwell: Nvidia plant angeblich schon zum Start eine RTX 5070 Ti

Crifty schrieb:
Wenn die 5080 eine halbe 5090 sein soll,
Mittlerweile ja nicht mehr so ganz, auch wenn ich die früheren Gerüchte für glaubwürdiger hielt.
Crifty schrieb:
Wenn die 5080 eine halbe 5090 sein soll, was ist dann eine 5070ti, etwa eine Viertel 5090?
Achtung, Retroposting: Hat da jemand etwa G80 vs G84 gesagt?
 
  • Gefällt mir
Reaktionen: Kommando
Randnotiz schrieb:
OVP ist 5090€, oder eine Niere.
Im Gegensatz zu den Nvidia-Aktien sind die Preise für Nieren mittlerweile vermutlich ziemlich im Keller 😅
 
  • Gefällt mir
Reaktionen: SweetOhm, Slim.Shady und Jan
CDLABSRadonP... schrieb:
Mittlerweile ja nicht mehr so ganz, auch wenn ich die früheren Gerüchte für glaubwürdiger hielt.
Wenn die Werte aus der Tabelle in der News dazu stimmen sollten, ist die 5080 sogar weniger als die Hälfte einer 5090…
 
just more of the same from last time
 
Crifty schrieb:
ist die 5080 sogar weniger als die Hälfte einer 5090…
Wenn es ganz doof kommt, liegt die 5080 nur knapp bei oder über der 4090 und hat weniger VRAM.
 
  • Gefällt mir
Reaktionen: Crifty und Kommando
CDLABSRadonP... schrieb:
Wo siehst du die denn? Also das Stöhnen über Preise ist doch drastisch, das über VRAM-Mengen ebenfalls.
Die wird kommen, kennst Du etwas anderes hier und anderweitig?

Schließlich müssen ja Leserzahlen/Clicks generiert werden und kritischen Journalismus mit Rückgrat gibt es bei Hardware und Spielen momentan nur noch selten und dann oft von TechTubern wie Gamers Nexus oder Hardware Unboxed, aber nicht der älteren etablierten/konventienellen Presse, das hat doch die (von letzterer eher ausbleibende) Kritik an der RTX 4080 12 GB gezeigt.

nVidia zu kritisieren wäre von diesen abhängigen Hardware-Journalisten/-Seiten dann doch schon fast Majestätsbeleidigung und könnte schmerzliche Isolierung (nicht nur durch Liebesentzug der Markenfans auf deren Webseite) nach sich ziehen, wohingegen die o.g. unabhängigen TechTuber sich das leisten können/wollen.

Das zeigt übrigens auch ähnlich eindrucksvoll der ziemlich auffällige "Access Journalism" mit durch Publisher ausgewählten, wohl gesonnenen Spieltestern heutzutage (deren Bewertungen dem Großteil der Spielerschaft mittlerweile oft schon auffällig widersprechen) ... deren Glaubwürdigkeit hat auch enorm gelitten, aber Hauptsache die Tests/Bewertungen passen für die Publisher/Konzerne und deren z.T. durchwachsene Spiele, damit in Zukunft auch noch die Testgaben (egal ob Software oder Hardware) der Konzerne und Einladungen zu Events passen, auch in der Hoffnung der schwindenden eigenen Relevanz entgegen zu wirken.

Vor kurzem gab es die dreiste Ansage eines nVidia Partners für Kühllösungen (für kommende RTX Karten) den ganzen Markt quasi per RTX 5000 übernehmen zu wollen und das lässt seitens nVidia schon auf eine sehr aggressive Vermarktung mit dem x-fachen Budget, welches AMD und Intel zusammen dafür zur Verfügung haben, erwarten.

Not only is the demand for NVIDIA's upcoming gaming GPUs going to be much larger, but according to a Taiwanese supplier, Auras Technology (via DigiTimes), it may "seize the markets starting in December",...

Natürlich steckt dahinter auch Eigeninteresse des Partners mehr der Karten verkaufen zu können, aber ich denke die "Konkurrenz" (AMD und auch Intel, die noch nicht lange genug dabei sind) war selten schwächer gegen den (Quasi-?)Monopolisten aufgestellt und das alles wird zunehmend deutlicher und damit unangenehmer (bei der Preisentwicklung, der Produkt-/Modellauswahl, etc.) von der potentiellen Kundschaft wahr genommen werden, aber eine Trendwende ist leider seit viele Jahren nicht mehr in Sicht, auch weil die Wettbewerbshüter versagt haben und sich da nicht viel tut (Marktbeherrschung bleibt bestehen oder wird gar weiter ausgebaut).

Im Endeffekt werden einige wie üblich prinzipienlos herumheulen bzgl. der Preise, aber dann trotzdem wieder "alternativlos" neueste nVidia Grafikkarten zu neuen Höchstpreisen kaufen, weil sie diese angeblich zum daddeln brauchen (bei der Preisverdoppelung von RTX 3080 auf RTX 4080 hat es auch nicht so viele gestört und das Upselling ist wieder einmal ein Erfolg gewesen, ähnlich wie davor bei der GTX 1080Ti auf die RTX 2080Ti).

Dann wird (von den üblichen Markenfans) beschwichtigt werden, dass VRAM ja sowieso nicht so relevant sei (besonders bei den Herrschaften, bei denen Geld keine Rolle für dGPUs spielt und die sowieso alle 2 Jahre treu nVidia das Geld in den Rachen stecken und damit die Preistreiberei per eigenem, wenig nachhaltigem Konsumverhalten noch anheizen) und alle nVidia Anhänger und Presse feiern wieder, wie gelungen und toll die Technik doch ist und suggerieren, dass man mit der alten Technik ja auf keine grünen Ast mehr kommen soll in Zeiten schlecht bis grottig optimierter teurer AAA/Unreal Engine 5 Spiele, die die Investition (in modernere unverhältnismäßig teure Hardware) nicht wirklich Wert sind.

Unbedingt neue Hardware konsumieren zu müssen, kann man durch die Hardwareanforderungen steuern, die man veranschlagt sowie durch Spiele, getestete Auflösungen (nicht mehr Full HD testen zu wollen, wodurch man sich für Leute wie mich dann als Quelle disqualifizieren wird), vorwiegend getestete Hardware im hochpreisigen Bereich, usw. und dann wird man sich irgendwann wundern, dass man nur noch komplett abgehoben für eine Enthusiasten-Nische/Blase testet/schreibt.

Ich finde die Entwicklung leider bestenfalls nervig aktuell und vorausschauend auch alles andere als erfreulich und werde versuchen mich davon abzukoppeln so gut es geht und auch anderen raten (PC Hardware Investitionen sparen, vor allem in einem monopolistischem Marktumfeld); 'mal schauen wie viel wie gut und wie lange aktuelles noch mit meiner Hardware laufen wird, zum Glück gibt es massig alte Spiele die warten entdeckt/gespielt zu werden und die "Piles of Shame" sind bei mir auch gut gefüllt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usernamehere, ErichH., SweetOhm und 2 andere
racer3 schrieb:
Ti Super Plus Mega Ultra Extrem. Ich kann es nicht mehr sehen.

Wieso nicht einfach eine 5075 Wenn die sich zwischen 5070 und 5080 Positionieren soll.
die TI Modelle könnte man gleich sein lassen und auch nix dazwischen. Das dazwischen nennt sich OC/UV. Glaub es gab noch keine TI an die man nicht mit einem OC normalen Modell rankam.
Kann jeder selbst machen 5 Min Arbeit. Aber ich mein es wird ja alles verwässert siehe Konsolen "Pro" Modelle, da gibts sicherlich auch mal die Pro Pro, die Gier ist schließlich unersättlich.
 
Meine letzte Nvidia Graka war ne 2070 TI für knappe 500.- Euro, und war P/L nicht zu schlagen.
Sollte es diesmal wieder so sein werde ich vermutlich zuschlagen.
Zumal AMD ja nicht wirklich in die Pötte kommt Nvidia das Wasser zu reichen.
 
@joel Von AMD wird es keine High End GPU geben. Ich befürchte nicht mal ein Konkurrenzprodukt zur 5080
 
12 GB mehr gibts nicht, deswegen lass ich diese Generation Komplett aus meine 4080 und 4070 Super kann ich mindestens noch 2 Jahre nutzen ohne Probleme.
 
JahJah192 schrieb:
Glaub es gab noch keine TI an die man nicht mit einem OC normalen Modell rankam.
Die Tis haben halt mehr Shader, die bekommst du mit OC nicht.

Die 4070Ti ist ~25% schneller als die 4070, ich glaube nicht dass jeder in 5min seine 4070 25% schneller bekommt.
Und selbst wenn du das mit OC hin bekommen würdest, dann sicher nicht mit dem Verbrauch einer 4070Ti.


Das gleiche gilt für 980ti, 1080ti oder 2080Ti, wo du nicht nur 25% mehr Performance, sondern auch mehr VRAM bekommen hast, den du auch nicht durch OC bekommst^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und lubi7
Chismon schrieb:
Bei nVidia wohl eher eine illusorische Vorstellung, denn so eine Grafikkarte gibt es doch schon mit der RTX 4070Ti Super mit 16 GB dort
So gesehen gibt es bereits die RTX 4070 Ti Super. Die, wie du schon sagst, ein Resultat der Aufstände ist. Fast 1 Jahr gibts das Dingen und sie ist von damals auf jetzt quasi im Preis unverändert. Schon heftig.

JahJah192 schrieb:
die TI Modelle könnte man gleich sein lassen
Also 1080ti und 2080ti sind, im Nachhinein betrachtet, extrem gut gealtert.

Einerseits ihres Speichers wegen, andererseits wegen DLSS (RTX2000) und natürlich nicht zuletzt aufgrund der sich daran anschließenden Pandemie und einer gefühlten Nullrunde in puncto Preis-Leistung.

joel schrieb:
Meine letzte Nvidia Graka war ne 2070 TI
2070 Super :)
 
  • Gefällt mir
Reaktionen: SweetOhm und Chismon
Chismon schrieb:
Die wird kommen, kennst Du etwas anderes hier und anderweitig?

Schließlich müssen ja Leserzahlen/Clicks generiert werden und kritischen Journalismus mit Rückgrat gibt es bei Hardware und Spielen momentan nur noch selten und dann oft von TechTubern wie Gamers Nexus oder Hardware Unboxed, aber nicht der älteren etablierten/konventienellen Presse, das hat doch die (von letzterer eher ausbleibende) Kritik an der RTX 4080 12 GB gezeigt.

nVidia zu kritisieren wäre von diesen abhängigen Hardware-Journalisten/-Seiten dann doch schon fast Majestätsbeleidigung und könnte schmerzliche Isolierung (nicht nur durch Liebesentzug der Markenfans auf deren Webseite) nach sich ziehen, wohingegen die o.g. unabhängigen TechTuber sich das leisten können/wollen.

Das zeigt übrigens auch ähnlich eindrucksvoll der ziemlich auffällige "Access Journalism" mit durch Publisher ausgewählten, wohl gesonnenen Spieltestern heutzutage (deren Bewertungen dem Großteil der Spielerschaft mittlerweile oft schon auffällig widersprechen) ... deren Glaubwürdigkeit hat auch enorm gelitten, aber Hauptsache die Tests/Bewertungen passen für die Publisher/Konzerne und deren z.T. durchwachsene Spiele, damit in Zukunft auch noch die Testgaben (egal ob Software oder Hardware) der Konzerne und Einladungen zu Events passen, auch in der Hoffnung der schwindenden eigenen Relevanz entgegen zu wirken.
(...)
Also ich kann nur sagen, dass der einzige Fall, in dem ich wirklich von "der Presse" in letzter Zeit bzgl. zu wohlwollender Berichterstattung bzgl. Nvidia verwundert war, betraf Ampere. Im Vorfeld zu Ampere hatte Nvida heftige BestGenEver-Aussagen getätigt und kam dabei auch auf Effizienz zu sprechen.
(Seite 16 im Whitepaper: https://www.nvidia.com/content/PDF/nvidia-ampere-ga-102-gpu-architecture-whitepaper-v2.pdf
auch als Folie aufgelegt: https://pics.computerbase.de/9/4/6/7/7/7-2160.9feb3024.png
und hier im Artikelkontext: https://www.computerbase.de/2020-09/geforce-rtx-3090-3080-3070-vorgestellt/ )
Damals hat @Wolfgang mMn. bereits sehr viel kritischer berichtet, als es andere Magazine getan haben. Nichts desto trotz hätte auffallen müssen, dass Nvidia massiv schummelt. GREATEST GENERATIONAL LEAP, wie es auf einer anderen Folie hieß, war auf Geforces bezogen bereits nachweislich falsch. Und die Effizienzfolie war Ultra-Dreist, sprach sie doch von +90%, weil einfach geschaut wurde, wie viel elektrischer Leistung für die gleiche Performance benötigt wird. So wird aber Effizienz im Generationenvergleich nun einmal nicht bestimmt, sondern man schaut, wie viel Performance bei gleicher elektrischer Leistung entsteht. Und das waren nun einmal in dem Diagramm nur +33%, nämlich 80 statt 60 FPS und damit ein richtig schlechter Wert. Die Praxis sah dann zu Release schlechter aus:
https://www.computerbase.de/2020-09...bschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Ergebnis: Nur +25% beim Limit. Spätere Tests fielen auch nicht besser für Ampere aus:
CDLABSRadonP... schrieb:
Nvidia hat halt hammerhart geschummelt, indem sie die TDPs angehoben haben. Der Test hier zeigt übrigens nochmals schön auf, wie schlecht Ampere unterm Strich war:
https://www.pcgameshardware.de/Gefo...est-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/
Insbesondere Seite drei ist interessant:
https://www.pcgameshardware.de/Gefo...t-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/4/
Selbst in Punkto Raytracing hat Ampere eigentlich kaum etwas liefern können, wenn man die Effizienz ernst nimmt.
Nvidia hat hier glatt betrogen und das hätte ihnen von Anfang an um die Ohren gehauen werden können; nur durch Analyse der Folien! Man stelle sich das bei Autos vor: Der Nachfolger würde mit doppelter Reichweite bei gleichem Akku beworben wurden und es stellt sich heraus: Nein, eigentlich ist er nur ein paar kümmerliche Prozent effizienter. Der Rest entstand, weil einfach nur langsamer gefahren (und damit gegen Standardtestbedingungen verstoßen) wurde...

Okay, genug über Ampere geranted: Für mich war das die große Ausnahme. Zu wenig Gegenwind bzgl. fehlendem DP 2.1 bei Ada ist aktuell wirklich das, was mMn. am meisten unter den Tisch fällt. Das sollte immer betont werden --- genauso, wie sich (zurecht!) ständig über die Speicherknausrigkeit lustig gemacht wird. Klar, sie ist nicht so schlimm wie bei Apple, wo sich auch (zurecht!) ständig drüber lustig gemacht wird. Aber ich finde, dort wird die Hardwarepresse durchaus ihrer Aufgabe, den Finger in die Wunde zu legen, gerecht.
(und CB ganz besonders)
 
  • Gefällt mir
Reaktionen: ErichH., SweetOhm, lubi7 und eine weitere Person
Quidproquo77 schrieb:
Die 7900XT war deutlich schneller als die 6900XT
Joa, 20%, "deutlich" ist was anderes mMn.

Kinkerlitzchen* schrieb:
Kann nvidia bitte aufhören, immer solche Stromfresser rauszuhauen? 300 Watt soll die neue Mittelklasse sein?
Ich erinnere da an Zeiten, als ne 1070 sich mit der Hälfte begnügte.
Was auch immer für dich "Mittelklasse" ist (für mich ungefähr eine RX 6800), aber wir haben nunmal einen Sprung auf 4K (= viermal soviele Pixel wie in Full HD), und viele meinen jetzt alles mit drölftausend FPS spielen zu müssen, irgendwo muss die Leistung ja herkommen.

Insgesamt klingt das nach einer Generation, die man getrost auslassen kann.
 
  • Gefällt mir
Reaktionen: SweetOhm
Taxxor schrieb:
Die 4070Ti ist ~25% schneller als die 4070, ich glaube nicht dass jeder in 5min seine 4070 25% schneller bekommt.
Und selbst wenn du das mit OC hin bekommen würdest, dann sicher nicht mit dem Verbrauch einer 4070Ti.
Da kommt noch hinzu, dass derartige Argumentationen immer gerne unterschlagen, dass man ja auch die im Vergleich stärkere Grafikkarte noch übertakten könnte, also in diesem Fall die Ti. Und so groß sind die Boosttakt-Unterschiede zwischen den verschiedenen Desktop-Modellen einer Generation auch nicht.
 
Zurück
Oben