News Grafikkarten-Gerüchte: GeForce RTX 4080 & RTX 4070 Ti stehen wohl vor dem Aus

Wie lange sich das wohl noch hinziehen wird, wahrscheinlich wird jetzt erst einmal ein paar Monate der Abverkauf der Ausrangierten abgewartet bis endlich die Superkarten in reduzierter Menge den Scalpern zu Fraß vorgeworfen werden. Wenn iracing nicht so sehr mit Nvidia performen würde, hätte ich mir schon längst eine 7900XTX gekauft - so muss meine 3080 noch tapfer weiter arbeiten.
An einen Release der 5000er in 2024 glaube ich übrigens nicht, Nvidia hat Spaß daran gefunden, den Kunden möglichst lange kurz zu halten.
 
  • Gefällt mir
Reaktionen: SweetOhm
MalWiederIch schrieb:
Komme ebenfalls von einer RX 6900 XT - für 4K völlig unbrauchbar.
Für meine Ansprüche in 4K noch völlig ausreichend, zumal ich auch Regel bedienen kann. Meine nächste Karte wird aber dann auch wahrscheinlich wieder eine grüne, in Form der 5070ti. Dann sollte 4090 Leistung für knapp 1000€ drin sein. Der VRAM mit möglichen 16 GB würde mir auch reichen.
 
bondki schrieb:
Entweder du nennst konkrete Beispiele oder lässt es gleich bleiben.
Alan Wake 2 reicht da, schau mal wie bescheiden das ohne DLSS läuft. Das neue Ark genauso.

Da muss man zwangsweise schon mit Scheuklappen durch die Gegend laufen um andere Meinungen zu sein.
 
cypeak schrieb:
treiber von amd sind inzwischen auf einem ganz anderen level als das noch vor wenigen jahren der fall war - auch die probleme wie sie damals mit amd karten auftraten kommen in der form nicht mehr vor.
raytracing hat mit der 7000er generation durchaus eine verbesserung erfahren - nvidia ist schlicht noch etwas stärker, aber amd ist in aller regel weit weg davon "unspielbar zu sein".
Da ich gerade beim Treiber ziemliche Negativerfahrungen gemacht habe, bin ich da immer noch etwas vorsichtig. Allerdings ist das auch schon ein paar Jahre her mittlerweile.
Verballert der Adrenalin-Treiber z. B. bei jedem Neustart immer noch die OC-/UV-Werte?

Ich lege zwar durchaus wert auf ordentliche RT-Leistung, aber wenn ich mich zwischen besserer RT-Leistung und mehr VRAM entscheiden müsste, gewinnt dann doch der VRAM.
Leider kommt ja mit der 4080S nicht (mehr) das erhoffte VRAM-Upgrade.

Bei meiner 3080 habe ich nämlich genau das Problem. Selbst wenn mir die GPU-Leistung oftmals noch reichen würde (45 FPS reichen mir in manchen Spielen durchaus noch), rennt die Karte doch zusehends in 4K in VRAM-Limit.

Hab damals - ganz naiv - gedacht, ich hätte damit noch länger halbwegs Ruhe. Dann kamen nach und nach immer mehr die VRAM-Fresser raus an Spielen.

Vielleicht kann man am BF irgendwo ein gutes Custom-Design (mit wenig Spulenfiepen) der 7900 XTX für unter 1000 € schießen...
 
Camin schrieb:
Nicht funktionierende open source Treiber oder funktionierende proprietäre Lösung - so hat NVidia den profimarkt gewonnen und so hat AMD ihn verloren.
Das hat als rein profit orientierte Entscheidung für Nvidia da leider fürs erste funktioniert, ja.
Allerdings mehr weil Amd Fehler gemacht (und weniger Kapital eingesetzt hat). Die grundsätzliche Idee offene Lösungen zu verwenden ist prinzipiell erstmal überlegen, wenn es gut gemacht wird.

Ich würde das was wir jetzt haben allerdings nicht zwingend als langfristig zementierten Zustand ansehen.

Im Server-Bereich sind viele aktuelle Kunden von Nvidia mit der Situation relativ unglücklich, weil sie wenn sie für CUDA entwickeln an Nvidia gebunden sind. Kann Nvidia dann nicht liefern, ist das ein riesen Problem.
Dafür hat Nvidia mit CUDA (und noch bei ein paar anderen Themen) einfach ein paar Jahre Vorsprung, weil die anderen einfach gepennt haben.
Ich vermute, dass sich der Markt da zukünftig deutlich stärker differenzieren und damit auch von proprietären Lösungen weg bewegen wird.
Das ist eigentlich immer so, wenn ohnehin neu entwickelt wird und keine Abwärtskompatibilität verlangt wird. Die Wettbewerber werden da, um gegen Nvidia überhaupt bestehen zu können, gemeinsam an offenen Lösungen arbeiten und Nvidia wird nicht drum rum kommen diese auch vernünftig zu unterstützen.
Im vielen Bereichen wird der jetzt vorhandene Vorsprung von Nvidia aber noch lange Zeit nachwirken.

Beim PC Gaming wiederum hängt es schwer davon ab, was zukünftige Hardware von Intel und Amd tatsächlich leisten kann und was in Massenprodukten verbaut wird. Nvidia hatte in der Vergangenheit oft das schnellste Spitzenprodukt und das wirkt sich einfach auf die Meinungsbildung der Kunden aus.
Generell hat Nvidia auch in letzter Zeit sehr viel gute Presse gehabt.
Da ist es dann vielen egal ob andere in einer Preisklasse theoretisch das bessere Produkt anbieten, sie wollen halt Nvidia haben

Ich vermute, dass die Hardwareausstattung diverser zukünftiger und Aktueller Konsolen einen hohen Einfluss haben wird.
PC Gaming ist da einfach nicht mehr der ausschlaggebende Faktor. Wenn ohnehin alles auf Systeme optimiert werden muss, in denen Nvidias proprietäre Lösungen nicht möglich sind, dann ist die Optimierung für Nvidias Lösungen immer ein Extraaufwand den Nvidia sich in Zweifel durch Partnerschaften erkaufen muss. Solange Nvidia bei den Kunden und der Technik so gut da steht ist das unproblematisch. Ändert sich das mal, sind die proprietären Lösungen die vorher Profit gesichert haben plötzlich eher ein Risikofaktor.
 
cypeak schrieb:
ich glaube der sprung von samsungs 8nm bei ampere zu tsmc 5nm bei ada hat überproportional höheres potential geboten als das bei dem gang von 5nm tsmc zu 3nm der fall sein wird...
Natürlich war der Sprung von Ampere zu Ada viel größer. Die Dichte stieg dabei um den Faktor 2,8. Das Problem dabei war, dass der Preis pro Wafer um den gleichen Faktor stieg. Von Ada zu Blackwell steigt die Dichte vielleicht um den Faktor 1,6 während der Waferpreis aber lediglich um 25% steigt. Es gibt also bei Blackwell eine bessere Aussicht mehr Einheiten zum gleichen Preis auf dem Chip unterzubringen als bei Ampere zu Ada.
Damit dürfte es aber auch unwahrscheinlich sein, dass es eine 5080 mit der gleichen Leistung der 4090 zum gleichen Preis einer 4080 geben wird. Mit Taktsteigerungen dürften zum gleichen Preis maximal 40% mehr drin sein während die 4090 einen Vorsprung bei der Rohleistung zur 4080 von 70% hat.
 
KurzGedacht schrieb:
Das hat als rein profit orientierte Entscheidung für Nvidia da leider fürs erste funktioniert, ja.
Allerdings mehr weil Amd Fehler gemacht (und weniger Kapital eingesetzt hat). Die grundsätzliche Idee offene Lösungen zu verwenden ist prinzipiell erstmal überlegen, wenn es gut gemacht wird.
Ein offener Standard ist schlechter auf die Hardware optimierbar, schleppt mehr Ballast mit sich rum und ist nur langsamer weiterzuentwickeln, da abhängig von der Mehrheitsentscheidung von Industriegremien/Konglomeraten. Bzgl. Profitorientierung, AMD hat seine Ausgaben für die Implementierung des offenen Standards minimiert und die Kunden im Regen stehen lassen. NVidia hat investiert und leistet umfangreiche Hilfestellung, das hat sich ausgezahlt. Profit wollen beide.


Dafür hat Nvidia mit CUDA (und noch bei ein paar anderen Themen) einfach ein paar Jahre Vorsprung, weil die anderen einfach gepennt haben.
Ich vermute, dass sich der Markt da zukünftig deutlich stärker differenzieren und damit auch von proprietären Lösungen weg bewegen wird.
Im Profimarkt eher nicht, da zählt maximale Leistung, die kann nicht warten, bis ein dutzend Unternehmen sich endlich auf einen Standard geeinigt haben. Im Spielemarkt/consumer PCs sieht das schon anders aus.

Was AMD angeht, es war ein Fehler, KI und RT kleinzureden, ob sie aufholen können, wird man sehen. Es kann auch sein, dass sie weiter zurück fallen, gerade im High End Segment, wo maximale Leistung und Systemstabilität wichtiger sind als der Preis. Ich bezweifele, dass zukünftige Industriestandards von Konsolen gesetzt werden. Bei PCs gibt es einen offenen Markt, der gemeinsame Standards verlangt. Bei Konsolen gibt es den nicht, das sind alles proprietäre Lösungen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
blackiwid schrieb:
Ich hab doch auch gesagt das die 7900xt auch schwächelt... von daher ist das kein Gegenargument...
Ich sage nur, dass ich nicht glaube, dass sich die Karten so schlecht verkaufen, ich meine in Relation zu was? Zu AMD? Zu den anderen Nvidia Karten wie der 4070? Ja, sicher.
blackiwid schrieb:
Du nennst eine schlechtere Quelle ,die weder aktuelle Verkaufszahlen noch Besitzzahlen aus weist und willst damit meine 2 besseren Quellen negieren...
Du kannst mit einzelnen Shops und Kartentypen von Hersteller X nie die Absatzzahlen seriös darstellen.

Ob das jetzt Mindfactory, Newegg oder Amazon ist. Es gibt noch den viel größeren Komplett PC Markt, wo es nicht um einzelne GPUs geht, die Leute aber dennoch meist ihre GPU auswählen.
blackiwid schrieb:
Valve ist nicht der heilige Gral
Valve zeigt als einzige große Erhebung die Hardwareverteilung des Durchschnittsspielers da draußen, also eigentlich die Quelle die du für deine Argumentation nutzen müsstest, wenn du die Relationen zwischen den GPUs aufzeigen möchtest.

Und da liegt die 7900XTX bei 0,19% und die RTX 4080 bei über 0,60%, die 4070 Ti bei knapp 1% und die 7900XT taucht gar nicht auf. Die 4070 liegt bei 2%, die 7800XT taucht bisher auch nicht auf, was aber sicher mit dem Launch vor kurzem erklärbar ist.
blackiwid schrieb:
Valve ist nicht der heilige Gral und es gibt km lange threads wo deren Survey kritisiert wird
Es gibt kein substanzielles Argument gegen diese Survey, sie bildet sogar 1:
1 die Marktanteile ab. Nvidia gut 80%, AMD irgendwo bei ~ 15%.

DIe Realität entspricht nicht deinem Traum, dass AMD viel verkauft und Nvidia wenig. Du gibst ja selbst zu, dass Nvidia von dir gehated wird. Das bedeutet für mich, dass du widersprüchliche Daten/Marktanteile einfach zugunsten deiner Vorstellung ignorierst und das hast du meiner Meinung nach bisher noch immer genauso gemacht.
blackiwid schrieb:
Leute die 100 Jahre nicht befragt wurden etc. Das eine sind absolute Rohzahlen (das ranking davon) das andere sind irgendwelche Umfragen die nicht mal repräsentativ sind.
Da würde ich mich mal damit beschäftigen wie Umfragen funktionieren.
Du musst nicht die ganze Welt befragen, damit ein Ergebnis nahe an der Realität liegt. Dein Einwand mit Internet Cafe PCs, ist auch schon 5 oder 6 Jahre alt und längst Geschichte.
blackiwid schrieb:
Man sollte sich nie auf 1 solch schlechte Quelle verlassen,
Deine Quellen sind schlecht. Einzelne Stores vs. Marktanteile und Steam Survey. Ich bitte dich.

Es kann ja sein, dass in Deutschland die 7900 XTX bei Mindfactory momentan mehr nachgefragt wird. Das kann aber bei einem anderen Shop, der kein Billig Shop und AMD Partner ist, wieder anders aussehen.

Ich verlasse mich jedenfalls auf harte Fakten und keine einzelnen Shops.
Sollte der Nvidia Marktanteil deutlich fallen, dann behältst du für mich recht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leereiyuu und H6-Mobs
KurzGedacht schrieb:
Die Wettbewerber werden da, um gegen Nvidia überhaupt bestehen zu können, gemeinsam an offenen Lösungen arbeiten und Nvidia wird nicht drum rum kommen diese auch vernünftig zu unterstützen.
Im vielen Bereichen wird der jetzt vorhandene Vorsprung von Nvidia aber noch lange Zeit nachwirken.
AMDs ROCm und HIP API sind schon lange Open Source. Zudem kann man mit dem HIPIFY Tool automatisiert Cuda Programme und Programmcode nativ auf Radeon GPUs ausführen. Auf Linux ist ROCm schon recht etabliert. 2023 wurde damit angefangen Full ROCm auf Windows zu bringen und auch abseits der MI Instinct auch für Radeon Pro und den Consumer GPUs verfügbar zu machen. Die HIP API hat den Anfang gemacht. Natürlich ist Nvidia mit Cuda weit verbreitet und vorraus. Untätig ist die Konkurrenz im Pro Bereich aber auch nicht. Gerade die letzten Treiber haben noch mal viele Optimierungen von AI etc gebracht. Ich denke gerade im Pro und Ai Bereich wird es 2024/25 nochmal sehr interessant.
 
  • Gefällt mir
Reaktionen: KurzGedacht
sue181 schrieb:
warum ist in ideser tabellle nicht die für gaming relevante T-Flops leistung aufgeführt.
Die ist nicht unbedingt fürs Gaming relevant, weil eine Steigerung der theoretischen Rohleistung nicht unbedingt auch in mehr FPS in Spielen resultierten muss. Siehe bspw. die 4090, die die 4080 bei den TFLOPS um 70 Prozent übertrifft, aber selbst in UHD im Schnitt nur 30-35 Prozent mehr FPS liefert.

Abgesehen davon: Bei den kolportierten Super-Karten lassen sich zu den TFLOPS keine Angaben machen, solange der Takt nicht feststeht. Und bei allen anderen Karten ist der Wert in der Tabelle genannt.

sue181 schrieb:
jeder ........ der keinen interessiert aber das nicht
Mich interessieren die anderen Werte durchaus. Ich glaube ich bin da auch nicht der einzige. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Act4 und SweetOhm
danyundsahne schrieb:
Genau aus dem Grunde, finde ich diese gezielte Abzocke auch sehr bedenklich und unterstütze den Laden nicht.
Du könntest auf der anderen Seite auch AMDs Versprechen einen Frame Generation Gegner zu entwickeln, als "gezielte Abzocke" framen. 1 Jahr nach der Ankündigung haben sie geliefert und dann auch noch kaputt und nicht empfehlenswert. Man kann das Pferd aus verschiedenen Perspektiven aufzäumen, deshalb kann ich nicht nachvollziehen wozu man für einen Hersteller Partei ergreift. Einfach unnötig.

 
Zuletzt bearbeitet:
yamiimax schrieb:
Was hast gegen die 7700 XT 7800 XT wo lebst das 300 400 karten gibt die Karten sind Pl Sieger
Ich habe nichts gegen P/L Sieger
 
danyundsahne schrieb:
Oh, wie lange lese ich schon Forenbeiträge...nicht nur hier auf CB....und überall das Gleiche...
Das dürfte aber nur eine äußerst kleine Minderheit sein, die sich über Fortschritt beschwert. Die erworbene Karte wird ja zu den damaligen Konditionen nicht plötzlich schlechter, wenn etwas neues nachrückt.
danyundsahne schrieb:
wenn NV einen "Super" Refresh mit mehr Leistung und/oder VRAM bringt...
Die Kommentare wiederholen sich.
Als ob die Käufer nicht wissen, dass später bessere Modelle nachkommen.
Das ist in der Elektronikwelt nun nichts neues. Deine 5700XT wurde sogar nach gut einem Jahr schon ersetzt. Keine Pointe.
danyundsahne schrieb:
Klar, jammern nicht alle, aber doch so einige. Und immer wieder sind sie überrascht, dass NV sowas bringt :D

Jedes Jahr das gleiche ;)
Das gilt eben nicht nur für Nvidia Hardware, oder war die Radeon VII mit 16GB nach der Vega mit nur 8 GB eine Phantasieprodukt? Nein, die habe ich tatsächlich gekauft und Vega übersprungen.
 
Camin schrieb:
NVidia hat investiert und leistet umfangreiche Hilfestellung, das hat sich ausgezahlt

Camin schrieb:
Im Profimarkt eher nicht, da zählt maximale Leistung, die kann nicht warten, bis ein dutzend Unternehmen sich endlich auf einen Standard geeinigt haben.
Korrekt, aber eben nur die halbe Wahrheit. Es zählt vor allem auch Verfügbarkeit und wenn man sein ganzes System von Nvidia abhängig macht steht und fällt das Wachstum halt mit dem was Nvidia gerade leisten kann.
Das haben viele inzwischen zurecht als recht unerfreulichen Zustand erkannt.
Camin schrieb:
Was AMD angeht, es war ein Fehler, KI und RT kleinzureden, ob sie aufholen können, wird man sehen.
AMD hätte viel mehr in alternativen investieren müssen. Richtig. Das wurde einfach falsch eingeschätzt.
Camin schrieb:
Ich bezweifele, dass zukünftige Industriestandards von Konsolen gesetzt werden. Bei PCs gibt es einen offenen Markt, der gemeinsame Standards verlangt. Bei Konsolen gibt es den nicht, das sind alles proprietäre Lösungen.
Es gibt keinen Grund auf den Konsolen das Rad neu zu erfinden. Da haben sich die Hersteller oft genug mit zu speziellen Lösungen die Finger verbrannt (sony mit der ps3 z.b.).
 
Bügelbernd schrieb:
Wie warum? Weil die Entwickler (siehe Alan Wake 2) die Spiele beschissen programmieren und sich auf DLSS verlassen.
Bitte zu dieser These eine Quelle mit Analysen liefern. Die Bewertung der Hardwareseiten fällt aufgrund der Optik eigentlich durchweg positiv aus.

Das Spiel hat Crysis Vibes und sieht selbst auf Medium oder niedrig besser aus als Ultra bei anderen aktuellen Spielen. Die Optik bekommt man nicht umsonst. Zeige mir ein Spiel das besser aussieht.

Bügelbernd schrieb:
Das man das überhaupt noch erklären muss.
Wäre halt nicht schlecht, wenn du das argumentativ darlegen könntest.
Hast du Alan Wake überhaupt gespielt bzw. generell DLSS vs TAA analysiert?
SweetOhm schrieb:
Der Cherry Heisenberg wieder, war ja klar :D
Hab Dir neulich schon geschrieben, dass es mehrere Beispiele gibt.
Es gibt wenige Beispiele in denen Radeon Karten deutlich besser wegkommen. Die sind aber in der krassen Minderheit. Es lohnt sich nicht darauf einzugehen.

Zu nennen sind Callof Duty, oder Assassin's Creed. Das sind Dauerbrenner. WRC läuft auf GeForce besser. Die Werte von Computerbase beinhalten einen Bug.
 
Quidproquo77 schrieb:
Es gibt wenige Beispiele in denen Radeon Karten deutlich besser wegkommen. Die sind aber in der krassen Minderheit. Es lohnt sich nicht darauf einzugehen.
I know, i know.
Auf die "Cherry´s" wird eingegangen, wenn behauptet wird, die 4090 sei "unschlagbar" ... ;)
That´s it.
Nur dschäggen die "üblichen Verdächtigen" dies nicht, nehmen es für bare Münze und gehen steil.
Gehen unter die Gürtellinie, verdrehen die Worte und werfen mit "Fänboi" um sich wegen dem angekratzten Ego :n8:
 
Zuletzt bearbeitet:
SweetOhm schrieb:
Auf die "Cherry´s" wird eingegangen, wenn behauptet wird, die 4090 sei "unschlagbar" ... ;)
That´s it.
Ich kann dir nicht folgen. Ich kann "Cherries" zeigen in denen die 4080 100% schneller als die 7900XTX ist . Aber was bringt das?
SweetOhm schrieb:
Gehen unter die Gürtellinie, verdrehen die Worte und werfen mit "Fänboi" um sich wegen dem angekratzten Ego :n8:
Vielleicht täte dir etwas mehr Nüchternheit ja auch gut? Gute Nacht.
 
Zuletzt bearbeitet:
KurzGedacht schrieb:
Korrekt, aber eben nur die halbe Wahrheit. Es zählt vor allem auch Verfügbarkeit und wenn man sein ganzes System von Nvidia abhängig macht steht und fällt das Wachstum halt mit dem was Nvidia gerade leisten kann.
Das haben viele inzwischen zurecht als recht unerfreulichen Zustand erkannt.
Wer vor 5-10 Jahren mit RT anfing, dem hat nvidia das durch cudacore/RT-cores überhaupt erst ermöglicht. Vorher war das nur auf Grafik Workstations/CGI-Systemen in vernünftigen Zeitspannen drin. Nun kommt langsam AMD auf den Markt, ist für prosumer aber uninteressant. Zu niedrige RT Leistung bei gleichzeitig deutlich höherem Verbrauch, sowie schlechterer Softwareunterstützung. Die 4000er Karten sind überall erhältlich, da gibt es keinen Engpass, außer in China bei der 4090 wg. Sanktionen.
Bei KI mag das anders aussehen, wobei der "unerfreuliche Zustand" daraus resultiert, dass Nvidia die besten Lösungen am Markt hat und daher die Nachfrage das Angebot weit übersteigt.

AMD hätte viel mehr in alternativen investieren müssen. Richtig. Das wurde einfach falsch eingeschätzt.
Ich kann mich noch an die Diskussionen zur Einführung von Turing erinnern, warum überhaupt in RT und Tensor Kerne investieren? Verständlich, die meisten Spiele waren noch ohne RT. Aber warum AMD hier so untätig geblieben ist? Vermutlich fehlten die Ressourcen, man hat sich damals auf CPUs konzentriert, es gab einen technologischen Rückstand, den man nicht mal eben so aufholen kann, Software wie Hardwareseitig. Mehrheitsmeinung war, das NVidia noch 1-2 Generationen hätte warten sollen. Dann gäbe es heute aber immer noch keine Game engines mit RT-funktionen/Path-tracing und KI-upscaling. Nvidia ist hier ein marktwirtschaftliches Risiko eingegangen, das sich ausgezahlt hat.
 
Zuletzt bearbeitet:
Zurück
Oben