News GPU-Gerüchte: Radeon RX 8800 XT soll der RTX 4080 die Stirn bieten

Mit der aktuellen nVidia VRAM-Politik (Apple Zustände!) vergönne ich ihnen keinen Cent unterhalb der 4080. Gut, dass AMD und Intel in den "niedrigeren" Preisklassen pushen.
 
  • Gefällt mir
Reaktionen: eXe777, LatinoRamon, LETNI77 und 4 andere
Tevur schrieb:
Jo, für 500€ wäre die sofort gekauft.

ne 4080 von AMD kaufe auch auch für 750€

Habe aber in den Gerüchten zwei preise gesehen - also 500$ (was mit MwS um die 600€ wären) und 600$ (mit MwS etwa 720€) - das erste wäre halt eine echte Kriegserklärung an NVIDIA (eine 4080 zum Preis einer 4070S) Das zweite aber immer noch ein guter Preis bei der die 5070 sich keine schwächen Leisten kann um mithalten zu können (ja, die hat DLSS4 aber auch 12GB VRAM - das erste ist bei erscheinen ein Vor das zweite bei der "Lebenserwartung" ein Nachteil)...
Ergänzung ()

chiclet_fanboi schrieb:
Gut, dass AMD und Intel in den "niedrigeren" Preisklassen pushen.

Ja, wobei Intel wiederum im mAn zu niedrigen preissegment pushed...

Wobei ich den Budgemarkt eh nicht so ganz verstehe - bzw. in Einzelfällen schon wenn jemand seinen Office-PC etwas pimpen will, wobei da halt auch immer Karten der vergangenen Generationen eine Option wären und gebrauchte Konsolen oft ein besseres Preis/Leistungsverhältniss bieten dürften, aber es scheint ja zu reichen damit es sich lohnt dort eigene GPU-Serien heraus zu bringen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chiclet_fanboi und Mcr-King
Wenn eine 8800XT am Ende max. 599€ kostet und quasi das äquivalent zur 5070Ti wird, wäre das mehr als ein Achtungserfolg. Aber so recht glaube ich nicht daran, auch mit Blick der prognostizierten Nvidia MRSP.
Vllt erleben wir ja einen HD5700 Moment, wir werden sehen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Darkwater schrieb:
Ja, wobei Intel wiederum im mAn zu niedrigen preissegment pushed...

Wobei ich den Budgemarkt eh nicht so ganz verstehe - bzw. in Einzelfällen schon wenn jemand seinen Office-PC etwas pimpen will, wobei da halt auch immer Karten der vergangenen Generationen eine Option wären und gebrauchte Konsolen oft ein besseres Preis/Leistungsverhältniss bieten dürften, aber es scheint ja zu reichen damit es sich lohnt dort eigene GPU-Serien heraus zu bringen...
Also ich finde die B570 und 580 perfekt positioniert. Es soll sich auch im 200-300€ Bereich mal was tun, so lange ist das nicht her, dass das normale GPU Preise waren. Ich spiele einfach nicht genug um eine 500€+ GPU zu rechtfertigen.

Für mich wäre eine Konsole keine Alternative, viel zu eingeschränkt. Aber du hast schon recht, eine PS5 ist ggü. einem PC in genau dem Preissegment zuhause und liefert auch entsprechende Performance. Ein Grund mehr, dass beim PC wieder mehr fürs Geld hingehört., soll ja zurecht die beste Plattform sein ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Rockstar85 schrieb:
Hast du jede Generation..

Die 3060Ti hat nicht mal einen adäquaten Nachfolger bekommen, bei der 4060 fange ich gar nicht erst an.. Satire kann Nvidia also viel besser und die SUPER karten beweisen es.

Tut bitte nicht so, als müsse man jede Gen wechseln... Die Zeiten sind seit 10 Jahren schon vorbei.
Ich habe eine 4 Jahre alte Grafikkarte, also wie meinst du das?
 
ruthi91 schrieb:
Freesync schön und gut - aber "frag mal Unbeteiligte auf der Straße", in der Mehrheit der Köpfe wird die Meinung stecken "aber Gsync sieht doch besser aus".
Von welchen "unbeteiligten auf der Straße" sprichst du eigentlich? :freak:

Gsync ist meiner Meinung in den Köpfen "Unbeteiligter auf der Straße" praktisch Tod und das wird mit Nvidias kompletter Softwareschiene passieren, sobald sie jeweils den Kampf ihrer proprietären, dem gesunden Wettbewerb verhindernden Software verlieren...
 
  • Gefällt mir
Reaktionen: eXe777 und Tevur
Cameron schrieb:
Ich habe eine 4 Jahre alte Grafikkarte, also wie meinst du das?
Steht doch da. Meine 1080Ti war auch nur eine Generation lang der krasse Shit, dennoch lief sie 3 Jahre..
Stagnation haben wir leider bei der 3060 und Niedriger. Vllt macht Intel ja hier einen break
 
  • Gefällt mir
Reaktionen: Darkwater
@Rockstar85 Jep, bei mir Arbeitet im moment eine 1660S - die tatsächlich schon lange über ihr Rentenalter hinaus ist aber bei sehr vielen Sachen durchaus noch funktioniert - wenn da jetzt eine 8800XT rein kommt hoffe ich die durchaus bis ende des Jahrzehnts (also im idealfall 3 Generationen aber eventuell auch nur bis 29 je nach dem wie die Hardwareanforderungen 1 Jahr nach dem erscheinen der PS6 anziehen) behalten zu können, auch wenn ich am ende durchaus werde Abstriche machen müssen.
 
  • Gefällt mir
Reaktionen: Rockstar85
Achja, auch in diesem Thread wieder das Gerücht, das die AMD Treiber so scheisse und absturzträchtig sind.
Mal zu meiner Historie bezüglich AMD/ATI und NV:

Auf der CPU Seite hab ich nach dem Intel 486DX4-100 nur noch AMD CPUs gehabt, weil die immer das bessere P/L hatten und in der Regel einen Aufrüstpfad boten, den Intel lieber versperrte, wo man praktisch immer gezwungen war CPU+MB zu kaufen.

Chipsets: Ich hab verschiedene NV Chipsets und Chipsets von deren zugekauften Firmen gehabt, NV hat mir den NForce-Treibersupport verfrüht eingestellt, beworbene Features nie realisiert und ihre absturzfreudigen Treiber (beim Wechsel von Win98SE auf XP) mußten von Hobbyisten/Moddern gefixt, respektive überhaupt erst angeboten werden.

Soundlösungen: Ich hatte auch NV Soundstorm - es ist das gleiche wie bei den Chipsets passiert.

Bei den GPUs habe ich zuerst die NV Riva TNT2 gehabt, gekoppelt mit 1 oder 2 der 3dfx Voodoo2 Karten.
Das war von meinen NV Karten die mit der besten Signalqualität und insgesamt "Das Beste aus 2 Welten Setup".

Danach, auch weil 3dfx sich selbst aus dem Geschäft gemanaged hat, kam die Geforce1, dann die Geforce2, jede Karte schlechter als die vorherige in der Signalqualität.

Das hat mir so gestunken, das ich dann die Geforce 2 Ultra bei release kauft und alle 3 Karten, die ich bei Media Markt bekam waren kaputt (Modelle von MSI und Gigabyte).

Ich war total nicht amused und der Verkäufer war so verzweifelt, das er mir dann sagte, sie hätten noch eine andere Karte da, die ich nicht auf dem Radar hatte, weil die Marke mich vorher nie überzeugt hatte - die ATI-Radeon.

Gekauft, eingebaut, gestaunt über die hervorragende Signal- und damit Bildqualität, Farbbrillanz, absolut smoothe 32 Bit Leistung und allgemein die Stabilität, ohne jeden Crash während ihrer Nutzung (Ich will erwähnen, ich hatte immer gute Netzteile).

Seitdem nutze ich weiterhin AMD CPUs, teilweise echt lange, weil ich zu jedem Kaufzeitpunkt mehr für mein Geld bekomme und ATI/AMD GPUs, weil die mich überzeugt und nie enttäuscht haben.

Ich hab also seit gut 24 Jahren nur noch ATI/AMD GPUs im Rechner und in der ganzen Zeit gab es genau 1 Spiel, dessen Titel ich nicht mehr erinner, wo ich 4 Wochen auf einen Treiber warten mußte, um es spielen zu können.
Vor ein paar Monaten kam dann mal ein Treiber, wo ein Spiel nach dem Treiberupdate nicht mehr lief und ich auf die ältere Treiberversion downgraden mußte, womit es aber auch gut lief - das war mit dem nächsten Treiberrelease behoben!
Zwei oder Dreimal mußte ich den Drivercleaner nutzen, was vermutlich eher an Windows liegt, um korrupte Treiberinstallationen zu fixen.

Verbrauchsprobleme haben mich nie geplagt und die Stabilität meiner Rechner ist allgemein sehr gut, weil ich kein kritisches OC mache, gute Netzteile benutze und meinen Rechner nicht mir 3rd Party Bloatware und problematischen RGB Managern zumülle.

Die Radeon Software UI ist seit Jahren phänomenal gut und ich liebe Radeon Chill und allgemein hab ich super smoothe FPS, was hauptsächlich stabile Framtimes bedeutet, da ich in der Regel nicht auf Max-FP aus bin, sondern einen leisen und kühlen Rechner.

AMD hat mich immer überzeugt und nie enttäuscht!

NV hat mich damals und seither mit ihrer Qualitäts-, Treiber-, Geschäfts- und Kundenpolitik verbrannt, enttäuscht, vergrault und ich werde freiwillig nie wieder Geld in deren Gierschlundrachen werfen!

Und die Gerüchte um die superschlechten AMD Treiber sind im Gunde Miesmachpropaganda, die leider verfangen hat!


Btw. Radeon Software:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777 und daknoll
kachiri schrieb:
Und weil wir vor 2026 eher 2027 keine neuen Konsolen sehen werden, wird das mit den 12 GB auch kein riesengroßes Problem in der Zielauflösung WQHD. Die 12 GB reichen in 98% aller Fälle heute sogar für UHD.
.
.Grafikkarten haben einen Preisbereich erklommen in welchem der Wiederverkaufswert eine bedeutende Rolle spielt.

Nach einer 5070/12 wird bei EOL kein Hahn mehr nach krähen, ähnlich einer 3070 heute.
Da ja, wie du erwähnst, die neuen Konsolen vor der Tür stehen.

Da sehe ich eine 8800XT/16 im Vorteil.
 
  • Gefällt mir
Reaktionen: Icke-ffm
@Norebo Ich hatte mit beiden Herstellern noch keinen Ärger, jedenfalls nicht mehr als mit anderer Software oder Windows. Aber was mir an AMD immer positiv aufgefallen ist: Ich hatte nie Probleme unter Linux.
 
  • Gefällt mir
Reaktionen: Norebo, Tevur und chiclet_fanboi
Grundgütiger schrieb:
Da sehe ich eine 8800XT/16 im Vorteil.
Wenn 12 GB nicht mehr reichen, werden es 16 wohl auch nicht. Im Endeffekt muss man ohnehin schauen, wie die Spezifikationen der nächsten Konsolen-Generationen aussehen und ob es beim RAM überhaupt nach oben geht.
Weil es bleibt halt die Frage: Mehr RAM bringt ja auch nur etwas, wenn die Leistung stimmt. Und bei den aktuellen GPU-Preisen und auch den zu erwartenden Preisen der kommenden Generation sehe ich nicht, wo das bei der nächsten Konsolengeneration mehr als 16 GB werden. Es sei denn, man will bei den Konsolen doch auch in Richtung dreistellig ;)
 
Moritz Velten schrieb:
Das wird ein Kopf-an-Kopf Rennen zwischen Nvidia und AMD.

Mal schauen, wer am Ende die Nase vorne hat.
Das glaube ich nicht, Nvidia bleibt vorn, auch in der Mittelklasse, selbst wenn die 8800xt die performance der 4080 packt, wird die 5070 mit GDDR7 schneller sein (denke ich) aber eben durch den teureren Vram eben auch den Preis anheben die 4070 hatte einen Start Preis von 599usd die TI 799usd somit da der Chip bissle kleiner ist tippe ich mal auf 699usd für eine 5070 die aber eben nur 12GB hat, wie bei Nvidia üblich dafür aber wohl DLSS4 welches natürlich nicht auf den alten karten der ada freigeschaltet wird.

Nvidia wird die besser leistung haben, aber eben auch einen Speicherkrüppel AMD den besseren preis und Speichervorteil. wenn AMD die Leistung der 4080liefert, sowie den start preis auf 499usd setzt, ist das der selbe startpreis wie 4060ti-16GB aber der Leistung einer 4080. wird dann aber auch wieder schlecht geredet da Nvidia ja schneller ist.
ich bleibe dabei, will man min eine Gen überspringen kauft man nichts mehr unter:
FHD min 12GB
ab WUHD min 16GB
 
  • Gefällt mir
Reaktionen: Moritz Velten
Aisn schrieb:
Und ich wünsche mir den Weltfrieden. Oh man, manche Post hier... :stock:

Kurz vor Weihnachten wird man sich ja wohl noch was wünschen dürfen ;)

Es wäre halt schön, wenn es eine oder zwei (je rot und grün) High-End-Karten geben würde, die in der Lage sind, die entsprechenden High-End-Monitore zu versorgen.

Nicht hauen! :heul:
 
Ist wohl wie bei Nvidia. Erst das (teure) Top-Modell, später dann die Produkte für die breite Masse. Also heißt es erstmal wohl weiter warten. Ich werde aber definitiv kein Geld mehr in die mittlerweile etwas angestaubten RX 7000'er bzw. RTX 4000'er stecken.
 
Nighteye schrieb:
Preis Leistung wird RDNA 4 schlechter als RDNA 2 im Jahr 2023 & 2024 was FPS pro Euro angeht.
Wir kennen weder den Preis noch die Leistung von RDNA4. Sofern du dazu nicht mehr Informationen hast, ergibt deine Aussage keinen Sinn.
 
  • Gefällt mir
Reaktionen: Icke-ffm
@Limit Dass sagt einem der Gesunde Menschenverstand.
Folgende Gedanken:
2023 & 2024 war dass mal gutes P/L mit RX6800Xt für 369€.
2025: Der Fortschritt ging weiter, die Konkurrenz entwickelte sich und es gibt RTX 5000.
Die selbe FPS pro Euro Leistung wäre 2025 also schlechter als 2023 & 2024, da die Konkurrenz besser wurde.
Folglich muss Radeons Preis Leistung um den Marktanteil zu vergrößern noch besser sein.
Es müsste also eine RX7900XT für 350€ im Jahr 2025 sein um den Marktanteil zu vergrößern.
(Ich rede nur von Raster Speed um dass Beispiel Präzise zu halten)
Ich glaube es ist sehr Realitätsfremd zu glauben, dass die RX8800XT mit RX7900XT Raster Speed für 350€ auf den Markt kommt.
Ich will hier nochmal daran errinern wie gut eine RX6800Xt war.
RX6800XT Raster.png

RDNA 2 VS RDNA 3.jpg
 
ElliotAlderson schrieb:
Nein, tut er nicht, aber hier wird behauptet, dass AMD die besseren Produkte abliefert und die Leute trotzdem zu Nvidia greifen, was falsch ist, denn die Produkte sind durch die Bank weg eben nicht besser.
Und das ganze gilt dann nur für GPUs, aber nicht für CPUs? Come on, das glaubste doch selbst nicht.

Im DIY greifen die Leute zu AMD CPUs, weil sie besser sind. Bei den GPUs greifen sie zu Nvidia, weil sie schon immer grün kauften. Realy?

was macht für dich denn das bessere Produkt aus...
grundsätzlich wird hier das P-L Verhältnis her genommen und da muss man gesamtbetrachtet nicht lange diskutieren, das hier AMD gezwungenermaßen mehr reingrätscht - gibt auch eine nettes Diagramm auf CB dazu
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/


und ja die Meisten welche nicht mal mit den Features der gpu was anfangen können kaufen im Lager grün, einfach weil nvidia viel mehr Marktpräsenz hat
 
@Waelder ganz einfach: Was die Karte kostet und was sie leistet und damit meine ich Raster und RT und nicht nur eins von beiden. Was für den einzelnen wichtiger ist, kann ich nicht bewerten, aber neutral betrachtet muss man beides berücksichtigen und wenn man das tut, steht AMD nicht mehr so toll da wie es hier gern behauptet wird.
Das Featureset ist eben auch wichtig. Beide bieten zwar Upscaler und FG an, aber AMD erst seit kurzem (FG) und der Upscaler ist bei Nvidia wesentlich besser.

Wenn ich mir jetzt also die 7900XTX (900€) und 4080 Super (~1000€) anschaue, bekomme ich bei der 4080 mehr Leistung fürs Geld (10%/100€ -> 30% mehr RT Leistung).
Gleiches gilt bei der 4070 und 7800 XT.
Darunter ist für mich AMD der P/L-Sieger, aber darüber eben nicht mehr.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nighteye
Zurück
Oben