News Produktion eingestellt: AMD Radeon RX 7900 GRE ist EOL und macht Platz für RX 8000

Krik schrieb:
Diese Aussage kann ich nicht nachvollziehen. Das sind die stärksten Grafikkarten der kommenden Generation. Die 5090 zählt nicht, da sie eine Workstation-Grafikkarte ist.
Man kann sich auch alles schönreden :p - aber nein, die 4090 ist eine stinknormale GeForce GPU und eben keine Quadro … schau dir doch einfach mal das erste Ergebnis direkt von Nvidia bei Google an:
IMG_0183.jpeg

Da muss ich viel Fantasie aufbringen um dort „ Quadro RTX 4090-Grafikkarten für die Workstation“ zu lesen :rolleyes:
 
  • Gefällt mir
Reaktionen: stevefrogs und ElliotAlderson
@MalWiederIch
Wenn man Workstation-Preise für eine Grafikkarte verlangt, dann ist das eine Workstation-Grafikkarte, egal was sie drauf schreiben.
 
  • Gefällt mir
Reaktionen: JarlBallin
@MalWiederIch: DLSS, FSR, RT? Das kennt der Durchschnittsspieler nicht. Was ist AA, AF, *sync, rBAR? 🤣

Persönliche Anekdoten: Mein Bruder der bald volljährig wird der daddelt auf der Xbox oder so und hat absolut kein Peil, ich bin mir nicht einmal sicher ob er einen eigenen PC hat, Steam wird er wohl auch nicht haben. Mein bester Kumpel daddelt viel, der hat auch kein Peil, aber grob kennen tut er seine Specs. Grob. Von den Leuten die ich kenne die einen PC oder Schleppi haben, da kennt sich vlt. einer von 5 mehr oder weniger aus. Bekannte und Freunde die sich gut auskennen sind vlt. so 3-5 Leute, und ich "Kellerkind" kenne 10 mal mehr Leutz.

MalWiederIch schrieb:
Das kann man bei CPUs noch behaupten, bei Grafikkarten ist das doch eine naive Behauptung, denn …
Die Nicht-Power-User-Leute wissen weder von wem ihre GPU noch CPU ist, einige der Gamer vlt.
Und als CPU-Hersteller ist Intel definitiv bekannter, und für Daddler ist NV definitiv bekannter.
Weniger als die Hälfte der Leute kennen den Hersteller ihrer CPU also ihres Prozessors und fast keiner weiß überhaupt was eine GPU bzw. Grafikkarte ist, die Daddler wissen da vlt. mehr.
MalWiederIch schrieb:
Nein, selbstverständlich nicht.
Doch, sofern alles läuft würden nur Wenige sich wirklich um was anderes bemühen.
MalWiederIch schrieb:
… auch bei denen sieht die Verteilung kaum anders aus, wie einige Umfragen hier und anderswo schon gezeigt haben. Selbst die 4090 ist bei Steam öfter vertreten als jegliche AMD Grafikkarte - und gerade die wird hauptsächlich von …
Steam GPU survey
Weird, laut mir sollte eigentlich auf Platz 1 "IGP" sein ^^, Intel IGP. Die 4090 wird, alleine schon vom Preis her, einen geringen Anteil haben im Vergleich zu den beliebigen NV Mainstream- und Entry-Level-Karten die halbwegs aktuell sind, nur eine Minderheit zahlt so viel für eine Karte, für viel weniger gibt es schon eine taugliche Daddelkiste und für nochmal viel weniger einen tauglichen Office- und Surfknecht.

E: Aber Ja, dass die 4090 in der Steam Survey häufiger vertreten ist als meine 6700xt... 😅

Viele, vermutlich die meisten Leute die ich kenne haben irgendwelche alten (Billig)PCs für Surfen, YT, Mails, Office und FB, jüngere Leute gucken dann halt noch Netflix oder so oder zocken sogar. Freunde irl 50+ die ihren CPU-Hersteller kennen, das sind vlt. 2. Was ist eine GPU? ^^

Muddern ist um 2000 herum für den ersten Familien-PC zum Blödmarkt gegangen, waren vermutlich 1000 Mark, Geforce 2 und P3, aber Muttern hat halt genommen was die da empfohlen haben, was da drin war? Keine Ahnung, aber blos nicht abstöpseln, sonst verliert die Festplatte ihre Daten! 🤣

So wie die Leute sich mit PCs auskennen, so kenne ich mich mit Autos aus: Praktisch 0.

So funktionieren die meisten User was PC angeht:
K3ks schrieb:
Weder Interesse noch Ahnung, Hauptsache die Fertigkiste läuft

Und: 4 von 5 Leuten irl. die ich auf das Forum, also auf CB verwiesen habe für PC/Laptop-Suche (irl: such mir mal was raus! Neeee -> hier, probier mal CB, glhf) waren hoffnungslos überfordert bzw. desinteressiert, die sind nach 1-2 Posts wieder wortlos gegangen.

EE: Das habe ich gestern (fml) für einen Frührentner irl als "Problemlöser" auf Papier gemalt, btw den Schleppi habe ich ihm notgedrungen gekauft(fml):
problemlöser.png
 
Zuletzt bearbeitet:
Als RX 6800 Besitzer sehe ich irgendwie immer noch keinen Grund die Grafikkarte zu wechseln, auch wenn die RX 8000er Serie vor dem Marktstart steht.

Die RX 7800XT war kein großer Sprung gegenüber der RX 6800XT und da ich annehme, das die RX 7800XT sowie die RX 7700XT die meistverkauften Grakas der RDNA3 Generation sein dürften, wird RDNA 4 im Mittelklasse Segment nur eine Leistungssteigerung in Sachen Raytracing erfahren und AMD so zu Mid Range Ada Lovelace aufschließen.

Für mich steht primär im Jahre 2025 der Wechsel auf ein AM5 System an. Wahrscheinlich mit einem X870 Chipsatz oder B850 wenn die Bretter veröffentlicht werden inclusive einem Ryzen 7 9800X3D und 32GB DDR5 6000er Ram. Den Rest übernehme ich aus meinem AM4 System.

Und ich bin mir ziemlich sicher, das meine RX 6800 in dem System noch 12 bis 18 Monate für ich zufriedenstellende Ergebnisse abliefern wird, da Raytracing für mich alleine kein Kaufkriterium mehr darstellt, genau so wenig wie DLSS.

Nicht falsch verstehen oder sich angegriffen fühlen liebe Nvidianer. Hab selbst bis 2022 eine RTX 2070 Super besessen und weis wie gut diese beiden Features schon damals waren. Doch hat AMD für mich zumindest gerade im Treiberbereich einen großen Schritt nach vorne gemacht mit AFMF2. Ich kann mich seit ca 4 Monaten über kein Spiel mehr beschweren das in 3440x1440p für mich nicht zufriedenstellende FPS abliefert wenn man es im Adrenalin Treiber selbst einstellt.

Mir sind die Nvidia Karten mitterweile einfach zu teuer für die Features die sie bieten.

Im Preis / Leistungsbereich kann AMD bei mir mehr punkten, obwohl ich jetzt natürlich noch nicht wissen kann, ob RX 9xxx in 1 bis 2 Jahren sich preislich den Nvidia Karten nähern wird.

Ich vermute jetzt einfach mal das RDNA4 das Ende der aktuellen GPU Architektur seitens AMD sein wird (eventuell noch eine Generation mehr so wie beI CGN, wenn AMD aber zu Nvidia aufschließen will sollten sie sich das sparen)

Wenn man bedenkt, das die RDNA 2 Karten im November 2020 das Licht der Welt erblickt haben, ist diese Generation gut gealtert für die ganzen Probleme die zum Marktstart gerade Treibermäßg existent waren.
 
MaverickM schrieb:
Leider ja. Betrifft aber hauptsächlich uninformierte, wenig versierte Nutzer. Die lassen sich halt von Marketing und "Word-of-Mouth" stark beeinflussen. Und leider Gottes hat die Grafiksparte bei AMD einen schlechten Ruf, völlig zu unrecht.
Genauso sollte man es sehen, denn auch AMD baut gute Grafikkarten, und schon wie in meinem anderen Beitrag erwähnt: es kommt nicht immer auf den längsten Balken in einem Benchmark an.
Aber um ehrlich zu sein: ich blick da so langsam eh nicht mehr durch bei all den Features, die aktuelle Grafikkarten mittlerweile liefern.
Raytracing ok, aber dieses Upscaling und DLS und Fsr und wie das alles heißt, man verliert da sehr schnell die Übersicht, zumindest als Normaluser.
Meine 1070ti verrichtet schon seit einigen Jahren gute Dienste, eine Neuanschaffung ist nicht mehr geplant, werde so langsam zu alt😉
Aber wenn ich nochmal aufrüsten bzw. eine Neuanschaffung geplant wäre, würde ich jederzeit eine AMD- Karte in Betracht ziehen, wenn Preis/ Leistung stimmt.
Und egal was die Hardcore- Zocker sagen: bei Nvidia ist das Preisgefüge völlig aus der Bahn geraten.
Wenn ich hier schon lese, daß die Leute bereit sind, 2000 Euronen für eine 5090ti auszugeben, naja, daß sagt eigentlich schon alles.
Warum sollte Nvidia dann mal anfangen, preislich attraktiv zu werden?
Kann man in gewisser Weise mit Intel vergelichen, auch die konnten eine zeitlang Preise ausrufen, die jenseits von Gut und Böse waren. Aber dann kam AMD und hat gute Produkte zu einem fairen Preis angeboten.
Wird im GPU- Sektor so vermutlich nicht so schnell passieren, aber:
Hochmut kommt vor dem Fall. Und ganz speziell Nvidia wünsche ich schonmal einen kleinen Dämpfer.
 
  • Gefällt mir
Reaktionen: MaverickM
Painkiller72 schrieb:
Doch hat AMD für mich zumindest gerade im Treiberbereich einen großen Schritt nach vorne gemacht mit AFMF2.
Ich freue mich sehr für dich, dass dir das Feature gefällt, muss doch jetzt aber allen Ernstes fragen, ob dir das partielle Ghosting und die Mikroruckler nicht auffallen? AFMF2 ist eine tolle Idee aber die Software ist treiberseitig leider unbrauchbar.

Wenn ich zum Vergleich natives Frame Generation in Space Marine 2 oder RoboCop Rouge City einschalte, ist das wirklich eine runde Sache, ohne partielles Ghosting und Mikroruckler, aber im Treiber taugt das leider nicht.
 
Zuletzt bearbeitet:
Ich seh das ganz gelassen, hab aktuell eine 7800XT die befeuert meinen 49" Samsung mit 5120x1440 Monitor eigentlich ganz gut..
da ich sowieso Konsole gewöhnt bin reichen mir 40-60FPS aus.

mal beobachten was die 8000er Serie so bringt. Dann kann ich immer noch meine 7800 abstoßen. sonst warte ich auf die 9er Serie.. dann gibts auch frischen Weihnachtsgeld :D
 
kachiri schrieb:
Die 4070 Super gab es zur selben Zeit für 10% mehr. Die liegt aktuell im Schnitt auch 10% vor der 7900 GRE. Und dann haben wir ja noch DLSS, Effizienz und RT...
Sehe die P/L nicht...
Und unter Linux läuft sie entweder gar nicht oder schlechter...
Ergänzung ()

tdbr schrieb:
Es gibt auch Leute mit Meinungen wie 'Ich kauf kein NVIDIA nach meiner GTX 970 3.5GB' und Linux Nutzer die ebenfalls lieber AMD kaufen. RT spielt absolut keine Rolle.
Liegt auch noch im Keller...
Habe mich ewig geärgert nicht die R9 390 8G gekauft zu haben, bei der 1070 habe ich mich noch mitreißen lassen, seit dem AMD weil Linux.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
lolinternet schrieb:
Ich kann das nicht nachvollziehen. Dabei habe ich nichts gegen NV (abgesehen von ihrem bescheidenen Linux Support). Aber in dem Preissegment sehe ich nach wie vor wenig Gründe zu NV zu greifen. Einfach weil da im Grunde fast ausschließlich Rasterizing zählt.
Wenn man sich das Release der Karten anschaut, dann kann man das schon nachvollziehen:
4060 bot: RT (Marketing ja, ich weiß, DLSS 3, FG).
Zu der Zeit gab es noch kein FSR3 oder FG von AMD. Selbst wenn die AMD Karten minimal schneller waren, hat das FG bei Nv wieder relativiert. Ich hätte an der Stelle dann auch zur 4060 gegriffen, allein aufgrund des besseren Featuresets.
 
kachiri schrieb:
Und dann haben wir ja noch DLSS, Effizienz und RT...
Sehe die P/L nicht...
Zum Thema Effizienz kann ich nur sagen das es stark vom Anwendungsfall abhängig ist.
Ich habe mir mal fix die Mühe gemacht und mal geschaut was das bei 8h die Woche mit VOLLAST ausmacht. 65€ Preisdifferenz bei Geizhals und 69W mehr TPB bei der Radeon.
Nach 6,5 Jahren hat sich das angeglichen. Ich denke mal in der Realität könnte es noch länger dauern,weil die GPU ja nicht immer voll befeuert wird.
So wieso ist das nur eine Solala Rechnung....
 
  • Gefällt mir
Reaktionen: JarlBallin
Krik schrieb:
Oh doch. Beispiele wären DLSS, Glide/DirectX, SLi, PhysX, etc.. In der Vergangenheit hat man haufenweise von Technologien getrennt ausgewiesen.
Wilde Aussage.
DLSS ist ein Grafikfeature bzw. Setting wie Schatten, Bloom etc. DirectX ist ne API, SLI ist ein Interface bzw. eine Technik, um mehrere Grakas zu koppeln und PhysX ein Framework. Die haben nichts miteinander gemeinsam.

Er hat recht mit seiner Aussage, dass bei neuen grafischen Settings keine Trennung stattfand, ansonsten hätte ich gerne einen Beweis von dir, wo man bei PBR oder Tessellation unterschieden hat. Letzteres hat anfangs auch ordentlich Leistung gefressen.

coxon schrieb:
Bezogen auf FSR 3.0 und darunter mag das Stimmen, aber ein Unterschied von DLSS zu FSR 3.1 ist kaum noch vorhanden oder muss mit der Lupe gesucht werden (Ghosting, HUD, krieseliges Bild).
Die Tests von CB sagen da aber regelmäßig was anderes oder entspringt das mal wieder nur deiner Fantasie?
Beispiel gefällig? https://www.computerbase.de/artikel/gaming/horizon-forbidden-west-benchmark-test.87503/seite-3

Wasserfälle sind in dem Spiel reinster Pixelbrei mit FSR. Da brauchst du keine Lupe für.

Hier noch ein Test:
https://www.computerbase.de/artikel...super_resolution_in_ratchet__clank_analysiert
DLSS ist hier zwar nicht perfekt, arbeitet aber dennoch zuverlässig und sollte genutzt werden. Von FSR sollte man dagegen die Finger lassen.

Womit wir wieder bei der Realitätsverweigerung wären. Muss ne komische Lupe sein, die du da nutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs
ElliotAlderson schrieb:
https://www.computerbase.de/artikel/gaming/horizon-forbidden-west-benchmark-test.87503/seite-3

Wasserfälle sind in dem Spiel reinster Pixelbrei mit FSR. Da brauchst du keine Lupe für.
Im Fazit steht das FSR gut funktioniert. Pixelbrei Wasserfälle habe ich auch keine gesehen....

Aber ich weiß was du meinst. Unterm Strich ist DLSS natürlich besser. Aber es kommt halt auch auf das Spiel und die Implementierung an. Es gibt auch Spiele wo DLSS nicht so sauber läuft wie gewohnt und wo FSR ideal funktioniert.
Bei höheren Auflösung werden die Unterschiede in der Regel geringer.
Teilweise sind die Unterschiede sowieso gering, oder die eine Technologie hat mehr Stabilität dafür aber mehr Ghosting,etc.
 
  • Gefällt mir
Reaktionen: JarlBallin
Ghostfacekalle schrieb:
Pixelbrei Wasserfälle habe ich auch keine gesehen....
Siehe hier:

Das ist bei Wasserfällen noch stärker sichtbar.
 
Ich seh da auch kaum ein unterschied. Muss es mir nachher mal auf dem großen Schirm anschauen. Aber ich denke mal das es so ist wie ich es mir schon denke, das die Unterschiede da sind, aber marginal. Dem einem fällt es direkt auf, dem anderen nicht so sehr.

Auf dem großen habe ich es gesehen. Vorne wo die Wellen sind verpixelt es. Der Rest sieht aber gut aus.
Dann hat man ein anderes Spiel wo FSR das Gras nicht stabil hinbekommt oder wo DLSS schmiert.

AM Ende findet man immer mal ein Spiel wo die jeweilige Technik Artefakte produziert.
 
Zuletzt bearbeitet:
Krik schrieb:
@MalWiederIch
Wenn man Workstation-Preise für eine Grafikkarte verlangt, dann ist das eine Workstation-Grafikkarte, egal was sie drauf schreiben.
Mit Verlaub, dann hast du einfach keine Ahnung wo Workstation Karten preislich mittlerweile angesiedelt sind. Das WS Äquivalent der 4090, die RTX 6000 Ada, liegt bei 7.500 €.

Ist ja nicht so als ob der AI und Workstation Boom in Kombination mit begrenzten Produktionskapazitäten nur im Heimanwender-Bereich zu einer entsprechenden Preisentwicklung geführt haben.

Spoiler: Das wird auch auf absehbare Zeit nicht mehr besser werden. Ja ein Großteil der Unternehmen, die ihr Glück in AI suchen werden scheitern. Aber ähnlich wie im Social Media Bereich werden die verbleibenden Player im Markt halt dann zu Mega-Konzernen (soweit es sich nicht mit Google und Co bereits um solche Handelt).
 
  • Gefällt mir
Reaktionen: Arekanderu, stevefrogs, DiePalme und eine weitere Person
Ghostfacekalle schrieb:
Nach 6,5 Jahren hat sich das angeglichen. Ich denke mal in der Realität könnte es noch länger dauern,weil die GPU ja nicht immer voll befeuert wird.
Der Vorteil ist aber auch das man weniger Kühlen muss...
 
@Feierbiest er hat gar net so unrecht, die xx90 Modelle sind halt die Nachfolger der Titan Serie, die aufgrund des üppigen Speichers eher für Hobby Enthusiasten gedacht sind, die eben keine 7500€ für eine WS Karte hinlegen wollen

dass sie natürlich auch für gaming genutzt werden kann, steht außer Frage
 
  • Gefällt mir
Reaktionen: DiePalme und AlphaKaninchen
Krik schrieb:
Wenn man Workstation-Preise für eine Grafikkarte verlangt, dann ist das eine Workstation-Grafikkarte, egal was sie drauf schreiben.
Echte Workstation Grafikkarten rangieren einige Preisstufen höher als eine 4090. Dagegen ist die 4090 absolut billig. Und ich verwende mit Absicht das Wort "billig" und nicht "günstig", denn eine Workstation Grafikkarte in diesem Leistung Bereich kostet fast 5 stellig.
Die 4090 ist eine Consumer Karte. Aber ja, sehr sehr viele Kunden nutzen sie dennoch für den professionellen Bereich. Eben weil sie für diesen Bereich ein absolutes Schnäppchen ist.
 
  • Gefällt mir
Reaktionen: stevefrogs
@Verak Drezzt zumindest im Englischsprachigen Bereich habe ich auch schon mehrfach gehört das die Zielgruppe für die 4090 und noch mehr 5090 "Creator" sind... Was sich aber in meinen Ohren auch er anhört wie der versuch den Preis zu relativieren weil neben Workstation Karten sieht es dann ja günstig aus... Persönlich mag ich an den Workstation Karten das sie DP only sind, HDMI muss man eh per DP zu HDMI anschließen auch bei Karten mit HDMI man verliert also einfach einen Anschluss bei Karten mit HDMI.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
AlphaKaninchen schrieb:
Der Vorteil ist aber auch das man weniger Kühlen muss...
Wie ist das Gehäuse bzw Airflow,oder die Kühllösung der Karte beschaffen. Wird die Karte mit UV betrieben? Wie ist die Lüfterkurve? Das ist ja noch viel individueller wie der Verbrauch. Da spielen zu viele Faktoren mit rein um da eine klare Aussage zu bekommen.
 
Zurück
Oben