News AMD Radeon RX 7800 XT: PowerColor verrät Eckdaten der ersten Navi-32-Grafikkarte

@Verak Drezzt
Ich hab eine RTX 4070, aber finde die RTX 3080 4% schneller in 4k

DLSS3 bringt mir was, wenn keins der Titel sie unterstützt, die ich spiele ?
 
  • Gefällt mir
Reaktionen: Mcr-King und HierGibtsNichts
ShiftC schrieb:
Was genau verstehst du denn vom negativen Aufschrei nicht? Wir reden doch hier von einem de facto Stillstand.
@elunarom Vielleicht liest du das hier auch und wirst eventuell erhellt zu deiner vorschnellen Meinung/Unterstellung ich sei ein Fanboy.

Stillstand das ist schon richtig und das habe ich auch nicht gut geheißen oder schön geredet aber man kann eben nur das beurteilen was man bekommt von den Herstellern. Mehr wäre immer schön definitiv (wie geschrieben) dem ist aber nicht so, weder bei AMDs Mittelklasse noch bei Nvidias.
Den Umstand des Stillstands kanm man natürlich kritisch sehen.
Die 7800XT ist aber für sich genommen trotzdem keine schlechte Karte im Vergleich zur 4070. Wenn die Bespreisung stimmt.
Ja sie hat nur wenige Verbesserungen zur 6800XT aber diese war schon eine gute Alternative zur 4070, durch die kleinen Verbesserungen ist es die 7800XT noch mehr. BEI ENTSPRECHENDEM PREIS.
Das ist meine Aussage.
ShiftC schrieb:
Aber was daran ist jetzt gut?
So wird der Preis der 7800XT schön oben gehalten und es darf wunderbar so getan werden, als gäbe es die fast gleiche Leistung jüngst nicht zum deutlich niedrigeren Preis.
Das ist seine persönliche Vermutung wie es passieren KÖNNTE. Deine Vermutung und Ausdrucksweise ist auffällig negativ. Das kann man sein wenn es tatsächlich so kommt, vorab schwingt hier halt eine unnötig negative Grundhaltung mit. Sowas ist nicht zielführend.
ShiftC schrieb:
Nicht böse gemeint, aber ich bekomme bei deinen Aussagen das Gefühl, dass du ständig AMD irgendwie ins positive Licht rücken willst oder zumindest nahezu alles relativieren möchtest.
Wenn das dein persönliches subjektives Gefühl ist, dann ist das so.

Persönlich ist mir das ehrlich gesagt erstmal gleichgültig ob und wer denkt, ich sei ein Fanboy. Solange das nicht in toxischem Verhalten ausartet in einem Diskurs.

Ich sehe es eher so. Ich stürze mich nicht auf jeden negativen Rant, negativen Hype oder sehe direkt unterschwellig negativ sondern versuche immer noch eine andere Sichtweise zu haben die mehr auf vorhanden Informationen, technischen Aspekte basiert etc. Natürlich spielt hier auch meine persönliche Meinung eine Rolle und die ist tatsächlich nicht grundsätzlich negativ zu Allem, nur weil es von AMD kommt.

Zum Thema relativieren, ich habe schon desöfteren geschrieben das AMD mit RDNA3 in Sachen Effizienz definitiv schlechter dasteht als Nvidia mit Ada Lovelace. Das die Nvidia Karten technisch betrachtet eine besseres RT Leistung liefern habe ich auch nie unter den Tisch fallen lassen. Auch das AMD im Thema Marketshare nicht mehr überholen können wird und Nvidia der Marktführer im GPU Markt bleiben wird .
Auch habe ich @DevPandi unterstützt bei ihrem Artikel als es um den eventuellen, kursierenden Hardwarebug der Architektur ging. Würde dies ein unsachlicher AMD Fanboy tun, deiner Meinung nach? Es gibt noch viele solcher Beispiele.

Aber sind wir auch mal ehrlich, der Vorwurf Fanboy wird von Vielen, einfach zu leichtfertig und schnell hervorgeholt.

Andersherum stürze ich mich aber auch nicht auf jeden negativen Hate, Rant, Hype gegen Nvidia und Intel oder mache hier grundsätzlich alles schlecht was von den anderen Unternehmen der Branche kommt an Produkten, Entscheidungen etc.
Ich kritisiere hier wenn, hauptsächlich technische Aspekte.

Zum Thema Softwarefeatures habe ich meine persönliche Meinung das ob RT, DLSS3, FG usw. Kaufargumente sind ist eine persönliche Sache ist und nicht das grundsätzlich das Argument für Jeden beim GPU Kauf.
Gleiches gilt für mich bei FSR und Co.

Wie gesagt wenn Jemand meint oder das Gefühl hat ich sei ein Fanboy, okay. Solange der Diskurs trotzdem sachlich bleibt kann ich damit leben. :)
Ergänzung ()

Vitche schrieb:
Selbst bei 600 Euro und damit einem Gleichstand zum Marktpreis der 4070 wäre die Karte ohne (gutes!) FSR 3 nahezu irrelevant, die 16 GB mal außen vor.
Nicht für jeden Käufer sind Software Features ein Kaufargument und die 16 GB kann man eben nicht aussen vor lassen als technischen Aspekt.
Wenn mir der Vram ausgeht hilft mir auch kein Software Features mehr das zu kompensieren, vorallem nicht FG. Um es mal kurz und einfach runter zu brechen.
Ergänzung ()

elunarom schrieb:
Da gibts keine zwei Meinungen
Doch die gibt es, nicht das Nvidia als Firma Marktführer ist, aber gerade in dieser Generation bei ihren Produkten unterhalb einer 4090, je nach dem was für Einen persönlich die wichtigsten Kaufargumente sind.
Ergänzung ()

elunarom schrieb:
Willst du wie Taurus die 7800xt irgendwie als bessere 4070 Alternative pushen um Hass auf Nvidia auszuleben?
Fängt ja gut an, für einen ACC der Gestern erstellt wurde.

Ich habe lediglich die technischen Aspekte verglichen mit der Betonung das die 7800XT bei entsprechender Bepreisung eine valide Alternative sein kann, wie es auch schon die 6800XT ist. (vorallem wenn die 6800XT vom Markt verschwunden ist)

Ich habe keinen Hass gegen irgendeinen Hersteller, aus dem Alter bin ich raus, genauso unterstelle ich nicht Jedem gleich ein Fanboy zu sein. Nur weil er vielleicht für sich persönlich Nvidias Software Features als Kaufargument sieht, um ein Beispiel zu nennen.

Genauso argumentierst du aber.

Ich hatte in meinem Leben schon unzählige Intel CPUs und Nvidia GPUs im Einsatz beruflich und privat.
Und habe derzeit auch einen RTX3090 als Ersatzkarte für eine speziellen Hobbyrechner von mir.

Du kannst mich demnächst auch gerne markieren wenn du über mich herziehst und musst das nicht heimlich machen. Trau dich ruhig.

Wenn das deine persönliche Meinung ist, ich sei ein Fanboy, habe ich kein Problem damit.

Womit ich ein Problem habe ich deine unsachliche Art einen Diskurs zu führen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Ghostfacekalle und Mcr-King
Verak Drezzt schrieb:
ja ist deine Meinung, auch vollkommen ok, ich finde aber Nvidia ist ein Drecksladen und mal schauen ob du noch so happy bist wenn AMD die dGPU Sparte einstampft und Intel au nix gebacken bekommt un Nvidia meint, mit seiner jetzt schon Monopolstellung, noch weiter die Preise anzuziehen
Denke das wird nicht passieren, und was wenn AMD der grössere Drecksladen in deinen Worten wäre wenn sie die gleiche Marktstellung wie NV hätten und die Situation umgekehrt wäre? Oder welche Argumente würden dagegen sprechen? Nv nutzt wie jede andere Firma es auch tut ihren Technologievorsprung um sich im Markt zu positionieren und diese Position zu stärken und da es weder einen Kaufzwang noch insbesondere zu einer bestimmten Marke gibt finde ich Worte wie Drecksladen etc. einfach nur daneben und überzogen für einen erwachsenen Menschen.Das sind Produkte, die uns unterhalten und Spass machen sollen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667
Tornavida schrieb:
ich Worte wie Drecksladen etc. einfach nur daneben und überzogen für einen erwachsenen Menschen.
sehe ich seit der Kommunikation mit den Kunden, geschweige denn mit der Fachpresse und dem Speicherhoax seit der GTX970 damals, nun etwas anders und alles was danach kam, sah wie gesagt nicht wirklich besser aus, daher ist Nvidia ein Drecksladen für mich, kann aber jeder sehen und machen wie er lusdich ist

und würde übrigens mit AMD nicht anders aussehen, wenn dem ebenso so gewesen wäre
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
elunarom schrieb:
Unreal Engine 5.2
Naja die Engine ist nicht wirklich der Hammer finde ich da hat Epic mal mehr oder weniger Müll gemacht iehe rement 2. Oder wie dass Game heißt.
 
Taurus104 schrieb:
Nicht für jeden Käufer sind Software Features ein Kaufargument und die 16 GB kann man eben nicht aussen vor lassen als technischen Aspekt.
Wenn mir der Vram ausgeht hilft mir auch kein Software Features mehr das zu kompensieren, vorallem nicht FG. Um es mal kurz und einfach runter zu brechen.
Allgemeingültig lässt sich das nicht vorhersagen, aber die 4070 hat mit ihrer effizienteren Speicherverwaltung und dem (insbesondere bei der Bildstabilität) überlegenem Upscaling (also DLSS 2) durchaus zwei Software-Features, die ihr dabei helfen, mit 12 GB zurechtzukommen. Ja, die Radeon kann auf FSR 2 zurückgreifen, klar, aber man kann eben nicht selten DLSS Balanced mit FSR Quality vergleichen was die Bildqualität angeht. Und je aggressiver das Upscaling, desto niedriger der VRAM-Bedarf.

Das soll aber nicht heißen, dass die 4070 mit 16 GB keine bessere Grafikkarte wäre oder es nicht Fälle geben wird, wo die 7800 XT aufgrund ihres Speicherausbaus besser abschneiden wird – wie gesagt, das lässt sich nicht pauschal sagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute, chaopanda und HierGibtsNichts
@Vitche Schöne sachliche Aussage/Argumentation. :)

Bei den Software Features hast du im direkten nebeneinander Vergleich recht. Das ist so.

Ich bin, auch wenn mir persönlich Software Features egal sind, auf den Vergleich zwischen FSR3 und DLSS3 gespannt und zusätzlich ihrer Frame Interpolation. Rein vom technischen Aspekt.

Mal sehen was uns hierzu noch eventuell zur Gamescom erwartet. :)

Zur besseren Speicherverwaltung, hat die PCGH hier nicht mal ein Video gemacht, das der Unterschied/Vorteil bei 0,5-1,5 GB liegt, den man gewinnt? Wenn der vorhandene Speicher voll ist, rettet halt auch die bessere Speicherverwaltung nicht mehr.
Technisch ist Nvidias Speicherverwaltung natürlich erstmal ein Vorteil, definitiv.

Ich denke das werden Tests (sicherlich auch von CB) von Games in Zukunft nach Release der 7800xt im Vergleich zeigen.
Vorab sagen kann das tatsächlich pauschal noch niemand, da hast du Recht.
Das werden dann aber in Zukunft sicherlich auch ein paar der interessantesten Vergleiche. :)
 
Zuletzt bearbeitet von einem Moderator:
Zuletzt bearbeitet:
pacifico schrieb:
Sind ATi Fans alle so wie du?
Was ATi die gibt es noch naja habe eine Intel GPU. 😉
Taurus104 schrieb:
Speicherverwaltung nicht mehr.
Technisch ist Nvidias Speicherverwaltung natürlich erstmal ein Vorteil, definitiv.
Naja nicht wirklich also ungefähr 8GB Intel sind 7GB nutzbar 8GB AMD sind 8,5GB nutzbar und Nvidia 8GB sind 9GB nutzbar so ungefähr.

Hauptproblem ist PCIE4 8x und 128Bit bei der RTX4060/ti dass bricht ihr dass Genick in Zukunft. Die 16GB schafft fast die doppelte Min FPS nur sind alle Modelle zu Teuer.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts
Mcr-King schrieb:
Hauptproblem ist PCIE4 8x und 128Bit bei der RTX4060/ti dass bricht ihr dass Genick in Zukunft. Die 16GB schafft fast die doppelte Min FPS nur sind alle Modelle zu Teuer.
Das ist nochmal ein anderes Thema. Es ging ja primär um die 4070 mit ihren 12 GB 192bit vs 16 GB 6800XT/7800XT mit 256 bit.
 
  • Gefällt mir
Reaktionen: Mcr-King
Vitche schrieb:
Das soll aber nicht heißen, dass die 4070 mit 16 GB keine bessere Grafikkarte wäre oder es nicht Fälle geben wird, wo die 7800 XT aufgrund ihres Speicherausbaus besser abschneiden wird – wie gesagt, das lässt sich nicht pauschal sagen.
Das macht das immer so schwierig für micht eine Entscheidung zu treffen, da ich mir im Voraus nie sicher bin, wie lange ich eine GPU nutzen werde.
Bei Nvidia hat man das Problem, das eventuell nach ein paar Jahren der VRAM Probleme machen kann, oder einfach die tollen neuen Softwarefeatures nicht auf alter HW unterstützt werden.
Bei AMD muss man akzeptieren, das man schlechtere RT Performance erhält und die ganzen Softwarefeatures wegfallen. Dafür hat man theoretisch länger weniger Probleme mit VRAM.
Und was den Mehrvebrauch an Strom bei AMD angeht, so wird dies erst nach 3-4 Jahren relevant, wo sich die Mehrkosten für eine Nvidia GPU rechnen könnten, selbst mit den Deutschen Strompreisen.
Setze aktuell noch auf eine RX6700XT in WQHD. Mal schauen, wann ich hier wieder wechsel, vermutlich nicht vor 2025.
 
  • Gefällt mir
Reaktionen: Mcr-King und HierGibtsNichts
Pesky_ schrieb:
Mal schauen, wann ich hier wieder wechsel, vermutlich nicht vor 2025.
Dann musst du die wahrscheinlich schon zwischen RDNA4 und ADA NEXT aka RTX 5000 entscheiden.
Pesky_ schrieb:
und die ganzen Softwarefeatures wegfallen
Die Nvidia Features fallen weg. Auf AMDs Alternativen hat man ja trotzdem Zugriff.
 
LauneBaer86 schrieb:
Und wieder eine Generation die meine GTX1080 überdauern wird, da es für mein Limit (500€) einfach nichts vernünftiges gibt was wieder jahrelang reicht.
Auf zur nächsten Generation!
Dito!
Wobei mein Limit bei 1000€ liegt für 4090 Leistung und Effizienz. Leider passen weder Preis noch Höhe von 2,5 Slot...
 
  • Gefällt mir
Reaktionen: Mcr-King und HaRdWar§FreSseR
Mehr Verbrauch ist ja nicht Mal nur ein Thema bei der Stromrechnung. Da gibt es ja auch noch das Thema, das mehr Verbrauch in aller Regel in mehr Abwärme und Lärm resultiert bzw aufwendigere Kühllösungen braucht.

Quality of Life merkt man nicht immer nur ausschließlich am Kontostand wartend der Nutzungsphase.

Wenn ich also die Wahl habe 300W vs 250W bei identischer Leistung, dann ist die Wahl unter Umständen Recht eindeutig, auch wenn da 4GB VRAM fehlen...
 
  • Gefällt mir
Reaktionen: SirNiffler
pacifico schrieb:
Sind ATi Fans alle so wie du?
Wie bin ich den? Starte doch mal eine Fragerunde.
Ergänzung ()

chaopanda schrieb:
Mehr Verbrauch ist ja nicht Mal nur ein Thema bei der Stromrechnung. Da gibt es ja auch noch das Thema, das mehr Verbrauch in aller Regel in mehr Abwärme und Lärm resultiert bzw aufwendigere Kühllösungen braucht.
Das sehe ich genauso
Ergänzung ()

Cempeg schrieb:
Wobei mein Limit bei 1000€ liegt für 4090 Leistung und Effizienz. Leider passen weder Preis noch Höhe von 2,5 Slot...
Geht mir auch so mehr wie 1000 Euro gebe ich auch nicht aus für eine GPU.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SirNiffler, Mcr-King und Cempeg
Apropos FSR3:

1000004508.jpg

So was von Igor himself macht mir nicht besonders viel Hoffnung. Wird es FSR3 überhaupt noch geben?
 
Philste schrieb:
So was von Igor himself macht mir nicht besonders viel Hoffnung. Wird es FSR3 überhaupt noch geben?
Auch Igor weiß nicht alles. Lag auch schon falsch und hat eine komische Art von Humor desöfteren.
 
  • Gefällt mir
Reaktionen: Vitche
Vitche schrieb:
Allgemeingültig lässt sich das nicht vorhersagen, aber die 4070 hat mit ihrer effizienteren Speicherverwaltung und dem (insbesondere bei der Bildstabilität) überlegenem Upscaling (also DLSS 2) durchaus zwei Software-Features, die ihr dabei helfen, mit 12 GB zurechtzukommen.
Du meinst das Speicherfeature das einfach Inhalte weglässt? Da muss ich auch sagen, dass noch Hochzujubeln und die Leute eben nicht aufzuklären, dass Inhalte weggelassen werden schon ziemlich daneben ist. Grade von einem Redakteursmitglied.
So verbreitet sich die Mär einer überlegenen Speicherverwaltung. Wenn ich Inhalte weglasse ist es doch klar dass ich weniger Speicher benötige.
Auf der einen Seite DLSS als das qualitativ schönere Feature ausloben und gleichzeitig verschweigen, dass wenn der Speicher knapp wird von Seiten Nvidias an Inhalt gespart hat ist schon stark.

"Man sieht auch, dass das von NVIDIA beschworene Speichermanagement immer genau dann versagt, wenn sich Speicherbedarf und Speicherausbau ziemlich genau decken. Dann ist komplett Schicht im Schacht. Erst bei 8 GB läuft des Spiel wieder und selbst mit mickrigen 6 GB ist alles noch smoother und spielbarer als mit 10 GB. Allerdings sieht man dann auch Fehler im Stream, Texturen bleiben matschiger und ab und zu fehlt auch etwas komplett oder ploppt irgendwann mal auf. Flimmern inklusive. Bei der AMD-Karte ist der Einbruch zwar geringer, aber der FPS-Verlauf erholt sich später nicht mehr wirklich. Jetzt kann man natürlich spekulieren, was angenehmer ist, aber mit der NVIDIA-Karte konnte man wenigstens noch spielen. In etwas hässlicher, aber es ging zumindest."

"Die NVIDIA-Karten laufen bei identischem Speichermangel zumindest smoother als die AMD-Karten, wobei eben ein paar Inhalte verloren gehen."

https://www.igorslab.de/testreihe-m...r-speicher-der-grafikkarte-nicht-mehr-reicht/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arkada
Dai6oro schrieb:
Due meinst das Speicherfeature das einfach Inhalte weglässt.
Das ist nochmal was anderes... Es geht darum, dass Nvidia Karten bis zum Volllaufen des VRAMS noch gleichbleibende Performance liefern. Igor hatte das vor ~2 Monaten mit TLOU Part1 getestet. Er hat eine Szene genommen, die ziemlich genau 10GB VRAM braucht. Dann mit 2 Karten mit 24GB+ VRAM getestet und nach und nach immer mehr Speicher reserviert, damit dem Spiel immer weniger übrig bleibt.

Ergebnis: Die Radeon fängt bei 12GB an einzubrechen (obwohl das Spiel nur 10GB braucht). Die Geforce bricht erst bei exakt diesen 10GB ein. Bei 8GB wird die Performance der Geforce sogar wieder besser, da hier das von dir kritisierte Texturen reduzieren beginnt. Ändert aber nichts an der Tatsache, dass 10GB bei einer Geforce so gut wie 12GB bei einer Radeon sind. Das Speichermanagement und das Texturen reduzieren sind also erstmal 2 unterschiedliche Dinge.

https://www.igorslab.de/testreihe-m...r-speicher-der-grafikkarte-nicht-mehr-reicht/
 
  • Gefällt mir
Reaktionen: Vitche
Das sind 2 unterschiedlicher Herangehensweisen. AMD reduziert eben keine Details. Das macht weder das eine noch das andere zu überlegeneren Speicherverwaltung. Zumal man bei Nvidia eben nicht die Wahl hat da wird die Bildqualität einfach reduziert ohne das man was machen kann (außer von vornherein die Bildquali zu reduzieren).
Und AMD ist hier im Vorteil weil sie in der gleichen Preisklasse eben mehr Speicher bieten.
 
Zurück
Oben