News GPU-Gerüchte: Radeon RX 8800 XT soll der RTX 4080 die Stirn bieten

edenjung schrieb:
Es bewahrheitet sich immer mehr, dass ich mit dem Upgrade von meiner 6800 zur einer gebrauchten Sapphire 6900XT toxic alles richtig gemacht habe letztes Jahr.
[...]
Ich kann die Entspanntheit mit der gleichen Karte sehr gut nachvollziehen, zumal die "Softskills" der Karte (kein Spulenfiepen, gut eingrenzbarer Stromverbrauch) passen.
edenjung schrieb:
Und bevor wer meckert, ich finde AMDs Strategie gut. Die Mittelklasse braucht mehr Konkurrenz und sollte der Fokus sein. Hier werden die Massen verkauft. High-End spielt meist nur aus Marketingsicht und technologischer Sicht eine Rolle. Aber da holt man nicht Marktanteile und Wachstum. Das geht nur im Massenmarkt.
Ich hoffe es klappt bei AMD. Und das sie auch die Kapazitäten haben um entsprechend viele Karten in den Markt zu bringen.
Naja, im Hochpreissegment ist die Marge deutlich höher, aber klar fungieren diese Modelle (auch) als realisierte Machbarkeitsstudien - das ist evtl. dann wieder ein Problem für AMD, die mit der Ausrichtung auf das mittlere Segment für viele und etliche zeigen, "dass sie es nicht können" - einzelne Aussagen alleine in diesem Thread sind beredtes Beispiel.

Ich wiederhole mich: Gäbe es keinen Bedarf an Grafikkarten, die den Kaufwillen von Interessenten jenseits der Early Adopter abriefen, wäre dieser Thread nach der 1. Seite tot...

Wie immer: My2Centz
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: SweetOhm
Colindo schrieb:
Dann würde ich doch sagen, sind sowohl AMD als auch Nvidia auf Level 4. Beide haben zuletzt Coherency Sorting eingeführt, oder macht AMD das nicht in Hardware?
Ich bin mir bei der Sortierung die AMD, Intel und Nvidia implementiert hat, nicht ganz sicher, ob sie da schon Tier 4 erreichen würden oder nicht. Alle drei können entsprechend sortieren, nur scheint es ja nicht immer perfekt zu funktionieren, weswegen es ja von Nvidia noch den Softwarepart bei SER gibt, der im Shader implementiert werden muss.
Colindo schrieb:
Bei AMD entscheidet der Shader zwischen den einzelnen Berechnungsschritten, die in Hardware erfolgen, immer wieder, wie es weiter geht.
Sind auch meine letzten Informationen dazu. Es gibt da aber wohl noch einige Sachen, wie z.B. auch der BVH-Erstellt wird, wie er aufgebaut ist.

Die TMU beschleunigt den BVH-Zugriff, was auch als Tier 3 gewertet werden kann. Ist am Ende halt alles auch eine Auslegungssache. Das was ich grob noch im Kopf habe ist, dass der BVH bei AMD deutlich mehr Ebenen hat, während Nvidia eher weniger Ebenen hat, dafür aber viele Polygone pro Ebene.

Im Endeffekt ist das ein Thema, das sehr komplex ist. Da müsste man auch mal mit Entwicklern reden um das am Ende wirklich alles zu verstehen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Quidproquo77
Aisn schrieb:
Bei 300W bewegt sich niemand auf einer "kleinen Enthusiasten-Nische", zumal die 8800xt eher bei 250W liegen soll, bereits meine 6900XT ist in diesem Bereich, die 6700XT im PC meines Sohnes bei 230W max, wenn ich / er sie lassen.

Ob du es willst oder nicht, der "Mainstream" bei halbwegs schnellen Grafikkarten ist mittlerweile der zwischen 500-800€, das kann frau / man / HundKatzeMaus kritisieren, aber es ist dadurch nicht "albern".
Natürlich kann man in seiner Bubble so tun, als sei das so.

Hier sind die Systemanforderungen für den F2P-Titel Star Wars: Hunters, der tatsächlich an den Mainstream gerichtet ist, der Mainstream befindet sich in der Mitte:

1733216977204.jpeg
 
@DevPandi Ja, da verlässt es dann auch langsam mein Fachwissen. Die Boxen von der BVH und wie die aufgeteilt werden ist, dachte ich bisher, Aufgabe der Entwickler. Wenn die GPU selbst sich eine BVH-Struktur ausdenkt, je nach Raum, wird es echt kompliziert. Generell ist die Erstellung der BVH aber eine Compute-lastige Aufgabe, die gut auf den Shadern ausgeführt werden kann.
 
  • Gefällt mir
Reaktionen: Rockstar85, SweetOhm, edenjung und eine weitere Person
Weiß jetzt nicht, ob ich "wir liegen mit unserer next gen Karte von der Performance her auf dem Niveau der drittstärksten Karte unseres Konkurrent der current gen" unbedingt hausieren gehen würde. Wäre schön, wenn die Radeons mal gleichauf wären - eine 5090 kann meinetwegen ein Ausreißer bleiben, aber mit einer 5080 konkurrieren können wäre ja schon ganz nett.
 
Die Leaks zur Performance der neuen 8800XT finde ich sehr optimistisch.
Ich vermute eher mal Rasterleistung wie 7900XT, RT-Leistung vielleicht wie auf Niveau von 7900XTX.

Die 8800XT ist eine 16GB-Karte und wird damit gegen die 12GB-Karten von Nvidia antreten.
Preismäßig hat AMD eine 500 USD Karte angekündigt. Das wären bei uns 600 Euro und damit auch das Maximale, was AMD verlangen kann.

Vermutlich kostet die Karte im Frühsommer schon 549 Euro mit samt Spielebundle, weil bis dahin das komplette Portfolio von Nvidia auf dem Markt ist.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Ja und Nein. DLSS, FSR und XeSS ist in der Regel eher ein Diskussionsthema in Foren wie eben hier, wo auch ein entsprechendes Interesse vorhanden ist. In der breiten Masse ist DLSS/FSR/XeSS und was qualitativ besser ist, nur ein Randthema.
Also ich weiß nicht. Für mich reicht es schon von dieser Thematik mal gehört zu haben und wenn in jedem Test steht "ist besser" greift man auch letztendlich zum besseren, wenn sich der Preis nicht großartig unterscheidet. Schau dir den Hype um den 9800X3D an. Eine CPU die 10% besser ist als der Vorgänger, mehr Strom verbraucht, ineffizienter ist und einen vergleichsweise hohen Preis gegenüber anderen CPUs hat, die "fast genausogut" Gaming können, dann sind solche Foren wie diese einfach kein Gradmesser.
DevPandi schrieb:
Einer der Gründe, warum ich bei dem Thema immer dazu schreiben, dass die Qualität am Ende beim Spielen oft nur noch "Nebensache" ist und quasi nur im direkten Vergleich auffällt. (Bitte jetzt keine Diskussion dazu starten.)
Warum soll das Nebensache sein und warum keine Diskussion starten? Bei Grafikkarten gehts doch von vorne bis hinten nur um die Qualität, also um das was man letztendlich auf dem Schirm sehen kann.
Wenn es darum nicht ginge, dann reicht auch eine ARC A750 8GB, weil niedrige Details sehr oft gar nicht so viel schlechter aussehen als hohe und so ist halt mit DLSS. DLSS zaubert mir ein flimmerfreies Bild in Star Wars Outlaws in 360p auf den 4K Monitor, FSR schafft es nicht einmal in 1080p und auch XeSS scheitert massiv.

Also wozu sollte ich überhaupt in Erwägung ziehen, momentan eine AMD Karte zu kaufen, wenn der Optikunterschied so gravierend ist? Wolfgang schreibt es doch auch in den Tests. Wenn AMD nicht bald FSR verbessert, dann werden sie abgehängt.
DevPandi schrieb:
RT wiederum ist durchaus ein Argument, aber auch das Thema kommt in der breiten Masse im weiten nicht so an, wie wir uns das hier denken.
Das ist aber auch nur deine Meinung. Features von Intel oder Nvidia kommen in Foren immer schlecht an und werden kritisiert. Hintenrum wird natürlich trotzdem gekauft, aber hauptsache man sagt etwas dagegen.
Die Kritik an RT halte ich für vollkommen unsinnig. RT hat uns die letzten Jahre massive Verbesserungen in der Beleuchtung beschert und wenn nicht mit HW-RT, dafür bei Optiksprüngen bei Software-RT wie Lumen und Co.
Und wenn ich als AMD User momentan noch nicht die Leistung und Qualität habe, um es anzuschalten (DLSS, Denoiser), dann kann ich es mit der nächsten Gen aber tun.

DevPandi schrieb:
Viele Spieler sind im Allgemeinen selbst bei einer RTX 40er-Karte immer noch vom Impact der RT-Features auf die Preformance abgeschreckt.
Der Impact ist mittlerweile oft relativ gering und liegt bei 20-30% (außerdem braucht man nicht zwingend ultra RT), kann ich in den Tests nicht erkennen und er wir mit der nächsten Generation auch auf AMD Karten geringer sein. Du wirst sehen, dass sich dieses "abgeschreckt" sein dann auflösen wird. Denn diese Haltung kommt fast ausschließlich von AMD Usern.
Schau dir mal an, wie DLSS 2.0 überall kritisiert wurde, das hieß es jahrelang das Bild wird verfälscht, irgendetwas wird geraten und lieber NATIV sonst nichts. Das heißt es ja häufig heute noch.
DevPandi schrieb:
Allgemein wird RT auch nicht so "positiv" wahrgenommen teilweise, wie unter "Nerds".
RT ist der Goldstandard, wenn da etwas nicht positiv aufgenommen wird, dann liegt es entweder an mangelndem Verständnis oder an Grabenkämpfen. In 1-2 Jahren wird diese Debatte niemand mehr führen.
DevPandi schrieb:
AMDs "Strategie" also sich auf den Markt um die 500 $ zu konzentrieren, wird auch von Zahlen gedeckt. Wenn AMD hier angreift und es schafft vor Nvidia zu liegen bei den Verkäufen, ist das für sie viel mehr wert, als im Bereich bis 1000 $ anzugreifen.
Diese "Strategie" hat bei AMD ohne die nötige Software noch nie funktioniert (5700XT).
Funktioniert hat das bei der RX 480/RX580, da bot man ein höheres Directx12 Featurelevel und hatte hinsichtlich der Software keine relevanten Nachteile eher leichte Vorteile, auch G-sync war schon am absteigenden Ast und siehe da, die Karte ist auf Steam am weitesten verbreitet. Man kann durchaus mit einer Mittelklassekarte höhere Absätze erzielen, aber mit den Absätzen vor Nvidia zu liegen ist völlig unrealistisch, dafür ist das Standing bei Nvidia viel zu gut.
 
  • Gefällt mir
Reaktionen: Sensei21 und ElliotAlderson
ElliotAlderson schrieb:
Das istn mobile Game, was auf den PC portiert wird. Dein ernst?
Ja, der Mainstream spielt nämlich mobil. Dort fährt die Branche die mit Abstand größten Umsätze. Wenn ein Massenanbieter mit F2P auf den PC möchte, dann berücksichtigt er nicht die Steam Hardware Survey, sondern die tatsächlich installierte Basis, den "Normalo"-Spieler eben. Und der braucht keine 300 W und kein Raytracing.

Wer dann unbedingt in die Nischen-Bubble möchte, warum soll der irgendein halbgares Moped für ein paar Hunderter weniger nehmen, nur weil es von AMD ist? Macht keiner, deshalb hat nVidia 90 % Marktanteil.
 
  • Gefällt mir
Reaktionen: SweetOhm
Also ich glaube es kaum, dass es eine 8800XT geben wird, die quasi die 7800XT abslöst, aber beim Raytracing 75% zur 4800 aufholt, dann auch noch zum Preis vergleichbar zur jetzigen 7800XT bepreist wird, und als I-Tüpfelchen auch noch weniger Strom braucht und bei 220W landet.
Das wären ja genau alel Eckpunkte, die ich mir für eine neue Karte gewünscht hätte.
Wenn das so kommt, hole ich die mir nächsten Black Friday für 500 Euro, und dann gibts auch endlich Cyberpunk. :-)
 
  • Gefällt mir
Reaktionen: SweetOhm
Alle wollen immer Raytracing und kaufen sich Nvidia um am ende Raytracing auszuschalten. Jetzt kann man das sogar bei AMD. :schluck:
 
  • Gefällt mir
Reaktionen: SweetOhm, eXe777, edenjung und 3 andere
Cool Master schrieb:
Zukunftssicher gibt es in der IT nicht. Zumal 12 GB könnte mal wieder ein Ansporn für Entwickler sein die Spiele und Software zu optimieren statt die HW regeln zu lassen.
Der VRAM-Bedarf wird in der Regel alleine durch die komplexität der Meshes sowie der Auflösung der Texturen bestimmt. An dieser Stelle kann man heute nicht mehr sehr viel "optimieren".

Und die Alternativen die es gibt - DirectStorage mit DX12-Sampler-Feedback - können zwar den VRAM-Bedarf senken, könnten am Ende aber sich negativ auf die Energiebilanz auswirken, weil die Daten konstant von der SSD in den VRAM kopiert werden. Man benötigt dann zwar ein paar GB weniger VRAM, gleichzeitig hat man dann eine SSD und ein Mainboard, die mehr Energie benötigen.

Je weiter der Weg für die Bytes, um so mehr Energie wird benötigt.
Quidproquo77 schrieb:
Der Kunde kauft hauptsächlich grün, weil Nvidia seit Jahren abliefert, die mit Abstand schnellsten GPUs hat und hinsichtlich der Features ständig etwa neues bringt, bzw. DLSS einfach meilenweit überlegen ist.
Ja und Nein, das ist an der Stelle deutlich komplizierter und hat verschiedene Ebenen und am Ende kommt es auch immer darauf an, in welcher Umgebung du dich da bewegts, was wie ausschlag gebend ist.

Sehe ich mir die "Enthusiasten" an, also die Personen die hier auf Computerbase, PCGamesHardware, Hardwareluxx und Co lesen, dann kommt auf der einen Seite der relativ gute Markenname, sowie noch manche alte Vorurteile sowie eben auch das Featureset durchaus zum tragen und beeinflusst da auch die Kaufentscheidung.

Ich bin allerdings nicht nur in diesem Bereich hier unterwegs, was Videospiele angeht, sondern hab da ein relativ weiten Kreis, in dem ich da zutun habe und bekomme da auch teils ganz andere Bilder mit. Da interessiert sich der Käufer nicht wirklich für DLSS, FSR, XeSS und deren qualitativen Unterschiede, da interessiert nicht mal wirklich RT, das sind alles Begriffe, die für viele dort "böhmische Dörfer" sind. Da spielt dann noch am ehesten der Markenname eine Rolle und da ist Nvidia durchaus ein Begriff, der für Qualität steht, Intel ebenso.

Aber selbst das hat in den letzten Jahren da abgenommen. Oft geht es in dem Bereich eher, was an Geld vorhanden ist und was die Leute bereit sind zu investieren. Wenn du dann Spieler hast, die 1000 Euro ausgeben können, dann legst du das System entsprechend aus.

Viele greifen allerdings zu "Stangenware" der OEM-Hersteller und OEM war und ist - abseits von Notebook - immer eine Schwachstelle von AMD gewesen. Versuch mal bei Dell, HP und Co eine AMD Grafikkarte in den REchnern und Notebooks zu finden.
 
  • Gefällt mir
Reaktionen: SweetOhm
XCPTNL schrieb:
Wäre schön, wenn die Radeons mal gleichauf wären - eine 5090 kann meinetwegen ein Ausreißer bleiben, aber mit einer 5080 konkurrieren können wäre ja schon ganz nett.
AMD hat sich zumindest bei der kommenden Gen aus dem High End-Bereich verabschiedet.
 
  • Gefällt mir
Reaktionen: SweetOhm
wechseler schrieb:
Natürlich kann man in seiner Bubble so tun, als sei das so.
@wechseler:
"Star Wars: Hunters..., äh, ja..., "bald im Early Access"..., wobei explizit die Ramgröße angegeben ist, und allein das "4GB or more" mir ein Fingerzeig zu sein scheint...).
Anno 1800 z.B. empfielt eine 970GTX, spielen darauf wollte ich beileibe nicht, und das hat nichts mit "Bubble" zu tun, sondern mit der Gefahr von Augenkrebs.

Aber da wir schon dabei sind, wer braucht mehr als...:
1733218104957.png

Ist ein Videospiel, dazu sein sehr sehr gutes und die Anforderungen sind so, dass ich nicht mehr in meine Bubble muss. Danke für den Tipp... :freak:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: catch 22, SweetOhm, edenjung und eine weitere Person
Quidproquo77 schrieb:
Der Impact ist mittlerweile oft relativ gering und liegt bei 20-30%, kann ich in den Tests nicht erkennen und er wir mit der nächsten Generation auch auf AMD Karten geringer sein. Du wirst sehen, dass sich dieses "abgeschreckt" sein dann auflösen wird. Denn diese Haltung kommt fast ausschließlich von AMD Usern.
Ist ja auch logisch, ersten natürlich weil Red vs Green, aber eben auch weil, wenn man abgeschreckt ist und die 4060 für RT für zu langsam hält, man natürlich dann zur AMD Alternative greift, weil die ist auf dem Papier so viel schneller, günstiger, was auch immer.

DLSS vs FSR in den Benchmarks sieht man ja nicht wirklich einen Unterschied. Da wird ja immer noch FSR2 Quality vs DLS 3 Quality verglichen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Tevur schrieb:
Jo, für 500€ wäre die sofort gekauft.
Aber für 500 € bekommst doch voraussichtlich eine RTX 5050 (8 GB) !
Jene beherrscht das viel bessere DLSS und kann besser in RT :cool_alt:
 
MS-DOS Gamer schrieb:
Ich z.B. und andere die noch mit einer 6700xt o.ä. rumgurken. Leistung 7900xt mit mehr raytracing, weniger Verbrauch und Preis bei knapp unter 600euro....bin ich sofort dabei.
Bingo Bongo!
Mindestens alle AMD User, die sich aus Leistungs- und Kostengründen für eine ordentliche Rasterkarte entschieden haben udn nun auf eien KArte aufrüsten wollen, die Cyberpunk auch mit Raytracing gut schafft, ohne dabei 300Watt zu verbraten.
600 Euro und ein nettes Spiel als Lockangebot zum Schönreden und ich bin schnelelr dabei als mir eigentlich lieb ist.
Vor allem, wenn mit der neuen Gen KI-Upskaling kommt, wird sich das für Besitzer älterer Karte sicherlich lohnen.
Lediglich die Besitzer einer 7900 (XTX) dürften hin und her gerissen sein, ob sie einen Querumstieg auf nur bessere Technik und weniger Verbrauch machen wollen.
Lohnt sich für den Normalo natürlich nicht, aber es gibt solche Leute, die alles an Technik und Gimmicks mitnehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
@DevPandi das Argument "Der Kunde kauf immer Grün, egal was ist", ist absoluter Schwachsinn, solange es nüchtern betrachtet rationale Gründe für Nvidia gibt und die gibt es.
Da gibt es nichts zu diskutieren.

DevPandi schrieb:
Sehe ich mir die "Enthusiasten" an, also die Personen die hier auf Computerbase, PCGamesHardware, Hardwareluxx und Co lesen, dann kommt auf der einen Seite der relativ gute Markenname, sowie noch manche alte Vorurteile sowie eben auch das Featureset durchaus zum tragen und beeinflusst da auch die Kaufentscheidung.

Ich bin allerdings nicht nur in diesem Bereich hier unterwegs, was Videospiele angeht, sondern hab da ein relativ weiten Kreis, in dem ich da zutun habe und bekomme da auch teils ganz andere Bilder mit. Da interessiert sich der Käufer nicht wirklich für DLSS, FSR, XeSS und deren qualitativen Unterschiede, da interessiert nicht mal wirklich RT, das sind alles Begriffe, die für viele dort "böhmische Dörfer" sind. Da spielt dann noch am ehesten der Markenname eine Rolle und da ist Nvidia durchaus ein Begriff, der für Qualität steht, Intel ebenso.
Anekdotische Evidenz also. Wo bleiben die Zahlen, die deine Aussage stützen? Steam gibt das nicht her.

Die 4080 Super bietet das bessere Paket als die 7900 XTX. Bei der 4070 Ti Super vs 7900 XT wirds schon schwierig. Die sind nahezu gleichauf. Die 4070 Super zerstört die GRE und kostet das gleiche. Die 7800 XT ist zwar etwas über 100€ günstiger, aber dafür ist die 4070 Super auch 50% schneller in RT und 7% schneller in Raster.
Die 4060 TI ist overall etwas langsamer als die 7700 XT, aber auch etwas günstiger. Hier würde ich vermutlich trotzdem zur AMD Karte raten.
Das sind Fakten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro und Nighteye
wird es ggf auch eine 8900xtx geben? Also eine Karte die es ggf mit der neuen 5000er Reihe aufnehmen kann? Suche für Ende nächsten Jahres einen Ersatz für meine 3090 und die neue Karte sollte einen 32:9 Bildschirm im MSFS und Star Citizen befeuern können.
 
Strambo schrieb:
Alle wollen immer Raytracing und kaufen sich Nvidia um am ende Raytracing auszuschalten. Jetzt kann man das sogar bei AMD. :schluck:
Glaube nicht, dass man das so verallgemeinern kann.

Sogar auf meiner 6900XT schalte ich überall da Raytracing Effekte an wo meine Karte mitsamt Upscaling und FG es noch packt. Mir gefallen die Effekte meist sehr.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und ElliotAlderson
Zurück
Oben