News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

@DerToerke , mit unter ist RDNA2 besser im Teillastbereich da RDNA3 grob nur low/mid/high. kann.

Siehe den Artikel von DevPandi und einige Vergleiche von 7900XT mit RTX 4080.
Viele machen den Fehler und nehmen halt den Max. Verbrauch einer GPU, ohne die eigene Bedürfnisse mit ein zu beziehen.

Wenn das Problem mit den 7800/7700 nicht gelöst wurde, bleibt nur der Griff zu 6800/6900.
 
  • Gefällt mir
Reaktionen: DerToerke
Radulf schrieb:
Wie wundervoll, das ich hier fast nur wenn und hätte und aber lese, nur keine wirlich untermauerten Kommentare...
So betrachtet dürfte der Artikel erst gar nicht veröffentlicht werden.
Denn der ist auch nichts anderes als reine Spekulation.
 
Kommt aber schon auf die eigene Spieleauswahl an. Ich habe bspw. viele aktuelle Titel, die DLSS unterstützen. Deshalb lohnt sich NVidea schon. Mode hab ich dagegen kaum. Schon gar keine Texturmods. Deswegen brauche ich nicht unbedingt das maximum an VRam. Aber bei anderen sieht es evtl. ganz anders aus und da sind dann die AMD Karten klar die bessere Wahl.
 
Man könnte meinen AMD pusht die nVidia Aktie. :D
Mal im Ernst. Wenn ich schon höre, dass die Leistung der RX 7800 knapp über der RX 6800 XT liegt...
Dann gibt es bei der Effizienz auch nichts nennenswertes.
nVidia hat wenigstens noch dieses Argument.
AMD ist wirklich hilflos bei den GPUs 😒
 
Rockstar85 schrieb:
AMD hat mit RDNA3 kampflos Nvidia den dGPU markt überlassen
Kampflos würde ich jetzt nicht so unterschreiben.

Das AMD in Sachen Marktanteile zu Nvidia aber wieder aufschließen kann, auf 50/50 halte ich selbst für unwahrscheinlich, auch wenn RDNA 4 und 5 super Architekturen werden, mit denen man Leistungsmäßig in allen Bereichen aufholen kann + Feature-seitig+Effizienz.

Ich denke es könnte 70/30 möglich sein.

Aber selbst dann ist Nvidias Marktmacht und auch Einfluss durch Marketing etc. zu groß.

Und auch bei AMD ist der Consumer Desktop GPU Markt nicht mehr das Hauptaugenmerk/Geschäftsfeld. Ähnlich wie bei Nvidia.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85
Grundgütiger schrieb:
@DerToerke , mit unter ist RDNA2 besser im Teillastbereich da RDNA3 grob nur low/mid/high. kann.

Siehe den Artikel von DevPandi und einige Vergleiche von 7900XT mit RTX 4080.
Viele machen den Fehler und nehmen halt den Max. Verbrauch einer GPU, ohne die eigene Bedürfnisse mit ein zu beziehen.

Wenn das Problem mit den 7800/7700 nicht gelöst wurde, bleibt nur der Griff zu 6800/6900.

Jup. Deshalb will ich ja auch auf finale Benchmarks und vor allem die Preise warten. Wenn das nicht passt, kann man immer noch zu ner 6xxx greifen.
 
Mir riss der Geduldsfaden und so hatte ich mir Anfang Juni eine 6800xt für 530€ geholt. Mir war zu unsicher, ob/wann AMD die RDNA3 bugs wie Stromverbrauch bei Multimonitoren oder VR fixt, und wieviel Mehrleistung / Preisleistung die neuen Karten bieten.
 
  • Gefällt mir
Reaktionen: DerToerke
Özil schrieb:
werd mir dann echt wohl ne 4070 zulegen

glaube kaum das bis auf die 4 gb vram die 7800 besser ist (vor allem DLSS 2 und 3 sind einfach meilenweit besser, Stromverbrach bestimmt auch)

AMD hat die GEN total verpennt, mit FSR3 haben sie sicher ne Woche nach DLSS3 angefangen zu arbeiten
Jeder wie er meint und möchte.

Die 7800 wird in Rasterleistung besser sein als die 4070, in/mit RT ist wird die 4070 vorne liegen.
Es kommt halt darauf an ob Upscaling oder Framegeneration für einen ein Kaufargument sind. Die nur 12 GB werden bei der 4070 früher zum Problem werden in WQHD als bei der 7800. Sieht man heutzutage bereits in 1080p bei einer 3070/Ti verglichen mit einer 6800 non XT 16GB. Und die 3070 kam Ende 2020, also kommt sie mit ihren 8 GB nach ca. 2 Jahren in Probleme selbst auf FullHD.
Die 4070 hat eine TGP von 200W MSRP Modelle und 225W OC Modelle ab Werk. Die 7800 soll 265W TBP haben.

Ganz so unsachlich würde ich nicht argumentieren.
lt. offiziellen Aussagen aus Interviews läuft die Entwicklung von FSR 3.0 seit Anfang 2022. Mehr weiß man nicht.
Ergänzung ()

.Snoopy. schrieb:
Du hast hier natürlich Best Case für dich zum Argumentieren herausgepickt
Ich habe mir die Karten herausgepickt um die es ging. :) Die 7800 wäre der Nachfolger der 6800 und das Konkurrenzmodell dazu war die 3070. Daher die Auswahl.
Ergänzung ()

.Snoopy. schrieb:
Keine Ahnung, wie du auf 2 Jahre und 7 Monate kommst.
Falsches Release Date im Kopf gehabt obwohl das richtige geschrieben. ABER. Wir liegen im 2 Jahres Release
Fenster. Was dann trotzdem die Argumentation widerlegt das die 7800 extrem viel später kommen würde im Vergleich zu den Nvidiamodellen.
Ergänzung ()

.Snoopy. schrieb:
Ich mag die 4060 auch nicht, aber ich mache nicht die Augen zu bei den Fakten
Mache ich auch nicht, die 6700XT ist aber nun mal die bessere Karte. Die günstigste 4060 bekommst für 311 Euro, die 6700XT für 339. Die 6700XT ist schneller in Raster, selbst in RT, hat mehr Vram, breiteres Speicherinterface, x16 statt x8 Lanes Anbindung sowie mehr Cache. Einzig ist die 4060 Effizienter.
Die 6700XT taugt für WQHD, die 4060 ganz offiziell für 1080p. Und das sehe nicht nur ich so, sondern der Großteil aller Tests im Netz. Wer von Uns verschließt also die Augen vor Fakten?
Ergänzung ()

.Snoopy. schrieb:
Ich sehe hier AMD im Zugzwang und nicht Nvidia. Nvidia kann sich es leider erlauben eine faktische 4050(ti) als 4060 auf dem Markt zu werfen, weil AMD aktuell schwach ist. Nvidia kann "Speicherkrüppel" auf dem Markt werfen, weil AMD aktuell keine neuen Karten hat zum entgegenzusetzen. Man hat also die Wahl, neue effiziente Karte von Nvidia mit VRAM Mangel, oder eine alte Karte von AMD.
Schuld sind die Kunden welche trotz all der von dir und mir genannten Kritikpunkte die Karten unterhalb der 4080 kaufen. Nvidias Strategie und Marketing funktioniert ja, deshalb ändern Sie nichts. Zudem sie den Custom Desktop GPU Markt eh nur noch nebenbei abfrühstücken, im Prinzip ist ihnen dieser Marktbereich gleichgültig.

Das AMD in Sachen Marktanteile zu Nvidia aber wieder aufschließen kann, auf 50/50 halte ich selbst für unwahrscheinlich, auch wenn RDNA 4 und 5 super Architekturen werden, mit denen man Leistungsmäßig in allen Bereichen aufholen kann + Feature-seitig+Effizienz.

Ich denke es könnte 70/30 möglich sein.

Aber aber selbst dann ist Nvidias Marktmacht und auch Einfluss durch Marketing etc. zu groß.

Und auch bei AMD ist der Consumer Desktop GPU Markt nicht mehr das Hauptaugenmerk/Geschäftsfeld. Ähnlich wie bei Nvidia.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Rockstar85 und DerToerke
Wenn die Hinweise annähernd stimmen, hätte ich auch eher gehofft, dass eine 7700er eine 6800er überbietet, wenn auch nur minimal.

ich hätte auch gerne meine AMD 6700XT behalten und würde auch wieder eine AMD-Karte nehmen, wenn AMD die Randgruppe der älteren Games nicht liegen gelassen hätte 😉 Nvidia schafft das, warum das bei AMD nicht klappt!?😕
 
Unti schrieb:
und die wirklich einzige sinnige Karte ist die 4090.
nun ja...leistungstechnisch mag das stimmen, aber preislich ist das leider kein allerweltsmodel.
um bei beliebten autovergleichen zu bleiben ( :rolleyes: ) ist das ungefährt die gleiche aussage wie: "das einzig sinnige auto ist der porsche 911 turbo s"

ich persönlich finde dass man als "gamer" ggf. mal umdenken muss und eben nicht mehr jeder graka generation mitnehmen sollte - ich denke keinem fällt hier ein zacken aus der krone wenn er noch mit einer potenteren 6000er radeon oder 3000er geforce vorlieb nehmen muss.
zumindest muss man die aktuelle preisleistungs-entwicklung nicht zwingend mitmachen.

was die rx7700 und rx7800 betrifft, finde ich dass die karten etwas arg spät kommen wenn es darum geht nvidia marktanteile abzunehmen. rein vom wirschaftlichen her und dem abverkauf der 6000er restbestände mag es einigermaßen sinnvoll sein den start der mittelklasse zu verzögern, aber leider hat man damit bisher nvidia das feld mit der 4070 und 4060 zu lange überlassen...
Ergänzung ()

Deelray schrieb:
..und das deutlich schlechte FSR2 disqualifiziert AMD wie ich finde komplett :
und ich finde dass dlss und fsr nicht die messlatte sein sollten - so kaschiert man nur die eher vehaltene performance der neueren graka generationen. die gpu's sollten immernoch möglicht viel aus eigener kraft stemmen können und nicht auf upscaling setzen müssen um überhaupt tauglich zu sein.
ob ki gestützt oder nicht.

wenn man schon von anfang an auf upscaling angewiesen ist um überhaupt spielbare fps zu generieren, so ist meiner meinung sowieso schon etwas falsch...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, daknoll und Rockstar85
Taurus104 schrieb:
Schuld sind die Kunden welche trotz all der von dir und mir genannten Kritikpunkte die Karten unterhalb der 4080 kaufen.
Aha der Kunde ist schuld weil er nach seine Bedürfnissen kauft.
Maßgebend für Kunden ist was man sich leisten kann bzw. will und welches Produkt einem den meisten Nutzen bringt.
Ganz klar im unteren Bereich ist die 6700XT die beste Wahl.
Bei der 4070 sieht das schon wieder anders aus. Hier sind einfach die Prioritäten der Käufer ausschlaggebend.
Auf lange Sicht ist hier eine 16GB XT Karte von AMD die bessere Wahl, wobei ich persönlich da schon auf die 6900XT zielen würde, weil mehr Leistung bei gleichem Verbrauch.
Für viele im WQHD Bereich reicht aber auch eine 6800.
Wenn man eher nahe dem Generationenzyklus wechselt, muss man sich allerdings wegen den 12gb VRam der 4070, weniger einen Kopf machen, da kann man sich auch mal DLSS3 anschauen.
 
DaHell63 schrieb:
In welchen Spielen kann man denn mit einer RX 6800 in 4K spielen (alle Regler rechts) in denen einer RTX 4070 der Speicher ausgeht?
UHD muss nicht heißen, dass alle Regler rechts stehen. Aber da gab es dieses Jahr schon ein paar Kandidaten, beispielsweise Hogwarts Legacy. Ja, in UHD erreicht die 6800 XT im Benchmark nur 30-40 FPS, aber a) reicht das für viele Spieler in einem Singleplayer-Titel aus und b) ist das im Ultra-Preset, da ist also noch reichlich Spielraum.

Die 4070 bleibt da überlegen, weil man ja auch auf DLSS + FG zurückgreifen kann, klar. Aber noch besser würde sie abschneiden, wenn sie 16 GB hätte. (Dass man bei der Frage überhaupt eine Debatte sehen kann, wundert mich schon.)
 
  • Gefällt mir
Reaktionen: LamaMitHut, Millennial_24K, DerToerke und eine weitere Person
A.Xander schrieb:
Aha der Kunde ist schuld weil er nach seine Bedürfnissen kauft.
Maßgebend für Kunden ist was man sich leisten kann bzw. will und welches Produkt einem den meisten Nutzen bringt.

Wenn man eher nahe dem Generationenzyklus wechselt, muss man sich allerdings wegen den 12gb VRam der 4070, weniger einen Kopf machen, da kann man sich auch mal DLSS3 anschauen.
Natürlich kauft der Kunde nach seinen Bedürfnissen, wenn er damit die bekannte Verkaufs und Marktpolitik unterstützt trägt er trotzdem eine Mitschuld an der Situation. Und wir brauchen uns doch auch nichts vor machen das viele Kunden einfach nach Marke und nicht nur Nutzenfaktor allein kaufen.

DLSS 3.0 Frame Generation verbraucht bekanntlich mehr Vram, denn auch die Fake Frames müssen irgendwo zwischen gespeichert werden.

Ich gebe dir aber recht wer sich jede neue GPU Generation kauft ist vom Vram Problem dann weniger betroffen wahrscheinlich. Aber Viele nutzen ihre GPU eben auch länger als 2 Jahre.
 
  • Gefällt mir
Reaktionen: DerToerke
Es bleibt spannend! Ich warte im Prinzip auf die 7800. Die sollte genau in meine Preisvorstellung passen. Wird dann interessant zu sehen, wie die sich preislich, vor allem im Vergleich zur 7900XT im späten Herbst/Winter schlägt und was bei mir im System landen wird. :)

Flutefox schrieb:
Gamescom, ist das nicht die Veranstaltung, welche aktuell immer irrelevanter wird aufgrund utopischer Preise für Aussteller und Besucher? Kein Wunder, dass viele lieber Hausmessen abhalten wollen, auch wenn das wirklich sehr schade ist. :(

Verwechselst Du das nicht mit der E3?

Aktuell ist die Gamescom, mit Ausnahme vielleicht der beiden PAX Veranstaltungen, die aber keinen reinen Videospiel-Fokus haben, die einzige verbleibende (m.W.n.) (Video-)Spiele-Messe mit Präsenz.

Wenn Köln zu teuer ist, dürfen sie gerne nach München kommen. :evillol:
 
  • Gefällt mir
Reaktionen: DerToerke
Die beste Wahl bleiben in vielerlei Hinsicht - allem voran P/L-Verhältnis - die 6800er und 6900er Karten. Mein Bruder hat sich gerade erst für Karten zwischen einer 6950XT und einer 4080 interessiert, und die Wahl ist dann am Ende auf die 6950XT gefallen. Beste Leistung für den Preis, ähnlicher Verbrauch wie die neuen Karten, RT-Leistung war ihm nicht so wichtig... Die neuen Karten, von der 4090 vielleicht abgesehen, bieten einfach zu wenig Mehrleistung/Effizienz für zu viel Geld. Kein Wunder, dass AMD die Lagerbestände erst verkaufen wollte. Außerdem ist der absolute Wertverlust geringer, wenn man gar nicht erst so viel Geld ausgibt.

Edit: Dasselbe gilt teilweise auch für die grünen Karten. Habe gebrauchte 3080 FE mit Restgarantie schon für 439€ inkl. Versand im Angebot gesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OliMz1990
Kann meinem direkten Vorredner nur zustimmen. Stand vor kurzem auch vor der Wahl mir eine neue GPU zu kaufen.

Zur Auswahl standen die RX 6950XT, die RTX 4070ti & die 7900XT. Da die Treiber der 6000er Karten mittlerweile rund laufen, die Probleme mit Windows auch beseitigt wurden. Die Treiber der 7000er Karten noch nicht rund laufen und ich wegen FSR 2 und FSR 3 keinen Mehrwert in DLSS sehe hab ich mich für die die RX 6950XT entschieden. Diese bieten das rundere Gesamtpaket. Ja der Verbrauch ist hoch so etwas 285Watt im Durchschnitt aber damit kann ich leben. Die Leistung ist in WQHD und FULL HD wirklich brachial.
 
  • Gefällt mir
Reaktionen: daknoll, Millennial_24K und Grundgütiger
Vitche schrieb:
die olle 7600 ignorieren wir mal eben …
Wenn es die RX 7600 für ca. 250€ zu kaufen gibt, ist es eine attraktive Einsteiger-GPU. Und im Gegensatz zur RTX 3060 Ti, 3070, 3070 Ti und 4060 Ti 8GB stimmt hier noch das Verhältnis aus GPU-Leistung und Grafikspeicher. Außerdem gibt es sicherlich einen weitaus größeren Markt für genau diese Preisklasse als für alle höherpreisigen Grafikkarten. Auch wenn viele Gamer es sich in ihrer selbstgemachten "Enthusiastenblase" nicht vorstellen können: Man kann auch in Full HD mit mittleren bis hohen Grafiksettings Spaß an einem modernen Spiel wie Starfield (weil es sich gerade so gut anbietet) haben. Die Optik ist nicht das Entscheidende.
 
Zuletzt bearbeitet:
Taurus104 schrieb:
Aber Viele nutzen ihre GPU eben auch länger als 2 Jahre.
wurde von mir ja auch so angeführt das diese Nutzer mit AMD dann besser fahren.

A.Xander schrieb:
Auf lange Sicht ist hier eine 16GB XT Karte von AMD die bessere Wahl

Taurus104 schrieb:
DLSS 3.0 Frame Generation verbraucht bekanntlich mehr Vram, denn auch die Fake Frames müssen irgendwo zwischen gespeichert werden.
Darum geht es doch gar nicht, du hast geschrieben, Schuld wären die Kunden die unter einer 4080 kaufen, so als würden Karten von NV darunter keinen Sinn machen. Dem ist halt nicht einfach nicht so.
Was den VRam Verbrauch angeht, darüber kann man dann gerne diskutieren wenn AMD in der Lage ist "Fakeframes" zu erstellen.
Ich bekomme für das bisschen mehr an VRam auf jeden Fall ein wesentlich flüssigeres Spiel bei höheren Details.

Taurus104 schrieb:
Natürlich kauft der Kunde nach seinen Bedürfnissen, wenn er damit die bekannte Verkaufs und Marktpolitik unterstützt trägt er trotzdem eine Mitschuld an der Situation.
Nope es ist wie es ist. AMD hat es mit RDNA3 nicht geschafft den guten Kurs beizubehalten, NV hat das ausgenutzt und aufgrund der guten Ausgangslage, ihre Produkte dementsprechend platziert.
Warum sollten in irgendeiner Weise die Kunden Mitschuld tragen? Weil sie nicht gewillt sind zu boykottieren?
 
Zuletzt bearbeitet:
Taurus104 schrieb:
Ich habe sie selbst in einem speziellen Hobby Rechner bis heute im Einsatz.
Die Radeon VII ist sicherlich ein Liebhaberstück: 16GB HBM-Speicher, Vega-2.0-Architektur in 7nm, die letzte GCN-GPU.
Ergänzung ()

@Rockstar85 Mir ist ein kleiner Fehler bei deiner Signatur aufgefallen: du hast aus einem Ryzen 7 aus Versehen einen Ryzen 5 gemacht. Gruß
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HierGibtsNichts
Zurück
Oben