Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen
@DerToerke , mit unter ist RDNA2 besser im Teillastbereich da RDNA3 grob nur low/mid/high. kann.
Siehe den Artikel von DevPandi und einige Vergleiche von 7900XT mit RTX 4080.
Viele machen den Fehler und nehmen halt den Max. Verbrauch einer GPU, ohne die eigene Bedürfnisse mit ein zu beziehen.
Wenn das Problem mit den 7800/7700 nicht gelöst wurde, bleibt nur der Griff zu 6800/6900.
Kommt aber schon auf die eigene Spieleauswahl an. Ich habe bspw. viele aktuelle Titel, die DLSS unterstützen. Deshalb lohnt sich NVidea schon. Mode hab ich dagegen kaum. Schon gar keine Texturmods. Deswegen brauche ich nicht unbedingt das maximum an VRam. Aber bei anderen sieht es evtl. ganz anders aus und da sind dann die AMD Karten klar die bessere Wahl.
Man könnte meinen AMD pusht die nVidia Aktie.
Mal im Ernst. Wenn ich schon höre, dass die Leistung der RX 7800 knapp über der RX 6800 XT liegt...
Dann gibt es bei der Effizienz auch nichts nennenswertes.
nVidia hat wenigstens noch dieses Argument.
AMD ist wirklich hilflos bei den GPUs 😒
Das AMD in Sachen Marktanteile zu Nvidia aber wieder aufschließen kann, auf 50/50 halte ich selbst für unwahrscheinlich, auch wenn RDNA 4 und 5 super Architekturen werden, mit denen man Leistungsmäßig in allen Bereichen aufholen kann + Feature-seitig+Effizienz.
Ich denke es könnte 70/30 möglich sein.
Aber selbst dann ist Nvidias Marktmacht und auch Einfluss durch Marketing etc. zu groß.
Und auch bei AMD ist der Consumer Desktop GPU Markt nicht mehr das Hauptaugenmerk/Geschäftsfeld. Ähnlich wie bei Nvidia.
@DerToerke , mit unter ist RDNA2 besser im Teillastbereich da RDNA3 grob nur low/mid/high. kann.
Siehe den Artikel von DevPandi und einige Vergleiche von 7900XT mit RTX 4080.
Viele machen den Fehler und nehmen halt den Max. Verbrauch einer GPU, ohne die eigene Bedürfnisse mit ein zu beziehen.
Wenn das Problem mit den 7800/7700 nicht gelöst wurde, bleibt nur der Griff zu 6800/6900.
Mir riss der Geduldsfaden und so hatte ich mir Anfang Juni eine 6800xt für 530€ geholt. Mir war zu unsicher, ob/wann AMD die RDNA3 bugs wie Stromverbrauch bei Multimonitoren oder VR fixt, und wieviel Mehrleistung / Preisleistung die neuen Karten bieten.
Die 7800 wird in Rasterleistung besser sein als die 4070, in/mit RT ist wird die 4070 vorne liegen.
Es kommt halt darauf an ob Upscaling oder Framegeneration für einen ein Kaufargument sind. Die nur 12 GB werden bei der 4070 früher zum Problem werden in WQHD als bei der 7800. Sieht man heutzutage bereits in 1080p bei einer 3070/Ti verglichen mit einer 6800 non XT 16GB. Und die 3070 kam Ende 2020, also kommt sie mit ihren 8 GB nach ca. 2 Jahren in Probleme selbst auf FullHD.
Die 4070 hat eine TGP von 200W MSRP Modelle und 225W OC Modelle ab Werk. Die 7800 soll 265W TBP haben.
Ganz so unsachlich würde ich nicht argumentieren.
lt. offiziellen Aussagen aus Interviews läuft die Entwicklung von FSR 3.0 seit Anfang 2022. Mehr weiß man nicht.
Ergänzung ()
.Snoopy. schrieb:
Du hast hier natürlich Best Case für dich zum Argumentieren herausgepickt
Ich habe mir die Karten herausgepickt um die es ging. Die 7800 wäre der Nachfolger der 6800 und das Konkurrenzmodell dazu war die 3070. Daher die Auswahl.
Ergänzung ()
.Snoopy. schrieb:
Keine Ahnung, wie du auf 2 Jahre und 7 Monate kommst.
Falsches Release Date im Kopf gehabt obwohl das richtige geschrieben. ABER. Wir liegen im 2 Jahres Release
Fenster. Was dann trotzdem die Argumentation widerlegt das die 7800 extrem viel später kommen würde im Vergleich zu den Nvidiamodellen.
Ergänzung ()
.Snoopy. schrieb:
Ich mag die 4060 auch nicht, aber ich mache nicht die Augen zu bei den Fakten
Mache ich auch nicht, die 6700XT ist aber nun mal die bessere Karte. Die günstigste 4060 bekommst für 311 Euro, die 6700XT für 339. Die 6700XT ist schneller in Raster, selbst in RT, hat mehr Vram, breiteres Speicherinterface, x16 statt x8 Lanes Anbindung sowie mehr Cache. Einzig ist die 4060 Effizienter.
Die 6700XT taugt für WQHD, die 4060 ganz offiziell für 1080p. Und das sehe nicht nur ich so, sondern der Großteil aller Tests im Netz. Wer von Uns verschließt also die Augen vor Fakten?
Ergänzung ()
.Snoopy. schrieb:
Ich sehe hier AMD im Zugzwang und nicht Nvidia. Nvidia kann sich es leider erlauben eine faktische 4050(ti) als 4060 auf dem Markt zu werfen, weil AMD aktuell schwach ist. Nvidia kann "Speicherkrüppel" auf dem Markt werfen, weil AMD aktuell keine neuen Karten hat zum entgegenzusetzen. Man hat also die Wahl, neue effiziente Karte von Nvidia mit VRAM Mangel, oder eine alte Karte von AMD.
Schuld sind die Kunden welche trotz all der von dir und mir genannten Kritikpunkte die Karten unterhalb der 4080 kaufen. Nvidias Strategie und Marketing funktioniert ja, deshalb ändern Sie nichts. Zudem sie den Custom Desktop GPU Markt eh nur noch nebenbei abfrühstücken, im Prinzip ist ihnen dieser Marktbereich gleichgültig.
Das AMD in Sachen Marktanteile zu Nvidia aber wieder aufschließen kann, auf 50/50 halte ich selbst für unwahrscheinlich, auch wenn RDNA 4 und 5 super Architekturen werden, mit denen man Leistungsmäßig in allen Bereichen aufholen kann + Feature-seitig+Effizienz.
Ich denke es könnte 70/30 möglich sein.
Aber aber selbst dann ist Nvidias Marktmacht und auch Einfluss durch Marketing etc. zu groß.
Und auch bei AMD ist der Consumer Desktop GPU Markt nicht mehr das Hauptaugenmerk/Geschäftsfeld. Ähnlich wie bei Nvidia.
Wenn die Hinweise annähernd stimmen, hätte ich auch eher gehofft, dass eine 7700er eine 6800er überbietet, wenn auch nur minimal.
ich hätte auch gerne meine AMD 6700XT behalten und würde auch wieder eine AMD-Karte nehmen, wenn AMD die Randgruppe der älteren Games nicht liegen gelassen hätte 😉 Nvidia schafft das, warum das bei AMD nicht klappt!?😕
nun ja...leistungstechnisch mag das stimmen, aber preislich ist das leider kein allerweltsmodel.
um bei beliebten autovergleichen zu bleiben ( ) ist das ungefährt die gleiche aussage wie: "das einzig sinnige auto ist der porsche 911 turbo s"
ich persönlich finde dass man als "gamer" ggf. mal umdenken muss und eben nicht mehr jeder graka generation mitnehmen sollte - ich denke keinem fällt hier ein zacken aus der krone wenn er noch mit einer potenteren 6000er radeon oder 3000er geforce vorlieb nehmen muss.
zumindest muss man die aktuelle preisleistungs-entwicklung nicht zwingend mitmachen.
was die rx7700 und rx7800 betrifft, finde ich dass die karten etwas arg spät kommen wenn es darum geht nvidia marktanteile abzunehmen. rein vom wirschaftlichen her und dem abverkauf der 6000er restbestände mag es einigermaßen sinnvoll sein den start der mittelklasse zu verzögern, aber leider hat man damit bisher nvidia das feld mit der 4070 und 4060 zu lange überlassen...
Ergänzung ()
Deelray schrieb:
..und das deutlich schlechte FSR2 disqualifiziert AMD wie ich finde komplett :
und ich finde dass dlss und fsr nicht die messlatte sein sollten - so kaschiert man nur die eher vehaltene performance der neueren graka generationen. die gpu's sollten immernoch möglicht viel aus eigener kraft stemmen können und nicht auf upscaling setzen müssen um überhaupt tauglich zu sein.
ob ki gestützt oder nicht.
wenn man schon von anfang an auf upscaling angewiesen ist um überhaupt spielbare fps zu generieren, so ist meiner meinung sowieso schon etwas falsch...
Aha der Kunde ist schuld weil er nach seine Bedürfnissen kauft.
Maßgebend für Kunden ist was man sich leisten kann bzw. will und welches Produkt einem den meisten Nutzen bringt.
Ganz klar im unteren Bereich ist die 6700XT die beste Wahl.
Bei der 4070 sieht das schon wieder anders aus. Hier sind einfach die Prioritäten der Käufer ausschlaggebend.
Auf lange Sicht ist hier eine 16GB XT Karte von AMD die bessere Wahl, wobei ich persönlich da schon auf die 6900XT zielen würde, weil mehr Leistung bei gleichem Verbrauch.
Für viele im WQHD Bereich reicht aber auch eine 6800.
Wenn man eher nahe dem Generationenzyklus wechselt, muss man sich allerdings wegen den 12gb VRam der 4070, weniger einen Kopf machen, da kann man sich auch mal DLSS3 anschauen.
UHD muss nicht heißen, dass alle Regler rechts stehen. Aber da gab es dieses Jahr schon ein paar Kandidaten, beispielsweise Hogwarts Legacy. Ja, in UHD erreicht die 6800 XT im Benchmark nur 30-40 FPS, aber a) reicht das für viele Spieler in einem Singleplayer-Titel aus und b) ist das im Ultra-Preset, da ist also noch reichlich Spielraum.
Die 4070 bleibt da überlegen, weil man ja auch auf DLSS + FG zurückgreifen kann, klar. Aber noch besser würde sie abschneiden, wenn sie 16 GB hätte. (Dass man bei der Frage überhaupt eine Debatte sehen kann, wundert mich schon.)
Aha der Kunde ist schuld weil er nach seine Bedürfnissen kauft.
Maßgebend für Kunden ist was man sich leisten kann bzw. will und welches Produkt einem den meisten Nutzen bringt.
Wenn man eher nahe dem Generationenzyklus wechselt, muss man sich allerdings wegen den 12gb VRam der 4070, weniger einen Kopf machen, da kann man sich auch mal DLSS3 anschauen.
Natürlich kauft der Kunde nach seinen Bedürfnissen, wenn er damit die bekannte Verkaufs und Marktpolitik unterstützt trägt er trotzdem eine Mitschuld an der Situation. Und wir brauchen uns doch auch nichts vor machen das viele Kunden einfach nach Marke und nicht nur Nutzenfaktor allein kaufen.
DLSS 3.0 Frame Generation verbraucht bekanntlich mehr Vram, denn auch die Fake Frames müssen irgendwo zwischen gespeichert werden.
Ich gebe dir aber recht wer sich jede neue GPU Generation kauft ist vom Vram Problem dann weniger betroffen wahrscheinlich. Aber Viele nutzen ihre GPU eben auch länger als 2 Jahre.
Es bleibt spannend! Ich warte im Prinzip auf die 7800. Die sollte genau in meine Preisvorstellung passen. Wird dann interessant zu sehen, wie die sich preislich, vor allem im Vergleich zur 7900XT im späten Herbst/Winter schlägt und was bei mir im System landen wird.
Flutefox schrieb:
Gamescom, ist das nicht die Veranstaltung, welche aktuell immer irrelevanter wird aufgrund utopischer Preise für Aussteller und Besucher? Kein Wunder, dass viele lieber Hausmessen abhalten wollen, auch wenn das wirklich sehr schade ist.
Aktuell ist die Gamescom, mit Ausnahme vielleicht der beiden PAX Veranstaltungen, die aber keinen reinen Videospiel-Fokus haben, die einzige verbleibende (m.W.n.) (Video-)Spiele-Messe mit Präsenz.
Wenn Köln zu teuer ist, dürfen sie gerne nach München kommen.
Die beste Wahl bleiben in vielerlei Hinsicht - allem voran P/L-Verhältnis - die 6800er und 6900er Karten. Mein Bruder hat sich gerade erst für Karten zwischen einer 6950XT und einer 4080 interessiert, und die Wahl ist dann am Ende auf die 6950XT gefallen. Beste Leistung für den Preis, ähnlicher Verbrauch wie die neuen Karten, RT-Leistung war ihm nicht so wichtig... Die neuen Karten, von der 4090 vielleicht abgesehen, bieten einfach zu wenig Mehrleistung/Effizienz für zu viel Geld. Kein Wunder, dass AMD die Lagerbestände erst verkaufen wollte. Außerdem ist der absolute Wertverlust geringer, wenn man gar nicht erst so viel Geld ausgibt.
Edit: Dasselbe gilt teilweise auch für die grünen Karten. Habe gebrauchte 3080 FE mit Restgarantie schon für 439€ inkl. Versand im Angebot gesehen.
Kann meinem direkten Vorredner nur zustimmen. Stand vor kurzem auch vor der Wahl mir eine neue GPU zu kaufen.
Zur Auswahl standen die RX 6950XT, die RTX 4070ti & die 7900XT. Da die Treiber der 6000er Karten mittlerweile rund laufen, die Probleme mit Windows auch beseitigt wurden. Die Treiber der 7000er Karten noch nicht rund laufen und ich wegen FSR 2 und FSR 3 keinen Mehrwert in DLSS sehe hab ich mich für die die RX 6950XT entschieden. Diese bieten das rundere Gesamtpaket. Ja der Verbrauch ist hoch so etwas 285Watt im Durchschnitt aber damit kann ich leben. Die Leistung ist in WQHD und FULL HD wirklich brachial.
Wenn es die RX 7600 für ca. 250€ zu kaufen gibt, ist es eine attraktive Einsteiger-GPU. Und im Gegensatz zur RTX 3060 Ti, 3070, 3070 Ti und 4060 Ti 8GB stimmt hier noch das Verhältnis aus GPU-Leistung und Grafikspeicher. Außerdem gibt es sicherlich einen weitaus größeren Markt für genau diese Preisklasse als für alle höherpreisigen Grafikkarten. Auch wenn viele Gamer es sich in ihrer selbstgemachten "Enthusiastenblase" nicht vorstellen können: Man kann auch in Full HD mit mittleren bis hohen Grafiksettings Spaß an einem modernen Spiel wie Starfield (weil es sich gerade so gut anbietet) haben. Die Optik ist nicht das Entscheidende.
Darum geht es doch gar nicht, du hast geschrieben, Schuld wären die Kunden die unter einer 4080 kaufen, so als würden Karten von NV darunter keinen Sinn machen. Dem ist halt nicht einfach nicht so.
Was den VRam Verbrauch angeht, darüber kann man dann gerne diskutieren wenn AMD in der Lage ist "Fakeframes" zu erstellen.
Ich bekomme für das bisschen mehr an VRam auf jeden Fall ein wesentlich flüssigeres Spiel bei höheren Details.
Taurus104 schrieb:
Natürlich kauft der Kunde nach seinen Bedürfnissen, wenn er damit die bekannte Verkaufs und Marktpolitik unterstützt trägt er trotzdem eine Mitschuld an der Situation.
Nope es ist wie es ist. AMD hat es mit RDNA3 nicht geschafft den guten Kurs beizubehalten, NV hat das ausgenutzt und aufgrund der guten Ausgangslage, ihre Produkte dementsprechend platziert.
Warum sollten in irgendeiner Weise die Kunden Mitschuld tragen? Weil sie nicht gewillt sind zu boykottieren?