News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

Deelray schrieb:
Die VII hatte auch 16GB und was hat es der GPU gebracht ?
Im Gaming nicht aber in Compute Anwendungen. Die Radeon VII war nie eine reine Gaming Karte, was immer gerne vergessen wird. Sie trug aber nicht umsonst, eben NICHT das "RX" Brand.

Ich habe sie selbst in einem speziellen Hobby Rechner bis heute im Einsatz.

Zudem wiederlegt dieses Video und deren Tests deine Aussagen das die 16GB der RX6800 nicht bringen würden gleich mehrfach.

Gerade bei den neuen, letzten großen AAA Singleplayer Titeln.

 
Wie wundervoll, das ich hier fast nur wenn und hätte und aber lese, nur keine wirlich untermauerten Kommentare... Hat vielleicht irgendjemand die Dinger schon in echt gesehen? Ich mein so ohne Gerüchte? Mit richtigen Spielen und Anwendungen ohne in irgendwelche Fanlager gestrickte Benchmarks?
 
  • Gefällt mir
Reaktionen: DerToerke und HierGibtsNichts
Deelray schrieb:
Über Kunden wie dich, freut sich das Nvidia Marketing. Bei dir muss man nicht einmal Marketing betreiben. Jedem persönlich überlassen ob er dies positiv oder negativ sehen möchte.
Ergänzung ()

Radulf schrieb:
Wie wundervoll, das ich hier fast nur wenn und hätte und aber lese, nur keine wirlich untermauerten Kommentare... Hat vielleicht irgendjemand die Dinger schon in echt gesehen? Ich mein so ohne Gerüchte? Mit richtigen Spielen und Anwendungen ohne in irgendwelche Fanlager gestrickte Benchmarks?
So ist es leider immer wieder bei bestimmten Themen in der Tech Bubble und den Enthusiasten Foren. Ich habe habe persönlich hier schon resigniert.
 
  • Gefällt mir
Reaktionen: Millennial_24K, Rockstar85, DerToerke und eine weitere Person
DOOM Eternal hat wie viele andere Spiele ala Resident Evil 2 raytracing nachgereicht bekommen.
Soll ich jetzt auf die Effekte verzichten oder mich mit 20FPS weniger zufrieden geben (6800XT) ?
No way, jeder der vernünftig ist greift zur klar besseren RTX4070.
Overall und objektiv gesehen das klar bessere Produkt bei identischem Preis.:)

4K + RT

Edit : ...oder RTX3080 (12GB) im abverkauf. :D

In den Benchmarks etwas schneller als RTX4070 und so gut wie immer flotter als RX6800XT. Der Verbrauch ist allerdings ziemlich hoch, ansonsten tolle GPU ohne nennenswerte schwächen.

Screenshot 2023-07-17 at 22-56-08 DOOM Eternal PC Performance Benchmarks for Graphics Cards an...png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec und HaRdWar§FreSseR
Vitche schrieb:
Weil DLSS 3 bzw. Frame Generation ja bedingt, dass die Entwickler auch Reflex implementieren, ist die Latenz in der Regel mit FG sogar niedriger als nativ, gerade wenn noch DLSS Super Resolution hinzukommt. Natürlich nicht niedriger als nativ (mit SR und) mit Reflex, aber immerhin.
Als 4090 Nutzer ja (wie meine Wenigkeit), weil man immer ueber 60 FPS hat (und damit ist FG ne tolle Sache in Spielen wie MSF oder in Forza H. 5 -> Cyberpunk ist nice wenn man im Auto faehrt - steigt man aus merkt man als Shooterspieler sofort den Input Lag, egal ob das messbar ist oder nicht) aber bei meinem Juengsten auf der 4070 ist es ein Krampf sobald man bei 40 FPS in Cyberpunk FG anmacht (trotz Reflex und dem anderen Schnickschnack). Dort merkt man (zumindest empfindlicher Naturen wie meine Wenigkeit) naemlich sofort (trotz dann 70-80 FPS) das es deutlich hakelig ist. Idealfall ist halt der Flightsimulator oder ein Rennspiel - wenn man denn vorher schon 60 FPS hatte. Vielleicht ist das mit DLSS4 bei der naechsten Generation dann perfekt - jetzt aber leider noch nicht.
 
Taurus104 schrieb:
(...) wenn es etwas günstiger eine 6800XT mit 16GB/256bit oder zum gleichen Preis eine 20% schnellere 6900XT gibt.
RTX 4070 und 6900XT nehmen sich absolut nichts.
Taurus104 schrieb:
Zur alten Generation 2 Jahre und 7 Monate zur RX6800. Im übrigen genauso lange wie zwischen 3070 und 4070.
Zwischen 3070 und 4070 liegen 2 Jahre und 5 Monate. Zwischen RX 6800 und RX 7800, wenn sie Anfang September kommt 2 Jahre und 9 Monate.
Taurus104 schrieb:
Und die verbraucht real gemessen 135W+
124W im Mittel.
 
Zuletzt bearbeitet:
Taurus104 schrieb:
Der Nachfolger zu ADA Lovelace erscheint nicht vor 2025, in 2024 sehen wir max. einen ADA Refresh oder weitere TI Modelle.
RDNA4 war auch mal für 2024 gesetzt, was ich aber definitiv nicht glauben werde. Nvidia wird schauen, was AMD macht. Derzeit haben die nicht den Druck, etwas machen zu müssen. Die können derzeit ihre fraglichen Vramkarten verkaufen.
Taurus104 schrieb:
Die Lager sind voll weil vorab viele mehr Chips und Karten produziert worden und es allgemein hohe Lagerbestände gab am Ende des Mining Booms. Im Consumerbereich werden die Karten gut verkauft. Man siehe sich hierfür nur mal als grobes Beispiel die monatlichen Zahlen von Tech Epiphine auf Twitter zu den Verkaufszahlen von MF an. Die widerlegen deine Argumentation bereits.
MF mag interessant sein, aber ist nur ein kleiner Shop ggü. den weltweiten Verkäufen. Es ist ja nicht umsonst so, dass AMD in der Sparte an Nvidia Marktanteile verloren hat, wenn ich die letzte Meldung noch richtig im Kopf habe. Wenn man nur die MF Zahlen nimmt, müsste AMD ja weitaus mehr Marktanteile haben, was die nicht tun.
Taurus104 schrieb:
Die 6800 non XT Serie wurde im im November 2020 vorgestellt. Also 2 Jahre 7 Monate.
Die RTX 3070 29. Okt. 2020 und die RTX 4070 am 13. April 2023. Also 2 Jahre und 7 Monate.
Du hast hier natürlich Best Case für dich zum Argumentieren herausgepickt. Wieso nicht 3080 VS 6800XT? Weil die 4080 seit 16. Nov. 2022 bereits auf dem Markt ist?
Aber ich lasse dir mal den Vorteil und schauen wir mal.
29. Okt. 2020 - 13. April 2023 sind bei mir 2 Jahre 5 Monate und rund 15 Tage, wenn ich nicht komplett daneben liege. Keine Ahnung, wie du auf 2 Jahre und 7 Monate kommst.
Die 6000er Serie wurde am 28. Oktober 2020 vorgestellt und offizieller Launch der RX6800 war am 18. Nov. 2020. Bei der 6800 sehe ich nur 18. November 2020 und ob der Nachfolger wirklich Ende August kommt ist aktuell nur ein Gerücht. Das sind bei mir 2 Jahre 9 Monate und rund 13 Tage, wenn diese Ende August kommen sollte.
Taurus104 schrieb:
Kann deine Argumentation hier also nicht nachvollziehen.

Der logische Grund die Karten sind compeditiv!

Die 4070 kostet soviel wie eine 6900XT/6950XT, die AMD Karten sind zum gleichen Preis in Rasterleistung deutlich schneller mit mehr Vram. Die 6800XT leicht günstiger und minimal schneller, mit mehr Vram.

Die 4060 TI wird von der 6800 non XT geschlagen. Bei der 6800 bekommt man aber für 50 Euro mehr also mehr Leistung und doppelten Vram und kann hier auch Ausflüge in WQHD machen ohne Sorgen.
Die 6700XT ist 80-100 Euro günstiger als die 4060 Ti und wie die 3060 Ti gerade mal 9% langsamer laut PCGH.

Naja und die 4060 kann sich nicht von der günstigeren 7600 absetzen und wird von einer 6700 non XT 10G und der 6700XT torpediert im gleichen Preisbereich.
6700/ 6700XT gleicher Preisbereich? Die RTX4060 gibt bereits unter 300,-€ die RX6700 und die RX6700XT sind ihrer Leistung entsprechend teurer bei Raster, was ich auch so geschrieben habe. Kommt RT+FG im Spiel zum Zuge, sieht es anders aus.
Ich mag die 4060 auch nicht, aber ich mache nicht die Augen zu bei den Fakten. Die RTX4060 ist erst seit 29 Juni 2023 auf dem Markt und nicht schon weitaus länger als die 6700/6700XT. Die 4060 kann also noch mal im Preis fallen. Da ist ja kaum was drauf, also wird diese Nvidia nicht viel kosten.
Der normale Käufer hat also die Option unter 300,- (Psychologische Grenze) eine RX7600 oder eine RTX 4060 zu kaufen, oder für rund 320,-€ die alte 6700, wo es nur extrem wenig Varianten gibt, oder ab 330,-€ die alte RX6700XT. Ich kann schon blind sagen, wo 7-8 Leute hingreifen werden.
Taurus104 schrieb:
Wenn du nur die Effizienz als Argument siehst stimmt deine Aussage, Ada ist effizient.
Aber in P/L haben die Nvidia Karten starke Defizite.
Alle Nvidia Karten unterhalb der 4090 haben ihren Gegenpart und alle RX4000 unterhalb von RTX 4080 (die 80er hat natürlich auch ihren Preis als Kritkpunkt) haben ebenfalls Kritikpunkte im Vergleich zur Konkurrenz.

Hoher Preis, wenig Vram, stark beschnittenes Speicherinterface, die 4060er Modelle zudem noch ihre x8 Lane Anbindung.

Wie gesagt deiner Argumentation kann ich nach Fakten somit nur bedingt folgen.
Ich kann nur sagen, dass AMD derzeit nur die teuren TOP Karten + eine Einsteigerkarte hat, die man sich schenken kann, sowie die alte Serie aus 2020.
Ich sehe hier AMD im Zugzwang und nicht Nvidia. Nvidia kann sich es leider erlauben eine faktische 4050(ti) als 4060 auf dem Markt zu werfen, weil AMD aktuell schwach ist. Nvidia kann "Speicherkrüppel" auf dem Markt werfen, weil AMD aktuell keine neuen Karten hat zum entgegenzusetzen. Man hat also die Wahl, neue effiziente Karte von Nvidia mit VRAM Mangel, oder eine alte Karte von AMD.
Wenn ich mir das aktuelle Preis-Leitung-Verhältnis hier auf CB anschaue, und die RX6800 markiere, sehe ich nur das AMD nicht so gut aktuell dasteht in dem Bereich wo die Masse an Karten über die Theke gehen. Nur die 6700XT ist der Fels in der Brandung.

Ob ich das toll finde? Nein, definitiv nicht. Vielleicht bringt AMD ja August/September endlich etwas Gutes heraus. Ich drücke die Daumen. Dann bitte ohne Kinderkrankheiten. Sonst müssen wir wieder Monate warten, bis man bedenkenlos kaufen kann.
 
  • Gefällt mir
Reaktionen: ComputerJunge, FritzchenBox, chaopanda und eine weitere Person
Nobbi56 schrieb:
Meine Sapphire RX 6800 XT Nitro+ schafft im 3DM TS > 19.000 Pkt. Die neue RX 7800 - also nominal die direkte Nachfolge - kommt mutmaßlich auf knapp 19.000, wenn werks-oc.


LG N.
Richtig...Wenn AMD nicht dumm ist, dann nutzt man als UVP die derzeitigen Marktpreise der 4070...
Vermutlich wird man aber über 600€ bleiben.. Und wie du schon sagtest, ist die 6800XT oder gar die 6900XT die bessere Wahl bei dem Geld.
Schade eig, denn ne 7800 wäre nice.. Aber nicht für 6800 Preise..

Also wenn AMD die 7800 für 599€ bringt, dann überlege ich es mir vllt.
Es wären dann immerhin 23% auf die 6800 und damit de Facto was die 3080/10 war.. Vermutlich auch in der RT Leistung an der 3080.

Taurus104 schrieb:
Über Kunden wie dich, freut sich das Nvidia Marketing.

Deswegen... Don´t feed the troll :)
Sei nicht dumm, schalte stumm ^^

Reimt sich sogar ^^
Missionieren können diese Leute dann eben die anderen Missionierer.

@.Snoopy.
Sag doch, wie es ist. AMD hat mit RDNA3 kampflos Nvidia den dGPU markt überlassen.. Immerhin läuft es gut bei Embedded (sehr gut) und bei iGPU. DLSS3 und FG ist für mich nicht kaufentscheidend, da ich damit dann zur 3060Ti greifen würde (die auch unter 300€ zu haben ist)
Und wir wissen nicht, warum AMD die Preise der Produkte nicht um 50€ mindestens senkt um eben Marketshare zu generieren. Eine 6800 zum Abverkauf für ~400€ würde ich umgehend nehmen, ebenso ne 6700XT für 299.. Halt Abverkauf wie damals bei Navi.
Irgendwas ist bei AMD massiv im argen in der RTG. Eventuell gibts aber Tatsache nen Metalspin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Millennial_24K, ComputerJunge und .Snoopy.
Deelray schrieb:
Nehmen wir die RTX4070 und RX6800XT, kosten in etwa gleich viel momentan.
Du, ich stimme dir darin zu, dass Nvidia derzeit in fast allen Belangen die Nase vorn, diesmal die bessere Generation hat und damit auch die attraktiveren Grafikkarten bietet. Und bei dem Vergleich würde ich auch die 4070 wählen, wobei ich anmerken muss, dass man die 6800 XT je nach Modell locker 50 Euro günstiger bekommt.

Deelray schrieb:
NVIDIA ist allerdings in allen disziplinen überlegen.
Aber wenn man das ja sogar fundiert begründen kann, dann muss man nicht pauschal etwas behaupten, was einfach nicht stimmt. Ich hab den Speicher und FPS/Euro bei Rasterizer-Grafik ja schon angesprochen.

Deelray schrieb:
Was will eine lahme 6800/xt mit 16GB ? ..davon wird die Karte nie gebrauchen machen, falls doch dann nur bei sehr niedrigen FPS-Zahlen.
12GB passen einfach perfekt zu der Leistung (RTX4070)
Die kann die 16 GB gut gebrauchen und die ist auch ganz und gar nicht lahm. Ich kenne viele die mit langsameren Grafikkarten auch gut und gerne in UHD spielen. Mit einer 4070 geht das auch, aber da sind die 12 GB auf Kante genäht und perfekt sind die sicherlich nicht. Da wird es in UHD in Zukunft immer mal wieder Probleme geben, wenn man alle Regler rechts sehen will.

Deelray schrieb:
16GB erst ab RTX4080 und höher.
Das ist doch gelinde gesagt Blödsinn. Das betrifft einerseits dann nur 2 (3) Grafikkarten, alle darunter sollen dann nicht tauglich für UHD und die Zukunft sein? Oh Mann.

Deelray schrieb:
Die VII hatte auch 16GB und was hat es der GPU gebracht ? Richtig, nichts.
Lenk nicht vom Thema ab. Andere Grafikkarte, andere Generation, andere Zeit. Das ist einfach nur ein Strohmann.

Deelray schrieb:
Raytracing kommt in jedem neuen Spiel zum einsatz, sogar ältere bekommen es nachgereicht (siehe Anhang) ! Must-have feature.
Ich bin selbst ein großer Fan davon, aber auch das stimmt so nicht. Es kommen noch immer viele Spiele ohne RT auf den Markt und das schöne am PC-Gaming ist ja, dass jeder seine Grafik so einstellen kann, wie er mag.

Versteh mich nicht falsch, ich würde und habe mich ja auch für eine GeForce entschieden, aber die Radeons allesamt als in jeder Hinsicht unterlegen über einen Kamm zu scheren ist einfach polemisch und entspricht nicht der Wahrheit. Eine RX 6700 XT und eine RX 6800 (XT) beispielsweise sind derzeit die besten Angebote, die man im Preisbereich von 350 bis 550 Euro (also zwischen 3060 und 4070) finden kann, zumindest bis die 4060 Ti 16 GB ordentlich im Preis fallen sollte.
 
  • Gefällt mir
Reaktionen: flying_ass, Jethro, V_182 und 5 andere
Vitche schrieb:
und das schöne am PC-Gaming ist ja, dass jeder seine Grafik so einstellen kann, wie er mag
Genau das
 
  • Gefällt mir
Reaktionen: flying_ass, HierGibtsNichts und DerToerke
DevPandi schrieb:
Da muss ich jetzt aber dazwischen grätschen

Klingt logisch was du sagst und mein Wissen ist auch eher theoretischer Natur. Da die zitierten Worte aber nicht von mir kamen, musst du da Fabian für verantwortlich machen.

Ich sagte, mein Wissen geht in die selbe Richtung. Wenn du es besser weist, ist das durchaus denkbar und da du ja mit Autoritätsargumenten kommst, da du dafür programmierst und es daher besonders gut weist, ist die Wahrscheinlichkeit gegeben, dass es so sein könnte.

Ich würde sagen, diskutiere das mal mit jemanden, der schon mal eine GPU tatsächlich gebaut hat. Ich habe nur Wissen darüber, wie man sie theoretisch baut und welche Auswirkungen welche Komponenten haben.

In der Theorie, ist das SI z.B. total überbewertet, da es lediglich um Durchsatz des Speichers und die Auslastung dessen geht. Das geht auch mit schnellem Ram und dünnem SI.

Evtl. liegt das Problem ja am Ende doch auf der Softwareseite. Auch das ist komplett denkbar.

mfg

p.s.

Und noch mal für das bessere Verständnis für mich. Die lange Pipeline erschwert es, die kompletten Einheiten auszulasten. Die lange Pipeline braucht den hohen Takt noch viel mehr als die kurze Pipeline, um hohe FPS zu erzielen. Die kurze Pipeline ist aber bei hohem Takt hinderlich. Daher sollten bei medium Taktraten beide nahezu gleich schnell sein, bei kleinen Taktraten ist die lange Pipeline schlechter und bei hohen Taktraten die kurze Pipeline.

Was klein, mittel und groß ist, variiert von Architektur zu Architektur und von Generation zu Generation.

So ist mein Wissensstand. Bitte berichtige mich, wenn es anders sein sollte.

Ich bin mir nie zu fein zu fragen, wenn ich mal die Möglichkeit habe jemanden zu fragen, der es besser weis. :heilig:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
FritzchenBox schrieb:
RTX 4070 und 6900XT nehmen sich absolut nichts.

Zwischen 3070 und 4070 liegen 2 Jahre und 5 Monate. Zwischen RX 6800 und RX 7800, wenn sie Anfang September kommt 2 Jahre und 9 Monate.

124W im Mittel.
Was anderes habe ich nicht geschrieben in Sachen Leistung, Preislich aber eben schon.

3070 29. Okt. 2020, 4070 April 2023 - 2 Jahre 6 Monate.

Okay 2 Jahre 7 Monate passt nicht. Falsches Release Datum heran gezogen.
Aber selbst wenn, beides ist innerhalb von 2 Jahren.

124W im Mittel, trotzdem mehr als ihre Spezifikation von 115W und im Peak sind es nun mal 135W.
 
Cerebral_Amoebe schrieb:
Ich bin mir jetzt nicht sicher was ich mit deinem Screen anfangen soll.
Es ging um die RTX 4060 die real gemessen angeblich 135W+ brauchen soll. Ich weiß jetzt nicht wie mir da die Werte von der RTX 4060TI weiterhelfen sollen.
 
  • Gefällt mir
Reaktionen: Cerebral_Amoebe
einfahc nur falsche Grafik verlinkt, die 4060 braucht nicht nur angeblich 135W in Spielen, es sind bis zu 135W in einzelnen Spielen bei Igor, im Schnitt dann ~125W
 
Vitche schrieb:
Die kann die 16 GB gut gebrauchen und die ist auch ganz und gar nicht lahm. Ich kenne viele die mit langsameren Grafikkarten auch gut und gerne in UHD spielen. Mit einer 4070 geht das auch, aber da sind die 12 GB auf Kante genäht und perfekt sind die sicherlich nicht. Da wird es in UHD in Zukunft immer mal wieder Probleme geben, wenn man alle Regler rechts sehen will.
In welchen Spielen kann man denn mit einer RX 6800 in 4K spielen (alle Regler rechts) in denen einer RTX 4070 der Speicher ausgeht?
 
Danke für den Hinweis!
Die Grafik ist jetzt korrekt.

122,8 Watt im Mittel bedeutet ja, dass die Karte auch mehr Strom zieht und natürlich je nach Spiel auch weniger.
Da ist man dann im Bereich 130-135W oder 115W.

Die gekauften Berichterstattungen wären nicht nötig gewesen.
Hier wurde mit Absicht versucht, das Produkt schön zu reden.
Nvidia könnte jetzt auch sein Firmenlogo in orange einfärben (alternative Fakten und so ;) )
 
Zuletzt bearbeitet:
Die Specs sind jetzt keine wirklich große Überraschung mehr nach den ganzen Leaks der letzten Monate. Was jetzt noch interessant wird sind a) Echte Benchmarks in Spielen und b) die Preise.
Auch wenn die Mehrperformance im Vergleich zu RDNA2 nicht sooo groß ist, wird eine von den beiden aber bestimmt ein gutes Upgrade zu meiner RX 5700.
 
.Snoopy. schrieb:
RDNA4 war auch mal für 2024 gesetzt, was ich aber definitiv nicht glauben werde. Nvidia wird schauen, was AMD macht. Derzeit haben die nicht den Druck, etwas machen zu müssen. Die können derzeit ihre fraglichen Vramkarten verkaufen.
Eventuell kommt RDNA 3.5
Ergänzung ()

Unti schrieb:
Ich bin ja mal auf FSR3 gespannt, ob das überhaupt noch erscheint werden wir sehen und ob das von der Latenz ähnlich gut wird - keine Ahnung.
Was ist bei AMD eigentlich die derzeitige Konkurrenztechnik zu Reflex?
Keine Ahnung wie sie es genannt haben - aber laut Marketing bringen auch Sie was in die Richtung...

Ah wenn man vom Teufel spricht:

https://www.chip.de/news/Besseres-Gaming-noch-im-Juni-2023-Kommt-endlich-AMD-HYPR-RX_184819554.html

HYPER-RX (eat this NVIDIA Fan BoY - in your Face) - welcher grenzdebile 16jährige durfte sich denn den Namen ausdenken???
 
Zuletzt bearbeitet:
werd mir dann echt wohl ne 4070 zulegen

glaube kaum das bis auf die 4 gb vram die 7800 besser ist (vor allem DLSS 2 und 3 sind einfach meilenweit besser, Stromverbrach bestimmt auch)

AMD hat die GEN total verpennt, mit FSR3 haben sie sicher ne Woche nach DLSS3 angefangen zu arbeiten
 
Zurück
Oben