News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

alkaAdeluxx schrieb:
Nach fast einem Jahr wäre es mal Zeit für die 7X50er Modelle mit etwas mehr Leistung. :confused_alt:
2 Jahre 7 Monate nach der 6800 die 7800 passt. Zwischen der 3070 und 4070 lag die selbe Zeit.
Zudem hat AMD keinen Zeitdruck. RDNA2 hält noch gut mit und verkauft sich im Abverkauf auch gut. Wozu also übereilt was Neues bringen.

Ob es eine 7X50 Serie überhaupt geben wird ist mehr als fraglich.
 
[wege]mini schrieb:
Apple springt aktuell vom 3NP ab, da TSMC dort nur 55% funktionierende Chips hat und will auf 3NE gehen, da TSMC dort wohl nicht so viel Ausschuss produziert.
Echt? 55%, von welcher Quelle hast du das? Das wäre totaler Wahnsinn, so viel Defekt.
Ist das dann Ausschuss? Also direkt in die Tonne? Bin gerade etwas verstört.
[wege]mini schrieb:
Jede (nicht konkurrenzfähige) RX7700, könnte eine zu viel sein, wenn man damit wenig bis keinen Gewinn erzielt, wenn man mit den Wafern auch Ryzen bauen könnte.
Verkaufen sich die Ryzen so gut, dass es hier einen Unterschied macht? Der ganze Consumer Hardware Bereich ist doch so in Talfahrt, dass AMD/NV/Intel und vor allem die Speicherhersteller kaum mehr was zu ihren aufgerufenen Preisen überhaupt verkaufen. Im Datacenter Bereich siehts natürlich anders aus für AMD/NV, Intel hat ja auch hier Probleme.
[wege]mini schrieb:
Die Tatsache, dass man die 4060Ti 8 GB in den Staaten mit Rabattcode für 334,99 Dollar bekommt, lasse ich einfach mal unbeleuchtet.
Die Karten sind doch alle solche Speicherkrüppel, dass sogar 300 Dollar dafür zu viel wären, NV und AMD sollen einfach zu vernünftigen Preisen abverkaufen und das neue niedriger bepreisen, Thema erledigt.
Wenn man sich schon im Verkauf schwer tut, dann eben über den Preis.... aber anscheinend lagert man lieber ein anstelle even oder mit Verlust zu verkaufen, weil das in Zukunft ja mehr bringt als nur weiter auf dem Zeug sitzen zu bleiben....
Casillas schrieb:
ja ok. Da hast du recht. Bei der 3060ti kann man da wohl auch von einem lohnenden abverkauf sprechen. Und da sieht man ja. An dieses Preisleistungsverhältnis der 3060ti kommt auch keine 4000er Karte ran.
An generell keinem P/L Verhältnis beider alten Generationen von NV und AMD kommt weder RX7000 noch RTX4000 ran, die einzige sinnige Karte ist die 7900XTX/XT und die 4070Ti/4080/4090 und die wirklich einzige sinnige Karte ist die 4090.
Alles darunter ist doch eine Farcé, die 4080 und die 7900XTX gehen langsam unter 1000 auf die 900 Euro zu, das ist ein vernünftiger Preis, den hätte man von Anfang an aufrufen müssen.
Die 4090 Käufer interessiert das eh nicht, mangels Konkurrenz und da geht der Preis ja auch runter, wo er hingehört....
Aber wenn man alles miteinbezieht, dann muss man sagen, dass alles unter obigen Karten total sinnbefreit ist, sieht man ja an der 4060 Ti 16GB....
Es ist einfach nur traurig...
TigerherzLXXXVI schrieb:
Ja, wir können uns hier nur überraschen lassen. Vom normalen Zeitplan her würde ein Release von RDNA 4 im Winter 2025 passen.
Weder RX8000 noch RTX5000 kommen vor 2025 (dann aber vermutlich Q1/Q2), das sah man ja schon in NV Roadmap und genau hier wird mir Angst und Bange.
Weil guck dir doch die ganzen Low/Mid/Mid-Highend Karten an, die sind alle absolute Krüppelkarten, quasi keine Verbesserung zum Vorgänger bei (AMD zumindest) mehr Verbrauch und teurer.
Keiner der beiden Pappnasen sieht ein, mal eine massive Preisreduzierung anzustreben oder die Produkte besser zu vermarkten, oder Treiberprobleme zu fixen oder was sonst noch so alles auf der Agenda steht, super, Daumen hoch.
Wenn echt erst 2025 (und gnade allen Gott wenn erst gegen Ende des Jahres) neue Karten kommen und dann immer noch so mickrigen VRAM haben, dann können wir uns auf Ruckelorgien, Detailreduzierung und noch 1000 weiteren News zu schlecht performenden Games (die sowieso alle mies optimiert sind) gefasst machen. Und die einzigen Karten die da einigermaßen unbeschadet rauskommen werden sind die derzeitigen absoluten Highend Modelle....

Eigentlich kann man nur jedem raten: Kauf eine Konsole, wenn euch Ärger erspart bleiben soll, oder paar tausender ins Hobby reinbuttern - oder Alternativ: einfach aufhören und in den Wald gehen ^^

So ich hör schon wieder auf mit meiner Negativität^^.
 
Taurus104 schrieb:
FG (Frame Generation) und niedrige Latenz in einem Satz?
Weil DLSS 3 bzw. Frame Generation ja bedingt, dass die Entwickler auch Reflex implementieren, ist die Latenz in der Regel mit FG sogar niedriger als nativ, gerade wenn noch DLSS Super Resolution hinzukommt. Natürlich nicht niedriger als nativ (mit SR und) mit Reflex, aber immerhin.

Imho: Vor DLSS 3 hat es niemanden gejuckt, ob ein Spiel Reflex bietet oder nicht. Und jetzt krähen alle nach der Latenz, die in jedem Fall besser ist als nativ ohne DLSS SR und ohne Reflex. FG ist bestimmt nicht perfekt, aber die Debatte um die Latenz ist eher eine Nebelkerze.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und Unti
DaHell63 schrieb:
In 2 Wochen sind es dann 150W^^
Der wichtige Satz ist wohl beim Kopieren verloren gegangen:
Mit im Schnitt rund 112 Watt kommt man der Aussage mit den 110 Watt im Gaming schon recht nahe, immerhin etwas.

RTX 4060.png
 
Zuletzt bearbeitet:
Vitche schrieb:
Weil DLSS 3 bzw. Frame Generation ja bedingt, dass die Entwickler auch Reflex implementieren, ist die Latenz in der Regel mit FG sogar niedriger als nativ, gerade wenn noch DLSS Super Resolution hinzukommt. Natürlich nicht niedriger als nativ (mit SR und) mit Reflex, aber immerhin.

Imho: Vor DLSS 3 hat es niemanden gejuckt, ob ein Spiel Reflex bietet oder nicht. Und jetzt krähen alle nach der Latenz, die in jedem Fall besser ist als nativ ohne DLSS SR und ohne Reflex. FG ist bestimmt nicht perfekt, aber die Debatte um die Latenz ist eher eine Nebelkerze.
Sehe ich anders und kann deine Aussage nur für Singleplayer Titel gelten lassen. Nur hier mag die Latenz nicht so wichtig sein. In Online Titeln und kompediven Games aber umso mehr und das ist auch nicht erst seit gestern so und für Spieler solcher Spiele auch ein wichtiger Punkt. Weshalb Frame Generation in Online/Multiplayertiteln auch weiterhn obsolet ist.

Reflex schafft es eben nicht immer und in allen Titeln sowie Situationen während des Spiels, die Latenz auf oder unterhalb von nativ zu halten.

Deshalb ist das Ganze auch weiterhin keine Nebelkerze sondern ein weiterhin berechtigter Kritikpunkt an Frame Generation.
 
Gut das ich nicht gewartet habe hab mein Wunschmodel für 570€ geschossen und meine 1070 ti noch für 150€ verschleudert 420€ für ne 16GB Karte mit dem Design meiner Wahl das geht für mich völlig fein!
 
  • Gefällt mir
Reaktionen: Grundgütiger
@Taurus104 FG ist in erster Linie ja dafür konzipiert, im CPU-Limit mehr Frames zu liefern. Das heißt bzgl. der Latenz limitiert dann eh die CPU. Und wenn man in E-Sports-Spielen im CPU-Limit landet, dann erst bei paar hundert FPS. Da ist die Latenz schon so niedrig, wirf noch Reflex drauf, meine Güte. DLSS 3 wird dir den Input-Lag in dem Szenario schon nicht verhageln, wobei man imho eh nicht noch mehr FPS braucht und dann auch auf FG verzichten kann.

Dass sich FG wiederum primär für Grafik-Knüller und Singleplayer eignet, ist denke ich jedem bewusst. Und da ists dann eben wirklich zweitrangig ob die Latenz, die natürlich wichtig ist - am wichtigsten sogar möchte ich meinen -, von nativem Rendering ausgehend niedriger (DLSS SR + FG + Reflex) oder noch niedriger (nur SR + Reflex) wird.
 
Taurus104 schrieb:
FG (Frame Generation) und niedrige Latenz in einem Satz? :)
In dem Fall schrieb ich ja davon, dass die Grund FSP hoch genug sein müssen, damit die Latenz niedrig ist. Dann kann FG Spaß machen, weil Animationen und Co runder wirken und der Bildlauf glatter.

Sollte die Latenz ohne FG bereits mies sein, trotz DLSS, hat man zwar ein tolles Bild Gefühl, es fühlt sich aber falsch an.
 
  • Gefällt mir
Reaktionen: HierGibtsNichts und Millennial_24K
Vitche schrieb:
Vor DLSS 3 hat es niemanden gejuckt, ob ein Spiel Reflex bietet oder nicht. Und jetzt krähen alle nach der Latenz, die in jedem Fall besser ist als nativ ohne DLSS SR und ohne Reflex. FG ist bestimmt nicht perfekt, aber die Debatte um die Latenz ist eher eine Nebelkerze.
Und vor allem ist die Diskussion um "Latenz" ja bei den Titeln die DLSS3 brauchen, weils anders nicht geht sowieso sinnbefreit, weil das keine E-Sports Titel sind.
Ein CS:Go oder Overwatch oder sonst was wo es auf die Latenz wirklich ankommt haben eh so viel FPS, dass es mit FG (wenn es unterstützt werden würde) eh nicht laufen müsste, ergo nicht benötigt wird.

Ich bin ja mal auf FSR3 gespannt, ob das überhaupt noch erscheint werden wir sehen und ob das von der Latenz ähnlich gut wird - keine Ahnung.
Was ist bei AMD eigentlich die derzeitige Konkurrenztechnik zu Reflex?
 
  • Gefällt mir
Reaktionen: Rockstar85 und HaRdWar§FreSseR
DevPandi schrieb:
FG ist geil, wenn die Grafikkarte genug Frames gerendert bekommt, damit die Latenz niedrig ist, und gleichzeitig dass das Bild dann auf einem entsprechenden Monitor glatt gezogen wird.
Genau. Die Technik ist perfekt dafür geeignet, um effizient seinen 120....144Hz Monitor zu befeuern.
Ergänzung ()

Unti schrieb:
Eigentlich kann man nur jedem raten: Kauf eine Konsole, wenn euch Ärger erspart bleiben soll
Ich besitze tatsächlich seit Herbst letzten Jahres eine PS5 und weiß sie nicht nur wegen der Exklusivtitel zu schätzen ;) Nur bereue ich es heute sehr, dass ich so viele Multi-Plattform-Titel zuvor bereits für Steam gekauft habe...
 
Zuletzt bearbeitet:
Es spricht wenn man ehrlich ist nichts für AMD.
Stromverbrauch deutlich höher, schlechtere RT Leistung und das Upscaling ist absolut chancenlos gegen DLSS2, siehe unten.
So gut wie alle Spiele sind auf NV optimiert.
Das sollte man eigentlich immer im hinterkopf haben ! Das bedeutet nicht direkt höhere Frames, sondern das generell weniger Probleme auftreten wie zb. unerklärliche Ruckler, Flackern usw.

AA und Indie betrifft es natürlich am stärksten.

https://www.pcgameshardware.de/Graf...-Technologien-im-optischen-Vergleich-1417201/
 

Anhänge

  • Screenshot 2023-07-17 at 20-30-23 AMD FSR 2 vs. Nvidia DLSS 2 Upscaling mit KI sieht fast imme...png
    Screenshot 2023-07-17 at 20-30-23 AMD FSR 2 vs. Nvidia DLSS 2 Upscaling mit KI sieht fast imme...png
    29,6 KB · Aufrufe: 128
  • Screenshot 2023-07-17 at 20-19-33 AMD FSR 2 vs. Nvidia DLSS 2 Upscaling mit KI sieht fast imme...png
    Screenshot 2023-07-17 at 20-19-33 AMD FSR 2 vs. Nvidia DLSS 2 Upscaling mit KI sieht fast imme...png
    589,3 KB · Aufrufe: 128
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Schon komisch, dass ich bei Last Of Us und Dead Space auch mit einer Nvidia RTX 3060 12GB in Full HD Hänger/Ruckler hatte, obwohl die Framerate hoch genug war.
Das dürfte ja nicht passieren, wenn hauptsächlich auf Nvidia optimiert wird.

Könnte vielleicht daran liegen, dass die meisten Spiele vor dem Portieren auf AMD-Hardware optimiert werden ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Es liegt hier an den Spielen ;

DEAD SPACE


Screenshot 2023-07-17 at 21-10-09 Dead Space Remake im Technik-Test Benchmarks (FHD WQHD & UHD...png

Screenshot 2023-07-17 at 21-13-42 Dead Space Remake im Technik-Test Benchmarks (FHD WQHD & UHD...png


Last of Us
Es gibt auch hier weniger Ruckler mit einer NVIDIA karte.

Screenshot 2023-07-17 at 21-17-00 The Last of Us Part I im Technik-Test Benchmarks (FHD WQHD &...png
 
Zuletzt bearbeitet:
Deelray schrieb:
Es spricht wenn man ehrlich ist nichts für AMD.
Das stimmt ja auch nicht, bei AMD gibts in der Regel mehr Grafikspeicher in einer gegebenen Preisklasse (die olle 7600 ignorieren wir mal eben …) und das FPS/Euro-Verhältnis ist auch besser als bei Nvidia, wenn kein Raytracing zum Einsatz kommt.
 
  • Gefällt mir
Reaktionen: Icke-ffm, Casillas, schneeland und eine weitere Person
Unti schrieb:
Echt? 55%, von welcher Quelle hast du das? Das wäre totaler Wahnsinn, so viel Defekt.
Ist das dann Ausschuss? Also direkt in die Tonne? Bin gerade etwas verstört.

Die Zahlen gingen heute durch die Presse, habe eben auch ein paar Artikel durchgeflogen. Sind wohl Annahmen von Analysten. Dazu gibt es auch ein paar Artikel das Apple als einer der Key Kunden von TSMC nur für "known good Wafers" bezahlt und komplette Schrottwafer direkt zu Lasten von TSMC gehen. Weiterhin wird spekuliert das die Waferkosten bzgl. der Arizona Fab Investitionen massiv explodieren werden. Folgende Yields werden aktuell angenommen:

TSMC 4nm: yield 80%
TSMC 3nm: yield 55%

Samsung 4nm: yield 75%
Samsung 3nm: yield 60%

Hier z.B. https://m.kmib.co.kr/view.asp?arcid=0018468798 ist wohl eine der originaleren Qullen.

Aber auch Google findet einige zumindest Englischsprachige Artikel.
 
  • Gefällt mir
Reaktionen: Unti und Rockstar85
DevPandi schrieb:
In dem Fall schrieb ich ja davon, dass die Grund FSP hoch genug sein müssen, damit die Latenz niedrig ist. Dann kann FG Spaß machen, weil Animationen und Co runder wirken und der Bildlauf glatter.

Sollte die Latenz ohne FG bereits mies sein, trotz DLSS, hat man zwar ein tolles Bild Gefühl, es fühlt sich aber falsch an.
In Singleplayer Titeln wie gesagt kann ich die Argumentation nachvollziehen, für Online Multiplayer Games oder Kompedive Games definitiv nicht.
 
Der Aufpreis ist nicht der rede wert und das Geld bekommst du zurück (Stromrechnung)

Nehmen wir die RTX4070 und RX6800XT, kosten in etwa gleich viel momentan.
NVIDIA ist allerdings in allen disziplinen überlegen.

Screenshot 2023-07-17 at 21-45-19 Nvidia GeForce RTX 4060 mit 8 GB im Test Taktraten und Bench...png
Screenshot 2023-07-17 at 21-46-44 Nvidia GeForce RTX 4060 mit 8 GB im Test Taktraten und Bench...png


Screenshot 2023-07-17 at 21-50-20 Nvidia GeForce RTX 4060 mit 8 GB im Test Lautstärke Temperat...png


100W sind bei den heutigen Strompreisen nicht wenig.
Was will eine lahme 6800/xt mit 16GB ? ..davon wird die Karte nie gebrauchen machen, falls doch dann nur bei sehr niedrigen FPS-Zahlen.
12GB passen einfach perfekt zu der Leistung (RTX4070)

16GB erst ab RTX4080 und höher.

Die VII hatte auch 16GB und was hat es der GPU gebracht ? Richtig, nichts.
Raytracing kommt in jedem neuen Spiel zum einsatz, sogar ältere bekommen es nachgereicht (siehe Anhang) ! Must-have feature.
 

Anhänge

  • Screenshot 2023-07-17 at 21-48-36 Nvidia GeForce RTX 4060 mit 8 GB im Test Lautstärke Temperat...png
    Screenshot 2023-07-17 at 21-48-36 Nvidia GeForce RTX 4060 mit 8 GB im Test Lautstärke Temperat...png
    96,4 KB · Aufrufe: 114
  • Screenshot 2023-07-17 at 22-05-38 Watch Dogs Legion тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
    Screenshot 2023-07-17 at 22-05-38 Watch Dogs Legion тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
    50,2 KB · Aufrufe: 113
  • Screenshot 2023-07-17 at 22-11-16 Crysis Remastered тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
    Screenshot 2023-07-17 at 22-11-16 Crysis Remastered тест GPU_CPU 2023 Action _ FPS _ TPS TEST ...png
    71,4 KB · Aufrufe: 116
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Deelray schrieb:
Es spricht wenn man ehrlich ist nichts für AMD.
Schlicht nicht richtig und zu einseitig betrachtet. Beabsichtigt?
Der gute Vichte hat es auch schon passend beantwortet.
Zudem sind Nvidia Modelle auch nicht frei von Kritikpunkten, die hinlänglich bekannt seien sollten, technisch, Marketingtechnisch und preislich.
 
  • Gefällt mir
Reaktionen: Rockstar85
Artanis90 schrieb:
Bist du eigentlich der Lolliedieb, der die Miner ich meine den Lolminer entwickelt hat?

Nicht hat, ich tue das immer noch ;) Auch wenn aktuell das sehr unterm Radar der Meisten ehemaligen Miner laufen dürfte, zumindest hierzulande - naja gut, was will man erwarten, wenn der Markt zu 90% einbricht. Auch wenn das den Gamern hier mit Sicherheit gar nicht so unrecht ist ^^

Was mining konkret angeht muss man bei meiner Ausführung konstatieren, dass Nvidia das Potential zuletzt besser ausgeschöpft hat - als Ethereum Mining noch ein heißes Eisen war, da wurde hauptsächlich Speicherbandbreite und Speicherlatenz nachgefragt - beides Dinge, die von Turing zu Ampere rapide besser geworden sind (nehmen wir mal LHR bei Seite ... das ist ein Kapitel für sich), während bei der Bandbreite eine 3070 schon mehr konnte als eine 6900XT. Die RX 7000 Karten wären bei Ethereum Mining mit Sicherheit sehr beliebt geworden - nur kamen sie just in dem Moment heraus, als das endete....

Seit dem sind die meisten neuen bzw gehypten Coins eher mit Algorithmen erschienen, die viel Kernleistung erfordern und weniger die Speicherbandbreite. Und mit diesen Algorithmen laufen RDNA 2 Karten recht gut, aber die RDNA 3 bringen praktisch keinen Mehrwert - während Ada gerade in dem Punkt gegen Ampere gut zugelegt hat. Auf die Miner braucht AMD aktuell also nicht zu hoffen was RDNA 3 Verkaufszahlen angeht. Auch wenn ich weiß, dass viele das Mining ohnehin nicht gut finden, muss ich dennoch sagen: schade eigentlich, denn ich gönne AMD jeden wirtschaftlichen Erfolg, weil nur ihre Konkurenz zu Nvidia (und bei CPUs zu Intel) überhaupt dafür sorgt, dass es noch ein gewisses Entwicklungstempo und so etwas wie bezahlbare Preise gibt - wären beide Märkte reine Monopole sähe es noch düsterer aus als so schon.
 
Zurück
Oben