News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

In 2 Wochen sind es dann 150W^^

RTX 4060TI.png
 
TigerherzLXXXVI schrieb:
Der Preisunterschied liegt bei ca. 200€, das wären ca. 20% Aufpreis für eine RTX 4080. Das macht die RX 7900 XTX zu einem sehr starken Gegner. Wenn da mal nicht das typische Kaufverhalten von den allermeisten PC-Gamern wäre...


Hier das Gleiche: Früher war die RX 7900 XT noch etwas teurer als die RTX 4070 Ti. Da sie sich mittlerweile preislich angenähert haben, ist die Radeon der etwas bessere Deal. Nicht allein wegen 20GB VRAM, auch die Rasterleistung ist etwas besser. Und Raytracing braucht auch längst nicht jeder Gamer, zumal die Geforce mit 12GB je nach Szenario bereits heute Probleme in dem einen oder anderen Spiel bekommt.
Hatte eine RX 6900 XT (direkt von AMD) vor meiner RTX 4090, da mir Marke grundsätzlich Latte ist, wenn die Leistung und die Funktion stimmen.

Black Screen Bug nahezu jedes Mal nachdem man den Rechner für 1-2 Minuten verlassen hat. Trotz Netzteil Wechsel auf 1500W (bei wenigen anderen hatte wohl ein Netzteil Tausch Besserung gebracht) keine Besserung bis zum bitteren Ende … letztendlich wohl ein ätzender Treiber Bug, der hoffentlich nachgebessert wurde … laut Google bin ich weit nicht der einzige mit diesem Problem gewesen.

Höllisches (!) Spulenfiepen

Richtung 50W Idle Verbrauch bei 2 Monitoren …

Kein DLSS, FSR nur in deutlich weniger Spielen.

(So gut wie) kein Raytracing möglich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Woooooow

Ende August kommt die midrange. Wie lange gibts RDNA 3 nun schon?

AMD 🤦‍♂️
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
[wege]mini schrieb:
Denn eine Skalierung mit einem Takt von rund 1.000 MHz über dem letztlichen Boost-Takt der im Handel erhältlichen Produkte ist nur mit einer entsprechend langen Grafik-Pipeline möglich – und eine lange Pipeline kostet Latenzen und damit schlussendlich Rechenleistung pro Takt.
Da muss ich jetzt aber dazwischen grätschen: Nein, nein, nein, nein, nein, nein, nein, nein, nein nein und nochmals nein!

Bitte verwechsel nicht die Grafik-Pipeline mit der Pipeline eines Rechenwerks/Prozessors. Das sind zwei paar sehr unterschiedlicher Schuhe und haben, bis auf das "Pipeline"-Prinzip, nicht viel miteinander zutun und die Grafik-Pipeline hat keine Auswirkung auf die Taktfähigkeit der GPU.

Die Grafik-Pipeline beschreibt die einzelnen Schritte, die notwendig sind, damit aus mathematischen Daten ein Bild wird, es sind also die einzelnen Arbeitsschritte, die sowohl in der Engine als auch dann später auf der GPU ausgeführt werden. Jeder der Schritte in der Grafik-Pipeline kann je nach Aufwand, der betrieben werden soll, jedoch aus einer weiteren Vielzahl an komplexeren Unterprogrammen bestehen und dir hätte genau das auffallen müssen, wenn du weiter runter scrollst in dem Text.

Die Grafikpipeline besteht - ich vereinfache stark - aus verschiedenen Schritten und davon werden auch nur ein Teil auf der GPU ausgeführt.

1. Animiere Objekte
2. Passe Objekte an (Tesselation, Transform und Co)
3. 3D zu 2D Transformation
4. Raster Polygone
5. Hole Texturen.
6. Passe Pixel an (Pixel-Shader)
7. Post-Processing

Das ist die Grafik-Pipeline und beschreibt eher das vorgehen im Softwarestack. Was du meinst ist die Pipeline im Rechenwerk und die kann bei RDNA3 "länger" sein, als bei RDNA2, aber dann reden wir hier davon, wie die Rechenwerke oder in dem Fall dann die CU als auch da andere Bestandteile arbeiten.

Klassich bei einer CPU - auch stark vereinfacht: FETCH - Befehl aus dem Cache holen -> DECODE - Befehl decodieren -> LOAD - Daten aus dem Registerfile ziehen -> EXECUTE - Befehl ausführen -> WRITE -> Die Daten zurück ins Registerfile schreiben.

Dazu sind die Pipelines in GPUs - im Vergleich zu CPUs - immer relativ kurz, da GPUs in den einzelnen Rechenwerken "relativ" simpel aufgebaut sind.

Die IPC in einer GPU - wenn man das denn da wirklich so nennen mag - wird durch andere Faktoren beinflusst und weniger Stark durch die Pipeline der Rechenwerke. Da ist die Auslastung auf "SIMD"-Ebene wesentlich entscheidender.
 
  • Gefällt mir
Reaktionen: [wege]mini, alkaAdeluxx und HierGibtsNichts
Meine Sapphire RX 6800 XT Nitro+ schafft im 3DM TS > 19.000 Pkt. Die neue RX 7800 - also nominal die direkte Nachfolge - kommt mutmaßlich auf knapp 19.000, wenn werks-oc.

Wahnsinn, dieser technische Fortschritt in > 2 Jahren :rolleyes:.

Und von FSR 3.0 nach wie vor weit und breit nichts zu sehen.

Auch beim VRAM kein Mehrwert.

Und ja, ich könnte zur RX 7900 XT greifen: bringt mir rd. 30% mehr Leistung für rd. 30 % mehr Geld => supi!

Na ja, da muss es AMD halt über den Preis regeln - oder der Markt regelt :evillol:. Und der "Markt" mag nun mal "grün" mehr als "rot", egal warum und ob zu Recht oder nicht. Für AMD gibt's eben keinen "Image-Bonus" wie für nVidia. Ohne ein gleichwertiges DLSS 3.0-Pendant, mit vermutlich immer noch schlechterer RT-Performance und - sehr wahrscheinlich - deutlich höherem Stromverbrauch muss man entweder für 600 Tacken die RTX 4070 @ Raster deklassieren (sehe ich nicht bei diesem TS Score) oder darf nicht mehr als 500-550 € verlangen - sonst wird's wieder nix mit "Poor Volta"...

Freue mich schon auf die Reviews von CB und PCGH, vor allem aber auch auf GN und HWUB mit deren ganz "speziellem" Humor...:D

LG N.
 
  • Gefällt mir
Reaktionen: Rockstar85 und HaRdWar§FreSseR
.Snoopy. schrieb:
Sollte das wirklich so sein, ist AMD dämlicher als ich dachte. Die hätten schon sehr früh die 6000er heruntersetzen müssen, um Nvidia unter Druck zu setzen und hätten dann schon längst die neuen Karten auf dem Markt gehabt. Ich verstehe nicht, was bei AMD echt daneben läuft. Manchmal glaube ich, die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
Geh mal davon aus das in einem milliardenschweren Unternehmen wie AMD durchaus ein paar Menschen arbeiten die recht genau ausrechnen können welche Verkaufsstrategie am meisten Profit abwirft.
 
  • Gefällt mir
Reaktionen: bensen, SIR_Thomas_TMC, sporenfrosch und eine weitere Person
.Snoopy. schrieb:
die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
Richtig so seh ich das auch die wollen ihre Teile nur noch so Teuer wie möglich verkaufen ,weil sie verstanden haben das sie eh nicht mehr an Nvidia rankommen.
Ergänzung ()

bei mir sind die Würfel gefallen meine nächste Graka wird ne 4070 ohne Ti (damit bleib ich auch der 70er Reihe treu)
mit dem AMD gedöns kann ich Sorry.... nix anfangen,dieses rumgeeier geht mir auf die Nuss
 
  • Gefällt mir
Reaktionen: .Snoopy.
[wege]mini schrieb:
Die 3060Ti für 299 Euro ist aktuell echt nicht schlecht.
RT kann man bei der karte sowieso vergessen und wenn man das restlichen zusatzzeugs auch nicht benötigt, sondern wirklich nur reine spielleistung, dann würde ich eher die 6700XT kaufen
kostet etwas mehr, aber dafür 12GB RAM

ich frag mich was die 7700 kosten soll, wenn sie irgendwo zw der 6700XT und 6800 sein soll
die 6700XT gibt es für unter 350€
 
  • Gefällt mir
Reaktionen: anarchie99 und SIR_Thomas_TMC
Taurus104 schrieb:
Das hat mit Sweetspot wenig zutun. RDNA 3 bzw. Navi 33 nutzt halt auch Teillastbetrieb immer ihr max. mögliches Powerbudget um entsprechende Performance zu erreichen, im Teillast Bereich braucht Ada weniger Strom, das macht die Karten effizient. Aber auch hier hatte AMD bereits nochmal nachgebessert mit dem 22.12.2

AMD muss halt mit dem arbeiten was die neuste Architektur hergibt und versuchen damit konkurrenzfähig zu sein.

https://www.computerbase.de/2022-12...ition-22-12-2-soll-den-stromverbrauch-senken/

Das Thema mit dem hohen Idle Verbrauch wurde doch schon mehrfach besprochen. Es ist kein AMD only Problem. Gibt es auch bei Intels Arc und auch bei Nvidia (4060 mit 52W Powerdraw im Idle lt. Igorlab) Das Ganze ist stark abhängig von der individuellen Monitorkonfiguration. Der 23.7.1 hat hier bekanntermaßen nachgearbeitet für Viele und auch gibt es einen inoffiziellen Workaround mit CRU Tool oder via Treiber mit Custom Resolution via Adrenalin Software.
PCGH schreibt hier auch nicht umsonst: "Nun handelt es sich keineswegs um ein repräsentatives Ergebnis - Display-Geschichten wie diese hängen erfahrungsgemäß sehr mit der Konfiguration zusammen."

Ähnlich wie bei Nvidia, ist auch bei AMD das Hauptaugenmerk schon länger nicht mehr der Consumer Desktop Markt auf den Sie sich konzentrieren und mit dem Sie ihre großen Gewinne erzielen.

Ich verwende die 4070 wie gesagt als Referenz. Die hat in keinem einzigen Testszenario Effizienzprobleme. Sonst hätte ich gerne eine 7900XT mit 20GB gehabt. Aber mit der hat man einfach in jedem Szenario etwas bis extrem höheren Stromverbrauch. Auch bspw. bei Monitoren mit 144Hz. Da kann man leider sagen was man will, es nützt halt einfach nichts. Hätte selbst gerne wieder mal eine AMD drinnen.
 
CiX schrieb:
Woooooow

Ende August kommt die midrange. Wie lange gibts RDNA 3 nun schon?

AMD 🤦‍♂️
10 Monate. Zur alten Generation 2 Jahre und 7 Monate zur RX6800. Im übrigen genauso lange wie zwischen 3070 und 4070.
 
  • Gefällt mir
Reaktionen: CiX
"und damit knapp unter der Radeon RX 6800."
Naja, das haut mich jetzt nicht vom Hocker. Damit ich meine RX6800 mit der neuen ersetze muss schon was besseres kommen.
Philste schrieb:
Alle sind sie von deutlich höherem Takt und damit höherer Performance ausgegangen.
Wahrscheinlich auch AMD. Ich gehe davon aus, dass die Vermutung stimmt, dass auf der Zielgeraden irgendwas gehörig schief lief. Ich wüsste halt gerne was genau. Ob wir das noch erfahren werden ...?
 
themk schrieb:
Ich verwende die 4070 wie gesagt als Referenz. Die hat in keinem einzigen Testszenario Effizienzprobleme. Sonst hätte ich gerne eine 7900XT mit 20GB gehabt. Aber mit der hat man einfach in jedem Szenario etwas bis extrem höheren Stromverbrauch. Auch bspw. bei Monitoren mit 144Hz. Da kann man leider sagen was man will, es nützt halt einfach nichts. Hätte selbst gerne wieder mal eine AMD drinnen.
Eine 7900XT und eine 4070 sind halt auch völlig unterschiedliche Leistungsklassen. Zudem habe ich in meinem Post geschrieben wiso Ada effizienter ist was ich nicht abstreite. Aber AMD bei RX 7000 auch schon nachgebessert hat seit Release. 22.12.2 Teillastbetreib, 23.7.1 Idle Powerdraw. Auch zu Idle Powerdraw stand was im zitierten Text. Den zitierten Text wirklich gelesen? Es ist kein AMD only Problem sondern ein Problem der individuellen Monitorkonfiguration. Schließe an deine 4070 mal einen der neuen Oled 4k 144hz und eine 1080p TN mit 144hz. Du wirst dich wundern was deine 4070 dann plötzlich im Idle saufen kann. 40W+ kein Problem. Musste ich selbst bei einem Bekannten mit 4090 dieser Tage fixen.

Ich würde mir 2023 für WQHD keine Karte mit nur 12 GB und einem 192bit Speicherinterface einbauen zu dem Preis, wenn es etwas günstiger eine 6800XT mit 16GB/256bit oder zum gleichen Preis eine 20% schnellere 6900XT gibt. 12GB/192bit bot eine 6700XT schon 2020 nur das eine 6700XT mehr Cache hat um das Speicherinterface zu kompensieren. Effizienz ist nunmal nicht für Jeden der einzig relevante Aspekt sondern einer von Mehreren.
Ergänzung ()

Nobbi56 schrieb:
Wahnsinn, dieser technische Fortschritt in > 2 Jahren :rolleyes:.
Eine 4060ti bietet zur 3060Ti 9%
Da sind die 17% der RX7800 dann schon fast ok. Mehr wäre immer schön.

Nach den Benchmarks wäre eine 7800 5%+ schneller als eine 4070.
Auch eine 4070 hat nicht nur Pluspunkte im Vergleich dann mit eine RX7800.

Und FG wird zuviel Hype und Marketing gemacht. Es ist ein nice to have aber kein must have. Das Rohleistung wichtiger ist sieht man an der 4060 oder 4060TI sehr deutlich. Davonab ist mein Tipp FSR 3 mit dem Launch der 7700/7800 und als erstes FSR3 Game Starfield im September.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: rasenschach, danyundsahne und V_182
Taurus104 schrieb:
Und FG wird zuviel Hype und Marketing gemacht.
FG ist geil, wenn die Grafikkarte genug Frames gerendert bekommt, damit die Latenz niedrig ist, und gleichzeitig dass das Bild dann auf einem entsprechenden Monitor glatt gezogen wird.
 
  • Gefällt mir
Reaktionen: Grundgütiger
@Taurus104 , akzeptiere doch einfach den Rahmen anderer User.
Si ohne Speicher Typ ist auch herzlich wenig Info.
RTX 4070 mit 504gb/s
RX 6800XT mit 512gb/s
Radeon 7 mit 1024gb/s

Und schon hat man dem 256bit Si Monster die Zähne gezogen.
Und kann sich gleich die Frage stellen warum die high ein RDNA2 Chips nur ein 256bit Si haben?
 
Grundgütiger schrieb:
@Taurus104 , akzeptiere doch einfach den Rahmen anderer User.
Si ohne Speicher Typ ist auch herzlich wenig Info.
RTX 4070 mit 504gb/s
RX 6800XT mit 512gb/s
Radeon 7 mit 1024gb/s

Und schon hat man dem 256bit Si Monster die Zähne gezogen.
Und kann sich gleich die Frage stellen warum die high ein RDNA2 Chips nur ein 256bit Si haben?
Ich kann andere Meinungen tolerieren, akzeptieren muss ich Sie nicht! Weil meine Meinung ebenso valide ist. Also warum nicht einfach auch mal meine Meinung tolerieren? ;)
Ergänzung ()

DevPandi schrieb:
FG ist geil, wenn die Grafikkarte genug Frames gerendert bekommt, damit die Latenz niedrig ist, und gleichzeitig dass das Bild dann auf einem entsprechenden Monitor glatt gezogen wird.
FG (Frame Generation) und niedrige Latenz in einem Satz? :)
 
Irgendwie viel zu spät meiner Meinung nach, die Serie wurde am 3. November 2022 released und das Lineup ist immer noch nicht vollständig draußen? Nach fast einem Jahr wäre es mal Zeit für die 7X50er Modelle mit etwas mehr Leistung. :confused_alt:
 
Zurück
Oben