News AMD Radeon RX 7600: Bilder zeigen die Sapphire RX 7600 Pulse mit 8 GB Speicher

  • Gefällt mir
Reaktionen: Piep00, C4rp3di3m, Banker007 und eine weitere Person
Dai6oro schrieb:
Alle Hersteller haben dann bei weiteren Releases die UVP deutlich erhöht damit nicht nur die Händler den Gewinn einstreichen. Beispiel die 3080ti mit UVP weeeeeit über einer 3080. Das sind Beispiele die nicht für einen Vergleich taugen, weil die Umstände ganz andere waren.
Und wie sind die Umstände jetzt?
Die UVPs der neusten Nvidia Karten sind doch ebenso weit höher als bei Ampere und AMD macht es nicht großartig anders.
Daher sehe ich keinen Grund zur Annahme, dass die 7600 keine höhere UVP bekommt, als die 6600 hatte.
 
  • Gefällt mir
Reaktionen: Mcr-King und Samuelz
Weil es Konkurrenz gibt sowohl im eigenen Haus (6700 und 6700XT) als auch bei Konsolen (Preispunkt für ne PS 5 = 450€ lieferbar) und weil sie keine Rechtfertigung haben bzgl. Lieferketten etc. Daher glaube ich das. Wenn sie das dennoch tun. Ja kann ihnen keiner vorschreiben aber ein Erfolg kann das dann nicht mehr werden. Zur Zeiten der Pandemie hatten die Leute keine! Wahl.
Man sieht ja auch das die Produkte zu viel kosten. Das mag im Enthusiastenlevel noch recht egal sein ob die 300€ mehr oder weniger kosten aber im Entrylevel schauen die Leute ganz genau auf den Preis.
 
  • Gefällt mir
Reaktionen: Piep00 und Mcr-King
Keiner dieser Karten taugt was von Speicherinterface wie auch die die anbindung des PCIe sollte man all diese Karten im Regal stehen lassen
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Dai6oro schrieb:
Man sieht ja auch das die Produkte zu viel kosten. Das mag im Enthusiastenlevel noch recht egal sein ob die 300€ mehr oder weniger kosten aber im Entrylevel schauen die Leute ganz genau auf den Preis.
Dass stimmt und was viele vergessen dort wird am meisten verkauft.
 
Moritz Velten schrieb:
Wieso leider?

Der Fortschritt ist nun mal nicht aufzuhalten.

Wollte damit sagen, dass die Karten gerne früher kommen könnten
 
  • Gefällt mir
Reaktionen: Mcr-King
Samuelz schrieb:
Ich sehe ehrlich gesagt, überhaupt keine Probleme mit 8GB Karten weder in 1440p noch 4K.
Mach den Test mal in 1080p ohne DLSS.
Das wäre schließlich die Auflösung, für die die RX 7600 geeignet sein soll.
 
  • Gefällt mir
Reaktionen: Mcr-King und Samuelz
Cerebral_Amoebe schrieb:
Mach den Test mal in 1080p ohne DLSS.
Das wäre schließlich die Auflösung, für die die RX 7600 geeignet sein soll.
Das wäre in der Tat so. Aber, das sollte ja schon den Worst Case darstellen. 1080p wurde nochmal einige hundert MB einsparen, vermutlich so 500MB-1GB.
 
  • Gefällt mir
Reaktionen: Mcr-King
DLSS verringert doch auch den VRAM-Verbrauch, deswegen der Test ohne DLSS ;)
Nur Frame Generation erhöht wieder den VRAM-Verbrauch, was ich mangels RTX4000 nicht testen kann.
 
Dai6oro schrieb:
aber im Entrylevel schauen die Leute ganz genau auf den Preis.
Das stimmt, Aber was ist der Entry Level ? FHD Ultra Preset? Oder Fhd hoch? Häufig ist es Mittlerweile, das das reduzieren der Auflösung nicht wirklich, viel mehr Performance beschert. Da auch in Fhd Leistung gefragt wird , von der Technik des Spieles.


Wenn Auflösung und RT die Grenzen zwischen Entry/midrange/high bildet, dann hast du die Rechnung nicht mit den Spielestudios gemacht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Es ist teilweise eben nicht nur eine einzelne Komponente die die Leistung bestimmt. Nicht nur GPU oder nur CPU, es muss beides halbwegs zusammenpassen.
Entry LVL ist das was in den eigenen Ansprüchen halbwegs läuft wie gewünscht.
 
Cerebral_Amoebe schrieb:
DLSS verringert doch auch den VRAM-Verbrauch, deswegen der Test ohne DLSS ;)
Nur Frame Generation erhöht wieder den VRAM-Verbrauch, was ich mangels RTX4000 nicht testen kann.
Mag sein. Ich habe kein Bock schon wieder die Games anzuschmeißen und das zu Posten. Kann ja auch jemand anderes machen, obwohl ich da kaum was erwarte, denn die meisten CB User halten an ihren VRAM "Wahnsinn" fest. Liefern aber selbst nie "Beweise"
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Samuelz schrieb:
Die ganze VRAM Diskussion wird von den Foren Usern total übertrieben dargestellt. Wahrscheinlich um seinen Frust über teure Preise auszudrücken. Ich sehe ehrlich gesagt, überhaupt keine Probleme mit 8GB Karten weder in 1440p noch 4K.

VRAM Verbrauch/Belegung @ 3080 Ti 12GB.

Last of Us, Ultra, Außer Schatten, 4K DLSS Q
7,7 Belegung, wirklich genutzt 7,3
Anhang anzeigen 1355974

God of War, Ultra, 4K, DLSS Q
7,2 Belegung, wirklich genutzt 5,7
Anhang anzeigen 1355975

Doom Eternal, Ultra, RT ON, 4K DLSS P
8,2GB, 7,8 wirklich genutzt
Anhang anzeigen 1355983


Dying Light 2 Max mit allen RT Optionen 4K, DLSS Q
6,8 GB Belegung, 6,3 tatsächlich genutzt
Anhang anzeigen 1355985

RDR2, Max paar Optionen auf High, DLAA 4K + diverse Mods
8,6 Belegung, 8GB wirklich genutzt
Anhang anzeigen 1355990

Dead Space Remake 2023 Max mit RTAO On, 4K, DLSS Q
8,1GB Belegung, 7,4 tatsächlich gebraucht
Anhang anzeigen 1355995

Miles Morales. Ultra mit RT Spiegelungen @ Ultra, reichtweite 7, 4K DLSS Q
10,3GB Belegung, tatsächlich gebraucht 9,9GB VRAM
Anhang anzeigen 1355997

Nice Fake. The Last of us soll in 4 k Ultra mit DLSS Q ohne Schatten sein? 7,3 GB vram usage? Computerbase sollte ja für dich glaubwürdig sein, sonst wärst du ja nicht hier.

Zitat aus dem Computerbase Test:

The Last of Us Part I bietet sehr hoch aufgelöste Texturen, die viele Details zeigen. Das verlangt nach viel Grafikkartenspeicher, wie sich im Test gezeigt hat. Wirklich sorgenlos spielt es sich erst ab 16 GB, bei kleineren VRAM-Bestückungen müssen teils große Einbußen in Kauf genommen werden.

Besonders schlimm ist es bei Grafikkarten mit nur 8 GB, denn dann müssen die schönsten Texturen selbst in Full HD gar nicht erst ausprobiert werden. Der Einfluss auf die FPS ist noch zu vernachlässigen, die immer wieder auftretenden Haker aber nicht mehr – sie stören sehr.

Auch 10 GB sind noch nicht genug um glücklich zu werden. Immerhin Full HD schafft die damit vertretene GeForce RTX 3080 problemlos, doch bereits ab WQHD geht das Haken wieder los: Das Frametime-Verlaufsdiagramm zeigt, dass es immer wieder kleinere Ruckler im Spiel gibt. Wird in Ultra HD DLSS Quality hinzugeschaltet, werden die Haker deutlich größer. Das ist schade, denn Rohleistung hat die Grafikkarte genug, so müssen die Texturdetails herunter gedreht werden.

Mit 12 GB spielt es sich in UHD mit DLSS Quality haarscharf an der Grenze. Der Benchmark lief ohne Probleme, doch wurde im Grafikmenü im laufenden Spiel auch nur eine Option angepasst, lief der VRAM wiederholt über und das Spiel ruckelte. Damit ist nicht auszuschließen, dass die 12 GB nach einer längeren Spielzeit ebenso zu wenig sind – das hat sich beim Test nicht prüfen lassen. Ultra HD als Renderauflösung, also ohne Upsampling, ist direkt viel für 12 GB.

https://www.computerbase.de/2023-03...llierte_oberflaechen_fordern_viel_vram_update
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: C4rp3di3m, Rock Lee und Mcr-King
Samuelz schrieb:
Ich sehe ehrlich gesagt, überhaupt keine Probleme mit 8GB Karten weder in 1440p noch 4K.
Ist das so, ja ?
Noch mögen es einzelne Titel sein, aber es wird sicher eher nicht besser werden


Für gelegentliches Casualgaming mit mittleren Details ohne irgendwelchen RT Schnickschnak kann man sich eine 8GB Karte heutzutage sicher noch kaufen wenn auch die Preise dementsprechend sind für Einsteigerkärtchen wie eine RX7600.
Spätestens die XT mit der aber auch langsam ambitioniertere Settings möglich sein werden täte gut daran etwas mehr Hubraum zu haben. Wobei AMD jetzt ja durch die 16er 4060 auch unter Druck steht nicht nur mit 12GB ums Eck zu kommen.

Allein die FPS & Frametimes auf dem Teaserbild vom nächsten Video zeigen ja schon wohin die Reise bereits bei 1080/1440 geht....
Matschtexturen inklusive ....

matsch.jpg matsch2.jpg

Planned obsolescence_ Why 8GB GPUS are no longer worth your money! (BQ).jpg


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@Samuelz
Dann guck dir bitte einfach mal das erste Video an.... da sind auch andere Titel drinn wie etwa RE4, Forspoken oder The Last of Us mit unterschiedlichen Auflösungen und Settings.... teilweise mit Sekundenlangen Hängern auf der 3070.
Ich hab jetzt keine Lust von jedem Game extra für dich zig Screenies von dem Video zu machen.
Etwas Eigeninitiative kann man hoffentlich ja erwarten wenn ich mir schon die Mühe mache die Videos zu verlinken und auch einige Beispielbilder zu bringen..... :/

Hier mal A plague Tale: Requiem - grottige Frametimes und einbrechende FpS,
während es auf dem RT-Schwächling aus dem Hause AMD durchaus spielbar ist.
A Plague Tale Requiem.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C4rp3di3m und Mcr-King
@gustlegga
Was soll mir das jetzt sagen? Die schlechten Frametimes und Spikes in Hogwarts laut Video, gibt ja schon in 1080p mit knapp etwas über 5,2GB im Prozess. Scheint ja dann eher nicht am VRAM zu liegen, weil der ist weit weg von Voll. Das man dann in 1440p unbedingt mit RT zocken "muss" obwohl die Radeon auch nur 30 FPS ausspuckt, ist natürlich sehr fragwürdig, und weit weg von Praxis nah.

C0rteX schrieb:
Ich glaub dir kein Wort.🤣 Ich bin raus. Viel Glück noch mit deinen Lebenszielen. 😉
Tja, da kann ich dir auch nicht helfen? Soll ich vlt. ein Video mit GeForce Experience aufnehmen? Oder schau es dir selbst an....Ich mach jetzt ein Video.
 
Samuelz schrieb:
Ist natürlich der aktuellste Patch. Ist so. Sry. Kannst ja gerne selber nachsehen.

@gustlegga Sry, mit Hogwarts kann ich nicht dienen, das Spielt tangiert mich nicht.
Ich glaub dir kein Wort.🤣 Ich bin raus. Viel Glück noch mit deinen Lebenszielen. 😉
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben