News AMD: Radeon RX 7900 GRE ab 579 Euro einzeln im Handel verfügbar

@Stahli

da solltest du lieber einen Beratungsthread mit ausgefülltem Formular starten :D weil du ansonsten genauso fragen könntest ob du heute schwarze oder weisse Socken anziehen sollst.
 
  • Gefällt mir
Reaktionen: Rockstar85
@PeacemakerAT Ich spiele aktuell Hauptsächlich RDR2 und Cyberpunk. RDR2 läuft an sich schon ganz gut aber bricht ab und zu dann doch mal unter 60 FPS. Und bei Cybepunk kann ich die Einstellungen halt voll aufdrehen. 😅 Ich glaube bei Metro Exodus konnte ich auch nicht komplett aufdrehen.

@Tornavida Ja da hast du recht. Ich glaube das geht hier sonst am eigentlichen Thema der News vorbei. 😅
 
Ben_computer_Ba schrieb:
Wohl aus gutem Grund,...

Da vielleicht nicht, aber wir reden hier eben von gpus im Desktop Bereich. Bessere Effizienz ist ein Baustein von Fortschritt, dieser eine Baustein reicht aber bei weitem nicht, um von Fortschritt sprechen zu können.

Der Ton kommt meistens so zurück, wie er gekommen ist. Wenn das schon unter aller Sau gewesen sein soll, dann möchte ich mal deine Reaktion auf anderen Tönen sehen, Verbesserung = Leistung X, Verbesserung = Effizienz X, Verbesserung= Leistung, Features, Effizienz ✓ eigentlich ganz einfach.

Haha, so typisch. Hat meine keine nVidia ist man AMD-Fanboy, hat man eine bekommt man auch noch einen doofen Spruch rein. Warum hab ich die 4070? Weil mir die höhere Effizienz wichtig war. Kleines Gehäuse und so.

Und ja, der Ton im Internet ist mir ein Graus. Warum kann man sich nicht so unterhalten, als Stände die Person vor mir?

Und nochmal zur Effizienz. Verbesserungen bei Verbrennungsmotoren hatten in den letzten Jahrzehnten hauptsächlich das Ziel, die Effizienz zu verbessern. Und das ist in vielen anderen Bereichen auch so.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Flaschensammler
Ben_computer_Ba schrieb:
Und eine falsche Namensgebung, mit dem Versuch möglichst viele unwissende Kunden zum Kauf zu bewegen, finde ich ebenfalls nicht gut, gleiches lässt sich diese Generation natürlich auch auf Nvidia beziehen.
Macht Nvidia das anders, ich glaube nicht und jeder Kaufinteressent kann sich informieren.
Wer blind nach der Modellbezeichnung kauft, kauft eh nur nach Hersteller und nicht nach Datenlage.
RTX 4060 ist eigentlich eine 4050, die 4060Ti eigentlich die RTX 4060.
Die RTX 4070Ti sollte eigentlich eine RTX 4080 werden, nur der shitstorm war zu groß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin
TigerherzLXXXVI schrieb:
Die 12GB der RTX 4070 Super und der RTX 4070 Ti machen sie aber "nur" zu reinen WQHD-Karten. Bei höheren Auflösungen sind sie alles andere als zukunftssicher. Das ist bei den Radeons anders, hier reicht der Speicher auch für 4K.
Das ist ein Scheinargument, genau wie bei der RX 6800 (XT). Guck mal, wo NVs 12GB-Karten der Speicher ausgeht, wenn überhaupt - in 4K mit RT, also genau die Anwendung, wo Radeons gnadenlos untergehen und kaum noch spielbare Frameraten lieben. Ich habe noch keinen Fall gesehen, wo die Radeon wirklich dank des Speichers nutzbar schneller ist.
Mr. Vega schrieb:
Es gab Spiele in denen die 7800XT gleich auf lag oder sogar leicht in Front. (siehe PCGH Test) Overall ist die 4070 Super in Rasterleistung 8-13% schneller. Die 4070 Super kostet aber auch min 130+ mehr, je nach Modell usw. Muss man halt wissen ob die Pluspunkte einem den Aufpreis wert sind.

Zudem ist/bleibt die 7800XT die Konkurrenz zur 4070 non Super, die es ja weiterhin gibt.
Du hast Recht, die Radeon ist im Rasterizing in vielen Spielen sogar deutlich schneller als die 4070, in manchen langsamer oder gleich auf, aber im RT eben viel langsamer. Da kann man bei den aktuellen Preisen noch überlegen.
Bei der 7900 GRE wird sich zeigen müssen, ob Custom-Modelle vielleicht durch besseren Speiche und v.a. mehr TDP-Spielraum sich mehr absetzen, die originale Karte profitiert ja erschreckend wenig von den vielen Shadern.
 
  • Gefällt mir
Reaktionen: Mr. Vega
PeacemakerAT schrieb:
Das ist doch genau der Hauptpunkt bei einer neuen Generation! Und hier muss man sagen hat AMD ein gutes Stück zugelegt. Ja nVidia hatte noch mehr zugelegt, aber die lassen sich das auch bestens bezahlen.
AMD hat in dieser Generation viel riskiert indem sie auf das Chiplet Design umgeschwenkt sind, leider hat sich das Risiko nicht direkt gelohnt und die großen Karten bleiben hinter den Erwartungen zurück. Obwohl dies passiert ist performen die 7900XTX und XT noch ganz ordentlich. Was denkst du passiert wenn AMD das Problem im Design löst?

Die GRE liegt in Sachen Effizienz nicht so schlecht:

Anhang anzeigen 1445762
Performance/FPS je Watt ist mir eigentlich egal, mich interessiert eher der Verbrauch an der Steckdose, und da liegt die 4070s bei ca. 220W, während 7700xt/7800xt/7900gre/7900xt zum Teil deutlich mehr verbrauchen.
Natürlich brauche ich eine gewisse Anzahl von FPS, und ich glaube, dass die 4060 die effizienteste Karte ist, würde diese aber niemals einbauen oder empfehlen.
 
Weiß man schon, ob die non OEM 7900GRE Karten auch im overclocking Potential beschnitten sind?

Im CB Test waren ja gerade mal 3% beim Speicher drin, wegen der Limitierung im Treiber.

Damit arbeitet der GDDR6-Speicher mit 9.264 statt 9.000 MHz
 
Tigerfox schrieb:
Das ist ein Scheinargument, genau wie bei der RX 6800 (XT). Guck mal, wo NVs 12GB-Karten der Speicher ausgeht, wenn überhaupt - in 4K mit RT, also genau die Anwendung, wo Radeons gnadenlos untergehen und kaum noch spielbare Frameraten lieben. Ich habe noch keinen Fall gesehen, wo die Radeon wirklich dank des Speichers nutzbar schneller ist.
In den allermeisten Fällen merkt man VRAM-Mangel nicht an den FPS-Zahlen, da moderne Spiele bei Speichermangel adaptiv die Texturqualität im Spiel verringern. Man würde zu wenig Videospeicher also an der schlechteren Bildqualität ausmachen können. Und das bildet ein Grafikkarten-Benchmark nun einmal nicht ab.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, JarlBallin, Shadow86 und 2 andere
@TigerherzLXXXVI : Da hst Du leider recht, aber zumindest CB und auch PCGH gehen darauf tlw. in den Texten zu den Benchmarks ein, aktuell besonders bei Karten mit nur 8GB. Man sieht es auch tlw. an den Perzentil-Frames, wenn der Unterschied dort bedeutend höher ist als im Average.

Trotzdem sind mir noch keine Fälle zu Ohren gekommen, wo 12GB in 4K ohne RT nachweisbar nicht reichen.
 
  • Gefällt mir
Reaktionen: Nefcairon
SonyFriend schrieb:
Performance/FPS je Watt ist mir eigentlich egal, mich interessiert eher der Verbrauch an der Steckdose, und da liegt die 4070s bei ca. 220W, während 7700xt/7800xt/7900gre/7900xt zum Teil deutlich mehr verbrauchen.
Jetzt drehst du dich aber im Kreis, du hast ja die Karte nicht nur nach absolutem Stromverbrauch gekauft sondern auch die höchst möglichen FPS, damit hast du automatisch auch nach FPS/Watt gekauft.
Und Ehrlicherweise, ob jetzt 225W oder 250W macht den Kohl echt nicht fett 😉
 
Tigerfox schrieb:
Trotzdem sind mir noch keine Fälle zu Ohren gekommen, wo 12GB in 4K ohne RT nachweisbar nicht reichen.

Knapp. :D

Hogwarts Vram.png


Hogwarts Legacy Benchmark Test & Performance Analysis Review - VRAM Usage Record
 
  • Gefällt mir
Reaktionen: JarlBallin und cutterslade1234
@Shadow86 : Ach herje, wie oft noch, VRAM-Belegung =/= VRAM-Bedarf. Die GPU reserviert, was sie kann, würde aber auch mit weniger keine Probleme haben.

Zudem kann ich bei dem verlinkten Test nichtmal sehen, mit welcher Karte diese Belegung erzeugt wurde. Eine Radeon mit 16GB würde wohl mehr VRAM belegen als eine GeForce mit 12GB, aber auch eine GeForce mit 16GB würde mehr belegen, aber nicht unbedingt genausoviel wie die Radeon.

Man kann VRAM-Knappheit wirklich nur optisch überprüfen (matschigere oder gar aufploppende Texturen, Bildfehler und Ruckler trotz hoher Framerate) oder tlw. anhand von siginifikant schlechteren Perzentil-fps. Sämtliche Messungen der VRAM-Belegung sind komplett nutzlos.
 
  • Gefällt mir
Reaktionen: Nefcairon
PeacemakerAT schrieb:
Jetzt drehst du dich aber im Kreis, du hast ja die Karte nicht nur nach absolutem Stromverbrauch gekauft sondern auch die höchst möglichen FPS, damit hast du automatisch auch nach FPS/Watt gekauft.
Und Ehrlicherweise, ob jetzt 225W oder 250W macht den Kohl echt nicht fett 😉
Nee, im Kreis drehe ich mich nicht, such aber nach dem für MICH passenden Produkt, welchen FPS für MEINE Spiele liefert, weniger Strom als der Konkurrent verbraucht und für MICH bezahlbar bleibt.

Die 7900XT ist schon toll, hat aber den leider erhöhten Stromverbrauch, für MICH ein NoGo.

Gegenüber einer 7800XT sind es 25W Unterschied, und AMD ist klar langsamer.
Gegenüber einer 7900GRE sind es 25W, und die AMD ist ca. gleich schnell mit Tendenz zu langsamer.
Gegenüber einer 7900XT sind es 80W, und die AMD ist klar schneller.

Warum unter diesem Aspekt also AMD?
 
Zuletzt bearbeitet:
Ben_computer_Ba schrieb:
alte Karte nicht auch kann.
Antilag+^^?

Für manche ist das schon nen kaufgrund für die 7000.
Ergänzung ()

DaCrazyP schrieb:
Nächste Gen wird preislich hoffentlich zumindest bis zur oberen Mittelklasse spannend und preislich wieder ok. RX 7900 XTX-Leistung für 500-600€
Schön wäre es mal,bin ja eh mal gespannd wenn AMD nur noch Midclass bringen will wo die sich leistung und preismäßig dann einordnen..
 
SonyFriend schrieb:
Warum unter diesem Aspekt also AMD?
Weil die 7800XT über 140€ teurer ist als die 4070 Super, das bekommst du über den Mehr Verbrauch nicht wieder rein ausser du zockst 24/7

Aber egal, jeder kann kaufen was er will, finde die 4070 selber ganz gut.
Der eigentliche Punkt war ja das dir angeblich FPS/Watt egal ist und dennoch soll die Grafikkarte möglichst wenig Watt benötigen. Diese Aussage widerspricht sich für mich irgendwie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Llares schrieb:
Haha, so typisch. Hat meine keine nVidia ist man AMD-Fanboy, hat man eine bekommt man auch noch einen doofen Spruch rein.
Negativ. AMD fanboy bist du, wenn du AMD grundlos in Schutz nimmst und irgendwie versuchst sie gut zu reden, auch wenn es in dem Kontext einfach zwecklos ist. Nur weil man Marke xy verbaut hat, ist man natürlich noch lange kein fanboy. Doofer Spruch auf doofe antworten.
Llares schrieb:
Und ja, der Ton im Internet ist mir ein Graus. Warum kann man sich nicht so unterhalten, als Stände die Person vor mir?
Kann man doch, hast es aber ebenfalls von Beginn an nicht unbedingt so gehandhabt.
Llares schrieb:
Und nochmal zur Effizienz. Verbesserungen bei Verbrennungsmotoren hatten in den letzten Jahrzehnten hauptsächlich das Ziel, die Effizienz zu verbessern. Und das ist in vielen anderen Bereichen auch so.
So viele Bereiche sind das nicht, desweiteren ist der Vergleich unpassend oder wie kommst du darauf, dass der Vergleich passend ist?
Cerebral_Amoebe schrieb:
Macht Nvidia das anders, ich glaube nicht
Nein, genau das schrieb ich doch. Sogar in dem von dir zitierten Kommentar
Ben_computer_Ba schrieb:
Namensgebung, mit dem Versuch möglichst viele unwissende Kunden zum Kauf zu bewegen, finde ich ebenfalls nicht gut, gleiches lässt sich diese Generation natürlich auch auf Nvidia beziehen.

Cerebral_Amoebe schrieb:
Wer blind nach der Modellbezeichnung kauft, kauft eh nur nach Hersteller und nicht nach Datenlage.
RTX 4060 ist eigentlich eine 4050, die 4060Ti eigentlich die RTX 4060.
Die RTX 4070Ti sollte eigentlich eine RTX 4080 werden, nur der shitstorm war zu groß.
Es geht aber darum, dass es absolut legitim ist davon auszugehen, dass eine 7900er Karte schneller ist als eine 6900er Karte. Das ist Kunden Täuschung, ja jeder muss sich natürlich vorm Kauf informieren, aber wenn sich jemand weniger mit der Materie befasst, sollte es doch auch fürn Laien schnell offensichtlich sein, wie die Karten grob zu einander stehen, denn genau dafür gibt es die Modellbezeichnung. Nvidia macht das dieses Mal auch falsch, aber immerhin ist die Karte mit entsprechender Zahl (6,7,8 oder 9) immer schneller als der Vorgänger.
Blood011 schrieb:
Antilag+^^?

Für manche ist das schon nen kaufgrund für die 7000.
Das antilag für viele Kauf-entscheidend ist, bezweifle ich, denn darauf wird fast keiner wert legen. Wer doch darauf wert legt, wird Nvidia kaufen, denn Reflex ist besser
 
PeacemakerAT schrieb:
Der eigentliche Punkt war ja das dir angeblich FPS/Watt egal ist und dennoch soll die Grafikkarte möglichst wenig Watt benötigen. Diese Aussage widerspricht sich für mich irgendwie.
Ja, ist mir egal, denn sonst müsste man eine 4060 kaufen. Viel Fps pro Watt.
Die liefert aber gesamt zu wenig FPS.

Wenn ich das hier sagen darf: 150€ jucken mich persönlich nicht, jeder hat seine Schmerzgrenze.
Ich musste 2022 in den sauren Apfel beissen, als die Grafikkartenpreise extrem hoch waren und habe dort schon viel bezahlt, leider.
 
Zuletzt bearbeitet:
@SonyFriend Beste FPS/Watt in der gewünschten Leistungsklasse, machs doch nicht so schwer
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Perdakles
Tigerfox schrieb:
Trotzdem sind mir noch keine Fälle zu Ohren gekommen, wo 12GB in 4K ohne RT nachweisbar nicht reichen.
Ich verstehe: als Besitzer einer RTX 4070 Ti kann ich also nicht gleichzeitig in 4K spielen und Raytracing nutzen... Wirklich zu schade.
 
  • Gefällt mir
Reaktionen: JarlBallin
@TigerherzLXXXVI : Das habe ich nicht gesagt, sondern eher auch kritsiert. Nur die Schlußfolgerung, deshalb auf AMD mit 16GB zu setzen, bestreite ich.

4K mit RT ist der realistische Anwendungsfall, bei dem momentan 12GB in einigen wenigen Spielen bei NV zu knapp werden können und die FR deshalb einbricht. In den allermeisten reicht es jedoch noch, nur die 10GB der alten 3080 reichen immer öfter nicht mehr.

In genau diesen Spielen wird aber eine Radeon mit 16GB trotzdem nicht schneller als die GeForce sein, weil sie schon architekturbedingt bei RT so einbricht, dass sie bedeutend langsamer als eine GeForce ist. Ohne RT sind 12Gb für 4K noch lange mehr als ausreichend. Wenn es auch nur eine Ausnahme gibt, zeig sie mir.

In 4K ohne RT mag zwar auch mal eine Radeon schneller sein als die entsprechende GeForce, weil sie tendenziell eine bessere Rasterizing-Leistung haben, aber der Speicher limitiert die GeForce dann nicht.

Es ist natürlich trotzdem zu kritisieren, dass viele GeForce mit 12GB in zukünftigen Spielen gerade dass nicht leisten können werden, worin sie gut sind, RT, irgendwann auch in WQHD, und nicht aufgrund der Rohleistung, sondern aufgrund des Speichers. Aber die Radeons werden dann noch weniger mit RT in diesen Spielen klarkommen.
 
Zurück
Oben