Test Radeon RX 7800 XT & 7700 XT im Test: AMDs RDNA-3-Mittelklasse für 549 und 489 Euro im Benchmark

shaboo schrieb:
was dort ein zusätzliches Argument zugunsten der 7800XT ist.
die wenigsten denken überhaupt darüber nach. Warum auch, das was man alltäglich an Geld aus dem Fenster schmeisst ist um ein vielfaches höher.

Sicher ist es gut wenn man darauf achtet. Aber das Thema wird viel grösser gemacht als es wirklich ist, im Vergleich zu anderen Bereichen. Wir bewegen uns hier immer noch im Luxus Bereich Hobby und nicht im Lebensnotwendigen Bereich.

Ich spiele im durchschnitt 2std die Woche mit dem desktop. Aber hole mir häufiger einen Kaffee beim Bäcker oder ein Eis. Das ist auch Luxus, aber man nimmt es halt hin. Genauso wie die ganzen anderen Abo's die man heutzutage abschliessen kann.
 
  • Gefällt mir
Reaktionen: Rockstar85
Northstar2710 schrieb:
die wenigsten denken überhaupt darüber nach. Warum auch, das was man alltäglich an Geld aus dem Fenster schmeisst ist um ein vielfaches höher.
Keine Frage und volle Zustimmung. Die gleiche Argumentation gilt allerdings dann auch dafür, ob eine Grafikkarte, die man jahrelang nutzt, nun 50 Euro mehr oder weniger kostet. Ist für mich die gleiche Kategorie.
 
  • Gefällt mir
Reaktionen: Northstar2710 und Tornavida
Sehe ich auch so, interessanter bzw. was mich bei den Watt interessiert ist die Wärmeabgabe an den Raum und nicht die paar Euro Fufzig Ende Jahr. Bei meiner RTX 4xxx lass ich auch fast immer DLSS3/FG laufen obwohl ich auch nativ i.d.R. genug FPS habe. Es ist einfach soviel rundum angenehmer und ja die paar Euro Fufzig spart man auch nebenbei. Meine RDNA2 ist auch deshalb auf 250 Watt eingebremst was mit FSR3 hoffentlich bei dem ein oder anderem Game noch weiter zurückgedreht werden kann wenn die Optik passt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaHell63, Knobi Wahn und shaboo
Tornavida schrieb:
Sehe ich auch so, interessanter bzw. was mich bei den Watt interessiert ist die Wärmeabgabe an den Raum und nicht die paar Euro Fufzig Ende Jahr.
Ja, das und die Lautstärke der Kühlung sind für mich auch die wichtigeren Aspekte, als der Strompreis.
Aktuell wieder 28°C im Wohnzimmer, zum Glück aktuell nur eine 6700XT, aber eine 7900XTX mit um die 360W würde die Wohnung nochmal extra aufheizen.
 
  • Gefällt mir
Reaktionen: DaHell63
Meine Nitro+ ist angekommen. Lässt sich auf 975mV undervolten, bringt damit im TimeSpy 20800 Grafikpunkte. Lüfter drehen unter Vollast nicht über 25%, so ist die Karte quasi unhörbar. Leider allerdings mit leichtem Spulenfiepen. Auch finde ich den LED-Streifen in echt nicht so gleichmäßig wie in den ganzen YT Videos, man sieht doch schon deutlich die einzelnen RGB-LEDs raus, finde ich nicht so schön wie erhofft.

Habe noch die Pulse hier aus dem anderen Cyberport-Deal, baue ich die Tage auch mal testweise ein und entscheide dann, welche bleibt.
 
MiLK. schrieb:
Lässt sich auf 975mV undervolten, bringt damit im TimeSpy 20800 Grafikpunkte.
gar nicht mal schlecht, komme mit meiner 6800XT bei 1010mv auf 21.300 bei 2450MHz real Takt
 
  • Gefällt mir
Reaktionen: MiLK.
klar würde nun um wirklich Strom zu sparen einfach so was kommen wie dann lasse doch den Pc ausgeschaltet das spart Strom.Jedoch wenn man ihn Nutzt kann man sehr wohl dagegen Steuern.
LEDs wenn es geht ganz weg lassen bzw eine GPU nehmen ohne LED.Mir sind die nicht wichtig.Der Pc wird zwar dann Dunkel dafür jedoch sparsamer.
Um beim Zocken sparsamer unterwegs zu sein,einfach die Ansprüche runter schrauben. Sowas wie Full HD ist das minimum wo man gehen kann oder man nimmt gleich ein HD Bildschirm zum Zocken.Dann die FPS auf ein bestimmtes Level festlegen wie 60 fps oder 144 und Fertig ist die Sparsamkeit dann dort.Dann nur noch ne GPU von Haus aus sparsamer ist nehmen und schon hat man das Ultimative.
Leider gibt es kein HD Bildschirm mit 144 HZ sonst hätte ich diesen Bildschirm genommen.So ist es nur ein Full HD 144 HZ geworden.
Beim anderen PC ein Full HD 60 HZ.
Klar kann man da auch dlss und so hernehmen.Dann ist es ein HD Auflösung auf Full HD hoch skaliertes Bild.
DIe GPU hat dann nicht mehr viel zu berechnen.
Aber ist die Frage ob man den Unterschied sieht zwischen hochskaliertes Full HD von der GPU berechnet und natives Full HD und so.
Aber vielleicht habe ich eines Tages ja auch mal eine RTX GPU und kann das ja mal testen.Bis dahin kann meine GTX GPU noch ne Weile klar bevor die hops geht.Bis spätestens 10 Jahre später.Dann bekomme ich auch keine GTX 1650 mehr und dann wird es zwangsweise eine RTX GPU oder eine AMD (die erste nach so vielen Jahren,allerdings muss ich sicher sein das es mit all meinen Games zu 100% wirklich klarkommt).
Nun ja ich habe jedenfalls vor bei Full HD zu bleiben.Das ist meine Zukunft.Und auch der Wille der Umwelt zu Entlasten.Ich habe nur bei der CPU hohe Ansprüche.Beim Mainbaord und Ram eher nicht so.Es muss halt laufen,ohne Instabil zu sein und darf die Leistung der CPU nicht beeindrätigen.Das ist die Hauptsache.
 
Verak Drezzt schrieb:
gar nicht mal schlecht, komme mit meiner 6800XT bei 1010mv auf 21.300 bei 2450MHz real Takt
Nice, golden sample :D
 
  • Gefällt mir
Reaktionen: Verak Drezzt
@MiLK. Was hast du denn mit dem UV für einen Verbrauch und Temperaturen, wenn ich fragen darf? Bin auch gerade mit dem Gedanken am spielen mir die gleiche Karte zu holen und lasse meinen mittlerweile optimiert am laufen statt auf Anschlag. Deswegen ist es für mich interessant die erst mal gezähmt zu nutzen :D
 
MiLK. schrieb:
Lässt sich auf 975mV undervolten, bringt damit im TimeSpy 20800 Grafikpunkte.
Hast du nur die Spannung verändert, oder auch mhz und powerlimit?
Ergänzung ()

Im Timespy komme ich auch bis 975mv. Aber nur dort. Bei cyberpunk muss es schon 1,045V sein, damit das Spiel stabil läuft.
Ergänzung ()

latiose88 schrieb:
Aber ist die Frage ob man den Unterschied sieht zwischen hochskaliertes Full HD von der GPU berechnet und natives Full HD und so.
Ein hochskaliertes Bild von 720p auf Fhd ist mit Dlss/FSR hübscher als 720p auf Fhd ohne dlss. Allerdings ist natives FHD besser in der Bildqualität. Aber so lange du zufrieden mit deiner gpu bist, brauchst du auch keine neue. Allerdings könnte eine rtx4060 mit den gleichen Einstellungen die du jetzt einstellst effizienter zu Werke gehen als deine jetzige 1650x.
 
Zuletzt bearbeitet:
Beyazid schrieb:
@MiLK. Was hast du denn mit dem UV für einen Verbrauch und Temperaturen, wenn ich fragen darf? Bin auch gerade mit dem Gedanken am spielen mir die gleiche Karte zu holen und lasse meinen mittlerweile optimiert am laufen statt auf Anschlag. Deswegen ist es für mich interessant die erst mal gezähmt zu nutzen :D
Ohne UV zeigt GPU-Z bei Furmark dauerhaft 273W an. Mit UV sinds etwa 230W. Temperaturen auf der GPU bei ca. 65°C, auf dem Hotspot bei ca. 80°C, habe aber auch die Lüfterkurve etwas runtergedreht.

Northstar2710 schrieb:
Hast du nur die Spannung verändert, oder auch mhz und powerlimit?
Ergänzung ()

Im Timespy komme ich auch bis 975mv. Aber nur dort. Bei cyberpunk muss es schon 1,045V sein, damit das Spiel stabil läuft.
Ergänzung ()


Ein hochskaliertes Bild von 720p auf Fhd ist mit Dlss/FSR hübscher als 720p auf Fhd ohne dlss. Allerdings ist natives FHD besser in der Bildqualität. Aber so lange du zufrieden mit deiner gpu bist, brauchst du auch keine neue. Allerdings könnte eine rtx4060 mit den gleichen Einstellungen die du jetzt einstellst effizienter zu Werke gehen als deine jetzige 1650x.
Hatte bisher nur die Spannung runtergedreht und ansonsten keinen anderen Regler angefasst (außer die Lüfterkurve, die habe ich auch noch etwas entschärft).
Musste gestern Abend leider auch feststellen, dass Starfield bei den 975mV instabil ist. Mit 1000mV lief es dann aber auch längere Zeit problemlos, hoffe das bleibt so.
 
bei Mindfactory gibts gerade wieder die 6950XT für 649€

die Frage ist sollte man zuschlagen?
 
Das Ding liegt WQHD doch gerade mal 8 Prozent vor einer 7800XT, und mehr VRAM gibt's ja auch nicht.

Da würde ich mir eher die modernere, sparsamere und günstigere 7800XT holen.
 
  • Gefällt mir
Reaktionen: DaHell63, eviltrooper und anarchie99
Northstar2710 schrieb:
Ein hochskaliertes Bild von 720p auf Fhd ist mit Dlss/FSR hübscher als 720p auf Fhd ohne dlss. Allerdings ist natives FHD besser in der Bildqualität. Aber so lange du zufrieden mit deiner gpu bist, brauchst du auch keine neue. Allerdings könnte eine rtx4060 mit den gleichen Einstellungen die du jetzt einstellst effizienter zu Werke gehen als deine jetzige 1650x.
was heist da Effizienter um wieviel ,etwa noch sparsamer beim Stromverbrauch?

Achja UV das heißt nicht nur die Spannung senken sondern auch den Memtakt sowie den Cortakt,dann dürfte es wieder stabiler sein.
Habe dann als ich die Spannung,sowie Lüfter Kurve gesenkt hatte,gleich noch auf 80 % Power gesenkt und gleichzeitig um rund 300 mhz Core Takt sowie 300 mhz Memtakt.Ich weis nicht ob das Stabil ist,aber ich habe dann gleich danach 3dMark gestartet.Dort zeigte mir das Programm hier rund 19 fps an.Denke mal das es funktioniert hatte,weil Grafikfehler oder Abgestürzt ist bei mir garnix.
Habe zwar auf maximal 80 Grad auch gesenkt aber mir zeigte die GPU höchstens 50 Grad an.Obwohl es mal laut Test die gtx 1650 auch bis 60 Grad warm werden könnte.
Also gut ist das denke ich mal schon.Wenn mir 50 Grad zu warm ist,kann ich ja sogar noch weiter runter drehen.
Zum glück laste ich sonst so stark die GPU nicht aus.3d Mark ist das was meine GPU am Stärksten ausgelastet hatte.
Die Grafik ist auch meinen Spielen weit überlegen kann man sagen.Meine Augen haben zumindest bei dem Anblick gefunkelt.Es gab zwar keinen Ton aber das gesehen sagt alles aus.

Nun ja mal sehen wie sparsam die GPU noch wird und ob es am Ende noch sparsamer werden könnte oder nicht.Mit der gesagten hätte ich Puffer falls mal doch ein Game mal mehr Power in Full HD benötigen könnte.Bei mir ist das aber nicht sicher wann das mal sein wird.Ich behalte das gerne im Auge wenn es soweit ist.Bis dahin kann ich mit sehr wenig Takt auskommen.


Denke mal mit solchen AMD GPUs geht das nicht so.Hätte da auch 60% Power Einstellen können,dann ist der Regler aber bei Maximum EIngestellt.Schade ,wäre auch mit nur 40 % Power zufrieden gewesen.Auf dem anderen Pc habe ich nur eine gtx 750 TI und die macht auch nicht schlappt bei meinen Games.Aber vielleicht schaffe ich es ja auch mit der 1650 so wenig Strom wie mit der 750 Ti zu kommen.
Bei den AMD GPUs ist das nicht möglich auf bis hinunter auf 50 Watt denke ich mal zu kommen.
 
latiose88 schrieb:
Denke mal mit solchen AMD GPUs geht das nicht so.Hätte da auch 60% Power Einstellen können,dann ist der Regler aber bei Maximum EIngestellt.Schade ,wäre auch mit nur 40 % Power zufrieden gewesen.Auf dem anderen Pc habe ich nur eine gtx 750 TI und die macht auch nicht schlappt bei meinen Games.Aber vielleicht schaffe ich es ja auch mit der 1650 so wenig Strom wie mit der 750 Ti zu kommen.
Bei den AMD GPUs ist das nicht möglich auf bis hinunter auf 50 Watt denke ich mal zu kommen
Ich würde eher sagen das du nie eine neue Gpu benötigst. Dir ist egal wie das Spiel ausschaut und welche fps in welcher Auflösung es haben sollte. Bei dir liegt der Fokus alleine auf Stromverbrauch. Und das ein Bild ausgeben wird.
Denn wenn ich den Strom Verbrauch fixe. Habe ich nunmal bei jedem Game andere min/max fps. Was bei einem Spiel butterweich läuft und bei einem anderen eher ruckelnd ist.
Nvidia in gen 4000 währe Momentan die bessere Wahl für. Aus 3 gründen. Diese Karten skalieren sehr gut mit Fps Limits.
Dlss hat im niedrigen Auflösungsbereich einfach das bessere Bild. Und man kann selbst die Techniken von AMD und Intel nutzen.
Hast du eigentlich mal NIS auf deine Karte ausprobiert? Ist im Nvidia Treiber aktivierbar. Man benötigt mindestens den Geforce-Treiber 496.76.
Es ist die Alternative zu FSR 1 oder eher RSR. Da es mit jedem Spiel funktioniert.
 
hm was hat denn NIS,wo finde ich das denn so und wie aktiviere ich das und es skaliert auch nach unten bei der Auflösung? Oder habe ich sonst noch so für Vorteile?
 
Musste gerade feststellen, dass meine 7800XT im Idle bei Dual Monitor @165Hz laut GPU-Z konstant mindest 70W Board Power zieht. Sobald ich einen Monitor abschalte, sinkt die Leistung auf 10W.

Ich dachte das Problem hätte AMD behoben?

Edit: Sobald ich beide Monitore auf 144Hz begrenze, lande ich bei 12W. Das ist ein absoluter Dealbreaker. Der Speicher taktet auf Anschlag hoch, sobald zwei Monitor vorhanden und über 144Hz.
 
Zuletzt bearbeitet:
MiLK. schrieb:
Das ist ein absoluter Dealbreaker
Was daran ist ein Dealbreaker.

AMD hat nie behauptet das sie es komplett behoben haben. Das Problem bei dem ganzen sind die verschiedenen Monitor Hersteller. Und ihren diverse Modellen. Wo sich nicht immer exakt an Vorgaben gehalten wird um gewisse Frequenzen zu erreichen.

Aber mit 2x144hz und nur 12 Watt bist du doch super aufgestellt. Das haben selbst die Vorgänger nicht geschafft.


Und AMD wird es alleine mit dem Treiber nie für alle Monitore fixen können. Genauso wenig wie Nvidia es alleine mit ihren Treibern könnte. Da sind auch die Monitor Hersteller und ihre Treiber gefragt.
 
  • Gefällt mir
Reaktionen: anarchie99
Northstar2710 schrieb:
Was daran ist ein Dealbreaker.

AMD hat nie behauptet das sie es komplett behoben haben. Das Problem bei dem ganzen sind die verschiedenen Monitor Hersteller. Und ihren diverse Modellen. Wo sich nicht immer exakt an Vorgaben gehalten wird um gewisse Frequenzen zu erreichen.

Aber mit 2x144hz und nur 12 Watt bist du doch super aufgestellt. Das haben selbst die Vorgänger nicht geschafft.


Und AMD wird es alleine mit dem Treiber nie für alle Monitore fixen können. Genauso wenig wie Nvidia es alleine mit ihren Treibern könnte. Da sind auch die Monitor Hersteller und ihre Treiber gefragt.

Vielleicht habe ich mich einfach nicht richtig belesen. Ich dachte bis zuletzt, dass das Problem nur bei den 7900XT und XTX auftrat aber mittlerweile behoben ist. Dem scheint ja nicht so.

Ich bau testweise mal meine alte nVidia Karte ein, die hier noch rumliegt. Weiß aus dem Stand gar nicht, wie die Leistungsaufnahme dort im Idle die letzten Jahre aussah.
 
Zurück
Oben