Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestRadeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen
Sehr sicher nicht! Hatte den Vergleich hier und während die RTX immer mal kurz zum "Ruckeln" beginnen wollte, war es auf der XTX super smooth. Ausgabegerät ist ein LG Oled-TV mit 120Hz angeschlossen an HDMI 2.1.
Dann kann ich ja genau das gleiche wiedergeben was mir jetzt gesagt wurde, evtl. ist dein TV ja defekt und läuft deswegen mit nvidia schlechter
kann man drehen wie man will, fakt ist das ich mit nvidia karten noch nie solche heftigen probleme hatte, mit den letzten 6 AMD Karten die ich hatte , gab es NUR probleme.
Und die Anzahl an Problemthreads, sowie Bugfixes in den AMD Treibern sprechen ja für NVIDIA. Da brauch man dann auch nicht diskutieren.
Abgesehen von der ersten Aufregung um einen Stromstecker (der einfach nicht gut ist) funktionieren die Nvidia Karten der 4000er Generation von Minute 1 an quasi perfekt. So wünscht man sich ein Stück Hardware oder Software.
Du hast besagte Hardware in deiner Signatur, was solltest du denn auch sonst von dir geben als genau den Kram den du von dir gegeben hast. Man beißt sich doch nicht selbst ins Bein!!! n
Du lässt die Konsolen aussen vor. Wenn die es unterstützen ist die Unterstützung gebongt.. Aber du hast recht - die Offenheit hat den Vorteil das die Unterstützung ein Selbstbräuner ist.
Und noch was - letzter Punkt - man kann sich die Unterstützung auch kaufen (siehe NV). Denn DSSL 3 - macht stand heute keinen Sinn zu implementieren..
Mir gefällt das AMD anscheinend mit Epic stark zusammenarbeitet (Unreal Engine 5)
@gedi Er bezieht das auf die Erfahrung mit seinen Monitor , obwohl dieser freesync Premium können soll laut geizhals, hat das bei seinen custom AMD Karten nicht funktioniert. Aber gsync-compatibel funktioniert mit seiner jetzigen Nvidia Karte .
War G-Sync Compatible nicht generell mehr Lotterie als verlässlicher Fakt?
Das wurde von Nvidia doch nur Zähneknirschend eingeführt, da Freesync am Markt durchgedrückt wurde.
Gut möglich das er einen Monitor hat, bei dem es eben nicht reibungslos funktioniert.
Nach drei GPUs würde ich jedoch auch den Monitor genauer in Augenschein nehmen.
Du hast besagte Hardware in deiner Signatur, was solltest du denn auch sonst von dir geben als genau den Kram den du von dir gegeben hast. Man beißt sich doch nicht selbst ins Bein!!! n
Deine Aussage macht halt null Sinn, wenn NVIDIA schlechter laufen würde, kauft man ne AMD oder behält die AMD falls man eine hat, so ist es aber nun mal bei Ihm scheinbar und bei mir nicht gewesen.
Wie gesagt, die ganzen Bugsfixes wochen nach release der karten bei amd sprechen eben für nvidia, ich wünschte es wäre NICHT SO! Aber leider hat AMD sämtliche Treiber Probleme, manch einem fällt es auf und manch einem halt nicht aber derjenige wie ich, der manche Features benutzen will und dann merkt es läuft einfach nicht Rund, wechselt dann halt wieder zurück zu den Grünen.
Ich hab mir damals ja nicht umsonst AMD Karten gekauft gehabt, weil ich davon ausging es läuft und nun mit der 6900XT hatte ich AMD nochmal eine Chance gegeben aber es hat sich abgesehen von keinen bluescreens mehr, nicht viel getan...
Und nach dem ich die 6900XTs wieder zurück gegeben habe, kam paar Wochen später (wie oben schon geschrieben) einige Bugfixes die auch mich betrafen aber da waren die Karten eben schon zurück geschickt und ich sehe es nicht ein bei einer knapp 1k€-Karte Wochenlang zu warten auf Fixes, das sollen die gefälligst VOR release machen, schafft nvidia ja auch.
Aber versteht mich bitte nicht falsch, ich würde mich tierisch freuen wenn es sich bei amd in den nächsten Jahren ändert und ich dann vielleicht auch mal ne AMD Karte erwische, die rund läuft aber da muss sich meiner Meinung nach noch ne menge bei der treiberprogrammierung ändern.
Ergänzung ()
Phobsen schrieb:
War G-Sync Compatible nicht generell mehr Lotterie als verlässlicher Fakt?
Das wurde von Nvidia doch nur Zähneknirschend eingeführt, da Freesync am Markt durchgedrückt wurde.
Gut möglich das er einen Monitor hat, bei dem es eben nicht reibungslos funktioniert.
Nach drei GPUs würde ich jedoch auch den Monitor genauer in Augenschein nehmen.
Ist doch schon mal etwas...da geht auch noch mehr. Luft nach oben ist immer
Sieht bei meiner 3090 nicht besser aus, die frisst im Browser 30-40 Watt, YouTube noch mehr und von zwei Bildschirmen will ich gar nicht erst anfangen. Und das kriegte Nvidia bis heute nicht gebacken....so viel zum Thema "die grünen haben top-treiber".
Selbst bei Nvidia gibt es durch Treiberupdates teilweise Performanceschübe, ist bei AMD ähnlich. Team rot ist halt auch kleiner, darf man nicht vergessen und auch dafür stellen sie mMn schon ordentlich was auf die Beine.
Das wird schon noch...
Auch das ist Nonsens! Es gibt einen Bug, welcher Highrefresh- und noch schlimmer Full-HDR kompatible Monitore mit Chromasampling ansprechen. Wenn man die Settings nicht wieder zu SRGB zurück verändert, dann bleibt ein hoher Verbrauch bei deutlich schlechterer Bildqualität! Damit meine ich NV-BQ, welche noch immer nicht HDR10@10-Bit vernünftig darstellen können!
Du hast bereits festgestellt, dass ein Testen mit 3 verschiedene AMD Karten zum gleichen Ergebnis führt. Spätestens dann müsste man doch annehmen, dass der Monitor einen Teildefekt hat, denn er funktioniert nicht einwandfrei. D. h. der nächste logische Schritt ist, den Monitor wegen Garantie einzuschicken...
Nein, muss er nicht, teildefekt halt. NVidia spricht die Adaptive-Sync Schnittstelle schlicht anders an als AMD, ansonsten müsste der Monitor bei beiden einwandfrei laufen. Und durch das andere Ansprechen der Schnittstelle tritt der Defekt halt auf, kann passieren, ist für mich ein Garantiefall, denn der Monitor muss auch bei Ansprechen durch eine AMD Karte einwandfrei funktionieren, tut er aber nicht.
Genau du sagst es, "nur" !
Das ist ein Monitor mit G-Sync Modul, bei dem nicht vorgesehen war das dort Freesync läuft.
Dann kam G-Sync Compatible, da Nvidia ihre wesentlich teureren G-Sync Monitore nicht mehr los geworden ist.
Das kann, muss aber nicht laufen.
Du hast da halt leider ins Fettnäpfchen gegriffen.
250W bei quasi gleicher Leistung dürften vermutlich mehr als 90% aller 6900XT machen. Wahrscheinlich sogar noch mehr. Meine ist eher so lala beim UV und ich komme mit maximal 5% Leistungsverlust auf 200-230W mit meiner 6900XT.
Ich finde den Leerlaufverbrauch noch erheblich zu hoch. Das hat die 6000er Generation um Längen besser gemacht. Mehr als 10 Watt sollten es definitiv nicht sein, sonst liegt ein Fehler im Design vor. In der heutigen Zeit sollte man eher 5 Watt und weniger anpeilen und nicht 20W und mehr.
YT ohne HDR ist ebenfalls noch ziemlich mies. Da scheint mir massig Leistung für nichts draufzugehen, weil man die Taktraten einfach nicht anpasst. Mit HDR steigt der Verbrauch nur noch leicht an und schon liegen die Karten plötzlich im Mittelfeld. Ein eindeutiges Zeichen, dass die Karten für leichtere Aufgaben einfach zu heftig rangehen.
Von daher sollte AMD da in fast allen Szenarien nochmal deutlich nachbessern. Ansonsten sind die Karten bei der Effizienz definitiv nicht im Jahr 2022/2023 angekommen.
Ist doch schon mal etwas...da geht auch noch mehr. Luft nach oben ist immer
Sieht bei meiner 3090 nicht besser aus, die frisst im Browser 30-40 Watt, YouTube noch mehr und von zwei Bildschirmen will ich gar nicht erst anfangen. Und das kriegte Nvidia bis heute nicht gebacken....so viel zum Thema "die grünen haben top-treiber".
Selbst bei Nvidia gibt es durch Treiberupdates teilweise Performanceschübe, ist bei AMD ähnlich. Team rot ist halt auch kleiner, darf man nicht vergessen und auch dafür stellen sie mMn schon ordentlich was auf die Beine.
Das wird schon noch...
Hab ich mir auch Gedacht, vor allem war ich aber erstaunt das die RX 6900 XT mit dem CCC funktionieren.
Wollte eigentlich auch schon fast was schreiben und hab mich dann doch für ignore entschieden, die ganzen letzten Beiträge horchen sich halt stark nach Paulanergarten an.
Warte ein blackscreen beeinflußt den Betrieb nicht? Ok... kann sich eigentlich keiner an den Release von Ampere erinnert ("kondensatorengate"). Omg was wurden da die Säue durchs Dorf getrieben. Aber nvidia fehlerfrei und Release? LOL sicher nicht.
Dann kann ich ja genau das gleiche wiedergeben was mir jetzt gesagt wurde, evtl. ist dein TV ja defekt und läuft deswegen mit nvidia schlechter
kann man drehen wie man will, fakt ist das ich mit nvidia karten noch nie solche heftigen probleme hatte, mit den letzten 6 AMD Karten die ich hatte , gab es NUR probleme.
Und die Anzahl an Problemthreads, sowie Bugfixes in den AMD Treibern sprechen ja für NVIDIA. Da brauch man dann auch nicht diskutieren.
wat weiß ich wie das zeug nun heißt, habs ja nicht mehr drauf, jedenfalls weiß denk ich jeder was damit gemeint ist, das treibercenter von amd, ist verbuggt bis oben hin
Ergänzung ()
Dai6oro schrieb:
Warte ein blackscreen beeinflußt den Betrieb nicht? Ok... kann sich eigentlich keiner an den Release von Ampere erinnert ("kondensatorengate"). Omg was wurden da die Säue durchs Dorf getrieben. Aber nvidia fehlerfrei und Release? LOL sicher nicht.
Nein, muss er nicht, teildefekt halt. NVidia spricht die Adaptive-Sync Schnittstelle schlicht anders an als AMD, ansonsten müsste der Monitor bei beiden einwandfrei laufen. Und durch das andere Ansprechen der Schnittstelle tritt der Defekt halt auf, kann passieren, ist für mich ein Garantiefall, denn der Monitor muss auch bei Ansprechen durch eine AMD Karte einwandfrei funktionieren, tut er aber nicht.
Natürlich tut er es, wenn das höchst möglich Monitorsetting ausgewählt wird! Ich weiß, ist auf NV-Karten nicht möglich, darum können die Dinger auch kein HDR10. Kindergarten-Hardware!