Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test 7900 XTX OC vs. RTX 4080 OC: RDNA 3 und Ada Lovelace mit maximalen Taktraten im Duell
Grundgütiger
Lieutenant
- Registriert
- Aug. 2017
- Beiträge
- 881
Bei den Mono Chips sollte es wie bei RDNA2 laufen.TheUngrateful schrieb:Dieses vermutlich "nicht gewünschte Verhalten" von RDNA3 wird sich dann wahrscheinlich durch die komplette Serie ziehen, oder?
Also nichts was sich "mal eben" für die später erscheinende Mid und Low end Karten beheben lässt?
Ansonsten finde ich OC bei der 7900XTX sehr Sinnvoll, immerhin gehts in CP2077 RT 4K von 15 auf sagenhafte 16,8fps hoch.
ruthi91
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.751
Das ist alles Zukunftsmusik und bei Nvidia ist ja auch kein Stillstand.silentdragon95 schrieb:Bleibt zu hoffen, dass AMD das in den Griff bekommt und RX 8000 dann wieder ganz vorne mitspielen kann.
Wichtiger für die nächsten 1,5 Jahre sind fehlerfreie Modelle von 7700-7800 die in der Marktsituation auch endlich mal wieder preislich attraktiv einschlagen.
iron_monkey
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.191
Danke für den Test, gute Arbeit!
Sieht ja wirklich danach aus als wäre AMD auf der Zielgraden doch noch unerwartet ins straucheln geraten. Auch nvidia‘s Verhalten deutet darauf hin, dass man eine deutlich stärkere AMD Konkurrenz erwartet hatte...
Schade, vielleicht klappt es bei der nächsten Runde wieder ... für mich bleibt dann als einzige Karte die 4090, wobei mir eine TI mit 32 GB VRAM besser gefallen würde. Ich schau mal bis zum Sommer wie sich alles entwickelt.
Sieht ja wirklich danach aus als wäre AMD auf der Zielgraden doch noch unerwartet ins straucheln geraten. Auch nvidia‘s Verhalten deutet darauf hin, dass man eine deutlich stärkere AMD Konkurrenz erwartet hatte...
Schade, vielleicht klappt es bei der nächsten Runde wieder ... für mich bleibt dann als einzige Karte die 4090, wobei mir eine TI mit 32 GB VRAM besser gefallen würde. Ich schau mal bis zum Sommer wie sich alles entwickelt.
Persönlich fände ich den Test "Wie weit kann ich undervolten ohne Leistung zu verlieren" die viel spannendere Disziplin. Verga64 hat mich dazu erzogen meine Grafikkarten so zu betreiben, aber daran hat sich auch mit einer 4090 nichts geändert. Meine kann ich mit maximal 350W statt 450W bei gleichem Takt und Leistung betreiben.
@Wolfgang
An dem Satz stimmt einiges nicht.Vor einigen Tagen vermeldete ein Tweet auf Twitter, dass die Radeon RX 7900 XTX (und XT) beim deutlich höher takten als in Spielen takten sollen, wenn sie beim Rendern gefordert werden.
Holzinternet
Commander
- Registriert
- Dez. 2013
- Beiträge
- 2.110
Meine GTX1080 rennt mit UV bei gut 160 Watt unter Volldampf... Irre was da die Verbräuche aufzeigen. Will ich nicht. Solange die 1080 fit ist bleibt sie im System. Langt für WQHD.
Gruß
Holzinternet
Gruß
Holzinternet
Dai6oro
Admiral
- Registriert
- Okt. 2006
- Beiträge
- 9.722
Interessant wäre ja noch UV + OC um den Verbrauch etwas einzufangen. Ich glaube hardwareluxx hat dies gemacht ebenfalls mit der Nitro:
https://www.hardwareluxx.de/index.p...x-von-asus-und-sapphire-im-test.html?start=13
https://www.hardwareluxx.de/index.p...x-von-asus-und-sapphire-im-test.html?start=13
- Registriert
- Nov. 2002
- Beiträge
- 8.928
So ist der Artikel auch gedacht.incurable schrieb:Sicherlich akademisch interessant, aber bei den Verbrauchsdaten und daraus resultierender schlechterer Effizienz in meinen Augen nichts für den Alltag.
Das "7900 XTX vs. 4080 OC" gibt es quasi nebenbei. Eigentlich geht es in dem Artikel darum, RDNA 3 etwas besser zu verstehen und zu analysieren, was mit den Taktraten los ist und machbar ist.
Ich verstehe deine Meinung zwar, aus Gründen der Übersichtlichkeit geht es aber nicht sinnvoll anders.Nitschi66 schrieb:@Wolfgang
Die Y-Achsen der grafen fangen nie bei 0 an. Würde ich nicht so machen.
Die Schlussfolgerung der Tester halte ich für korrekt: RDNA3 hat kein Taktproblem, sondern ein Verbrauchsproblem. Die 5700XT und 6900XT wurden im Default-Zustand sehr weit oben auf der Takt/Spannungskurve betrieben. In der Regel lagen in Spielen um die 1100mV an, was auch so das obere Ende der sinnvollen Spannungen ist. Mit relativ kleinen Taktabstrichen ließ sich die Spannung stark senken und so die Effizienz ordentlich steigern. In Teillast war RDNA2 z.B. deutlich effizienter als Ampere. RDNA3 verhält sich anders: Bei 2500Mhz liegt die Karte <900mV, d.h. da ist wenig Potenzial nach unten. Vor allem hat AMD ausnahmsweise mal nicht das Silizium bis zum Anschlag geprügelt, weil es schlicht nicht ging: RDNA3 säuft einfach von sich aus wie ein Loch, sodass AMD schon Spannung und Takt reduzieren musste, damit die Karten nicht jeden Rahmen sprengen.
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.870
Ja, das war auch mein Problem.-=[CrysiS]=- schrieb:Schade das 99% des drei Lüfter Designs so schlecht aussehen, da sieht ja die FE noch passabler aus...
Hab mich dann auch Optisch für die Gaming X Trio entschieden.
Ganz schlimm find ich die Phantom und Zotac. Die Phantom sieht aus wie aufgeblasen und die Zotac wie ne Damembinde.
Pandora
Admiral
- Registriert
- Aug. 2008
- Beiträge
- 7.545
Und wenn der Redakteur jetzt Langeweile hat kann er den ganzen Test ja noch mal wiederholen und testen wie die Karten mit weniger Strom skalieren, bzw. wie weit die XTX mit 200 und 300W abstürzt
Bei Firmen oder wer wirklich mit den Karten 8std/Tag arbeitet könnte die Rechnung dann aber schon anders aussehen, hier sind es bei 200W Differenz immerhin ~20€/mon.
Bei gelegentlicher Nutzung würde ich das eher vernachlässigen, ist ja kein Kühlschrank der 24/7 läuft.Nicop schrieb:Kann sich ja jeder die Langzeitkosten ausrechnen, vor allem bei 40+ ct Stromkosten aktuell.
Bei Firmen oder wer wirklich mit den Karten 8std/Tag arbeitet könnte die Rechnung dann aber schon anders aussehen, hier sind es bei 200W Differenz immerhin ~20€/mon.
Plastikman
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.918
Wunderbares Beispiel für Buzzwording. Genau das will Nvidia erreichen... Raytracing ist nach wie vor, außer paar Ausnahmen absolut irrelevant. Aber es beeinflusst trotzdem das Kaufverhalten. Das hatte NV immer besser drauf als AMD. Nutzlose Features als Must Have verkaufen.Chesterfield schrieb:auch wenn es in einigen Punkten für AMD spricht (leicht geringerer Preis z.B.), muss man sagen das attraktivere Produkt bleibt Nvidia 4080. allein DLSS 3.0 und Raytraycing.
Zuletzt bearbeitet:
Nein muss nicht... Das Problem ist das ein tapeOut für einen Chip sehr teuer ist. Es kann also sogar sein, dass AMD früh von dem Problem wusste, aber auch wusste - wir bekommen das nur mit neuem TapeOut weg... Und man hat sich entschieden diesen Kostenpunkt nicht weiter oben auf zu satteln...dgneo schrieb:Manchmal frage ich mich wie solche Karten Design't oder Entworfen werden? Wenn man jetzt so ließt das die GPU wohl weit über 3Ghz leisten könnte aber hier irgendetwas total schief gelaufen ist, müsste das ganze ja schon beim Entwurf ersichtlich gewesen sein das dieser Ansatz nicht aufgeht.
Mal davon ab, früh könnte eben sein, dass das Problem erst in der Kleinserie auftrat... Da dann solche Fehler zu korrigieren kostet Monate [man hätte den Release also deutlich nach hinten verschieben müssen eventuell]...
Da gibt es so viele Faktoren...
Ergänzung ()
Mal davon ab das auch die 7er AMD Karten ja durchaus Raytracing Leistung liefern.. Und FSR3 kommt auch noch...Plastikman schrieb:Wunderbares Beispiel für Buzzwording Opfer. Genau das will Nvidia erreichen... Raytracing ist nach wie vor, außer paar Ausnahmen absolut irrelevant. Aber es beeinflusst trotzdem das Kaufverhalten. Das hatte NV immer besser drauf als AMD. Nutzlose Features als Must Have verkaufen.
Wichtig: @Wolfgang hat nebenbei eben auch gezeigt das gewisse vorab Informationen nicht soooo falsch waren - wie sie im nach hinein erschienen.. Denn die weit über 3,5 GHZ kann der Chip ja - leider nur in einem bestimmten Szenario...
Nitschi66
Kreisklassenmeister
- Registriert
- Nov. 2007
- Beiträge
- 11.513
Naja wenn du den Takt bis zur kotzgrenze ziehen willst kannst du ja auch nicht mehr undervolten. Da brauchst du die spannunggedi schrieb:Wenn man die XTX oced, dann ist UV Pflicht. Leider wurde dies in dem Artikel nicht berücksichtigt.
Einen sweetspot herauszufindenn hatte @Wolfgang ja nicht vor.
Fighter1993
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.870
Nutzlos ist das jetzt nicht unbedingt.Plastikman schrieb:Das hatte NV immer besser drauf als AMD. Nutzlose Features als Must Have verkaufen.
Es gibt einen Grund warum die Grafik gefühlt nicht viel besser wird, einfach weil die Details der Texturen und Personen schon fast am Limit sind.
Was noch fehlt ist
1. Eine Passende Beleuchtung/ Spiegelung etc (Wird mit RT angegangen.)
2. Völlig Zerstörbare Map.(Wäre wahrscheinlich machbar wenn einfach mal alle Kerne der CPU genutzt würden.)
3. Dynamisches Wetter wo es nicht plötzlich regnet sondern evt an einer bestimmten Stelle so das man in den Regen hineibfahren kann wie es tatsächlich ist.
All das würde dazu beitragen, um den Beigeschmack "Spiel" welches man sofort als solches erkennt anzugehen.
Leistungstechnisch sind die 7900XTX und 4080/90 da auf dem richtigen Weg.
person unknown
Lt. Junior Grade
- Registriert
- März 2019
- Beiträge
- 456
klärt mich bitte auf: Ich dachte die XTX stand in den letzten Tagen in der Kritik, sich bei maximalem Takt selbst zu überlasten. Und zum Selbstschutz hat se sich dann deutlich runtergetaktet. war das nicht in etwa so?
Metaxa1987
Captain
- Registriert
- Dez. 2012
- Beiträge
- 3.989
Interessant dazu wäre jetzt der benötigte Verbrauch einer 4090 um auf das Leistungsniveau der "kotzenden" 4080/7900XTX zu kommen.
Ähnliche Themen
- Antworten
- 3.747
- Aufrufe
- 345.958