Test AMD Radeon RX 7600 im Test: Die 299-Euro-Grafikkarte tritt mit Navi 33 auf der Stelle

ArrakisSand schrieb:
Ganz schön liebloser Test, nur bei einer Auflösung getestet, der direkte Vorgänger die RX6600 wurde
gar nicht erst mitgetestet.
Computerbase scheint der Gamer mit dem schmalen Geldbeutel anscheinend total am Arsch vorbei zu gehen.
So würde ich es jetzt nicht sagen, der Test ist schon super ausgearbeitet aber die 6600 hätte ich auch gern in den Benchmarks gesehen. Im Text wird allerdings erwähnt das die 7600 quasi der Vollausbau ist und eigentlich die 6600xt der direkte Vorgänger ist... aufgrund der erbärmlichen Mehrleistung musste man sie aber einfach 7600 nennen. Insgesamt eine extrem enttäuschende GPU Generation bei AMD in sachen Preis und Leistung und bei Nvidia leider immer im Preis und bei der 4060ti auch in Sachen Leistung. Hoffentlich wird das in den nächsten Jahren wieder interessanter...
 
  • Gefällt mir
Reaktionen: drake23
AMD und Nvidia, diese zwei Kartelle sprechen ihre Preispolitik eh ab.

AMD Chefin ist eh die Nichte des Nvidia CEO's. die beiden Taiwaner nehmen uns alle hops
 
  • Gefällt mir
Reaktionen: Einfallslos^99, Zenx_, Schneee und 3 andere
Die Karte hätte man besser als RX7500 bezeichnet und im Preisbereich um 200 Euro angesiedelt. So wie jetzt ist sie total unattraktiv. Bei einer 7600 hätte ich eher die Leistung einer 6700 erwartet damit dieser Preis gerechtfertigt ist.
 
  • Gefällt mir
Reaktionen: fullnewb, KlaasKersting und Delirus
Hoffentlich kauft das keiner....Das ist einfach ne Frechheit.
 
  • Gefällt mir
Reaktionen: Delirus
k0n schrieb:
Und auch kein USB-C
Ist das USB-C eigentlich ausschließlich für Video? Dann finde ich es leider etwas „unnütz“. Wenn dann wenigstens noch der USB Hub im Monitor gehen würde wäre es was anderes.

Zur Karte selbst haben genug andere schon alles geschrieben.
 
Für mich liest sich Test, sowie der ein oder andere Kommentar zu negativ. Ja klar, erhofft hat man sich vor ein paar Monaten natürlich mehr, aber es ist der Einstieg ins potente FHD Gaming.

Die Karte ist 10 % günstiger als die 6600 zum Relese und bietet 25 % mehr Leistung. Daran gibt es derzeit wenig zu meckern. Vor allem da der Preis ja wahrscheinlich auch noch sinken wird.

Ob nun vollausbau oder nicht, ist für den konsumenten an sich ja irrelevant. Jemand der jetzt eine 5600 verbaut hat, bekommt mit der Karte eine gute Verbesserung. Das der Technikaffine darauf achtet und debatiert ist aber natürlich völlig richtig. Am ende gilt es aber Preis und Leistung zu vergleichen und da sieht es jetzt gar nicht so schlecht aus.

Auch ist die 8 gb thematik hier weniger relevant als bei einer Karte die durch mehrkosten von 40 % für stressfreien wqhd gebrauch geeignet sein sollte.
 
  • Gefällt mir
Reaktionen: Redundanz, Epistolarius, Eli0t und 5 andere
Amaoto schrieb:
Die Karte verbraucht mit einem 60-Hz-Bildschirm 5 Watt, mit zwei Bildschirmen 17 Watt.
Wäre die Leistungsaufnahme dann also tatsächlich geringer, wenn man zwei Karten nehmen und an jede nur einen Monitor anschließen würde?
Was eine witzige Feststellung, ich kann nicht mehr 😂

Das "Problem" der AMD Karten ist, dass sie den VRAM nicht passend zur Pixelmenge und Refreshrate mehrerer Bildschirme takten können, sondern nur so feste Taktpunkte vorgeben. Wenn also genug Pixel zu befeuern sind bei einer bestimmten Herzzahl, dann taktet der RAM vom sparsamen "Desktop-Taktbereich" direkt in den "Gaming-Taktbereich" und der Unterschied ist dann direkt messbar (auf meiner RX 6800 mit ~30 Watt).

Das skaliert dann vielleicht wieder etwas besser, wenn man noch mehr Bildschirme anschließt bzgl. des Verbrauchs, so dass es sich wieder lohnt, aber so hast du natürlich recht. Zwei RX 7600 für jeweils einen Bildschirm verbraucht wohl weniger Strom als eine Karte zu nutzen 😂 Hier im Test ist das ja auch schon mit einem Monitor zu sehen. 4k in 60 oder 144hz sind schon ein großer Unterschied bzgl. benötigter Speicher-Bandbreite.

Bei meiner RX 6800 ist es tatsächlich etwas besser geworden mit neueren Treibern (es hängt wohl auch sehr damit zusammen, wie ein Monitor mit der Karte kommuniziert, da gibt es auch Hersteller/Modelle, die gewisse Standards nicht einhalten), so dass ich meinen WQHD Hauptmonitor mit 120-144hz befeuern kann und trotz eines zweiten FullHD Monitors mit 60hz der VRAM im "Desktop-Taktbereich" bleibt.

Wenn ich statt des FullHD Monitors einen zweiten WQHD mit 60hz ansteuere steigt der Verbrauch direkt massiv, weil der VRAM auf die vollen 2000 MHz hoch taktet.

Da ich an dem Rechner neben dem Gaming Windows Betrieb auch unter Linux arbeite, habe ich dort alle 3 Bildschirme aktiv und aber alle auf 60hz beschränkt, was dafür sorgt, dass der VRAM im niedrigen Taktbereich unterwegs ist.

Ob das mit einer Nvidia Karte so viel besser läuft, weiß ich nicht. Ich mag AMD an dem Rechner aber lieber, weil der AMD Treiber unter Linux auch direkt im Kernel steckt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AssembIer, Syrian und Rockstar85
Holgmann75 schrieb:
Hattet ihr beim OC Test keine Lust? 🤔 🤭
Bei Techpowerup schaffen alle Karten knapp 10% mehr mit OC.. 😉
Ich bin schon ruhig...🫣:mussweg:
Also hier kamen nicht einmal im Ansatz 10 Prozent mehr FPS heraus. Das kann vielleicht passieren, wenn in einem Spiel das Power Limit nicht limitiert.

Donnidonis schrieb:
Ist das USB-C eigentlich ausschließlich für Video? Dann finde ich es leider etwas „unnütz“. Wenn dann wenigstens noch der USB Hub im Monitor gehen würde wäre es was anderes.

Zur Karte selbst haben genug andere schon alles geschrieben.
Type-C an Grafikkarten frisst eigentlich auch USB-Sticks. Also da geht dann wohl auch noch was anderes, aber ich weiß es nicht.
 
  • Gefällt mir
Reaktionen: Holgmann75 und SFFox
Schade um die Zeit der Redaktion. RTX 4060 Ti, RX 7600 - bei solchen Produkten hätte ich bald keine Lust mehr irgendwas zu testen. :freak:
 
  • Gefällt mir
Reaktionen: hongkongfui, Rockstar85, Sombatezib und 2 andere
Wolfgang schrieb:
Also hier kamen nicht einmal im Ansatz 10 Prozent mehr FPS heraus. Das kann vielleicht passieren, wenn in einem Spiel das Power Limit nicht limitiert.
OC kann man nur mit gleichzeitigem UV "sinnvoll" machen sonst hast du nur die Erhöhung durch das PT und das allein bringt es nicht. Das ist der Unterschied.
 
miagi schrieb:
Ich hab den Verdacht, dass die RX 7600 ungefähr im Bereich der RTX 2070 liegen würde. Jetzt muss ich das über einen Zwischenvergleich mit der RTX 3060(Ti) austarieren. Schade CB :(

Hier mal von Fremdquelle eine Grobübersicht mit älteren Karten. Einmal Average und einmal als Ausreißer COD. Für mehr, siehe Quelle.

7600-15.jpg CoD_1080p-p.jpg
(Techspot)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Eli0t
C.J. schrieb:
Nur weil du es noch 10 mal wiederholst wird es nicht richtiger. N33 ist der Nachfolger zu N23, preislich ist N33 aktuell noch leicht drüber, weil sich die Straßenpreise einpendeln müssen. Danach vergleiche ich Vollausbau mit Vollausbau. Der Vergleich mit einer abgespeckten und deutlich billigeren 6600 ergibt keinen Sinn. Auch wenn der Vergleich schon gebracht wurde: Wenn der neue Golf größer und teurer als der alte Passat wird, vergleiche ich trotzdem nicht neuen Golf vs alten Golf nur weil der Name gleich ist.
Nur weil du Autovergleiche heranziehst bei PC Hardware wird so ein Vergleich auch nicht sinnvoller oder valider.
Fakt ist AMD bewirbt offiziell die 7600 als 6600 Nachfolger. Thema erledigt.
 

Anhänge

  • AMD-RADEON-RX-7600-HERO-BANNER-1200x464.jpg
    AMD-RADEON-RX-7600-HERO-BANNER-1200x464.jpg
    89 KB · Aufrufe: 194
  • AMD-RADEON-RX-7600-3.jpg
    AMD-RADEON-RX-7600-3.jpg
    144,3 KB · Aufrufe: 196
  • Gefällt mir
Reaktionen: adnigcx, hongkongfui und Eli0t
HorstSan schrieb:
AMD versucht die von Nvidia angestoßene Preiswelle 1:1 mitzureiten. Ende der Geschichte.
Ist aus Kundensicht nicht so toll, aber aus Unternehmenssicht durchaus nachvollziehbar. Auch AMD hat am Ende des Tages nichts zu verschenken und will mit möglichst viel Gewinn verkaufen.
Etwas positives kann es aber trotzdem haben, denn so hat AMD möglicherweise mehr Geld, dass entsprechend in zukünftige Entwicklungen investiert werden kann.
 
Wolfgang schrieb:
Type-C an Grafikkarten frisst eigentlich auch USB-Sticks. Also da geht dann wohl auch noch was anderes, aber ich weiß es nicht.
Primär ist der USB-C Anschluss ja auch als Display Ausgang gedacht gewesen, v.a. für VR. Die Implementierung für andere USB Geräte dahinter ist von Karte und Karte echt Glückssache. Mein Rechner ist auch schon mal abgestürzt, als ich eine externe SSD einfach nur testen wollte an meiner RX 6800, könnte aber auch ein Treiber-Fehler gewesen sein. ;)

P.S. ein Like für den Fafnir :D 👍
 
Die haben sich doch abgesprochen mit Nvidia, so ne Art Wettbewerb wer die Karte mit dem geringsten Leistungsplus im Vergleich zum Vorgänger bauen kann.
 
  • Gefällt mir
Reaktionen: Schneee
C.J. schrieb:
Nur weil du es noch 10 mal wiederholst wird es nicht richtiger. N33 ist der Nachfolger zu N23, preislich ist N33 aktuell noch leicht drüber, weil sich die Straßenpreise einpendeln müssen. Danach vergleiche ich Vollausbau mit Vollausbau. Der Vergleich mit einer abgespeckten und deutlich billigeren 6600 ergibt keinen Sinn. Auch wenn der Vergleich schon gebracht wurde: Wenn der neue Golf größer und teurer als der alte Passat wird, vergleiche ich trotzdem nicht neuen Golf vs alten Golf nur weil der Name gleich ist.
Der Vergleich hinkt. Sie vergleichen ein Auto nach Ausstattung, Leistung und Form.

Nehmen wir mal an: Golf 5 gröst möglicher Motor der rein passt: 100 ps. Golf 6 größter Motor 80 ps. Golf 6 fährt aber schneller, energiesparender und ist auch besser in der Beschleunigung. Warum sollte man diese dann nicht vergleichen können, nur weil ein teurer Golf 5 gti rausgekommen ist, der fast so schnell ist wie der 6 aber auch deutlich teurer.

Ich möchte niemanden dafür kritisieren, wenn er über den Vollausbau oder nicht, debatieren möchte, am ende ist das aber für den Kunden irrelevant.
 
Taurus104 schrieb:
25% zum die direkten Vorgänger würde ich nicht als "kaum mehr vorhanden" bezeichnen.
Das Ding ist aber auch nur im Namen der Nachfolger der 6600. Die Karte hat den vollausbau eine 7600xt mit dem Chip werden wir wohl nicht sehen.
 
ArrakisSand schrieb:
Ganz schön liebloser Test, nur bei einer Auflösung getestet, der direkte Vorgänger die RX6600 wurde
gar nicht erst mitgetestet.
Computerbase scheint der Gamer mit dem schmalen Geldbeutel anscheinend total am Arsch vorbei zu gehen.
Kann man auch anders formulieren, aber der entscheidende Punkt ist hier imo in der Tat, dass die RX6600 außen vorgelassen wurde.
 
  • Gefällt mir
Reaktionen: hongkongfui
Holgmann75 schrieb:
Ich sehe da keinen Award :confused_alt:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/42.html

Allerdings habe ich mir schon vor langer Zeit abgewöhnt irgendwas auf Awards zu geben.
Ist zwar etwas mehr Arbeit die Tests zu lesen, aber man bekommt dann schon einen Eindruck warum Awards nicht zwingend ein Qualitätssiegel darstellen 🤔🤭

Wurde nach dem Shitstorm in den Kommentaren nachträglich entfernt. Hardware unboxed und Games Nexus nennen das Ding "waste of sand" und die vergeben einen Award "hochgradig empfohlen". Hab das Lesezeichen für die Seite gelöscht.

Jayztwocents hat im Testvideo die 4060 ti als neue 1060 hingestellt. Darauf folgte der Shitstorm of Doom in den Kommentaren. Das Video wurde nach wenigen Minuten offline genommen und stattdessen ein Video zur Entschuldigung für den Test hochladen. Der Kanal ist ebenfalls Geschichte für mich.

Linus ist ebenfalls positiver gewesen. Gut, der war schon immer ein sellout. Nur Unterhaltung und kein ernstzunehmender content. Kanal wurde von mir ebenfalls geext.

Wer als Tester glaubt, dass Propaganda für Nvidia langfristig Erfolg mit sich bringt, sollte ernsthaft darüber nachdenken, wieviel nvidia noch zahlen wird, wenn sich kaum einer für den content interessiert.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: adnigcx, Redundanz, Z0RDiAC und 12 andere
Zurück
Oben