News „Mittelklasse“-Grafikkarten: Welche Karte ist die beste Alternative zu RTX 4060 & RX 7600?

tehschlonz schrieb:
[addendum] Hab sowohl Karten von AMD wie Nvidia besessen und bin großer Fan von Effizienz.

Bei 2560x1440 liefert die 6700XT 10-20% mehr Frames.

https://www.techpowerup.com/review/pny-geforce-rtx-4060-xlr8/6.html

Ob ich dafür den doppelten Stromverbrauch in kauf nehm, müsst ich mir genau überlegen.
Also wenn man etwas undervoltet und ein Framelimit setzt, kommt man sicher nicht über die 150 - 170 Watt. Das sollte langen. Klar eine 4060 ist deutlich Effizienter. Aber muss einfach das Gesamt Packet anschauen und das ist bei der RTX 4060 unterirdisch.
 
  • Gefällt mir
Reaktionen: tehschlonz und simosh
Wow, ich hätte nicht gedacht, dass ich so spät war im Vergleich zur Community. Bin aber auch von 4gb der R9 290X direkt auf 16gb gegangen mit der Radeon VII
 
  • Gefällt mir
Reaktionen: Sternengucker80
Neodar schrieb:
Hast du die RTX 3060Ti geschenkt bekommen?
Ansonsten musst du deren Kaufpreis auch noch mit verrechnen.
Den Kaufpreis hat man schon längst vergessen bzw. abgeschrieben, deshalb sind die Gegenrechnungen so, wie sie sind.
 
@Bright0001

Weiß nicht, ich kenne solche Aussagen nicht oder habe sie bewusst nicht ernst genommen. Ich beschränke mich dabei immer auf zuverlässige Quellen und plane mit mindestens 3 Jahren für die Grafikkarte.

Hardware unboxed hatte im Testvideo zur 3070 bereits erwähnt, dass die 8 GB dafür sorgen werden, dass die Karte in nicht allzu ferner Zukunft gegen vergleichbar teure Karten mit mehr Speicher das nachsehen hat. Das ist auch nicht das erste Mal das sowas passiert. 4gb vs 8 GB war genau das gleiche nach 2 Jahren.

Einer der Gründe warum ich mir stattdessen eine 6700xt gekauft habe und mit der nach 3 Jahren noch Recht zufrieden bin. Mit der 3070 wäre das schon seit 6 Monaten nicht mehr der Fall und ich hätte mir wahrscheinlich eine 7900xt kaufen dürfen, weil ich sonst zuviele Kompromisse eingehen müsste. Nvidia hat unter 1200 Euro ja generell nicht genug VRAM bei RTX40. Die Entscheidung eine 3070 zu kaufen, hätte mich also einiges gekostet. Bei 1000 Euro ist meine Vernunftgrenze.

3070 ist jetzt kein midrange mehr, aber meine 1060 mit 6 GB war es. Die hat sehr lange ansehnliche Texturen geliefert und das für 250 Euro. Das hat es also auch Mal bei Nvidia gegeben, bevor die Speichermenge als profitmindernde variable ausgemacht wurde und alle Karten nur noch gerade so genug oder zu wenig für aktuelle Spiele haben.

12 GB für wqhd wie die 4070 ti für 900 Euro ist da nur das next Level bei Nvidia um den Profit anzukurbeln.
 
  • Gefällt mir
Reaktionen: Drahminedum
Sternengucker80 schrieb:
8 GB hatte ich 2016, mit der RX480 8 GB, die hatte meine 2 6970 2GB abgelöst. 2019, wurde die durch die R VII mit 16 GB abgelöst. Die verrichtet auch heute noch treue Dienste. VRam Mangel kenn ich nicht. Auch die Leistung langt für alles :evillol: :D :daumen:
Dank UV/OC, braucht sie knapp über 200 Watt. Für 599€ , ein top Schnapper. Unter RX6800, oder RTX 4080, brauch ich gar nicht aufrüsten. Da würde ich mich verschlechtern. Da würde eher eine 7900XTX in Frage kommen. Da warte ich noch .....
Gute 2070 Karte mit 16 GB 🫡 teilweise schlägt sie sie auch aber be 6800 ist 50% besser ob sie noch lange in wqhd "überlebt"

Würde mich echt interessieren Wie die games 2023 so laufen in wqhd

Cp2077, hogwarts, witcher 3, atomic heart, resi 4, dead space und last of us und in wqhd?
 
Zuletzt bearbeitet:
Tenferenzu schrieb:
Ich konnte auch keine von den beiden empfehlen. Die 4060 ist zwar das rundere Paket mit mehr Softwareunterstütztung/Features aber zu dem Preis würde ich sie nicht kaufen. Um 220€ könnte ich sie allerdings ohne bedenken weiterempfehlen. :D
Und auch das ist eigentlich eine mogelpacken. ja es hat "Features" aber welche den? Um das Feature RTX laufen zu lassen, muss man praktisch dass "Feature DLSS3 nutzen, was nicht anderes ist als 720p rendern und es hochskalieren, inkl Fakeframes verbunden mit Inputlag und Artefakten. Dafür bekommt man dann RTX Medium in akzeptablen Frames im vorzeige titel Cyberpunk....

Für QHD fehlt der Speicher, der auch schon bei FHD knap wird. Und wäre es nicht schlimm genug wurde auch noch der PCIE Link kastriert, was die problematik vom fehlenden Speicher noch verstärkt. Und selbst in FHD macht es schon immer öfters Probleme.

"Rund" naja, Texturen haben so einen höheren negativen Impakt auf die Optik als RTX. Insbesondere da die Leistung trotz aller eingeschaltet Feature gerade so für ;Medium RTX in Cyberpunk reicht, also den nV optimierten VOrzeigetitel so läuft. Und der echte "Mehrwert" von RTX compt bei Cyberpunk ab High, ab da sieht man starke unterschiede. Auch die Skalierung von DLSS wird erst richtig stark wen man auf FHD rendert um dann auf QHD hoch zu skalieren. Für beides reicht aber nicht die Leistung.

Und da komme wir zum Punkt, man wollte eine günstige "RTX" fähige Karte für Powerpoint machen. Sie ist definitv nicht schlechter als eine 3060. Aber halt auch nicht viel besser. Sie schluckt halt weniger Strom. Und im vergleich zu der 7600 schneidet sie so gut ab, weil sie, ja eine entäuschung für den Preis und die Leistung ist. Man bekommt knap 10 % mehr leistung als eine 6600xt, mit ca 10 % höheren stromverbrauch... Und das nach 12 Monaten.... Praktisch stillstand...


1688364093608.png

'

1688364105825.png


1688364174912.png


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chaopanda und Hellyeah
Samuelz schrieb:
Joa. Radeon 7 mit 2070S Leistung. Obwohl, wenn ich so darüber nachdenke. Bisschen schwach auf der Brust für 1440p Gaming Anno 2023. :daumen:
Naja, die R VII, hat zumindest die besseren Treiber, zur Intel Arc 770 16 GB, mehr Leistung, bei ähnlichen Verbrauch. Schneller wie 3600/ 6650/7600/ (4060?)
Das alles vor 4 Jahren ohne Vram Mangel?
Wie stieht die 2070/2080 heute aus?
 
Für mich sind 8Gb vram in der Leistungsklasse auch 2023 noch ok.
Für eine 300€+ Preisklasse zu wenig.
Bei 200€ würde ich die 8Gb als ok bezeichnen.
Sternengucker80 schrieb:
Naja, die R VII, hat zumindest die besseren Treiber, zur Intel Arc 770 16 GB, mehr Leistung, bei ähnlichen Verbrauch.
Also die Benches die ich so kenne sehen die VII jetzt nicht so groß im Vorteil gegen eine RTX 2080 oder auch RX5700XT und der Verbrauch der VII ist trotz HBM nun auch nichts besonderes. Jederzeit eine RTX 2080 vor einer VII vorallem gute Customs die auch schön leise bleiben wie eine gaming x. Zumal die VII damals auch nicht gerade günstig war. Meiner Meinung absolut gehypte Karte mit HBM 16GB vram. Aktuell am Gebrauchtgrafikkartenmarkt so teuer wie eine RX6700Xt . Jederzeit die RX6700XT mit nur 12Gb vor dem alten VII "Krüppel" mit 16GB vram.
 
  • Gefällt mir
Reaktionen: DaHell63
Ich frage mich woher der Anspruch kommt mit einer ~300€ Grafikkarte mindestens 60FPS in FHD/max erreichen zu müssen.
Wenn man jetzt schon anpassen muss...totaler Schrott.
Da komme ich gleich zu meiner zweiten Frage....wie konnten sich die (früher war alles besser) Karten nur so gut verkaufen?
2.jpg1.jpg

...damals wie heute sind solche Karten nun mal keine max Karten und trotzdem kann man genauso wie früher mit den Karten gut zocken.
 
FHD ist seit Jahren nicht mehr "alles auf max". Die Auflösung selbst ist schon ein Kompromiss an die Leistung. Ergibt häufig auch Sinn, weil in manchen Spielen 200 FPS deutlich wichtiger sind als die höhere Auflösung.

Aber Auflösungen ändern sich.
EGA, CGA, VGA... lange Jahre war 1024*768 das Maß der Dinge, wer 1280*1024 auf dann vermutlich einem 21" oder größer zockte galt definitiv nicht mehr als casual gamer...
Dann der Schwenk zu 16:9 und damit zu 720p und FHD - durch die Zementierung von FHD als "Medienstandard" wurde aber locker ein Jahrzehnt der Auflösungsfortschritt bei Gaming hart gebremst.
Da hat vermutlich ausgerechnet Apple dann den Bann gebrochen dass höhere DPI durchaus Vorteile bietet - selbst Enthusiasten sind häufig mangels Hardware bei FHD mit 8xMSAA etc geblieben.

Heutzutage ist FHD doch für Menschen die 300-500€ in eine GPU investieren nur interessant wenn sie mit der neuen GPU alle Regler auf Anschlag schieben können - denn für alles andere taugt idR auch die bereits bestehende GPU.
Und für alle die das enthusiastischer sehen ist vermutlich sowieso die Auflösung der Wahl eine der Ultrabreitbildauflösungen - bis hin zu 5xxx*1080 - oder eben WQHD, UHD UWQHD und Co.
 
  • Gefällt mir
Reaktionen: chaopanda, Apocalypse, BornBad und eine weitere Person
DaHell63 schrieb:
Ich frage mich woher der Anspruch kommt mit einer ~300€ Grafikkarte mindestens 60FPS in FHD/max erreichen zu müssen.
Wenn man jetzt schon anpassen muss...totaler Schrott.
Da komme ich gleich zu meiner zweiten Frage....wie konnten sich die (früher war alles besser) Karten nur so gut verkaufen?
Anhang anzeigen 1372192Anhang anzeigen 1372193

...damals wie heute sind solche Karten nun mal keine max Karten und trotzdem kann man genauso wie früher mit den Karten gut zocken.
Damals gabs aber im 300€-250€ Berreich schon eine GTX 970 oder auch eher eine 1070 und nicht so Einsteiger 200€ Karten wie in den Benches hier. Und die haben für die 300€ ganz ok abgeliefert.

Allerdings über die letzten 20 Jahre sind die Ansprüche doch deutlich gestiegen. Anfangs waren noch 25-30fps das Ziel. Dann war der Schritt zu minimum 30fps als heiliger Kral und dann auf einmal war alles unter 60fps unspielbar und als Enthusiast müssen Grafikkarten heute am besten 120fps in 4k darstellen mit ultra.
Immerhin ist schon der wechsel von 30 fps auf 60fps das doppelte an Grafikleistung das man benötigt.
Dazu noch die Auflösung die auch in 2023 4k haben sollte, da 1440p Augenkrebs erzeugt. Also nur vom FPs Anspruch und Auflösungserhöhung müssen die Grakas schon immer stärker werden. Dazu kommt, dass natürlich auch die Weitsicht immer höher wird und die anderen Effekte auch zunehmen in der Qualität, und das kostet ebenfalls, wie die letzten 10 Jahre SSOA und nun RT.
In guten Games ist aber heutiges 1440p mit hohen Details schon ein sehr guter Basiswert in der Grafikqualität finde ich , wenn das Game Spass macht.
Dank DLSS 2.0+ / FSR 2.0+ kann ich mir aber vorstellen, dass 4k 60fps durchaus erreichbar werden die nächsten 2-3 Generationen für mittelklasse Grafikkarten in hohen bis sehr hohen Details ohne RT und ohne FG.
 
  • Gefällt mir
Reaktionen: BornBad und Tr8or
P
DaHell63 schrieb:
Ich frage mich woher der Anspruch kommt mit einer ~300€ Grafikkarte mindestens 60FPS in FHD/max erreichen zu müssen.
Wenn man jetzt schon anpassen muss...totaler Schrott.
Da komme ich gleich zu meiner zweiten Frage....wie konnten sich die (früher war alles besser) Karten nur so gut verkaufen?
Anhang anzeigen 1372192Anhang anzeigen 1372193

...damals wie heute sind solche Karten nun mal keine max Karten und trotzdem kann man genauso wie früher mit den Karten gut zocken.
Muss sagen gta 5 haben rockstar echt gut für den PC portiert
Ergänzung ()

Vitec schrieb:
Damals gabs aber im 300€-250€ Berreich schon eine GTX 970 oder auch eher eine 1070 und nicht so Einsteiger 200€ Karten wie in den Benches hier. Und die haben für die 300€ ganz ok abgeliefert.
Für fhd liefern vor allem die last gen für den preis gut ab

die 6700xt hat halt dann noch genug vram

Mal sehen wie teuer die 7800 xt und 7700 xt werden
 
Zuletzt bearbeitet:
Meine "jüngere" Graka-Historie:

bis 2011: Geforce 8800 GTS 512 - 0,5GB VRAM
bis 2016: Geforce GTX 560 Ti - 1GB VRAM
bis 2021: Geforce GTX 980 - 4GB VRAM
seitdem die Geforce RTX 3070 - 8GB VRAM

Ich habe meinen Speicher also immer (mindestens) verdoppelt, d.h. die nächste Karte sollte 16GB nicht unterschreiten. Bei meiner aktuellen Nutzungsintensität (quasi keine Nutzung weil keine Zeit) wird es aber vemrutlich noch ein paar Jahre dauern, bis da wieder etwas passiert.

Tendenziell haben ich nie gleichzeitig neu und High-End gekauft - die 560 Ti war recht noch recht frisch, die 980 gebraucht, bei der 8800 GTS 512 weiß ich es nicht mehr. Die 3070 war (zu) teuer, aber zu dem Zeitpunkt nötig, auch wenn ich damals auf die spekulierten Version mit 16GB gehofft hatte. Alles darüber war mir zu teuer.

An nVidia bin ich durch CUDA gebunden (Deep Learning mit PyTorch), auch wenn ich gern flexibler wäre und auch (zurück) zu AMD wechseln würde (hatte ganz früher mal eine ATI.... mit 8MB).

Für Low-End / unteres Mid-Range sind meiner Meinung nach 8GB die Untergrenze. Darunter würd eich jemanden, der Zocken möchte, nichts mehr empfehlen und eigentlich auch immer zu mehr raten, wenn finanziell machbar.

Grüße
ErichH.
 
Ich hatte die 260, 460, 760, 1060. Dann haben sie mich an AMD verloren. Vega56, 6800, 7900xt.

Aber VRAM war früher eigentlich nie zu knapp wenn ich mich richtig erinnere.
 
Vitec schrieb:
Jederzeit die RX6700XT mit nur 12Gb vor dem alten VII "Krüppel" mit 16GB vram.
Das ist doch genau das Problem, warum die ganze VRAM-Diskussion überbewertet ist: zu dem Zeitpunkt wo VRAM XY zu langsam ist, sind auf alten Karten auch die Grafikchips zu langsam. Es ist ja ganz toll, dass eine RX580 gegenüber einer 1060 6GB relativ mehr Leistung hat als sie mal früher hat, in den absoluten fps rettet sie das trotzdem kein Stück.
 
  • Gefällt mir
Reaktionen: Vitec und DaHell63
Czk666 schrieb:
Aber VRAM war früher eigentlich nie zu knapp wenn ich mich richtig erinnere.

Stimmt. Selbst mit der "Skandalkarte" GTX 970 hat man jahrelang nie einen Engpass feststellen können.
Mir ist es zum 1. Mal richtig aufgefallen, als ich in RDR2 den Regler für Texturen nicht weiter hochziehen konnte. Config per Hand geändert, dann ging die UltraTexture auch.

Aber ja, das war der Zeitpunkt wo mir bewusst wurde die 970 ist zu alt, was Neues muss her ;)
 
2016 hatte ich die erste Karte mit 8GB gekauft, eine RX480. Sie hatte meine HD7870 abgelöst. Die 480 läuft heute noch in meinen Desktoprechner, in einen zweiten Rechner läuft noch eine RX580 und in meinen Hauptrechner läuft eine 3060ti.
Was zur Zeit an Grakas angeboten wird und zu welchen Preis, haut mich nicht wirklich vom Hocker, FHD reicht mir immer noch....
 
Ich empfehle eine 2070 Super oder 2080 Super.
Gibt es gebraucht unter 200€ bei eBay. Sind zwar auch nur 8GB RAM aber bei dem Preis geht das für mich klar. Die Hersteller müssen mal auf ihren Karten sitzen bleiben.
 
  • Gefällt mir
Reaktionen: Vitec
Zurück
Oben