Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc (Dezember)
Americanguy
Banned
- Registriert
- Sep. 2023
- Beiträge
- 141
das ding undervolted 70 watt das ist schon extrem krass für über 1080ti leistung.k0n schrieb:Das ist noch gar nichts. Die 115W TBP 4060 gibt es einmal mit L=182 W=69 H=40 mm (Low-Profile/Dual-Slot) ...oder diverse (Full-Height) Single-Fan <170mm.
Und auch mit '4090 bodykit'(?) d.h. 3.1-Slot, Triple-fan und L=311.4 W=133.5 H=61.9mm.
Ob klein oder groß es bleibt bei 115W TotalBoardPower, 128Bit, 8GB, x8 PCIE4 und 1x 8Pin..
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.559
Americanguy schrieb:das ist schon extrem krass für über 1080ti leistung.
Oder halt größer als jede 1080Ti die es jemals gab...
Plastik und Luft kostet/wiegt ja nichts.
Americanguy
Banned
- Registriert
- Sep. 2023
- Beiträge
- 141
verstehe ich nicht ^^
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.559
@Americanguy was jetzt genau? Clip?.. die Karte ist ihm zu leicht und fühlt sich wie eine Plastikattrappe im IKEA an. Größe und Gewicht passen nicht zusammen, da halt wenig Kühler unter der großzügigen Plastikverkleidung.
Meine Aussage? Gab es eigentlich eine 1080ti (250W), die größer war als diese 4060 (115W)?
Zum Thema: Interessant dass eine 8GB Karte wirklich nicht mehr empfohlen werden kann... xD Erst dieses Jahr habe ich einmal zur 6700XT und einmal zur 6800XT statt 3070 geraten... Es wurde natürlich NVIDIA. Fast so gut, billiger und 50% mehr VRAM kam nicht gut an. Deutlich schneller, gleicher Preis und doppelt soviel VRAM war auch kein Argument... 🥲
Jetzt habe ich selber aus SFF Gründen die 4070 und hoffe dass die 12GB reichen.
Meine Aussage? Gab es eigentlich eine 1080ti (250W), die größer war als diese 4060 (115W)?
Zum Thema: Interessant dass eine 8GB Karte wirklich nicht mehr empfohlen werden kann... xD Erst dieses Jahr habe ich einmal zur 6700XT und einmal zur 6800XT statt 3070 geraten... Es wurde natürlich NVIDIA. Fast so gut, billiger und 50% mehr VRAM kam nicht gut an. Deutlich schneller, gleicher Preis und doppelt soviel VRAM war auch kein Argument... 🥲
Jetzt habe ich selber aus SFF Gründen die 4070 und hoffe dass die 12GB reichen.
Zuletzt bearbeitet:
Americanguy
Banned
- Registriert
- Sep. 2023
- Beiträge
- 141
schwachsinnige vram panik so ein quatsch.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.872
Ja. Das stimmt. So wichtig ist das eh nicht ob eine Karte jetzt ein wenig schneller oder ein wenig langsamer ist oder ob das Game jetzt ein bisserl besser oder ein bisserl schlechter aussieht. VOLLKOMMEN LATTE im Grunde.Americanguy schrieb:schwachsinnige vram panik so ein quatsch.
Aber natürlich muss man eingestehen, das die Leute die damals bei der 3070 über den RAM gemeckert haben, durchaus jetzt das ganze auch mit Benchmarks belegen können. Also heute würde niemand ne 3070 statt einer 6800 empfehlen oder? Mit 12 vs 16 sieht das aber schon deutlich besser aus, schon alleine weil die Konsolen nur 16GB haben und das Spiel und OS ja auch noch in die 16GB rein müssen. 16 wären mir trotzdem lieber, zumindest auf der Karte fürs Hauptsystem.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
SuperHeinz
Commander
- Registriert
- März 2023
- Beiträge
- 2.609
Bei den Notebook-Grafikkarten ist auch immer noch ein Blick auf die VRAM-Daten angebracht. Denn viele Anbieter sparen ebenfalls beim VRAM und halbieren mal kurz den Speicher im Gegensatz zu PC-Grafikkarten.
Ich muss sagen die Empfehlungen von CB für FullHD kann ich in keiner Weise nachvollziehen. Es scheint als hat man sich hier auf den VRAM eingeschossen und irgnoriert alle anderen Aspekte wie. z.B. das eigene Performancerating.
Zwischen der RX 6700 und der RTX 3080 liegen fast 50% Leistungsunderschied. D.h. entweder ist die RX 6700 zu schwach für FullHD oder die RTX Overkill. Je nachdem ist die eine oder andere Karte eben keine Empfehlung!
Die nächste Frage ist, was die RTX 3080 überhaupt noch in der Full HD Liste macht und warum da nicht die 4070 aufgeführt ist. Die Performance ist gleich, die 4070 hat 2GB mehr VRAM, das bessere VRAM Management, niedrigeren Stromverbrauch und ist im Preisvergleich inzwischen günstiger. D.h. ein nicht versierter Nutzer würde Stand September 2023 lesen das die RTX 3080 für FullHD ein guter Kauf wäre. Das stimmt definitiv nicht.
Zwischen der RX 6700 und der RTX 3080 liegen fast 50% Leistungsunderschied. D.h. entweder ist die RX 6700 zu schwach für FullHD oder die RTX Overkill. Je nachdem ist die eine oder andere Karte eben keine Empfehlung!
Die nächste Frage ist, was die RTX 3080 überhaupt noch in der Full HD Liste macht und warum da nicht die 4070 aufgeführt ist. Die Performance ist gleich, die 4070 hat 2GB mehr VRAM, das bessere VRAM Management, niedrigeren Stromverbrauch und ist im Preisvergleich inzwischen günstiger. D.h. ein nicht versierter Nutzer würde Stand September 2023 lesen das die RTX 3080 für FullHD ein guter Kauf wäre. Das stimmt definitiv nicht.
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.795
das sehe ich ähnlich - dazu bin ich selber ein user mit einer 3080 12gb variante - auch wenn die karte nicht in stückzahlen einer "normalen" 3080 über die theke ging, würde ich mir hier eine differenzierung wünschen.TeHaR schrieb:Ich muss sagen die Empfehlungen von CB für FullHD kann ich in keiner Weise nachvollziehen. Es scheint als hat man sich hier auf den VRAM eingeschossen und irgnoriert alle anderen Aspekte wie. z.B. das eigene Performancerating.
ansonsten muss man jetzt fragen: haben die kritiker der 10gb 3080 damals recht gehabt dass dies schlich zuwenig an vram ist? es mag inzwischen die nachfolgegeneration zu den 3000er karten geben, aber denoch finder ich das ein starkes stück wenn eine 3080 quasi "nur" noch für fhd "empfehlenswert" ist.
wie mein vorredner schrieb: selbst die performance ratings sprechen eine andere sprache...
Diese Empfehlungen für eine bestimmte Auflösungen. sind und waren schon immer Blödsinn. Zwischen 1080p/60FPS und 1080p/120FPS+/RT liegen Welten, für letzteres wäre eigentlich eine 4090 empfehlenswert. Die Auflösung ist heutzutage nur eines der vielen Faktoren, die eine benötigte Leistung voraussetzen, trotzdem hält man an solchen unsinnigen 1080p/1440p/2160p Empfehlungen fest.cypeak schrieb:denoch finder ich das ein starkes stück wenn eine 3080 quasi "nur" noch für fhd "empfehlenswert" ist.
Verak Drezzt
Admiral
- Registriert
- Jan. 2020
- Beiträge
- 9.923
nein tust du nicht, wird wohl die 8GB Version sein und haben wohl kein 16GB Sample bekommen, aber nimmt sich auch nix gegenüber der 8GB Variante, außer das du halt entsprechend länger den Texturenregler auf ultra ziehen kannst, ist aber nicht wirklich den Aufpreis wert und würde dann eher zur 35% schnelleren 4070 greifen, bzw. zur 7700XT/7800XTreygok schrieb:Suche ich an der falschen Stelle?
https://www.pcgameshardware.de/Gefo...Test-Benchmark-Release-8GB-vs-16GB-1424743/2/
https://www.computerbase.de/2023-09...chmarks_mit_und_ohne_raytracing_in_2560__1440
Zuletzt bearbeitet:
??? Gibt es doch ganz normal zu kaufen.roflek schrieb:Wie oft wird die 4090 fe eigentlich in letzter Zeit gedroppt?
Robman86
Lt. Junior Grade
- Registriert
- Sep. 2012
- Beiträge
- 388
Was mir heute positiv aufgefallen ist, ist, dass der Unterschied von z.B. 4080 zu 4090 (in UHD) mittlerweile geringer ist als gedacht.
Das liegt wohl daran, dass mittlerweile oftmals Upsampling zur Verfügung steht und auch gerne (inkl. von mir) genutzt wird. Je nach Profil wird dann eben meistens QHD oder FHD genutzt.
Und in nativem UHD hebt sich die 4090 nun mal am meisten ab.
Laut diesem Artikel hier ist die 4080 in UHD 24% langsamer als die 4090 (74,4 statt 100 avg-fps). Ich habe mir aber mal fünf aktuelle Spiele-Tests (ebenfalls auf Computerbase zu finden) mit Upsampling angeschaut: Hier sind es nur noch 19% Unterschied (statt wie gesagt 24%). Ja, fünf Spiele sind jetzt nicht total repräsentativ, aber immerhin.
Gleichzeitig verbraucht die 4080 (ohne fps-limiter) ca. 28% weniger Energie als die 4090, was mit den Original-TDP Angaben relativ übereinstimmt (450 zu 320 W sind 29% Unterschied).
Aber: Das soll die 4090 jetzt nicht schlecht(er) dastehen lassen: Sie ist und bleibt die absolute Enthusiasten-Karte, die noch mal mit Abstand einiges mehr an fps abliefert. Auch 19% sind noch eine Ansage. Der Sweet-Spot ist hier zwar schlechter, aber so ist das ja stets mit absoluter Highend-Hardware.
Das liegt wohl daran, dass mittlerweile oftmals Upsampling zur Verfügung steht und auch gerne (inkl. von mir) genutzt wird. Je nach Profil wird dann eben meistens QHD oder FHD genutzt.
Und in nativem UHD hebt sich die 4090 nun mal am meisten ab.
Laut diesem Artikel hier ist die 4080 in UHD 24% langsamer als die 4090 (74,4 statt 100 avg-fps). Ich habe mir aber mal fünf aktuelle Spiele-Tests (ebenfalls auf Computerbase zu finden) mit Upsampling angeschaut: Hier sind es nur noch 19% Unterschied (statt wie gesagt 24%). Ja, fünf Spiele sind jetzt nicht total repräsentativ, aber immerhin.
Gleichzeitig verbraucht die 4080 (ohne fps-limiter) ca. 28% weniger Energie als die 4090, was mit den Original-TDP Angaben relativ übereinstimmt (450 zu 320 W sind 29% Unterschied).
Aber: Das soll die 4090 jetzt nicht schlecht(er) dastehen lassen: Sie ist und bleibt die absolute Enthusiasten-Karte, die noch mal mit Abstand einiges mehr an fps abliefert. Auch 19% sind noch eine Ansage. Der Sweet-Spot ist hier zwar schlechter, aber so ist das ja stets mit absoluter Highend-Hardware.
Zuletzt bearbeitet:
Warum wird die 7700XT für WQHD ohne RT nicht empfohlen, sondern nur für FUll-HD?
Im Test stand nichts von Einschränkungen in der WQHD-Auflösung:
@Wolfgang "Die Radeon RX 7700 XT eignet sich mit der Rohleistung und den 12 GB Speicher letztendlich gut für das Spielen in Full HD und WQHD bei hohen bis maximalen Grafikdetails"
https://www.computerbase.de/2023-09/amd-radeon-rx-7700-xt-rx-7800-xt-test/4/
Und ich hab auch keine Einschränkungen bei den FPS Zahlen ohne RT gesehen. In Full-HD sagt man noch, man braucht so viel Leistung gar nicht für FUll-HD, sondern empfiehlt sie wegen dem Speicher.
Wenn das aber schon für die RTX 4060TI und RX6700 gilt, dass man gar nicht so viel Leistung für Full-HD braucht und die wegen dem Speicher empfiehlt, warum empfiehlt man dann die RX7700, die 30 Prozent schneller als die RX6700 ist, nicht für WQHD? Warum empfiehlt man die sogar explizit für FULL-HD, wo die doch eigentlich zu viel Leistung für diese Auflösung hat und mit 12GB RAM auch genug Speicher für WQHD hat?
Von der Einstufung abgesehen, ist die Tabelle nicht ganz plausibel aufgebaut. Bei Full-HD wird RX6700 und RX7700 genannt. Bei Full-HD mit Raytracing dann wiederrum nur die RX6700. Warum?
Im Test stand nichts von Einschränkungen in der WQHD-Auflösung:
@Wolfgang "Die Radeon RX 7700 XT eignet sich mit der Rohleistung und den 12 GB Speicher letztendlich gut für das Spielen in Full HD und WQHD bei hohen bis maximalen Grafikdetails"
https://www.computerbase.de/2023-09/amd-radeon-rx-7700-xt-rx-7800-xt-test/4/
Und ich hab auch keine Einschränkungen bei den FPS Zahlen ohne RT gesehen. In Full-HD sagt man noch, man braucht so viel Leistung gar nicht für FUll-HD, sondern empfiehlt sie wegen dem Speicher.
Wolfgang schrieb:Die genannten Modelle von AMD und Nvidia sind zweifelsohne bereits schnelle Grafikkarten, die für 1.920 × 1.080 eigentlich gar nicht unbedingt notwendig sind, doch erst ab diesen gibt es mehr als 8 GB VRAM
Wenn das aber schon für die RTX 4060TI und RX6700 gilt, dass man gar nicht so viel Leistung für Full-HD braucht und die wegen dem Speicher empfiehlt, warum empfiehlt man dann die RX7700, die 30 Prozent schneller als die RX6700 ist, nicht für WQHD? Warum empfiehlt man die sogar explizit für FULL-HD, wo die doch eigentlich zu viel Leistung für diese Auflösung hat und mit 12GB RAM auch genug Speicher für WQHD hat?
Von der Einstufung abgesehen, ist die Tabelle nicht ganz plausibel aufgebaut. Bei Full-HD wird RX6700 und RX7700 genannt. Bei Full-HD mit Raytracing dann wiederrum nur die RX6700. Warum?
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 2
- Aufrufe
- 1.240