Test GeForce RTX 3050 6 GB im Test: 3050 8 GB, GTX 1650, RX 6600 & Arc A380 vs. „RTX 3040 Ti“

Die tabelle für encoder/Decoder Unterstützung ist unvollständig, weil gewisse h265 Codecs NICHT von AMD und nvidia unterstützt werden, bspw h265 10bit 422. Das geht nur mit arc.

hätte hier gerne eine detailliertere Tabelle gesehen, weil so entsteht der Eindruck, dass die Karten hier gleichwertig sind und man mit nvidia und AMD für alle h265 Codecs Hardware Support hat, was aber nicht der Fall ist.

siehe bspw:

https://www.pugetsystems.com/labs/a...-is-supported-in-davinci-resolve-studio-2122/
 
  • Gefällt mir
Reaktionen: drSeehas, Fresh-D, SavageSkull und 4 andere
MelbarKasom schrieb:
Die Karte kommt im Fazit viel zu gut weg! ...

Was nicht ok ist ist von Nvidia zweineinhalb Jahre alte Architekturtechnik im Stromsparsegment unterzubringen, wenn es eine technisch viel bessere,effizientere Lösung gegeben hätte und zwar eine 4050 herauszubringen.
Das wird mir hier auch viel zu wenig kritisiert.

Ada ist seit mittlerweile deutlich über einem Jahr auf dem Markt. Unter $500 gibt's von Nvidia genau drei 60er-Modelle, von denen kein einziges vorbehaltlos empfohlen werden kann. Unter $300 gibt's überhaupt nichts, keine 4040, keine 4050, keine 4050Ti.

Wenig Geld (für Grafikkarten) zu haben, hat außerdem immer zwei Seiten, und zwar nicht nur den Anschaffungspreis - der so ein 6-GB-Mäuschen vielleicht noch irgendwie attraktiv erscheinen lassen könnte -, sondern eben auch die ebenso naheliegende Konsequenz, dass man sich nicht alle ein oder zwei Jahre eine neue Karte gönnen kann, sondern dass eine Karte eher vier oder fünf Jahre wird halten müssen, d.h. eine gewisse Zukunftstauglichkeit - wenn auch auf sehr niedrigem Niveau - sollte halt schon gegeben sein, und da erscheinen mir 6 GB VRAM als komplette Sollbruchstelle. Insbesondere sehe ich die Karte - angesichts der in letzter Zeit doch relativ sprunghaft gestiegenen Anforderungen an den VRAM - auch nicht als großartige Aufrüstoption für ältere 4-GB-Karten-Besitzer, denn zum damaligen Kaufzeitpunkt dürften 4 GB VRAM noch deutlich zukunftstauglicher gewesen sein als es 6 GB heutzutage sind.
 
  • Gefällt mir
Reaktionen: coral81, Zwirbelkatz, eXe777 und 4 andere
Endlich eine Karte die sinnvoll ist! Ohne extra Stromanschluss, effizient, doppelt so schnell als meine 1050ti.
PS: die Spiele der letzten 10 Jahre interessieren mich nicht. Grafik ist bei GUTEN Spielen nicht wichtig.. (Filmkulissen sind im Kino noch schöner)
 
EdwardEnglish schrieb:
Nur Nvidia kann Hardware unterstütztes decoding liefern. Stimmt das?
Nein. Zumindest kann ich mit einer RX 5700 XT problemlos ein 4k HEVC 10-bit Video ohne jedes Stottern abspielen. Dürfte bei den 6000er Karten nicht weggefallen sein.
 
  • Gefällt mir
Reaktionen: drSeehas, eXe777, Mcr-King und eine weitere Person
@Eleasar
Sorry, das macht noch weniger Sinn, weil dann nicht aller Features aktiviert sind und damit liesen sich sehr gut schwächen einer GPU kaschieren. Das wäre ja extrem unseriös. So entstehen dann die Firmeeigenen Kataloge die man aufs ergebnis hin gebenchmarkt hat. Damit kann ich dann irgendeine Scheiß GPU verramschen.... Damit könnte man vieleicht auch den Leistungsunterschied einer 3050 6gb zur 8gb kaschieren!

Das ergibt noch weniger Sinn. Man teste Ultra, mit allen Features und dann ergänzt man vieliecht, wen man die Zeit dazu hat. Warum soll eine 3050 6gb, die genauso eine lowkarte ist, die genauso kastiert wurde, bei ultra weniger zerstört werden als eine 6500? Und das bei allen Spielen? Und wen das so wäre, dann will man ja auch die Ursache erfahren. Auch wen ich die GPU in der Praxis nciht in Ultra betreien kann, will wissen ob die GPU schwächen hat, bestimmte Features, Setting schwierigkeitnen machen können. Und das erfahre ich nur wen ich alles auf on und max setze, auch wen ich in der Praxis runter muss um in brauchbare FPS bereiche zu kommen.

Also Ultra gar nicht zu testen macht überhaupt keinen Sinn. Wen sie nur Low testen, ja das Hilft dem Hersteller mehr schrott an die Kunden zu drehen, weils weniger auffällt das der BUS, der Speicher oder irgenwas anders im argen liegt.


ps:
Es gibt ausnahmen! Wen zb durch Ultra irgenwelche features eingeschaltet würde, die einen hersteller extrem bevorteilen. Wie zb Fakeframes, da sie das Ergebniss verfälschen. Und deshalb test man ja auch in verschiedenen Spielen.... und macht gleiche, oder vergleichbarer konfiguartionen.
 
Zuletzt bearbeitet:
eazen schrieb:
Die 6500 XT ist bei vernünftigen Settings (also kein CP2077 "High" lol und andere Spiele in noch unpassenderen Settings, Ultra) dann auch nicht so schlecht wie sie hier dargestellt wird.
Auf meiner 6500 XT hab ich Cyberpunk noch nicht gezockt, aber da das Spiel auch auf meiner R9 270 X und damit 2 GB lief, nehme ich an, dass ich da eine Aufwertung bezüglich Grafik erfahren würde :D

Die RTX 3050 6 GB im Frühjahr '22, und es wäre diese geworden statt der 6500 XT für damals 189€, nu isses, wie es ist.

Für meinen Haupt-PC würde ich nichts mehr unter 12 GB kaufen – wenn denn ein Neukauf nötig wäre. Ist es bisher nicht, denn noch läuft alles für mich ausreichend flüssig mit 45+ FPS. Und wie schon von Einigen mehrmals erwähnt: Natürlich läuft das Meiste auch mit nur 4 GB und erst recht 6 GB auf FullHD, da alles-nach-rechts mit dieser Auflösung eh nicht sichtbar wäre, und angepasste Hoch-Einstellungen mit solchen Low-Budget-Karten die Regel ist, und wenn nicht, geht man halt weiter nach links, so what?

Die 3050 6 GB in ein kleines Gehäuse neben dem (Full-HD-)Fernseher kann ich mir gut vorstellen im Verbund mit RX 5600, um die Steam-Bibliothek gemütlich im Liegen abzuarbeiten.

Auch unter den Versierteren wird diese Karte ihre Abnehmer finden, aber für das, was sie bietet, ist sie selbst im Kontext der nun mal gegebenen Umstände noch zu hoch bepreist, wird sich vermutlich aber nach unten bewegen.

Nvidias Marketing und Namesgebung sind allerdings wirklich zum K*tzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eazen
Vielen Dank für den Test. Die Karte ist also so gut, wie die GTX 1650 Super bei gleichem Verbrauch wie die GTX 1650 non Super. Das hört sich doch gut an und mir würde die Leistung auf jeden Fall locker reichen.
 
racer3 schrieb:
Wo ist die Leistungsaufnahme, wurde die nicht gemessen?
Der Desktop Verbrauch sollte doch einer der Wichtigsten Kriterien bei so einer "Office"-Karte sein.
Solche Karten wandern gerne auch mal in Heimserver die 24/7 laufen.
Wer baut eine Zockerkarte in Office PCs oder Heimserver ein? Gerade bei diesem hohen Preis wäre das eine völligst unnötige hohe Ausgabe.
Jede Popel-Intel CPU hat ausreichend Power dafür mit dem internen Grafikchip oder man nimmt eine AMD Apu.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007
rolvaag schrieb:
mag sein, daß die 6600 an der spitze steht, die sollte aber besser mit Gehörschutz ausgeliefert werden. Hatte so ein Teil im PC, unter Volllast unerträglich laut.
Das kommt aber rein vom Kühler, nicht von der GPU. Seit ich bei meiner 6600 die Lüfter abgenommen habe, höre ich die kein bisschen mehr ;)
 
  • Gefällt mir
Reaktionen: Eier-Salat und Mcr-King
BrollyLSSJ schrieb:
Vielen Dank für den Test. Die Karte ist also so gut, wie die GTX 1650 Super bei gleichem Verbrauch wie die GTX 1650 non Super. Das hört sich doch gut an und mir würde die Leistung auf jeden Fall locker reichen.
Naja, nach über vier Jahren die gleiche Leistung zum gleichen Preis einer 1650 Super, ist für mich die Definition von "Stillstand".

Und jetzt mal ehrlich: Für wen in dieser Leistungs- und Verbrauchsklasse ist denn Effizienz ein echtes Killerargument, oder gar Grund für einen Neukauf?
 
  • Gefällt mir
Reaktionen: Bänki0815, Mcr-King und Eier-Salat
Bei dem geringen Preisunterschied zur RX 6600, welche aber mal sowas von deutlich schneller ist, sehe ich einfach nicht, warum man sich diese Karte kaufen sollte.
Ja gut, wenn man denn unbedingt den Stromstecker einsparen will, dann mag das Teil irgendwie ne Berechtigung haben.
Aber in Sachen Leistung ist das ein Fail.
Im Test mögen die 6GB bei den gewählten Einstellungen kein Problem gewesen sein. Aber es waren ja nicht mal höchste Einstellungen gewählt.
Wenn ich mir Hier und Heute eine neue GPU kaufe, dann will ich doch nicht direkt in FullHD Auflösung die Details reduzieren müssen um nicht sofort ein Speicherproblem zu bekommen. Und man will die Karte ja sicher auch ne Weile nutzen und auch das ein oder andere kommende Spiel damit zocken.
Insofern ist das Ding doch echt panne für fast 200€.
 
  • Gefällt mir
Reaktionen: Bänki0815, Mcr-King, eXe777 und 2 andere
duskstalker schrieb:
Die tabelle für encoder/Decoder Unterstützung ist unvollständig, weil gewisse h265 Codecs NICHT von AMD und nvidia unterstützt werden, bspw h265 10bit 422. Das geht nur mit arc.

hätte hier gerne eine detailliertere Tabelle gesehen, weil so entsteht der Eindruck, dass die Karten hier gleichwertig sind und man mit nvidia und AMD für alle h265 Codecs Hardware Support hat, was aber nicht der Fall ist.

siehe bspw:

https://www.pugetsystems.com/labs/a...-is-supported-in-davinci-resolve-studio-2122/
Ja, sowas meinte ich. Das ist recht schwierig da durchzusteigen und am Ende stellt man fest, dass man „die falsche Karte“ hat. Wer auf Multimedia und VR wert legt, den interessiert neben dem längsten Balken in Games vielleicht schon, welche Karte die größte Kompatibilität mit Codecs hat.

Wobei man sagen muss, dass sich der Link ja nur auf davinci bezieht. Nvidia selbst sagt, dass die 4000er alle möglichen Varianten von HEVC decoden können, zu AMD/Radeon habe ich nichts vergleichbares gefunden.

Link Nvidia https://developer.nvidia.com/video-encode-and-decode-gpu-support-matrix-new
 
Zuletzt bearbeitet:
rolvaag schrieb:
mag sein, daß die 6600 an der spitze steht, die sollte aber besser mit Gehörschutz ausgeliefert werden. Hatte so ein Teil im PC, unter Volllast unerträglich laut.
1. Das kommt auf den jeweiligen Kühler an. Gibt auch bei vielen anderen Karten richtig beschissene, laute Kühler.

2. Es gibt Software Tools (oft sogar vom jeweiligen Kartenhersteller selbst), mit denen man die Lüfterkurve der Karte einstellen kann. Wenn die einem ab Werk also zu laut ist, schaut man einfach mal, wie stark man die Lüfter runterregeln kann, ohne in Temperaturprobleme zu kommen.
In der Regel ist da eine ganze Menge Spielraum und man bekommt so gut wie jede Karte relativ leise.

Wenn man die Hardware natürlich nur "out of the box" betreibt und erwartet, dass diese in dem Zustand optimal läuft, hat man das Ganze Thema nicht so wirklich verstanden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Bei den aktuellen Ladenpreisen ist das eine enttäuschende Grafikkarte. Für den gleichen Preis kaufe ich mir natürlich lieber eine RX 6600. Warum sollte ich auf 50% Leistung verzichten?

Die RX 6600 (ohne OC) benötigt durchschnittlich ja nur ca. 100W. Da verpufft das 70W Argument der RTX 3050 6GB auch einfach.

Und lieber ein besseres Netzteil mit 6-Pin Anschluß kaufen, als dieses Downgrade hinzunehmen.
 
  • Gefällt mir
Reaktionen: Bänki0815, Swarley, Mcr-King und 3 andere
Viel zu teuer das Ding. Keine Ahnung wie Nvidia das absetzen möchte.
 
  • Gefällt mir
Reaktionen: eXe777, shaboo und Eier-Salat
  • Gefällt mir
Reaktionen: drSeehas, SweetOhm, kryzs und 8 andere
Man muss es mit dem VRAM-Alarmismus ja wirklich nicht übertreiben, aber ganz ehrlich, wenn der Unterschied zwischen so einem Sparbrötchen und einer 8-GB-6600 oder -3050 bei nicht mehr als ein oder zwei Mal Kinobesuch oder Lieferpizza liegt, dann weiß ich, was ich kaufe, insbesondere, wenn das Ding mehr als ein oder zwei Jahre in Gebrauch sein soll.
 
  • Gefällt mir
Reaktionen: Seby007
Eier-Salat schrieb:
Wer baut eine Zockerkarte in Office PCs oder Heimserver ein? Gerade bei diesem hohen Preis wäre das eine völligst unnötige hohe Ausgabe.
Jede Popel-Intel CPU hat ausreichend Power dafür mit dem internen Grafikchip oder man nimmt eine AMD Apu.
Diese abseitigen Szenarios werden hier schon seit ein paar Tagen wild konstruiert: angeblicher 24/7-Betrieb, weshalb man auf jedes Watt achten müsse | SFF-Komplettpassiv-Build, der vermutlich konstant im Temp-Limit hängen würde (und damit wieder 10% einbüßt) | Leute mit riesigen Cases, die einfach "aus Prinzip" keinen Stromstecker wollen und deshalb ne 6600 ausschließen | Uralt-OfficePCs, die angeblich ums Verrecken keinen 6-Pin (selbst mit Adapter) liefern können, aber ne gamingtaugliche CPU haben sollen.
Einer kam sogar mit HDMI 2.1 als DAS Killerfeature an 😅

Ich spreche dem Ding ja noch nichtmal ein paar passende Einsatzbereiche ab, aber der Preis stimmt bei dieser Leistung nicht und die Vermarktung als 3050 zielt einfach nur auf das Abzocken von Laien ab (vornehmlich im OEM-Bereich).
 
  • Gefällt mir
Reaktionen: Swarley, Mcr-King und Eier-Salat
Ich würde mich gerne mal mit den Produktdesignern von Nvidia unterhalten, oder wer auch immer dort für die Namensvergabe zuständig ist.
Mittlerweile ist das ja nur noch Kraut und Rüben da. Haarsträubend. Wer soll sich denn da noch zurechtfinden?

Erst bringen sie eine 3050 auf den Markt, später ergänzen sie ihr Portfolio um eine 3050, wechseln dann den Chip der 3050 durch den der 3050 aus, nur um nach 2 Jahren die 3050 wieder aus dem Programm zu nehmen, damit sie durch die 3050 ersetzt werden kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaBas, Sascha631, Quidproquo77 und 3 andere
Es ist einfach eine Frechheit, dass die 5 Jahre alt Low-End Karte 1650 noch immer 160€ kostet.
Der Markt ist kaputt.
Ich geh lieber Briefmarken sammeln...
 
  • Gefällt mir
Reaktionen: Hexxxer76, Yar, Sascha631 und 3 andere
Zurück
Oben