Test GeForce RTX 3050 6 GB im Test: 3050 8 GB, GTX 1650, RX 6600 & Arc A380 vs. „RTX 3040 Ti“

Mir gefällt 3040 Ti als Name. :D
Auch wieder so eine Resteverwertungskarte.
 
  • Gefällt mir
Reaktionen: Asghan und Mcr-King
Nvidia im Melk Modus 👍😹. 4 Versionen von der 4070…..nun dieser Schrott hier 🙈
 
  • Gefällt mir
Reaktionen: Bänki0815, eXe777 und Mcr-King
Die Karte gefällt mir sehr gut, hauptsächlich wegen dem nicht notwendigen Stromanschluss. Ich würde die 8GB Version mit 6-Pin Anschluss aber vorziehen (Palit?).

Ich warte auf ITX Karten, passiv/aktiv gekühlt mit 10-12GB und max 6pin Stromanschluss. Für High-End 1080p Gaming (mit bald hoffentlich flüssigem Raytracing).
 
  • Gefällt mir
Reaktionen: Randlocher
  • Gefällt mir
Reaktionen: Mcr-King und Maviba
Nicht jeder Artikel interessiert mich, daher wollte ich nur auf den Fehler hinweisen 😉
 
Hättest du den Artikel aber gelesen, wüsstest du, dass es kein Fehler ist ;)
 
  • Gefällt mir
Reaktionen: drSeehas, eXe777, Maviba und 4 andere
Cr4y schrieb:
dann erfährt, dass nVidia hier aweng optimistisch bei der Namensgebung war, wird man der Marke nVidia n gutes Stück weniger vertrauen
Das ist nvidia ziemlich egal und das geht schon länger als es Geforce Karten gibt, war aber auch in Form der guten alten Geforce MX Karten schon gang und gäbe.

Auch schon in den 90ern waren zum Beispiel die ganzen OEM Karten, die es nur für den OEM Markt gab, die eine fast Identische Typenbezeichnung hatten und dann nur einen kleinen Bruchteil der Leistung die man bei dem Namen vermutet hätte. So gesehen sieht die Welt heute sogar nicht rosiger aus. Sind ja nur 20% Verlust an Performance. ;-)

Vertrauen würde ich aber so oder so weder AMD noch Nvidia noch sonst irgend einer Firma.
 
Schöner Vergleich, danke dafür. War für mich als jahrelanger Leser doch mal Zeit, mich hier zu registrieren...
Ich finde die RTX 3050 6 GB als Low Profile oder Passiv-Lösung sehr interessant für verschiedene Builds.
Jedenfalls ist sie damit die beste Karte bis 200 € in diesen Bereichen, da ja weder GTX 1650 noch A380 schneller sind, welche es ja auch als LP oder Passiv-Version gibt.
Ansonsten würde ich jedem in dem Preissegment die RX 6600 oder A580 empfehlen. ggf. auch die A750, wenn man etwas mehr als 200 € ausgeben möchte.
 
rolvaag schrieb:
mag sein, daß die 6600 an der spitze steht, die sollte aber besser mit Gehörschutz ausgeliefert werden. Hatte so ein Teil im PC, unter Volllast unerträglich laut.

roaddog1337 schrieb:
hab bei 2 PCs die rx6600 von XFX verbaut, da hörste nix. Für 200€ bekommst keine bessere Graka atm.
Und ich jeweils 2 PC mit der Asus Dual. die seiner Zeit einfach die güntigsten waren. Die waren jetzt nicht super leise (erst mit anpassung Lüfterkurve) aber die waren alles andere als laut
Ergänzung ()

Vitche schrieb:
Das ist eigentlich eine sehr willkommene Grafikkarte in dieser Region, ...

Wenn man jetzt spezielle Ansprüche hat, betreffend Effizienz Stromanschluss passiv Betrieb.ok.
In anbetracht des vernichtend besseren P/L einer 6600 finde ich die Karte in der Region alles andere als willkommen oder überzeugend.
Ergänzung ()

Zwirbelkatz schrieb:
Die Quelle sagt:

GTX 1070 entspricht ca. der RTX 3050 8GB. GTX1080 und RX 6600 seien relativ ähnlich stark.

6600 ist stärker

auch @rocka81 .. betreffend 1070 vs 6600.. gebraucht eine 6600 kaufen für ~150€ ist schon das beste. bitte keine gebrauchte überteuerte GTX 1070 1070ti oder 1080 mehr.

siehe hier

Relativ ähnlich stark finde ich bei 18% unterschied schon die falsche Formulierung.
Ergänzung ()

stas_mueller schrieb:
Nvidia im Melk Modus 👍😹. 4 Versionen von der 4070…..nun dieser Schrott hier 🙈
Tja. Können Sie sich ja erlauben. Man merkt hier wiedereinmal, wie selbstbewusst Nvidia auftritt.

Der Ausschlag der RX 6600 im P/L Diagramm ist schon krass. das sagt doch alles.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: drSeehas, ArrakisSand, roaddog1337 und eine weitere Person
Simanova schrieb:
Die reguläre 3050er soll ja wegfallen. Die Frage ist nur, wann.
Ist schon passiert. die Produktion wurde im Januar eingestellt. Das, was man jetzt noch kaufen kann, sind die Lagerbestände.
Ergänzung ()

Cr4y schrieb:
Denn wenn man eine gewisse Leistung erwartet und diese nicht bekommt, recherchiert und dann erfährt, dass nVidia hier aweng optimistisch bei der Namensgebung war, wird man der Marke nVidia n gutes Stück weniger vertrauen.
Naja, denke ich nicht.
Das eigentliche Gegenstück der 3050 ist die RX 6500, und die wurde von der (alten) 3050 gnadenlos zerstört, und sie wurde dann auch meist mit der höherklassigen RX6600 verglichen.

Aber selbst die neue 3050 hat immer noch 2gb mehr Speicher als die 6500, insofern fände ich es interessant, die beiden mal miteinander zu vergleichen. Das wäre -zumindest von der klasse her- der sinnvollere Vergleich
 
Zuletzt bearbeitet:
Hallo zusammen,

eindeutiger Sieger, von A - Z, die AMD RX 6600. Feines Teil in meinen Augen, nach wie vor. Nur wird man sich Sputen müssen. Obwohl ich ehrlich gesagt nicht verstehe, wieso AMD die vom Markt nehmen sollte. Die ist nach wie vor konkurrenzfähig in ihrem Segment.

Sparsamer Chip, leicht zu Kühlen. Dadurch kein überbordender Aufwand für Kühllösungen. Somit würde die sich auch für Custom-Hersteller nach wie vor lohnen. Vor allem als Konkurrenz zur 3050er Riege von Nvidia.

Bei einem guten Angebot wäre ich am Abwägen ob ich meine GTX 1060 dafür ersetze. Allerdings habe ich noch soviele Alte Games, wo sie Hinten und vorne noch mehr als reicht, daß es sich eigentlich auch nicht Lohnen würde sie aufs Altenteil zu verfrachten. Mal Sehen.......

So long.....
 
Eine Übersicht bezüglich Stromverbrauch ist dringend. Idle, Dual-Monitor Betrieb, unlimited sowie 60fps cap in Spielen und ob Youtube/Netflix gucken über AV1 sparsamer ist als andere Codecs.

Also um wieviel DLSS sparsamer wird/ist mit 60fps-cap bei identischer/ähnlicher Bildqualität.

Ist ja blöde wenn diese GPU ca. 15w und 25w im Idle bzw Youtube gucken verballert wie die anderen RTX3000er Serie. Mein PC mit gtx1050 mit mit ~5w und ~10w sehr effizient unterwegs. Dual Monitor -Betrieb erhöht die Werte gar nicht.
 
  • Gefällt mir
Reaktionen: robosaurus
Kann mir jemand sagen, wie sich die APU 8700G mit 16 GB DDR5-7500 im Vergleich zur 3050 6 GB schlägt?
 
  • Gefällt mir
Reaktionen: drSeehas
Luxmanl525 schrieb:
Bei einem guten Angebot wäre ich am Abwägen ob ich meine GTX 1060 dafür ersetze.
Das wäre aber kein guter Tausch. Mal abgesehen vom Stromverbrauch wird das ein Downgrade sein.

Dann würde ich die 1060 schon eher durch die "große" 3050 ersetzen, dessen Leistung in etwa mit der der einer 1070 vergleichbar ist. Oder durch eine RX 6600.
Ergänzung ()

Nero2019 schrieb:
Ist ja blöde wenn diese GPU ca. 15w und 25w im Idle bzw Youtube gucken verballert wie die anderen RTX3000er
Die 8gb 3050 verbraucht ca. 11W im Idle. Das dürfte bei der kleinen wesentlich weniger sein; alleine schon dadurch, das sie sowohl einen geringeren Grundtakt und weniger Speicherchips hat.
 
Zuletzt bearbeitet:
meneguzzo68 schrieb:
APU 8700G mit 16 GB DDR5-7500 im Vergleich zur 3050 6 GB
a) Bei DDR5 sollte man auf 8GB Riegel verzichten. Die sind anders konstruiert und schlechter.

b) Da ist eine Menge Luft zwischen:

1707395303208.png


1707395329009.png


Luxmanl525 schrieb:
(...) die AMD RX 6600. Feines Teil in meinen Augen, nach wie vor. Nur wird man sich Sputen müssen. Obwohl ich ehrlich gesagt nicht verstehe, wieso AMD die vom Markt nehmen sollte.
Steigerung der Marge auf die Gefahr hin, Nvidia das Feld zu überlassen?

Oder aber verzögerte APUs, die an diese Stelle treten sollten, aber nicht vorhanden sind. Wobei eigentlich ist der Leistungsunterschied zwischen einer RX6600 und einer APU viel zu riesig.

Es läuft unverkennbar irgendeine Strategie ab, bei den Grafikkarten.
Insbesondere bei den Karten unter 400€.
 
  • Gefällt mir
Reaktionen: Luxmanl525
OK krass der Abstand mit vram abhängigkeit. Nur ohne abhängikeit sinkt der Abstand wiederum zwischen Gtx 1650 zu rtx 3050 6 GB ein wenig.
 
Jan schrieb:
Intel Arc A580 8 GB
Guter Preis. Aber 200 Watt ist die Leistungsklasse für High-End, und man bekommt Low-End.
Intel muss dringend mit Battlemage nachliefern, sonst wars das im GPU Markt.
 
  • Gefällt mir
Reaktionen: ArrakisSand
Danke für die umfangreiche Nachlieferung. :)
 
Zurück
Oben