Nein, die ist genau so wenig Schrott wie eine 1650. Ähnlicher Verbrauch - gleiche Leistung.lynx007 schrieb:Die ist Schrott... am besten auch noch PCIE mit x4
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3050 6 GB im Test: 3050 8 GB, GTX 1650, RX 6600 & Arc A380 vs. „RTX 3040 Ti“
Berlinrider
Commander
- Registriert
- Sep. 2009
- Beiträge
- 2.461
Finde die Karte durchaus positiv, die Kritik bzgl. des Namens hat sie eigentlich nicht verdient.
Das kommt im Artikel auch super zur Geltung.
Das kommt im Artikel auch super zur Geltung.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.823
Du meinst wohl eher genauso viel? Wir haben 2024. Die GPU ist 5 Jahre alt. Und dafür soll man 150€ auf den Tisch legen.... für eine GPU die kaum bis nicht FHD stemmen kann. Jetzt kommt AMD mit RX 6400 3 Jahre später um die Ecke, ählicher Preis, ähnlich effizent, nur kastriert man den BUS auf x4, damit sie gerade für Aufrüster in vielen Fällen uninteressant wird. Bravo!Nitschi66 schrieb:Nein, die ist genau so wenig Schrott wie eine 1650. Ähnlicher Verbrauch - gleiche Leistung.
Würde Intel nicht so bei den Treibern pfuschen, ich drücke die Daumen das sie drann bleiben, das Sie es in den Griff bekommen, gäbe es keinen einzigen Kaufgrund, weder für die 1650 noch rx 6400.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
G
Geringverdiener
Gast
für 10% mehr Geld gibt es 20% mehr Leistung bei AMD. Außer der absoluten Leistungskrone produziert Team Grün nur Mist
Hm interessant die Steigerung. Damit ist man sogar etwas zukunfts tauglicher. Also es ist ein gutes Ergebnis. Und sogar etwas sparsamer als ne Gtx 1650.
Ja also ist durchaus meine Zielgruppe aber diablo 4 wenn ich das mal auf dem PC zocken wollte, wäre in full hd maximale Details. Das wird mit der rtx 3050 low allerdings eng werden. Wobei geissse settings stelle ich ganz ab, dann ist es ne custom gpu settings bei mir.
Nur blöd das man diablo 4 nicht lokal coop zocken kann, sonst wäre das durchaus ne Option für mich. Allerdings habe ich halt mit der Gtx 1650 ne schwächere Hardware.
Also noch ist der Bedarf nicht da. Aber wenn ich mal wirklich mehr gpu Leistung brauche, komme ich um so ein Upgrade nicht drum rum.
Ja also ist durchaus meine Zielgruppe aber diablo 4 wenn ich das mal auf dem PC zocken wollte, wäre in full hd maximale Details. Das wird mit der rtx 3050 low allerdings eng werden. Wobei geissse settings stelle ich ganz ab, dann ist es ne custom gpu settings bei mir.
Nur blöd das man diablo 4 nicht lokal coop zocken kann, sonst wäre das durchaus ne Option für mich. Allerdings habe ich halt mit der Gtx 1650 ne schwächere Hardware.
Also noch ist der Bedarf nicht da. Aber wenn ich mal wirklich mehr gpu Leistung brauche, komme ich um so ein Upgrade nicht drum rum.
frankkl
Vice Admiral
- Registriert
- Feb. 2003
- Beiträge
- 6.585
An alle es gibt keine RTX 3040 !
Es gibt eine verbesserte RTX 3050 6GB die alte war eine RTX 3050 8GB da hat sich schon die bezeichnung geändert
und als Käufer sieht man direkt weniger Speicher und auch günstiger das ist was anderes !
Ganz schlimm ist Computerbase die Nutzer mit einer RTX 3040 TI zuverarschen in der Überschrift ❗
frankkl
Es gibt eine verbesserte RTX 3050 6GB die alte war eine RTX 3050 8GB da hat sich schon die bezeichnung geändert
und als Käufer sieht man direkt weniger Speicher und auch günstiger das ist was anderes !
Ganz schlimm ist Computerbase die Nutzer mit einer RTX 3040 TI zuverarschen in der Überschrift ❗
frankkl
- Registriert
- Apr. 2001
- Beiträge
- 16.077
Artikel-Update: Der Artikel wurde über ein Diagramm zum Preis-Leistungs-Verhältnis der in den Benchmarks berücksichtigten Grafikkarten ergänzt.
Simanova
Rear Admiral
- Registriert
- Dez. 2012
- Beiträge
- 5.332
Computerbase hat ohne DLSS getestet. Schaltet man das an, reicht die Leistung locker, auch in WQHD.latiose88 schrieb:Das wird mit der rtx 3050 low allerdings eng werden.
(Für Full HD DLSS Quality, Für WQHD dann Quality oder Performance)
- Registriert
- Juni 2006
- Beiträge
- 44.444
Danke, super Test. Das wäre was, jetzt die Leistung einer RTX3050 6GB als APU zu haben ...
Je nach Budget empfehle ich dir eher eine RX6600. Die hat allerdings ebenfalls x8 / 8GB, jedoch an 4.0 - falls man mal die Plattform aufrüstet also besser.
Oder gar eine gebrauchte RTX3060 12GB; ca. 230€. Von Letzterer hast du wirklich lange etwas. Volle x16 Anbindung, viel Speicher und DLSS.
Pcie-3.0 mit x8 und 8GB Speicher ist so eine Sache. Selbst deine alte 1050 Ti hatte ein x16-Interface.oem111 schrieb:Habe aber auch nur PCIe 3.0, bleibt auch noch ein interessanter Aspekt.
Ist nicht schwer.oem111 schrieb:Bin jetzt keine Typ der mich an UV ausprobieren will, aber irgendwo im Treiber oder Tool einen Wert setzen schaffe ich auch.
Je nach Budget empfehle ich dir eher eine RX6600. Die hat allerdings ebenfalls x8 / 8GB, jedoch an 4.0 - falls man mal die Plattform aufrüstet also besser.
Oder gar eine gebrauchte RTX3060 12GB; ca. 230€. Von Letzterer hast du wirklich lange etwas. Volle x16 Anbindung, viel Speicher und DLSS.
Wo wird das Feature "beworben"?Simanova schrieb:Mehrmals wird im Beitrag das Feature beworben, aber niemals getestet.
Ja, das tut es, aber in Full HD ist auch DLSS SR Q eher eine Notlösung und es gleicht dann in der Regel auch keine 2 GB VRAM aus. Dass hier dennoch mehr Spielraum besteht als bei einer Radeon stimmt, aber das ist eine anderen Baustelle, die sich beim Vergleich von DLSS zu FSR in Benchmarks sowieso immer ergibt.Simanova schrieb:Auch ein Hinweis, dass DLSS den VRAM Bedarf von Spielen reduziert, fehlt.
Das ist eine von 130 Watt auf 70 Watt eingebremstet Karte ohne 6-Pin-Stecker. Einmal darfst du raten, wie groß der OC-Spielraum wohl ausfallen wird. Klar, UV könnte ein Ding sein, aber dafür war übers Wochenende in zwei Werktagen einfach keine Zeit, zumal das Thema mit Ryzen 8000G drängend war.Simanova schrieb:Übertaktung der GPU und des VRAMs bitte noch nachreichen.
Dementsprechend grenzt dieser suggestive Vorwurf, es könnte an der "Lust" scheitern, schon fast einer Beleidigung. Sorry, aber diese Ausdrucksweise ist unverschämt.Simanova schrieb:Falls ihr keine Lust dazu habt, mach ich das und reiche es als Leserartikel nach.
lowrider20
Lt. Commander Pro
- Registriert
- Apr. 2011
- Beiträge
- 1.873
22MHz mehr Takt bei über 1GHz Grundtakt ist für mich nicht OC (Overclocked) sondern Toleranz.
Xul
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 779
Das weiß jeder, der lesen kann und einen IQ über Zimmertemperatur hat.frankkl schrieb:An alle es gibt keine RTX 3040 !
Es gibt eine verbesserte RTX 3050 6GB die alte war eine RTX 3050 8GB da hat sich schon die bezeichnung geändert
und als Käufer sieht man direkt weniger Speicher und auch günstiger das ist was anderes !
Ganz schlimm ist Computerbase die Nutzer mit einer RTX 3040 TI zuverarschen in der Überschrift ❗
Wenn wir das Ding aber gern aus Transparenzgründen so (oder von mir aus 3050-light) benennen wollen, dann tun wir das so. Genauso wie kein Mensch X sagt, sondern alle weiterhin Twitter sagen.
Und außer Nvidia "verarscht" hier niemand irgendwen, das ist eine bewusste Spitze auf die (wiederholte) versuchte Kundentäuschung mittels Namen.
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Wer eine 6500 XT kauft, oder daran interessiert ist, weiß vorher schon das er keine "High" und "Ultra" settings (wie hier) benutzen wird (abgesehen von schwächeren/alten Spielen), somit machen diese Benchmarks auch relativ wenig Sinn. Vielmehr sieht man was passiert wenn hier settings gewählt werden die schlecht für die 6500 XT sind. Die 6500 XT ist bei vernünftigen Settings (also kein CP2077 "High" lol und andere Spiele in noch unpassenderen Settings, Ultra) dann auch nicht so schlecht wie sie hier dargestellt wird. Keine besonders tolle GPU, aber das musste fairerhalber gesagt sein. Die einzige GPU die hier aber wirklich Sinn macht ist eh die RX 6600, der Rest ist es einfach nicht wert / zu teuer und die 6500 XT, andere günstige hier, sind höchstens sinnvoll wenn man keine Ansprüche hat damit zocken zu wollen, also niedrigste Anforderungen hat, die paar € die man da spart, lohnt es ansonsten nicht, keine 6600 zu kaufen.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.823
frankkl schrieb:An alle es gibt keine RTX 3040 !
Deshalb ja auch die Gänsefüße! #Ironie
Ergänzung ()
Darum geht es ja nicht. Der Schwerpunkt liegt auf vergleichbarkeit. Und eine GPU die auf Ultra 20 FPS macht, die wird auf LOW nicht plötzlich 200FPS machen... Du hast ja meistens ein Preislcihes Limit, 200, 300, 400€ und willst ja wissen was ist das beste was ich dafür bekomme, bzw ist es sinnvoll mein Limit zu erhöhen.eazen schrieb:Wer eine 6500 XT kauft, oder daran interessiert ist, weiß vorher schon das er keine "High" und "Ultra" settings (wie hier) benutzen wird (abgesehen von schwächeren/alten Spielen), somit machen diese Benchmarks auch relativ wenig Sinn.
Und wen du wissen willst, " ist diese GPU für mein Spiel schnell genug", dann gest du auf Youtube und siehst welche fps bei welchen einstellungen du haben wirst.
Mir wäre es auch lieber, wen sie zu Ultra noch Low, Med, hinzufügen würden, umgekehrt würde das aber bedeutet das du 2x, 3x so hohen Zeitaufwand hast, pro test. Und dann weniger Spiele die man testen kann.... Und dann habe ich lieber viele Spiele, engines, wo ich sehe in welchem verhältnis zuander sind sie so schnell.
Zuletzt bearbeitet:
EdwardEnglish
Cadet 4th Year
- Registriert
- Apr. 2012
- Beiträge
- 119
Laut der Tabelle aus dem Artikel kann man mit den hier getesteten 6000er Karten HEVC beim Video abspielen decoden. Gibt es dazu Details welche Auflösung uns Farbtiefe dafür greift, klappt das zb auch über 4k?
Meine 6700 XT schafft das nämlich nicht, das ist ein wahres Ruckelfest und wenn man danach recherchiert, sieht es bei AMDs 7000er Serie nicht besser aus. Nur Nvidia kann Hardware unterstütztes decoding liefern. Stimmt das?
eazen
Banned
- Registriert
- Nov. 2023
- Beiträge
- 516
Nö, die Settings sind halt gut für die 3050 und machen es ihr leicht die 6500 XT hier zu zerstören, du hast wohl meinen Punkt nicht verstanden, nun wars deutlicher.lynx007 schrieb:Darum geht es ja nicht. Der Schwerpunkt liegt auf vergleichbarkeit.
Ergänzung ()
Nein, bei low end GPUs sollte man "High" und "Ultra" generell weglassen, es macht in etwa 0 Sinn. Wer solche Ansprüche hat kauft, oder sollte, andere GPUs kaufen, die deutlich mehr Leistung haben.lynx007 schrieb:Mir wäre es auch lieber, wen sie zu Ultra noch Low, Med, hinzufügen würden,
MelbarKasom
Ensign
- Registriert
- Juni 2007
- Beiträge
- 186
Die Karte kommt im Fazit viel zu gut weg!
Ich verstehe, dass es Leute gibt, die eine möglichst sparsame Karte möchten und vielleicht auch eine ohne separaten Stromanschluss. Das ist alles völlig legitim und OK und ich bin sogar Fan von möglichst wenig Verbrauch und nicht immer höher, schneller, weiter...
Was nicht ok ist ist von Nvidia zweineinhalb Jahre alte Architekturtechnik im Stromsparsegment unterzubringen, wenn es eine technisch viel bessere,effizientere Lösung gegeben hätte und zwar eine 4050 herauszubringen.
Eine 4060 mit CurveOptimizer und Co. optimiert verbraucht schon nur 50-60 Watt und damit weniger als dieses 3050 bzw "3040 Ti" Modell bei gleichzeitig viel höherer Leistung.
Eine neue 4050 hätte man also locker von Werk aus in der "unter 50 Watt Klasse" herausbringen können, mit dem Freatureset und Leistung der 4000er Serie. Das wäre echte Effizienz und Stromsparambition gewesen, stattdessen handelt es sich hier um Altsiliziumvermarktung verpackt in Marketingsprech.
Ich verstehe, dass es Leute gibt, die eine möglichst sparsame Karte möchten und vielleicht auch eine ohne separaten Stromanschluss. Das ist alles völlig legitim und OK und ich bin sogar Fan von möglichst wenig Verbrauch und nicht immer höher, schneller, weiter...
Was nicht ok ist ist von Nvidia zweineinhalb Jahre alte Architekturtechnik im Stromsparsegment unterzubringen, wenn es eine technisch viel bessere,effizientere Lösung gegeben hätte und zwar eine 4050 herauszubringen.
Eine 4060 mit CurveOptimizer und Co. optimiert verbraucht schon nur 50-60 Watt und damit weniger als dieses 3050 bzw "3040 Ti" Modell bei gleichzeitig viel höherer Leistung.
Eine neue 4050 hätte man also locker von Werk aus in der "unter 50 Watt Klasse" herausbringen können, mit dem Freatureset und Leistung der 4000er Serie. Das wäre echte Effizienz und Stromsparambition gewesen, stattdessen handelt es sich hier um Altsiliziumvermarktung verpackt in Marketingsprech.
Ähnliche Themen
- Antworten
- 71
- Aufrufe
- 6.858
- Antworten
- 89
- Aufrufe
- 9.923
- Antworten
- 220
- Aufrufe
- 23.207
- Antworten
- 20
- Aufrufe
- 2.530
- Antworten
- 332
- Aufrufe
- 30.056