Test GeForce RTX 3050 6 GB im Test: 3050 8 GB, GTX 1650, RX 6600 & Arc A380 vs. „RTX 3040 Ti“

Tera_Nemesis schrieb:
Weiß jemand was die Karte ein Jahr später usw. gekostet hat?!
Ich habe meine 1070 2018 für 200€ gebraucht gekauft. Das war der beste Deal seit langem. Die Karte lief dann 4 weitere Jahre mit 0,85V und max. 90W bei fast identischer Leistung.

Jede nachfolgende Karte die ich in betracht gezogen habe hat proportional mehr gekostet für mehr FPS..


Echt super, dass man die alte Garde mit in die Benchmarks aufnimmt. Damit hat man zumindest einen Vertreter für eine ältere Generation und man kann sich besser Orientieren.
 
  • Gefällt mir
Reaktionen: Drakrochma, OCBC, Tera_Nemesis und 2 andere
Also eine 1070 zeigt den Einsteigern wo es lang geht...

Das ist so ein Zirkus... da bleibt einen nichts anderes übrig als zum Clown zu werden.
Ich hol dann mal meine Pappnase...
 
  • Gefällt mir
Reaktionen: OCBC und racer3
Tuetensuppe schrieb:
Eine 6650 XT macht momentan keinen Sinn, da die etwas leistungsfähigere 7600 genauso viel kostet.
Davon mal abgesehen, dass auch eine 7600 in dem Bench nicht vertreten ist und mind. 30 € mehr kostet (wo fängt man an, wo hört man auf (Preis)). Mir ging es eher um einen "Nachfolger" Vergleich (3050 8 GB vs. 3050 6 GB / 6600 vs. 6650XT) ... :stacheln:
 
SANDTIGER schrieb:
Puh eigentlich ist es erbärmlich wie wenig Fortschritt in dieser 150Watt Leistungsklasse erzielt wurde (in FPS pro Watt )die GTX ist 7-8 Jahre alt und schlägt sich richtig gut
Ampere war da nicht besonders gut. Die 3070 hat deshalb schon 220W, wurde aber im 70er Vergleich vor ein paar Wochen gefeiert. Den Leuten gefällt es 🤷‍♂️
SANDTIGER schrieb:
Gut die RX6600 XT auf max 2,3Ghz Frequenz schlürft nur 50-60Watt glaub ich weil die dann mit 1000mV läuft
Im Treiber 2300Mhz und 1100mV macht 85W max. und stabile 2250Mhz <900mV... wobei das bei AMD nicht die gesamte Karte ist. Das Limit ist hier 130W d.h. 30W für den Rest, da 160W TBP, also insgesamt 115W TBP mit der Einstellung.
DaHell63 schrieb:
Die RX 6600XT hat einen Verbrauch von 160W. Man kann also 100-110W wegnehmen und ist nur 10% langsamer.
Die Benchmarks möchte ich sehen....Tetris, Solitär usw mal ausgenommen.
Also wenn Tetris und Solitär die 6600XT ins 160W Limit bringt dann kannst du damit auch die andere Einstellung testen.

Ich schau mal das ich das teste... 3Dmark? Apex in 2160p? Hab die beiden Sachen drauf momentan, aber ein zweites Netzteil muss her für 6600XT @ Stock.
 
ja die ist aber auch eine 130 Watt GPU.Wenn man also alle die 130 Watt verbrauchen alle auf 75 Watt drosselt,dann wird das Ergebnis wohl sehr eng sein.Da werden sich nicht wirklich viel die GPUS geben.Denke mal die Mehrleistung sucht man dann vergebens.Nur die richtig breiten GPUS,die könnten dann noch einen vorteil davon tragen,wer weis.
 
@P.Thalis
Die 1650 super ist doch dabei pack da 11% drauf fertig.
https://www.computerbase.de/2019-11...er-test/2/#abschnitt_benchmarks_in_1920__1080
1707752155420.png
 
  • Gefällt mir
Reaktionen: Smartbomb, Yar und Jan
@DaHell63 @SANDTIGER

3DMark müsste doch reichen..? Nehmen wir den Graphics-Score dann hätte ich mit AMD's Voreinstellung 5,5% mehr Leistung und eine 39% höhere GPU Leistungsaufnahme... :daumen:

Unbenannt.jpg 20240212_175508.jpg
 
  • Gefällt mir
Reaktionen: Fresh-D
@Fresh-D ...wobei ich fairerweise sagen muss das die Lüfterkurve anders ist und und ich so ~80RPM mehr habe xD

Im Sommer (~10°C mehr im Raum) wollte ich noch bei 70-80°C sein mit dem Hotspot daher die "hohen" 1600RPM. (Ab 1750 RPM wird es erst nervig)... mit AMD's Voreinstellung kommst du im Sommer über 2000RPM.

Zero RPM verschafft dir schon im Idle Lüfterrauschen das ich sonst nur unter Last kenne. Nicht durchgehend sondern immer wieder mal. Genauso dreht die unter Last rauf und runter je nach Scene. Mir ist das zu nervig.
 
  • Gefällt mir
Reaktionen: Mcr-King
Das fällt doch noch in die Ungenauigkeit. Ist ja noch nicht mal +/- 10%. 😄


Um nicht zu sehr ins OT zu verfallen:
@Jan super Arbeit, danke fürs hinzufügen der alten Karte. 👌🏻
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Hallo,

nach dem Test der 3050 6GB habe ich mir eine "ASUS Dual GeForce RTX 3050 8G OC" gekauft, vermutlich weil ich doch irgendwie vom Leistungsniveau der 6G enttäuscht war. Die alte Grafikkarte war eine MSI Geforce 1050TI Gaming X

Damit ich ein paar Vergleichsdaten hatte, hab ich mir die 3DMark Benchmarks installiert.

Hier mal die Angaben zu meinem "Testsystem"
CPU: Ryzen 2600
RAM: 32GB DDR4 2933MHz
SSD: Samsung EVO 970
MB: MSI X470 Gaming

Die ASUS lässt dabei nur ein Powerlimit 100W oder -23% über die Software "GPU Tweak III" zu. Was ich natürlich auch mache um die Unterschiede nicht zu groß werden zu lassen. Und ja es sind Unterschiede.
1707834713485.png


Meine alte Geforce 1050 TI wurde mit Afterburner, vermutlich, in einem Power Target von etwa 70% gehalten.

Habe ein paar Einstellungen getestet, primär Power Target, aber auch die Lüfterkurve. Schade das Asus viel zu früh mit den Umdrehungen anfängt. Das war bei MSI besser.

Testwerte für Asus 3050 in TimeSpy


DXGPU / SettingsTimespyGrafikCPU
Watt max
12Asus Silent Mode599361415274226
12Asus Custom572558325190210
12Asus Custom 2
GPU Boost max 1700
563256965297219
123050 Custom 3
GPU Boost max 1640
GPU Temp Target 65
556456265240215
Mittelwert5728,55823,755250,25217,5

Im Vergleich dazu die MSI 1050TI:
DXGPU / SettingsTimespyGrafikCPUWatt max
12MSI 1050TI
Power Target 70%
255723285809156
Steigerung124,03%150,16%-9,62%39,42%


Warum die CPU um fast 10% langsamer sein soll, kann ich nicht sagen, geändert hat sich nur die Grafikkarte.

Die Leistung hat sich mehr als verdoppelt, aber leider ist auch der Stromverbrauch gestiegen.
Immerhin konnte ich die neue Karte mit der neuen Lüfterkurve für meine Verhältnisse leise betreiben.

Bei Firestrike, also DX11, war es ähnlich, Stromverbrauch ca. 40% plus auf max. 215. Die Firestrike, bzw. Grafikpunkte wuchsen um ca. 82% (auf 12607) bzw. 91% ( auf 14731), mit der letzten Einstellung (Boost max 1640 und GPU Temp Target 65 )

Der Wechsel kostet mich also max. 70W mehr Strom max, Idle könnten es 10W sein. Im Desktop Betrieb könnten es 15W mehr sein. Hier schwankt der Wert zwischen 75W und 90W. Bei der 1050 war es ähnlich, aber mit weniger Schwankungen.

Alles im allen kann der Rechner so noch mindestens zwei Jahre durchmachen, bevor eine neue CPU und ein neues Mainboard dran ist.

Und ja, ich bin kein professioneller Tester.
 
  • Gefällt mir
Reaktionen: Mcr-King
@oem111
Du bist jetzt eben im CPU-Limit gelandet. Die CPU kommt nicht mit der 3050 mit.
Deshalb hast du weniger Leistung da, wobei das real wahrscheinlich deutlich weniger ist. Der Benchmark gibt ja nicht wirklich reale Spielelast wieder.

Wenn du deinem Board eine Ryzen 5000 CPU spendierst wirst du wahrscheinlich noch sehr lange damit auskommen, mit X3D Cache noch länger. ;)
 
Zuletzt bearbeitet: (Punkt falsch)
  • Gefällt mir
Reaktionen: Drakrochma, Yar und Mcr-King
Jan schrieb:
jetzt folgt der Test mit mehr Spielen sowie den Konkurrenzmodellen GeForce GTX 1650 (Super), Radeon RX 6600 und Radeon RX 6500 XT
Die 6500 XT ist die 8 GB Variante!

EDIT: die Raytracing Werte sind natürlich keine 1/100 oder 1/1.000

GPUTime SpyTime Spy ExtremeFire StrikeExtremeUltraWild LifeWL ExtremeNight RaidPCIe TestPort Royal Speed Way Solar Bay 12 Samples (FPS)6 Samples (FPS)
RX 64003.6041.6779.9514.9382.66720.1086.58528.3603.08225599014.7875,5610,66
RX 6500 XT 8GB4.7922.25012.4616.3493.54530.2559.15431.3433.3402.39084520.1458,5816,81
RX 580 8 GB4.5142.09712.4156.2113.29229.6499.09732.19111.730
RTX 3050 Laptop SC****5.3032.485n.a.n.a.n.a.30.9239.96240.67913.18065665422.27011,2522,09
Radeon 680M @Single Channel1.62978012.0916.1203.0290015.2146981816.9335,098,88
Radeon 680M @dual Channel2.7261.28512.0716.0733.02215.7554.47724.5651.302010.7495,7811,04

RX 6400, 6500 und 580 wurden mit einem Core i3-10105 getestet. Dieser arbeitete mit 24 GB DDR4-2133, bei der 6500 mit 32 GB DDR4-2833.

Im Laptop werkelt ein Ryzen 7 6800H, der Anfangs mit einem 16 GB DDR5-4800, später mit zwei 16 GB Modulen arbeitete.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und Mcr-King
ui man sieht ja wie schleppend die steigerung so voran geht.Die ähneln sich ja alle bei der Leistung.Naja auch nicht schlecht,dann halten die unteree plasse dafür umso länger dann.Weil die Spiele Entwickler sich nach der nidrigsten Nenner sich halten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Artikel-Update: Der Artikel enthält auf Wunsch der Community jetzt auch noch Benchmarks der GeForce GTX 1050 Ti in einer Version mit 75 Watt, die im Jahr 2016 ebenfalls ohne Stromstecker auskam und 4 GB wie die bereits im Test enthaltene GeForce GTX 1650 (Super) besaß.
 
  • Gefällt mir
Reaktionen: H@rlekin, PietVanOwl, robosaurus und 5 andere
Die 3050 6GB ist ein gutes Upgrade zur 1050Ti? Was ist denn das für ein Schummel!
 
  • Gefällt mir
Reaktionen: Mcr-King
wieso kann man eigentlich nicht einfach die pcie-stromstecker entfernen und eine karte passt sich selbst an 75w powerlimit vom mainboard an? ebenso, wenn man weniger stecker einsteckt als möglich sind (das klappt glaube ich manchmal). oder beim netzteil irgendwie einstellen, wieviel watt über ein kabel maximal geliefert werden darf.

so könnte man jede grafikkarte überall verwenden und sie drosselt sich eben, wenn nicht genug strom zur verfügung steht.

beim prozessor kann man glaube ich auch ein stromkabel weglassen, wenn 2 buchsen vorhanden sind, und dann geht halt übertakten nicht oder schlechter.
 
  • Gefällt mir
Reaktionen: drSeehas
@alyk.brevin
Nein geht leider nicht. Ich habe das mal ausprobiert bei ner gtx 970 der PC startet nicht mal und piept nur herum.
Ich hatte keinen 2x8 Stecker sondern nur 1x8 und 1x6 pin Stecker als Netzteil. Die gpu geht nicht. Ich weiß nicht ob die gpu defekt ist, aber ich muss es mal mit vollen Stecker Bestückung ausprobiert. Warum meine gpu lag ganze rund 3 Jahre in eine Schachtel herum. Dachte das macht der gpu nix aus, scheinbar ja doch.
 
Zurück
Oben