Test GeForce GTX 1650 GDDR6 im Test: Effizienter Turing-Einsteiger mit GDDR6

Die 1050 (TI) hast sich auch verkauft wie blöde, obwohl die 570 schon damals das beser Angebot war.
 
  • Gefällt mir
Reaktionen: Smartbomb und Otsy
Wäre die Karte von AMD oder würde den Namen Ryzen tragen, würde der niedrige Strombedarf aber hart gefeiert werden. Trotz fast 100 Watt mehr wird lieber die RX570 gekauft, aber bei den Intel CPU´s wegen 30 Watt, die Strombedarfkarte gezogen. Hm..?:cheerlead:
 
  • Gefällt mir
Reaktionen: adAstra, PPPP und Alex1966
Der Stenkerversuch Passt hier nicht so ganz Herr Elfer :D

Einfach weil hinreichend bekannt ist dass diese Karte auf das PCIe stromlimit designt ist und in dieser nische keine Leistungsfähige Konkurrenz hat. (nur die RX 550 und 560 und deren radeon pro Derivate, aber die haben halt wesentlich weniger Leistung)

Was das mit dem Stromverbrauch von CPUs zutun hat weiß ich jetzt nicht. Zumal auch das von der Anwendung abhängt.
 
  • Gefällt mir
Reaktionen: adAstra, KarlsruheArgus und Pulsar77
KlaraElfer schrieb:
Trotz fast 100 Watt mehr wird lieber die RX570 gekauft
Sie ist eben immernoch schneller und selbst in der 8 GB-Variante billiger und damit eben auch eine sinnvolle Alternative. Man muss auch erwähnen, dass der Benchmark hier Nvida-freundlicher ist als der zum Release der 1650 - da war die 570 noch 14 % schneller, in diesem Parkour sind es nur noch 8 %

Stromverbrauch/Effizienz ist defintiv ein Kaufargument für eine 1650 - ist mMn aber auch das einzige was heute und damals für die Karte spricht.
 
  • Gefällt mir
Reaktionen: Chismon, Pulsar77 und Obvision
Wirklich Ultra Langweilig das Teil....
 
Zu der GPU fällt mir eins ein: LANGWEILIG.
 
  • Gefällt mir
Reaktionen: Pulsar77
Es gibt spannende Grafikkarten-Neuvorstellungen und dann solche wie die GeForce GTX 1650 mit GDDR6-Speicher.
:daumen:

sehr unspektakulär, aber war ja auch nicht anders zu erwarten (und das ist hier nicht negativ gemeint). die hier getestete Gigabyte-karte ist mMn unnötig auf niedrige temps getrimmt, aber da kann man ja noch hand anlegen.

@Wolfgang:
ein ist zu viel im ersten absatz im fazit:
Das Plus von 5 Prozent gegenüber der Urvariante mit GDDR5-Speicher ist nur mess-, aber nicht spürbar ist.



Rickmer schrieb:
Als Silent-Fanatiker muss ich auch wiedersprechen, 36,5dB als 'recht leise' zu bezeichnen :D
joa, das denk ich mir auch immer. mir war ja die von CB mit 32,5dB(A) angegebene 1070 GameRock ab werk noch zu "laut":D

KlaraElfer schrieb:
Wäre die Karte von AMD oder würde den Namen Ryzen tragen, würde der niedrige Strombedarf aber hart gefeiert werden.
es wäre auch "hart gefeiert" worden wenn Nvidia bei Turing nicht so mit dem speicher gegeizt hätte. 4GB sind mittlerweile echt wenig.
 
  • Gefällt mir
Reaktionen: Smartbomb, psychotoxic, Rickmer und eine weitere Person
Slainer schrieb:
ich vermisse @Shoryuken94 's Ansicht zur selben Namensvergabe durch NV.

Er wird doch hier nicht mit zweierlei Maß messen ;-*

Ach da werde ich schon vermisst und mir werden Dinge unterstellt, obwohl ich mich in dem ganzen Thread nicht geäußert habe... Na wenn dir meine Meinung dazu aber so wichtig ist, möchte ich dich natürlich nicht enttäuschen. Ja ich finde es auch bei Nvidia blöd, wenn Namen mehrfach verwendet werden und Produkte nicht eindeutig gekennzeichnet werden. Ich finde es bei der 1650 tatsächlich etwas weniger schlimm, da der Kunde nicht im Ernstfall ein inkompatibles Produkt gekauft hat, anders als bei einem Ryzen 1600 12nm der nicht auf allen Mainboards läuft. Aber Nvidia hat da schon deutlich schlimmere Böcke geschossen, wie damals die GT730, wo völlig verschiedene GPUs verwendet wurden oder auch die 1030 DDR4.

Ob Intel, AMD oder Nvidia ist mir dabei völlig egal. Verschiedene Produkte gehören für den Kunden eindeutig gekennzeichnet.

Kannst dir also zukünftig sparen, mich als Fanboy von was auch immer oder AMD Hater anzusehen.
 
  • Gefällt mir
Reaktionen: Slainer
Ich habe vor kurzem zu der GeForce GTX 1650 super gegriffen. Für mich reicht die völlig für FullHD. Selbst für WQHD sollte es laut Test für einige Spiele reichen. Gute und leise Karte (von Gigabyte).
 
Zuletzt bearbeitet:
Chillaholic schrieb:
4GB bleiben halt 4GB, auch wenn es GDDR6 ist.
Das Minimum was man aktuell empfehlen kann is ne 1660 Super mit 6GB.
Vielleicht was du deiner Meinung nach empfehlen kannst ;)

Vielleicht hat man nicht die finanziellen Mittel oder man braucht nicht so viel Power.
 
  • Gefällt mir
Reaktionen: Smartbomb, KarlsruheArgus, KlaraElfer und 2 andere
Chillaholic schrieb:
4GB bleiben halt 4GB, auch wenn es GDDR6 ist.
Das Minimum was man aktuell empfehlen kann is ne 1660 Super mit 6GB.

Das als allgemeine Regel zu präsentieren ist Schwachsinn. Deutlich mehr als 90% der aktuellen Spiele lassen sich, sofern man mit einer low-end Grafikkarte nicht alles auf Ultra stellen möchte, ohne Probleme mit 4GB VRAM betreiben. Selbst mit einer 3GB GTX 1060 hat man in den wenigsten Fällen Probleme.

Nur da eine 6GB Grafikkarte bspw. 5GB nutzt heißt das nicht, dass eine 4GB Grafikkarte nicht ausreichend gewesen wäre. Das Speichermanagement schiebt oft Sachen in den VRAM obwohl es nicht zwingend notwendig wäre, einzig aus dem Grund da der Platz im VRAM vorhanden war. Somit lässt es sich nur herausfinden wenn man selbst eine 3/4GB Grafikkarte besitzt und Nachladeruckler entstehen. Dazu gab es schon zahlreiche Tests und meistens sind diese nur in schlecht optimierten Spielen wie Final Fantasy oder Monster Hunter unter eher unrealistischen Einstellungen aufgetreten. Den üblichen Spieler mit einer low-end Grafikkarte der Overwatch, WoW, Fortnite, Valorant und wie sie alle heißen, mit den von Geforce Experience vorgeschlagenen Einstellungen spielt, wird das alles wenig interessieren.
Ergänzung ()

Chillaholic schrieb:
Die 1050 (TI) hast sich auch verkauft wie blöde, obwohl die 570 schon damals das beser Angebot war.

Die GTX 1060 auch, Stichwort „Mining Boom“. Für eine RX 570 durfte man lange Zeit mehr als für eine GTX 1060 zahlen falls du das schon vergessen hast:
 

Anhänge

  • 5D42AA84-E3B0-426D-9758-3884CD83BB47.jpeg
    5D42AA84-E3B0-426D-9758-3884CD83BB47.jpeg
    380,4 KB · Aufrufe: 375
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: borizb und Pro_Bro
Chillaholic schrieb:
Das Minimum was man aktuell empfehlen kann is ne 1660 Super mit 6GB.
So eine sinnbefreite Aussage. Eine Empfehlung sollte sich nach dem Bedarf richten. Wenn in erster Linie eSport Titel o.ä. auf 1080p gespielt werden reicht 4GB ohne jegliche Einschränkungen.

Zwirbelkatz schrieb:
Weiß diese Zielgruppe was GDDR6 ist?
Siehe oben. Ich selbst hab auch schon eine 1650 für eine sparsame/effiziente Gaming Kiste verbaut. Führt derzeit klar die Performance pro Watt Charts. Als wenn nur Leute die sich die neusten High-End Karten kaufen Ahnung von der Technik hätten...

Nutze aktuelle eine 1650 in meinem Notebook (ist aber der TU117 Chip mit 1024 Shadern, daher nicht ganz vergleichbar) und spiele zB Witcher 3 in FHD auf alles Ultra, HBAO+, Hairworks, nur Sichtweite und Schatten High bei 45-55 FPS, oder Apex Legends FHD auf 80 FPS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PPPP
PPPP schrieb:
Den üblichen Spieler mit einer low-end Grafikkarte der Overwatch, WoW, Fortnite, Valorant und wie sie alle heißen, spielt, wird das alles wenig interessieren.
Das sind alles Spiele die auf nem Toaster laufen.
Andererseits sind das auch oft die Kandidaten, die dann hier nen Fred aufmachen und fragen, warum sie spontane Frameeinbrüche haben, sobald die mal ein Spiel mit höheren Anforderungen spielen. Valorant und Co verfügen ja quasi über gar keine Texturen, das sind ja alles nur Farbtöne statt Texturen und stellen das absolute Minimum an Systemanforderungen dar.

PPPP schrieb:
Die GTX 1060 auch, Stichwort „Mining Boom“. Für eine RX 570 durfte man lange Zeit mehr als für eine GTX 1060 zahlen falls du das schon vergessen hast.
Ich hab auch nach dem Boom noch etliche Threads hier gesehen wo Leute sich ne 1050 (Ti) kaufen wollten.
Das sind dann auch meist solche "Aber bitte nur ne GPU von Nvidia!" Kandidaten auch wenn die 570 da mal eben 60% mehr Leistung auf den Bildschirm gezaubert hat.

G00fY schrieb:
spiele zB Witcher 3 in FHD auf alles Ultra bis auf Sichtweite und Schatten High bei 45-55 FPS

Das wäre für mich unspielbar, aber das ist eine Frage des Anspruchs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pulsar77
Chillaholic schrieb:
Das wäre für mich unspielbar, aber das ist eine Frage des Anspruchs.
Ein 3rd Person Single Player RPG ist bei 55 FPS unspielbar? Komisch dass der Titel sich millionenfach auf den Konsolen verkauft hat bei denen das Spiel mit 30FPS läuft.

Aber klar, alle die keine 2080 besitzen sind ja automatisch anspruchslos.
 
  • Gefällt mir
Reaktionen: adAstra
G00fY schrieb:
Netter Trollpost.
Wie kommst du darauf, dass das ein Trollpost sein soll?
Für mich sind Konsolen auch keine Option, genau so wenig wie 60Hz Monitore.
Hab Witcher 3 das erste mal mit meiner R9 390 gespielt, was so in unter 60 FPS endete.
Hab das dann schnell liegen gelassen. Als ich auf ne GTX 1080 gewechselt bin hab ich es von Vorne komplett durchgspielt in ner Woche, da das Spiel mit 144 FPS für ich deutlich flüssiger und angenehmer vorkam. Gerade das reiten ist mit mehr FPS und Hz deutlich spassiger gewesen, ähnlich wie bei nem Rennspiel wo unter 60 FPS für mich auch nicht angenehm sind. Es geht hier rein um das persönliche Empfinden.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
Chillaholic schrieb:
Das sind alles Spiele die auf nem Toaster laufen.

Nein, das sind mit die beliebtesten Spiele aktuell und eben diese werde gerade Käufer einer low-end Grafikkarte der Statistik nach spielen. Auf einer aktuellen Konsole hat man auch zwischen 30 und 60 Bilder die Sekunde, selbstverständlich ist das spielbar. Das man auch höhere Ansprüche haben kann steht außer Frage.

Habe selbst nun einen 165Hz Monitor hier, aber ich käme nie auf die Idee zu vergessen, dass es Zeiten gab, als ich selbst mit dem bestmöglichen Setup Schwierigkeiten hatte in Crysis auf 60 Bilder die Sekunde zu kommen und dennoch war es spielbar ;)
 
  • Gefällt mir
Reaktionen: milliardo
G00fY schrieb:
Aber klar, alle die keine 2080 besitzen sind ja automatisch anspruchslos.
Ah, der Herr hat den Post editiert, jetzt wirfst du mir also nicht mehr Getrolle vor, sondern anderen Schwachsinn.

PPPP schrieb:
Habe selbst nun einen 165Hz Monitor hier, aber ich käme nie auf die Idee zu vergessen, dass es Zeiten gab, als ich selbst mit dem bestmöglichen Setup Schwierigkeiten hatte in Crysis auf 60 Bilder die Sekunde zu kommen und dennoch war es spielbar
Ja ich erinner mich auch noch an meine 8800 GTX und Crysis 1. :D
 
Chillaholic schrieb:
deutlich flüssiger und angenehmer vorkam
Vorher "unspielbar" ab 144FPS flüssiger/angenehmer. Interessante Beschreibung. :D

Ansonsten verstehe ich noch immer nicht was das hier mit einer Grafikkarte im 140€ Segment zu tun hat.

Was ich natürlich verstehe ist die Motivation ein Spiel mit richtiger Hardware auf 120Hz+FPS zu genießen. Aber das kann/will sich nicht jeder leisten, also spar dir doch so absolute Aussagen wie "unspielbar" oder "das Minimum was man aktuell empfehlen kann"...
 
Zurück
Oben