Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

Wäre mal interessant zu sehen wie sich die 8 GB Rx 570 schläht wenn man sie auf das Leistungsniveau der GTX 1650 drosselt. Die liegen ja beide in der vergleichbaren Preisklasse.
 
  • Gefällt mir
Reaktionen: duskstalker und Mcr-King
NMA schrieb:
Ich denke nicht, dass sich die Anschaffungskosten der 1650, durch die Ersparnis im Stromverbrauch, in einem Zeitrahmen, dieser unter 1080p sinnvolle FpS generieren kann, wirklich amortisiert.
Kann sich jeder Interessierte ja einfach ausrechnen. Die RX 570 braucht gemäß der Tabelle ~ 100 Watt mehr - macht pro Stunde spielen also 0,1 kWh (ca. 3 Cent).

Beispiel: Wer durchschnittlich 1 h pro Tag spielt, spart damit in einem Jahr etwa 10 EUR (3 Cent täglich bei 365 Tagen).

Unberücksichtigt bleibt dabei noch der niedrigere Verbrauch im Idle, beim Videoschauen etc. sowie die Netzteilverluste. Realistisch betrachtet käme man mit dem Beispiel wohl eher auf 15 EUR pro Jahr. Je länger die Kiste läuft und je mehr gespielt wird, desto schneller könnte sich der Aufpreis amortisieren.

Ich halte das noch nicht einmal für gänzlich unrealistisch, weil der typische GTX 1050-/GTX 1650-Käufer nicht zu dem Publikum gehört, welches alle paar Monate die Grafikkarte umrüstet.

Gegebenenfalls kann man mit so einer sparsamen Karte sogar eine Netzteilklasse tiefer einkaufen (oder sich eine Aufrüstung sparen) und könnte auch an dieser Stelle finanziell profitieren.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Stunrise schrieb:
Innerhalb des Nvidia Portfolios ist es eine gelungene Karte. Sie kommt ohne Stromanschluss aus und rundet das Turing basierte Portfolio nach unten ab. Zum Vorgänger 1050 Ti ist sie gleichzeitig effizienzer und leistungsfähiger und kostet dabei annähernd das selbe.
Vielleicht die Hardwareseitige Unterstützung für die Berechnung bei halber Genauigkeit? Das dürfte durchaus die Transistorzahl eun gutes Stück aufblasen und auch die Logik hinter den ausgeweiteten Bandbreitensparmaßnamen werden darin ihre Spuren hinterlassen haben.
 
  • Gefällt mir
Reaktionen: Mcr-King
Von 28 bei GH gelisteten Karten haben nur 17 KEINEN extra Stromanschluss, die restlichen 11 haben einen 6 PIN Anschluss.

Da frage ich mich, wozu braucht so eine „effiziente“ Karte eine zusätzlichen Stromanschluss?

Wie hoch ist die effektive Zusatzleistung der Karten mit Stromanschluss?

Um wie viel Prozent steigert dieser Stromanschluss die Leistung damit er gerechtfertigt ist?

Kann die Karte mit Stromanschluss eine 570 in der Leistung überbieten?
 
Kann das Gemecker der AMD Fraktion hier nicht mehr lesen, wenn es so euch hier nicht passt, warum geht hier nicht zur PCGH oder sonst wo hin? Aber CB zu unterstellen, dass Nvidia bevorzugen, ist doch quatsch hoch zehn.
 
  • Gefällt mir
Reaktionen: KlaraElfer
PolarSun schrieb:
Kann sich jeder Interessierte ja einfach ausrechnen. Die RX 570 braucht gemäß der Tabelle ~ 100 Watt mehr....
Nicht die GTX 1650 sondern lediglich die auf sparsam gedrosselten Modelle ähnlich dem Referenz Design denn sobald bei den OC Modellen die Taktfrequenz deutlich nach oben gehen soll steigt auch der Strombedarf erheblich an.
So genemigt sich die Gigabyte GTX 1650 Gaming OC gegenüber der Gigabyte GTX 1650 OC für ca. 100 MHz (ca. 6%) mehr Durchschnittstakt gute 14W bzw. satte 22% mehr Strom. Bei der Übertaktung von Computerbase sind wir gar bei 24W bzw. 38% mehr Strom.

Was mir an der Stelle aber ganz und garnicht gefällt, warum wird der Strombedarf @ UHD gemessen aber kein Benchmark Ergebnis dazu geliefert bei dem man sehen könnte ob der Karte dabei der Speicher ausgeht, die GPU beim Warten auf die Daten Däumchen dreht und womöglich deshalb weniger Strom frisst? Spätestens bei den Frametimes dürte sich das deutlich bemerkbar machen.
 
  • Gefällt mir
Reaktionen: adaptedALPHA und Mcr-King
Müritzer schrieb:
Da frage ich mich, wozu braucht so eine „effiziente“ Karte eine zusätzlichen Stromanschluss?

Wie hoch ist die effektive Zusatzleistung der Karten mit Stromanschluss?

Um wie viel Prozent steigert dieser Stromanschluss die Leistung damit er gerechtfertigt ist?

Kann die Karte mit Stromanschluss eine 570 in der Leistung überbieten?
Möglicherweise hast Du den Artikel noch nicht vollständig durch. So wie ich das überblicke , werden darin eigentlich all Deine Fragen beantwortet.

Die Frage ob es technisch sinnvoll ist, so eine Karte der OC-Community anzudienen, ist natürlich noch einmal eine andere. Ich denke jedoch, daß dafür nicht in erster Linie technische Aspekte eine Rolle spielen als vielmehr das Marketing der Hersteller.

Momentan existiert auch noch eine recht große Lücke zwischen der 1650 und der 1660, weshalb evtl. einige Nutzer die Übertaktung einer 1650 in Betracht ziehen könnten. Wer allerdings Leistung per se in den Vordergrund stellt, ist bei der 1650 wohl schlicht an der falschen Adresse.

Ich würde vermuten es kommt noch eine 1650Ti mit dem TU117-Chip als Vollausbau und mit Stromanschluß, die dann tatsächlich auf dem Leistungsniveau einer RX 570 landet. Mit der 1650 wollte Nvidia imho nur die Leistung liefern, die eben gerade ohne eine separate Stromversorgung machbar ist.
Ergänzung ()

Wadenbeisser schrieb:
Nicht die GTX 1650 sondern lediglich die auf sparsam gedrosselten Modelle ähnlich dem Referenz Design denn sobald bei den OC Modellen die Taktfrequenz deutlich nach oben gehen soll steigt auch der Strombedarf erheblich an.
OC-Modelle mit abweichender Leistungsaufnahme gibt es ja in beiden Lagern. Über dieses gesamte Spektrum hinweg wird es letztlich doch wieder auf etwa 100 W Unterschied hinauslaufen. Mehr Takt und/oder Spannung führen schließlich bei allen Chips zur Steigerung des Strombedarfs - das ist weder Nvidia- noch AMD-exklusiv.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Naja, aber die 1650ti wird es allerdings ebenso schwer haben, wenn man nicht mit dem Preis deutlich herunter geht. Denn dafür haben die AMD Karten in dem Leistungssegment ein zu gutes P/L Verhältnis.
 
  • Gefällt mir
Reaktionen: Mcr-King
@Ex3cuter Dass CB AMD in der Überschrift scharf kritisiert und nVidia wenn überhaupt neutral bewertet (nur in der Headline) ist nun mal offensichtlich. Ist ja schön und gut, wenn's im Artikel dann kritischer wird. Aber wenn man in Suchmaschinen auf den Artikel trifft, dann taucht die Headline auf und nicht der ganze Inhalt. Wenn das alle Seiten so machen, spuckt die Googlesuche nur negative Sachen aus. Im Gegensatz zu Nvidia, deren negativen Punkte nur im Artikel wenigstens angeschnitten werden.
 
  • Gefällt mir
Reaktionen: Chismon, Inxession, Acedia23 und eine weitere Person
@Wadenbeisser
Wau schon wieder sind wir der selben Meinung erstaunlich. 😉 Ach noch was ich kaufe dass was gutes P/L hat und da gab es nix mehr seit GTX770. Jede Konsole hat ein besseres P/L als NV auch gibt es genügend Mining Karten in der Bucht für kleines Geld zu kaufen.

So bin jetzt dann Raus mit NV und AMD Fanboys kann man nicht Objektiv reden genau so ist es. Nur sieht man an Hand der Games Verkäufe dass wesentlich mehr Konsolen games gehen.
 
@PolarSun
Das ändert nichts daran dass die Effizienz bei den Teilen vor die Hunde geht weil das Referenz Modell bereits in den Sweetspot gedrosselt wurde und das kleine Pseudo OC Modell von Gigabyte offenbar mit der gleichen Taktfrequenz rumkrebst und sich deshalb nicht absetzen kann. Bei den klassischen OC Modellen, auf deren Benchmark Ergebnisse man sich dann wieder beziehen wird, kannst du wohl locker mit 20-30% mehr Strombedarf rechnen. Zudem hatte ich bereits die Frage geäußert ob sicher ist dass der Karte bei der UHD Testszene nicht der Speicher knapp wird, sie deshalb einbrechen und dadurch unrealistische Messwerte zum Verbrauch liefern könnte. Wenn 4 GB für UHD ausreichen, warum dann der damalige Zirkus um die 4 GB der Fury Karten?
 
Sinthuria schrieb:
Naja, aber die 1650ti wird es allerdings ebenso schwer haben, wenn man nicht mit dem Preis deutlich herunter geht. Denn dafür haben die AMD Karten in dem Leistungssegment ein zu gutes P/L Verhältnis.
Letztlich müßte dann aber auch der Kunde nach Preis-Leistung entscheiden. Man kann die Karten jetzt mit durchaus guten Argumenten als "zu teuer" für die Leistung einordnen. Der Preis wird aber am Markt gebildet - gemäß Angebot und Nachfrage. So lang wie die Dinger für 150 Tacken gekauft werden, so lang werden sie für 150 angeboten.

Es ist AMD und den Kunden nur zu wünschen, daß die nächste GPU-Generation ähnlich einschlägt wie es letztes Jahr bei den CPUs geschehen ist. Wenn man technisch auf Augenhöhe agieren kann und dann immernoch ein besseres Preis-Leistungsverhältnis offeriert, wird auch Nvidia irgendwann reagieren. Bis dahin kann sich AMD aber tatsächlich nur über den Preis im Spiel halten. Das ist weder für AMD selbst gut, noch für die Kunden, die eine technologisch und preislich attraktive Auswahl bevorzugen.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Sinthuria
ProGamer schrieb:
Der Preis der Radeon kann sich genau so ändern

naja, der Preis der Vega war wohl wissentlich eher spitz auf Knopf genäht und teils wurde die UVP sogar nach Release quasi angezogen (Fury / Vega) - was einfach am zu teuren HBM + Computing Chip Konstrukt lag. Natürlich werden sich bei beiden Karten die Preise ändern können. Die Vega VII hat auch etwas nachgelassen, zu meiner und wohl auch CBs Überraschung. ;)

@ Überschrift. Denke da is auch einfach was psychologisches bei, erwische mich selbst ja auch dabei. Wenn zb die vorherigen Produkte nicht wunder weiß was überzeugt haben oder sich ne Art Gschmäckle breit macht (ganz ungewollt) dann kommt sowas bei raus.

Da fand ich den Vorschlag mit dem "Verzicht auf Titel" und einfach "Review GTX Bla bla" gar nicht so schlecht, denn euer Fazit selbst passt wunderbar.
 
Zuletzt bearbeitet:
Alphanerd schrieb:
Die Radeon 7 sah im Test viel besser aus, als in der Überschrift.
Hier ist es anders herum: die Überschrift liest sich viel positiver, als das Fazit.

Das ist so, gerade im Vergleich zu anderen Medien. Da nützt es auch nichts, wenn Jan von der Kritik (an der Überschrift) lediglich ablenken will (indem wir die Überschrift weniger beachten sollen).
Insgesamt hat sich einiges gebessert, das will ich auch sagen. Aber dieser Test im Vergleich mit dem der Radeon VII ist halt mal wieder Käse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23, Alphanerd und Mike2002
Wadenbeisser schrieb:
@PolarSun
Das ändert nichts daran dass die Effizienz bei den Teilen vor die Hunde geht weil das Referenz Modell bereits in den Sweetspot gedrosselt wurde und das kleine Pseudo OC Modell von Gigabyte offenbar mit der gleichen Taktfrequenz rumkrebst und sich deshalb nicht absetzen kann.
Stimme ich Dir da auch vollkommen zu. "Vor die Hunde" ist angesichts der gezeigten Effizienz zwar etwas hart formuliert, aber man weiß wie es gemeint ist. Trifft allerdings auch wieder beide Hersteller, denn die gleichen Fragen wurden bereits beim Polaris-Debut in Richtung AMD gestellt. AMD mußte aber so hoch gehen (und über das Performance/Watt-Optimum), weil die Leistung sonst vergleichsweise knapp ausgefallen wäre.

Allerdings kann man einem Produzenten schlechterdings vorwerfen, daß sie ihr Referenzmodell auf den Effizienz-Sweetspot hin optimiert haben. Wenn ich die 1650-Karte richtig verstehe, war schließlich genau das auch das Ziel. Im Gegenteil, ich fände es echt seltsam, wenn sie nicht die ideale Effizienz auf die Boards gelötet hätten solange sie dazu nicht gedrängt werden (also durch technologischen Rückstand etc.)
 
PolarSun schrieb:
ca. 3 Cent für 0,1 kW
Strom kostet keine 30 Cent, sondern 23 oder 24. Dieser "Klassiker" kommt auch immer wieder: Einerseits über den Stromverbrauch jammern, bei einem Gerät, was innerhalb des Hauses nur eine Statistenrolle spielt. Dazu dann den teuersten Stromtarif aussuchen, den man kriegen konnte. Das passt irgendwie nicht zusammen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Casillas und Arkada
Diese Fragen habe ich mal gestellt nach dem ich den Test gelesen habe UND dieses Video gesehen habe. Er fast alles was hier geschrieben wurde sehr passend zusammen, da passt auch die Überschrift für diesen Test.

 
  • Gefällt mir
Reaktionen: Ceberus, HaZweiOh, Mike2002 und eine weitere Person
HaZweiOh schrieb:
Strom kostet keine 30 Cent, sondern 23 oder 24. Dieser Fehler kommt auch immer wieder: Einerseits laut über Stromverbrauch jammern, sich aber andererseits den teuersten Stromtarif aussuchen, den man kriegen konnte.
Weil das Argument eines Kleckerbetrags pro Monat ohnehin schon schwach war, wäre es mit reellen Preisen ja noch unsinniger gewesen. Also wird mit "30 Cent" gerechnet.
Wie lange warst Du weg? ;)

Das sind tatsächliche Durchschnittspreise. Als aktuellen Wert für 2018 habe ich 29,42 Cent gefunden (für Privathaushalten in Deutschland). -> Quelle Da es zu Beginn 2019 erneut eine Teuerung bei vielen Anbietern gab, habe ich mir erlaubt ganz salopp mit 30 Cent zu rechnen.

Man kann jetzt natürlich einfach den theoretisch billigsten Tarif zum Maßstab nehmen. Man bildet damit jedoch gerade nicht die Realität ab, so wie Dein Beitrag es suggeriert.

Es hindert Dich allerdings auch niemand daran, die Rechnung einfach mit Deinem Billigtarif durchzuführen falls Dich die Frage wirklich interessiert. Die reellen Preise in Deutschland liegen aber davon unabhängig bei aktuell ca. 30 Cent. Ja, mir gefällt's auch nicht - aber die Zahl ist nun einmal leider nicht aus der Luft gegriffen.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Luxmanl525
PolarSun schrieb:
Das sind Durchschnittspreise.
.... die hier aber nicht taugen. Über wen sprechen wir?

Wir sprechen über Leute, die sich über hohe Stromkosten beklagen. Nehmen sie deshalb den teuersten Tarif, den es gab? Wohl kaum, das wäre ein Widerspruch.

Du kannst im Text deines Links lesen, wie diese unrealistische Preisangabe zustande kam:
In diesem Jahr erhöhten etwa 50 Grundversorger...
Habe ich da etwas von Grundversorgung(!) gelesen? Autsch!

Den Preis von 23-24 Cent ziehe ich aktuell von Verivox, gerade eben nochmal nachgeguckt. Ganz reell und so, wie ich einen Tarif für uns aussuchen würde, ohne Betrug mit Bonus etc.
Dass viele Haushalte sich über das Thema gar keine Gedanken machen und deshalb unnötig viel bezahlen, ist bestimmt so, interessiert uns an dieser Stelle aber nicht. Wir reden über Leute, die den Stromverbrauch zum Thema machen. Und das bei einem Gerät, was kaum zum Stromverbrauch beiträgt.

[Update: In der Nordhälfte Deutschlands ist Strom tatsächlich günstiger als in Bayern und BaWü]
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Arkada und E1nweg
Hallo zusammen,

@ HaZweiOh

HaZweiOh schrieb:
Strom kostet keine 30 Cent, sondern 23 oder 24.

Oh doch, Strom kostet mittlerweile Brutto eher 30 Cent. Den Stromlieferant in Deutschland wüßte ich gerne von dir, der Strom für 23 Respektive 24 Cent Brutto anbietet.

Ansonsten lese ich Persönlich mittlerweile grundsätzlich die Tests auf Tom`s Hardware zuerst. Das Fazit des Kollegen Igor Wallossek trifft die Dinge in der Regel immer ziemlich treffend.

HaZweiOh schrieb:
Wer über Stromverbrauch jammert, hat auch einen vernünftigen Stromtarif.

Da kann ich nun keinen Zusammenhang erkennen. Es ändert doch nichts daran, daß der Stromverbrauch heutzutage andere Auswirkungen hinterläßt im Verhältnis, als das früher der Fall war. Jedem das Seine, wobei erhöhter Stromverbrauch sich ja nicht nur bei den Kosten bemerkbar macht, sondern z. b. bei der Abwärme und v. a. hieraus resultierend zusätzlich.

@ PolarSun

PolarSun schrieb:
Es hindert Dich allerdings auch niemand daran, die Rechnung einfach mit Deinem Billigtarif durchzuführen falls Dich die Frage wirklich interessiert.

Da brauchst du dir keine Gedanken drum zu machen. Einen solchen Tarif wie zu den Preisen wie er sie nennt, gibt es nicht mehr in Deutschland. Ich selbst hatte einen der günstigsten, nämlich 26,34 Cent, dieser wurde zum 01.04. auf 29,25 Cent erhöht, wie viele andere auch.

So long...
 
Zurück
Oben