Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

benneque schrieb:
400€? Das sind 200W, 24/7, 365 Tage im Jahr. PS4 + TV kommen zwar in die Region von 250W, aber dann solltest du dich lieber mal fragen, ob er überhaupt noch zur Schule geht, oder vielleicht stattdessen 18 Stunden pro Tag zockt - jeden Tag! :D

Der Hauptverbraucher waren dabei die PS4 Pro, und der Plasmabildschirm (der unlängst ausgetauscht wurde).
Und Sohnemann hat schon 8H pro Tag gezockt, mit den lässigen Schulzeiten mit nur 1x Nachmittagsunterricht war das auch schlecht kontrollierbar.
Und die PS4 Pro und der Fernseher nuckeln zusammen rund 400 Watt, gut ich bin auch in mehreren Räumen von Halogen auf LED umgestiegen, aber die Zockerei hat sicherlich 250 Euro verschlungen.
Jetzt spielt er mit einem Notebook mit GTX 1050, reicht auch aus und das braucht eben 300 Watt weniger als am Plasma mit PS4 Pro und Soundsystem.

benneque schrieb:
Mehr Auflösung, mehr Qualität, mehr FPS. Wenn du das alles nicht brauchst, kannst du bei "zu schneller" Hardware auch einfach einen Framelimiter aktivieren und dann sinkt der Stromverbrauch massiv.

Ja, brauchst du aber für die Casual Games auch gar nicht.

HaZweiOh schrieb:
Mit welcher Begründung sollte man fixe Kosten zu variablen addieren?

Die Frage ist doch einfach warum du das Argument der Effizienz so wenig gelten lassen willst, dabei ist es das einzige Pro Argument für die Nvidiakarte, das insgesamt gesehen gar nicht überwiegt, sondern nicht ausreichend ist um aus der 1650 den besseren Kauf zu machen. Das ist nur ein Thema für die Leute die Strom sparen wollen und einen leisen/kühlen Rechner wollen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Neronomicon
HaZweiOh schrieb:
Mit welchen Grund sollte man fixe Kosten zu variablen addieren?


Die kannst du doch nicht einfach unter den Tisch fallen lassen ! 🤡
Die gehören genau so mit hinein wie der reine Arbeitspreis.
Dararan merkt man wieder das viele sich überhaupt keine Gedanken machen, und sich mal die Frage stellen sollten, warum Arbeispreise und Grundpreise bei Anbietern immer unterschiedlich sind.
 
Fixkosten haben nichts mit dem Verbrauch zu tun, deshalb addiert man sie nicht zu den variablen Kosten. Man berücksichtigt sie natürlich beim Tarif. Aber ich fürchte, das wird jetzt für den Rest der Leser ziemlich langweilig. Wollte nur einige Denkfehler richtig stellen, aber das Thema artet aus.
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Mit dem Verbrauch haben Fixkosten nichts zu tun, deshalb addiert man sie nicht zu den variablen Kosten. Man berücksichtigt sie natürlich beim Tarif.

Wieso berücksichtigst du sie dann nicht?:jumpin:

HaZweiOh schrieb:
@Luxman: Such dir mal einen vernünftigen Stromtarif auf www.verivox.de

Gasspar = 23,21 Cent
Süwag = 23,17 Cent.

Natürlich reell ermittelt
, so wie ich einen Tarif für uns aussuchen würde (also mit mindestens 12 Monaten Preisgarantie, ohne Bonus-Beschiss, mit kurzer Kündigungsfrist usw.)
 
KlaraElfer schrieb:
Wieso berücksichtigst du sie dann nicht?:jumpin:
Aargh, du willst mich immer noch als doof hinstellen. Ganz so doof bin ich nicht.

Wie reden hier über Verbrauch. Fixkosten fallen ohnehin an und spielen beim Verbrauch keinerlei Rolle. Deshalb kann man sie auch nicht einfach auf variable Kosten addieren(!).
 
Zuletzt bearbeitet:
Seid ihr bald Fertig ja due GTX1650 ist effizient so ist aber viel zu Teuer und zu langsam für dass Geld. Auch kein Wunder Tensor Kerne und RT Kerne Raus und bleiben als Neuerung nur 16FP klasse.

In Prinzip ist die GTX16er eine GeForce MX2 eine Mogelpackung und genau deswegen wird RTX sich auch nicht verbreiten.
 
Die Grafikkarte wäre ziemlich gut - wenn sie 100 Euro kosten würde. Für den aktuellen Preis ist sie nicht empfehlenswert. Eine RX 570 ist wesentlich schneller und günstiger. Sie verbraucht zwar etwas mehr Strom, aber es ist lächerlich, dass viele hier so tun, als wäre die AMD-Karte ein stromfressendes, heißes und lautes Monster. Tatsächlich ist die RX 570 mit einem Maximalverbrauch von 164 Watt in diesem CB-Test immer noch eine relativ genügsame Grafikkarte.

Der Maximalverbrauch ist allerdings nur für die Netzteilfindung interessant. Zum Ausrechnen der Betriebskosten müsste eine Durchschnittsmessung hinzugezogen werden. Hierfür sollte getestet werden, wie viele KWh für ein komplettes System mit der jeweiligen Grafikkarte während einer Stunde Gameplay anfallen. Am besten simuliert man einen gesamten Tag, bestehend aus einer Stunde Gaming, einer Stunde Idle, einer Stunde Office und einer Stunde Youtube, und zeichnet den Gesamtverbrauch in KWh auf.

Nur so lässt sich kalkulieren, um wie viel teurer im Betrieb Grafikkarte A als Grafikkarte B ist. Angenommen eine RX 570 (130 Euro) ist 15 Prozent schneller und 15 Prozent (20 Euro) günstiger als eine GTX 1650 (150 Euro). Wenn eine RX 570 im Tagesschnitt 0,21 KWh und eine GTX 1650 0,09 KWh benötigt, ist die Radeon bei einem KWh-Preis von 30 Cent jeden Tag 3,6 Cent teurer. Die 20 Euro Preisunterschied sind demnach nach 555 Tagen ausgeglichen. Trotzdem ist die RX 570 noch immer 15 Prozent schneller.

Bis die GTX 1650 also ein besseres Preisleistungsverhältnis aufweist, muss sie erst mal 15 Prozent günstiger sein - und das dauert, denn es ist nicht linear. Nach 555 Tagen haben beide Karten Kosten von 165 Euro verursacht. Nach weiteren 555 Tagen steht es 200 zu 180 Euro für die AMD-Karte, was lediglich 11 Prozent sind. Insgesamt dauert es in meinem Beispiel ungefähr 1.330 Tage, bis die GTX 1650 das Preisleistungsverhältnis der RX 570 eingeholt hat, also etwas weniger als vier Jahre.

Bei meinem Beispiel habe ich besonders Nvidia-freundliche Werte genommen. Der Kosten- und Performance-Unterschied zwischen den beiden Karten ist größer. Außerdem bin ich mir sicher, dass Praxismessungen einen noch geringeren Unterschied des tatsächlichen Durchschnittsverbrauchs ergeben werden. Wie gesagt, ich war in meiner Beispielrechnung sehr Nvidia-freundlich. Ich werde auf jeden Fall mal einen (wie oben beschriebenen) Durchschnittsverbrauchstest mit meiner Vega 56 machen.
 
  • Gefällt mir
Reaktionen: E1nweg, LencoX2, tek9 und eine weitere Person
Smartin schrieb:
Ist bei dir UVP immer gleich der Marktpreis?
Man kann davon ausgehen, dass der Preis sich einpendeln wird.
Als man das zur Radeon 7 sagte, wurde man hier von Leuten wie dir gesteinigt. Also bitte entscheide dich Mal.

Und mit Energieeffizienz im Rechner als Kaufgrund werben, ist eh das dümmste. Wie schon erklärt wurde, wer ein 24/7 RZ hat, dem könnte das Thema interessieren. Bis sich diese 100W in einem causal Betrieb amortisiert haben, vergehen über 1000 Betriebsstunden. Jo, das nenne ich Mal ein gutes Invest (Nicht)
Die Karte ist weder Fisch noch Fleisch, sondern Stillstand. Und da bringt auch die Effizienz nichts mehr. Und bevor ich für 150-170€ so eine Karte kaufe, hole ich mir ein besseres NT. Und wer echt Rum weint, wegen der Kosten, oder gar die Umwelt schonen möchte, da gibt es effektivere Lösungen bzw. sollte sich fragen, ob er sein Hobby überhaupt sich Leisten kann. Diese Nvidia Artikel stinken nach GPP leider. Und dann heißt es immer, von den gleichen, AMD Befürworter wären nicht objektiv. Irgendwie Putzig.

Zwirbelkatz schrieb:
Der Raum bleibt ebenfalls kühler. Ich vermute, dass den meisten dieser Zusammenhang einfach nicht klar ist.
Ändert sich aber seit Jahren leider nicht.

Das ist absoluter Quatsch. Du merkst 100W mehr in einem Raum nicht. Die Erwärmung dürfte nicht Mal messbar sein. Ich rate dir, mehr Fakten zu liefern und nicht Gefühle als Fakten zu verpacken. Gilt auch für deinen Spoiler in Teilen.
Schau dir die Heizleistung einer Heizung an, dann wirst es sicher verstehen. 100w bei sagen wir Mal 4 Std Betrieb, macht nichts.
Es ist durchaus berechtigt, dass man hier den Titel bemängelt. 70% lesen nur die Titel, deswegen ist es so wichtig, dass die Titel weder reißerisch, noch vor eingenommen sind. Etwas, was man bei CB derzeit vermisst,
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Casillas
Für mich wäre eine möglicherweise noch erscheinende Low-Profile-Version der GTX 1650 eine interessante Aufrüstmöglichkeit für mein älteres ThinkCentre M92p mit dem i7-3770, da der Rechner nur über ein 300-Watt-Netzteil verfügt und der Platz im Gehäuse sehr limitiert ist. Die hohe Effizienz der GTX 1650 ist aus meiner Sicht ebenfalls ein Pluspunkt. Die Rohleistung ist eben nicht alles, sofern man keine großen Gehäuse mit Riesennetzteil verwendet. Für solche User ist die Karte natürlich weniger attraktiv.
 
KodeX schrieb:
Insgesamt dauert es in meinem Beispiel ungefähr 1.330 Tage, bis die GTX 1650 das Preisleistungsverhältnis der RX 570 eingeholt hat, also etwas weniger als vier Jahre.

So ist es fast immer wenn eine AMD Karte mit einer Nvidia verglichen wird.

Aber die Grünen Freunde sind halt oft nicht für Fakten empfänglich.

Wie häufig liest man hier das Leute ihre Hardware ausgetauscht haben weil dann weniger Strom verbraucht wird. Sowas amortisiert sich in der Lebenszeit der neu gekauften Hardware nie und ist eine ökologische Todsünde weil das eingesparte CO2 deutlich unter dem liegt was für die Produktion der Hardware ausgestoßen wurde.
 
  • Gefällt mir
Reaktionen: Rockstar85, E1nweg und Alphanerd
Rockstar85 schrieb:
Und mit Energieeffizienz im Rechner als Kaufgrund werben, ist eh das dümmste.

Und du beschwerst dich über reißerische Titel, kannst aber selbst nicht dafür sorgen, dass deine Beiträge halbwegs von reißerischer und zugespitzter und provokanter Wortwahl bereinigt sind und auch nur den Anschein eines Anspruchs erwecken, neutral zu sein.

Rockstar85 schrieb:
Die Karte ist weder Fisch noch Fleisch, sondern Stillstand. Und da bringt auch die Effizienz nichts mehr.

Die Effizienz bringt immer dann nichts, wenn sie der ungeliebte Konkurrent bietet.
Ab dem Zeitpunkt wenn es der selbst favorisierte Hersteller anbietet, ist es wieder ein Totschlagargument, ala "krasser Verbrauch", "schlechte Effizienz".

https://www.computerbase.de/forum/t...ig-extrem-teuer.1830425/page-27#post-21841157
https://www.computerbase.de/forum/t...ig-extrem-teuer.1830425/page-28#post-21841204

Das kann man sich Prima an deinen Beiträgen zum I9 9900K ansehen. Dort zählt dann plötzlich nur noch der Strombedarf unter Powerviren wie Prime 95, es existiert schlimme Elektronenmigration.
Du lenkst dort den Fokus ganz gezielt auf den maximal messbaren Verbrauchunterschied mittels einem für die Praxis irrelevanten Tool und reitest permanent auf dem Stromverbrauch herum und das obwohl der in der Praxis bei deutlich Mehrleistung gar nicht viel höher ist, bei Cinebench sogar indentisch zum AMD System mit 2700x.

Der Intel ist hier sowas wie nen Bugatti.. Sau schnell, aber auch sau durstig..

Stellt sich zuletzt die Frage warum die den Verbrauch eines Systems unter Spielelast mit dem Verbrauch unter Prime 95 inkl AVX vergleichst, mit ganz anderer, sehr spezifischer Auslastung.
Deinen Aussagen muss man hier nicht besonders viel Glauben schenken, drehst du dich doch wie die SPD mit der Fahne nach dem Wind.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau
Stahlseele schrieb:
Die 570 oder generell AMD Karten hätten nicht als Vergleich herangezogen werden dürfen.
Genau so wenig hätte eine nVidia Karte mit 6-Pin Stromanschluss als Vergleich herangezogen werden dürfen.
Das ist Äpfel mit Birnen vergleichen.
Die Karten sind technisch nicht zu vergleichen.
Eine Karte mit 6-Pin Strom-Anschluss kann direkt doppelt so viel Leistung abrufen, wie eine Ohne.

Diese komplette Diskussion ist Witzlos, bis es andere vergleichbare (ohne 6-Pin-Anschluss) aktuelle Karten entweder von nVidia oder von AMD oder eventuell sogar von Intel gibt.

Ich dachte wir sind hier auf Computerbase und nicht beim Check24-Stromkostenvergleich??
Wenn du dir ein paar Seiten der Kommentare durchgelesen hättest, würdest du merken, dass der Anwendungsfall, dass man eine Karte ohne 6Pin benötigt so selten ist, dass er quasi keinerlei Relevanz besitzt.
Nvidias Entscheidung keinen Stecker zu verbauen spielt bei einem neutralen Vergleich kaum eine Rolle.
Es geht um Preis, Leistung, und auch danach kommen bei der Kaufentscheidung eher andere Faktoren wie Geräuschkulisse.

Es kann ja durchaus sein dass du deine Kaufentscheidung davon abhängig machst wieviel Stromstecker eine Grafikkarte hat. Aber bitte übertrage dies nicht auf die Allgemeinheit ;)
 
  • Gefällt mir
Reaktionen: Rockstar85
USB-Kabeljau schrieb:
Top-Karte!
Leider um mindestens 50e zu teuer.

Wiederspricht sich das nicht irgendwie?

Analog wäre die RX570 eine noch bessere Karte.
Leider verbraucht sie 100 Watt zu viel.

Und ich bin ein Weltklasse Sprinter!
Leider brauche ich auf 100 Meter 2 Sekunden zu lange.
 
Zwirbelkatz schrieb:
Der Raum bleibt ebenfalls kühler. Ich vermute, dass den meisten dieser Zusammenhang einfach nicht klar ist.
Ändert sich aber seit Jahren leider nicht.

Die Liste lässt sich leider auf andere Bereiche ausweiten

Diesel-Motor hat höhere Energiedichte, Folgen werden verschwiegen
Intel CPU hat mehr Leistung, später kommt raus, dass getrickst wurde
Flachbildschirm (Fernseher) hat besseres Bild, grauenhafter Ton wird ignoriert
Ich bin mit Smartphone immer erreichbar, Sprachqualität und Verbindungsabbrüche und Stören des Umfelds wird ignoriert
Internet bis zu 200.000er Leitung, abends Mäusekino angesagt

Manchmal glaube ich, war haben in den 90ern die Optimierung dem Wachstum untergeordnet.

100Watt wärmeleistung gibt auch ein Menschlicher körper ab ;-)
In einem Passivhaus haben die Fenster jeweils ca. 1KW Heizleistung hier spreche ich von Standard 3 Fachverglasung.

Der Raum heizt sich also genauso auf wenn sich jemand darin befindet.

Um einen Innenraum kühl zuhalten wären also Dämmung, Beschattung wichtiger und haben einen deutlich geößeren einfluss als 64 Watt unterschied.

Außerdem, Ram, CPU und Speicher sowie Monitore geben auch wärme ab und das nicht zu knapp, nicht zu vergessen eine LED Lampe wird bis zu 50 Grad heiß wenn Sie in betrieb ist .... also solltest du am best das Fenster zumauern und das Licht demontieren ;-)

dein vergleich hinkt deutlich
 
  • Gefällt mir
Reaktionen: Rockstar85 und E1nweg
Flyerdommo schrieb:
Für mich wäre eine möglicherweise noch erscheinende Low-Profile-Version der GTX 1650 eine interessante Aufrüstmöglichkeit für mein älteres ThinkCentre M92p mit dem i7-3770, da der Rechner nur über ein 300-Watt-Netzteil verfügt und der Platz im Gehäuse sehr limitiert ist. Die hohe Effizienz der GTX 1650 ist aus meiner Sicht ebenfalls ein Pluspunkt. Die Rohleistung ist eben nicht alles, sofern man keine großen Gehäuse mit Riesennetzteil verwendet. Für solche User ist die Karte natürlich weniger attraktiv.
Hol dir die Karte wenn sie das ist was du möchtest.
Bedenke dabei, dass eine RX 570 mit 8 GB schneller, zukunftssicherer durch 8 GB sowie günstiger und genauso für ein 300 Watt Netzteil 100% passt.
 
  • Gefällt mir
Reaktionen: Bänki0815
HaZweiOh schrieb:
Den Preis von 23-24 Cent ziehe ich aktuell von Verivox, gerade eben nochmal nachgeguckt. Ganz reell und so, wie ich einen Tarif für uns aussuchen würde, ohne Betrug mit Bonus etc.
what, wo lebst du denn?
778553


Das is hier der günstigste und wenn du den Grundpreis reinrechnest passen die 30 Cent absolut.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Krautmaster schrieb:
wenn du den Grundpreis reinrechnest

Luxmanl525 schrieb:
Der Zähler wird in der Regel außer Acht gelassen.

Ede aus'm Knast schrieb:
Außerdem unterschlägst du die Grundgebühr lässig

Leute das zahlt ihr ob ihr eine Grafikkarte nutzt oder nicht. Wenn man einen Handyvertrag ohne eine Telefonflat besitzt, dann zahlt man auch die Grundgebühr plus den Minutenpreis. Rechnet ihr dann auch den Bruttopreis für den Telefonanruf bei eurer Omma nach und sagt am Ende: Ne ist zu teuer?

Fixkosten habt ihr immer im Haushalt, die bricht man nicht in eine Einzelbetrachtung runter - oder schließt ihr euren Stromvertrag einzig und allein für die Grafikkarte ab?
Die ganze Bude bleibt dafür Dunkel und der restliche PC wird von einem Hamster angetrieben?
 
  • Gefällt mir
Reaktionen: rumpel01, E1nweg und HaZweiOh
Stromverbrauch Fakten (zahlen von Tomshw) und Entscheidungshilfe.
zu Grunde gelegt werden Gaming an 330 Tage im Jahr 2 h / Tag und 27 Cent die kwH Einfach andere Zahlen einsetzen wenn du deine eigenen Verbrauch ermitteln willst.
158 watt rx570
85 Watt 1060
Differenz 158 - 85 = 73 Watt = 0,073 kwH
Kostendifferenz pro Jahr: 330 * 2 * 0,27 * 0,073 = 13 EUR.
Die technischen Parameter bleiben natürlich wie sie sind.
Die 570 bietet 8 GB und 8-20 % mehr Leistung je nach Game
 
  • Gefällt mir
Reaktionen: Benji18, Mcr-King und AssembIer
Zurück
Oben