Test GeForce GTX 1650 im Test: TU117 punktet mit Effizienz statt Leistung

RuhmWolf schrieb:
Wieviel Seiten würden übrig bleiben, wenn es wirklich nur noch um die GTX 1650 ginge?

Eine? Das ist jetzt eine Fangfrage oder? 🤔

SchwertSchild schrieb:
Ich habe zurzeit eine MSI GTX950 Gaming 2G, die im Computerbase Test damals nur maximal auf 28,5dB(A) kommt, hier im Test jedoch stieg die Lautstärke schon mindestens auf 36,5dB(A), ist das nicht deutlich lauter?

CB:
Die 1.800 Umdrehungen in der Minute sind durchweg zu hören. Eine 75-Watt-Grafikkarte sollte auch leiser zu kühlen sein.

Das ist tatsächlich schwach von Gigabyte.

Mit MSI und deren Custom-Kühler macht man aber definitiv nix verkehrt.
 
  • Gefällt mir
Reaktionen: SchwertSchild
Die Artikelüberschrift folgt genau dem Muster, das man als CB-Leser erwartet hat. Die 1650 wäre eine Gelegenheit gewesen, die so oft zitierte "Unbefangenheit" zu bestätigen. Hier hat man aber mal wieder darauf verzichtet. Bei der Radeon 7 war man dagegen journalistisch "neutral-bissig" motiviert und man stand dafür ein, dass die Industrie bessere Produkte für den Endverbraucher abliefert - wenn man mal von noblen Zielen ausgeht.

Was mir hier in dem Test auch direkt negativ aufgefallen ist, ist folgender Absatz:

In den einzelnen Spielen zeigen sich stark schwankende Ergebnisse. So ist die GeForce GTX 1650 in Overwatch zum Beispiel nur 18 Prozent schneller als die GeForce GTX 1050 Ti, in Kingdom Come: Deliverance sind es dagegen gleich 41 Prozent.

Jetzt ist es nur leider so, dass Overwatch nicht im Performancerating erfasst wird, Kingdom Come: Deliverance aber schon. Bei nur 4 Spielen wäre das eine ziemlich signifikante Schlappe für die GTX 1650 gewesen. Nun ist es aber so, dass Overwatch auch nicht im regulären Performancerating erfasst wird. Und da stellt sich die Frage - wieso nicht? Ich habe schon mehrere Male dafür plädiert, Overwatch in den Parcours aufzunehmen. Ist nicht passiert - Und wieso kommt stattdessen Hellblade?

Das ist ein Beispiel dafür, wie man sich mit der eigenen Methode im Weg steht und in der Folge daraus minderwertige Ergebnisse produziert; Ob die dann untereinander vergleichbar sind, ist doch dann auch mehr oder weniger irrelevant.

Wie das ganze mit dem GPU Parcours wechselwirkt, den man um zwei alte "nvidia-only" Titel ergänzt (FFXV und Hellblade) und dann noch nach und nach in der Sample Size reduziert, steht dann aber doch auf einem anderen Blatt.
778363
778364
+

Und auch international stellt man mit dem neusten Parcours neue (negative) Maßstäbe auf:

778365


Und dann ist mir in vergangenen Tests noch folgendes aufgefallen:

778366


Man kann natürlich immer viel behaupten - aber für mich ist klar - hier bei CB wird beabsichtigt oder unbeabsichtigt immer wieder ein bisschen nachgeholfen: Hier mal das eine oder andere Spiel ausgetauscht, mal nicht aufgepasst beim Messen, hier ein Fehlerchen, da etwas zu "bissig" formuliert; Es läppert sich.

Ich habe nachgefragt, warum jetzt die Jahre alten Kamellen FFXV und Hellblade in den 2018/19 Parcours aufgenommen werden, und nicht relevantere oder neuere Titel, wie bspw. BF5, Forza Horizon 4, Strange Brigade und Resident Evil 2. Mittlerweile sind natürlich noch ein paar mehr dazu gekommen. Die Antwort von Wolfgang war so nichtssagend und ausweichend, dass ich mich garnicht mehr daran erinnere - in einem Teil hat er gesagt, dass man Titel auch nach anderen Kriterien aussucht - Playerbase und Relevanz fallen bei FFXV und Hellblade schonmal weg - wirklich aktuell sind die Titel auch nicht - teilweise 2 Jahre alt. Aber beide Spiele bevorzugen nvidia Grafikkarten. Komischer Zufall, oder nicht?

Dazu werden die Test- und Messmethoden nicht nachvollziehbar dargelegt oder gar in entsprechenden Ergebnissen dargestellt. Alles was bleibt sind die Klicki-Bunti Graphen. Wie die einzelnen Werte zusammenkommen, und wieviel Schindluder man eigentlich mit der Datenbasis dafür treiben kann, geht hier regelmäßig unter.

Und besonders der beliebte Graph über "Effizienz" beinhaltet gleich zwei fiese Stolperfallen:

Einmal die ermittelten FPS-Werte im Durchschnitt, die in einem etwas "unglücklich" gewählten Parcours entstanden sind, gepaart mit den bestenfalls als "unpräzise" zu bezeichnenden Messungen der Leistungsaufnahme - dann wird beides vermischt und fertig ist der (grüne) Salat - hier fließen gleich zwei mal handverlesene pro-nvidia Metriken ins Ergebnis ein - und keiner merkts. Hier in diesem Test wurde nur FarCry 5 getestet - im Radeon 7 Review wurde die Leistungsaufnahme allerdings angeblich vom ganzen Parcours erhoben:

https://www.computerbase.de/2019-02/amd-radeon-vii-test/4/#abschnitt_messung_der_leistungsaufnahme

Da die erreichte Leistung immer 50% der Datenbasis für die Effizienz ist, hat der Parcours auch immer Einfluss auf den Effizienz-Graphen - hier mal die Darstellung der Effizienz mit zwei extremen Beispielen - Doom VS Ghost Recon Wildlands mit der GTX 1080 als 100% - Basis waren Daten, die CB selbst erhoben hat.

778372


Jetzt kann sich jeder vorstellen, was passiert, wenn man bei der Verbrauchsmessung nicht so genau auf den Tacho schaut und bei dem einen zu wenig und beim anderen zu viel notiert, und dann auch noch einen Parcours testet, der für den einen Testkandidaten eher negativ ausfällt.

Natürlich sind die nvidia Karten so oder so die effizienteren Karten - aber man muss sich auch fragen, ob sowas wirklich sein muss. Auch wenn das ganze hier "Zufall" ist, muss man zumindest die Methoden anpassen, damit solche "Zufälle" nicht mehr passieren.

Die Methoden besser dokumentieren und einen faireren GPU-Parcours nutzen wäre für die journalistische Qualität so oder so zuträglich. Wenn man also mit dem Vorwurf des "Färbens" nicht einverstanden ist, muss man doch wenigstens die sachliche Kritik an der Methode akzeptieren.

Und hier können sich verschiedene CB Personalien zu Wort melden und relativieren und erklären, aber wirkliche Besserung tritt nicht ein. Und so wie ich das hier sehe, wird man mit der zweifelhaften Methodik noch über Navi drüberbügeln, bevor man vor dem nächsten nvidia Release mal in sich geht und überlegt, was man denn "verbessern" könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1, Kodak, |Moppel| und 24 andere
@Smartin
Oops die falsche Zahl (Tage pro Jahr) kopiert aber eine Zeile darüber standen ja zum Glück die 876 kWh im Jahr, gleich mal editieren. :D
 
Wadenbeisser schrieb:
Wow die Karte hat lt. Tabelle 4.096 GB, also 4 TB GDDR5 VRAM?
Net schlecht. :D

Wie klein und schlecht belüftet muss das Gehäuse sein bzw. wie lange muss da Ding bei Dauervollast laufen damit sich die bessere Effizienz im Zusammenspiel mit dem Leistungsrückstand und dem geringeren Energiebedarf rentiert?
Es geht darum das die Karte in den Aldi PC passt ohne das man nochmal zur amd 570 ein 50€ Netzteil dazu kaufen muss und das Gehäuse aufheizt und der schlecht gekühlte Prozessor noch früher drosselt. Übrigens auch besonders toll bei Dell Büchsen deren Netzteile keine Norm Größe haben. Es geht nicht darum 1,50€ Strom zu sparen
 
Smartin schrieb:
Ich halte fest: Die Kommentare zeigen, dass dringend Mathenachhilfe anssds

Ja aber warum rechnest Du mit irgendwelchen theoretischen Werten, wenn es praktische Messwerte gibt?
Naja egal. Ich rechne lieber mit den Werten, die auch gemessen wurden und nicht irgendwelche Werbe/Wunschvorstellungen.

Das sind keine Wunschvorstellungen sondern die Daten auf die sich jeder beziehen kann. Anders als die TDP von CPUs. Außerdem kann jeder etwas anderes im praktischen "Test" ermitteln wenn er OC, UV etc.
 
Irgendwer hatte in der News zur 1650 bereits gemutmaßt, ob die Überschrift ähnlich vernichtend wie bei der Radeon VII ausfallen wird. Ich habe mir meinen Teil dazu schon gedacht und bin nicht enttäuscht worden. ;)

Ich bin der letzte der @Wolfgang und @Jan hier vorwerfen würde absichtlich positiv für Nvidia zu schreiben.
Dennoch muss man konstatieren, dass angesichts der schlechten Leistung dieser Karte, die Überschrift sehr "wohlwollend" formuliert ist, während die Kritik eben zwischen den Zeilen versteckt ist. Bei der Radeon VII war es umgekehrt.

Mal beispielhaft drei Überschriften zur GTX 1650:
Igors Lab:
Nvidia GeForce GTX 1650 - Fußhupe auf Steroiden mit gutem Ansatz aber sinnfreier Positionierung
Hardware Unboxxed:
Pointless Product! - Nvidia GeForce GTX 1650 Review, Horrible Value $150 Graphics Card
Gamers Nexus:
Dead On Arrival: NVIDIA GTX 1650 Review, Benchmarks, & Overclocking vs. RX 570


Aber egal!
Letztendlich ist diese Karte zu diesem Preis auch absolut sinnbefreit. Mit Stromstecker sowieso.
Aber auch ohne Stromstecker.
Das Hardware Unboxxed-Video ist wirklich hervorragend auf diese Scheinargumente eingegangen

Ich lese immer nur wieder "Bürorechner aufrüsten!; Ja aber super Upgrade für Office PCs!!!!11"
  1. Wenn der alte Office-PC schon kein Netzteil mit 6-Pin hat, bekommt man für 20 EUR ein ausreichend dimensioniertes LC-Power Netzteil und wer lieber auf Nummer sicher gehen will für 30 EUR ein bequiet Markennetzteil und hat dann für 140 bzw. 150 Eur immer noch 15% Mehrleistung.
  2. Kann es durchaus sein, dass der Office PC einen solchen Anschluss hat, oder andersrum kann es sein, dass das Billig-Mainboard nicht mit der Leistungsaufnahme klar kommt, weil man an der PCIe Stromversorgung gespart hat.
  3. Brauch mir keiner mit Effizienz kommen, wenn in dem Office-PC 5-7 Jahre alte CPUs verbaut sind, die unter heutigen Gesichtspunkten wohl nicht wirkliche Effizienzwunder sein dürften.

Fazit: Die Anwendungsszenarien dieser Karte zu diesem Preis gehen in Richtung Nische.
Die Karte sollte eigentlich nur 99 bis maximal 109 EUR kosten.
Aber das Fortnite-Bundle zeigt, welche Zielgruppe Nvidia anspricht: Die Ahnungslosen, die nicht wissen, was eine RX 570 ist.

Zwirbelkatz schrieb:
100 Watt Differenz zur RX570 sind eine Erwähnung wert. Da amortisiert sich der Kaufpreis relativ schnell.
Nein, so schnell amortisiert sich der Kaufpreis eben nicht, wie bereits in einigen Beispielen demonstriert.
SKu schrieb:
In dem Produktbereich der 1650 spielt Leistung nicht unbedingt die größte Rolle, jedoch die Performance pro Watt schon. Wenn ich mir so den Idle-Verbrauch der 570 ansehe, ist das eine mittelschwere Katastrophe in dem Produktbereich.
Seit wann spielt in dieser Produktregion die Leistung keine große Rolle? Leistung spielt immer die größte Rolle und dann der Preis. GRade im Bereich von 150 EUR will der Kunde die beste Leistung für sein Budget.
XKing schrieb:
Ich glaub hier wird viel zu viel Fokus auf die Leistung gelegt, das wurde doch sicherlich primär für Laptops designed, dort wird sie sicherlich ohne Schwierigkeiten viele Produkte bestücken.

Ob der Chip für Laptops designed wurde ist zweitrangig. Entscheidend ist die Leistung für den ausgerufenen Preis.

Discovery_1 schrieb:
Ich bin vom Preis der 1650 doch sehr enttäuscht. Aber ich werde sie mir wohl dennoch kaufen, da ich mit AMD-Karten in der Vergangenheit bei meinen älteren Spielen auf meinem Zweitsystem bei einigen Spielen störende Grafikkfehler hatte. Auch die alte Radeon HD 6950 von meinem Bruder, die ich wegen des größeren vrams ausprobiert hatte, lieferte bei mir bei diesen besagten Spielen (z. B. Wcs 2004 (ein Snooker-Spiel) Unreal II, epsxe (PS1-Simulator)) exakt die gleichen störenden Grafikfehler wie vorher meine sehr, sehr alte HD 4870. Mit meiner kleinen Nvidia GT-420 (aus einem Office-PC) oder der schnelleren GTX 550Ti treten diese Grafikfehler dort nicht auf. Wegen dieser Grafikfehler (und aus Angst, das es bei der nächsten AMD-Karte wieder so ist) werde ich für mein Zweitsystem diesmal zu einer Nvidia greifen, zumindest meiner alten Spiele zuliebe. Auch wenn die RX570 bzw. RX580 schneller und günstiger sein mögen. Der niedrige Stromverbrauch der Nvidia 1650 wird mich dafür wohl etwas entschädigen.
Habe mit mehreren AMD-Karten nie Probleme mit EPSXE gehabt.
Ab einem bestimmten Alter von Spielen könnte man sich eh überlegen ein Retro-System mit WinXP oder 98 zu bauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: simosh, Herr Melone, AssembIer und 7 andere
SavageSkull schrieb:
Es geht darum das die Karte in den Aldi PC passt ohne das man nochmal zur amd 570 ein 50€ Netzteil dazu kaufen muss und das Gehäuse aufheizt und der schlecht gekühlte Prozessor noch früher drosselt. Übrigens auch besonders toll bei Dell Büchsen deren Netzteile keine Norm Größe haben. Es geht nicht darum 1,50€ Strom zu sparen

Keiner braucht ein 50€ Netzteil für eine 570. Wirklich niemand. Siehe:

https://www.computerbase.de/forum/t...-statt-leistung.1869913/page-10#post-22598128
 
  • Gefällt mir
Reaktionen: Acedia23
KlaraElfer schrieb:
Warum sollte sie das sein, du sparst dir in der Anschaffung erst einmal ein neues Netzteil und die Zeit für den Einbau, da reicht ein 0815 Chinaböller Netzteil und nein damit ist eine 1650 nicht langsamer als mit einem High End Netzteil.



Das erreichst du schon mit nur 1h zocken pro Tag innerhalb von 2 Jahren, also ist die Nvidia Karte auch effektiv gar nicht teurer als die Konkurrenz.



Das ist falsch, es genügen schon rund 800H.

Lustig! Warte mal ab was passiert wenn das Billigboard aus dem Bürorechner auf einmal volle 75 Watt über den PCIE bereitstellen soll. Da macht es kurz "Puff" und das war es dann.

Bei den Preisen kann Du zur 570 8GB noch 30€ für ein neues NT einrechnen und es reicht immer noch nicht für die 1650.
 
  • Gefällt mir
Reaktionen: AssembIer, E1nweg und Rock Lee
@SavageSkull
Dann schraub das Powerlimit der Radeon runter und lasse das Teil so wie die Geforce rein rennen und runter drosseln. Zudem ist nicht jede GTX1650 so sparsam sondern wie man sieht schnappen sich die nicht auf Effizienz gedrosselten OC Modelle auch gern mal über 20% mehr Saft.
Die Nummer haben sie schließlich schon oft genug abgezogen und die Fan Gemeinde springt mit der selektiven Wahrnehmung drauf an und vergleicht dann mit dem Verbrauch des Referenz Modells und er Performance der OC Modelle.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus und Acedia23
KarlsruheArgus schrieb:
Das sind keine Wunschvorstellungen sondern die Daten auf die sich jeder beziehen kann. Anders als die TDP von CPUs. Außerdem kann jeder etwas anderes im praktischen "Test" ermitteln wenn er OC, UV etc.
Ach komm, wenn es so wäre, würde die Karte (AMD 570) im Test auch nicht das verbrauchen, was sie verbraucht, sondern, maximal 150W. Tatsächlich liegen aber nun mal 100W dazwischen (oder der Test von CB ist falsch), und letztlich ist es auch das, was Du am Ende des Tages als Mehrverbrauch hast.
Das ist für mich das Gleiche wie die Angaben beim Spritverbrauch von Autos usw. Vergleichst Du da auch die theoretischen Angaben oder das was tatsächlich verbraucht wird?
Ich hatte ja auch schon weiter oben mal geschrieben, dass sich der Mehrverbrauch ja nicht auf die Karte allein beschränkt, sondern auch noch höherer Verbrauch durch aufwendigere Kühlung, höhere Ineffizienz etc.
 
Smartin schrieb:
Ich weiß ja nicht, was Du für den Strom bezahlst aber bei mir liegt der Preis bei knapp 30c/kwh. Also liegt man bei knapp 330h.
Und was sind 330h? Bei durchschnittlich 3,3h/Tag sind das gerade mal 100 Tage, also etwas mehr als ein Viertel Jahr. Ab dann spart man mit der NV Karte ggü der 570.
Obendrein geht es nicht nur ums Geld. Wenn wir alle weiterhin so den Strom sinnlos verballern, brauchen wir über Klimawandel und ökologischen Fußabdruck nicht zu diskutieren. :freak:;)

Ah ja. Ich hoffe du putzt deinen Kühlschrank alle 4 Wochen, hast nur LED Lampen verbaut und nutzt nur die öffentlichen oder das Fahrrad um zur Arbeit zu kommen.

Ich habe mit einem 4690k, einem z97 Board, 2x 8 GB DDR3, R9 290, einer SSD, 140mm AIO und 5 Lüftern von 2015 bis Ende März 2018 einen Jahresverbrauch (inklusive Fernseher, LED-Lampen, zwei uralten Durchlauferhitzern in Küche und Bad, Herd, Dunstabzugshaube, Waschmaschine, Nintendo Switch und diversen Netzteilen für Handys etc. pp.) von 2029-2104 KWh jährlich gehabt. Der "Durchschnittshaushalt" mit einer Person braucht gemäß Statistik 2050 KWh.

Ab Anfang April 2018 ging es dann mit einem Threadripper 1920x, X399 Board, 8x 8 GB DDR4, 3x M.2 SSD und einer Vega 64 (später 1080 TI und 2x Vega 56 im Crossfire) weiter. Jahresverbrauch 2018: 2142 KWh. Dazu war das System übertaktet, das alte nicht.

Unerhört dieser Mehrverbrauch, die Arktis ist alleine durch mich völlig Eisfrei... :freak::stacheln:

Um maximal Strom zu sparen empfehle ich dir nackt in den Wald zu ziehen und in einer Höhle zu wohnen. Bitte keine Äste zum Überdachung bauen verwenden, das schadet der Umwelt! Natürlich auch kein Feuer weil das erzeugt nur CO2 und dann stirbt direkt Art XY aus. Angeln bitte auch nur mit der eigenen Rute, sonst sterben wieder Bäume. Als Köder musst du dir aber was einfallen lassen, evtl. könntest du nen zuckenden Regenwurm drum binden. :lol: Oh, geht nicht: Tierschutz geht alle an!
 
  • Gefällt mir
Reaktionen: Acedia23
"Das kann man zusätzlich tun. Die Sommer, die wir zuletzt hatten, lassen einen über jede "unnötige" Erhöhung der Temperatur in der Wohnung doch froh sein. Es gibt genug Zocker mit kleinem bis mittleren Budget, die in Dachwohnungen hausen müssen.
Selbst wenn man es für Öko-Gelaber hält, hat man einen persönlichen, direkten Nutzen davon."

Auch wenn ich mich bei dem Thema gern wiederhole.

In einer Dachgeschosswohnung hausend (sogar freiwillig) mit einer 6850, 270X, 290, 2x 980 und es ist immer gleich warm hier im Sommer. An meinem Verbrauch hat sich auch nichts geändert, trotz gleichen Spielgewohnheiten. Erst als mir unser Nachbar übergangsweise seine 80er Jahre Tiefkühltruhe vermacht hat, ist der Verbrauch um ca 1000kWh gestiegen. Das Ding wurde mittlerweile durch ein Triple A Super+ Gerät ersetzt. Da lässt sich was einsparen.

Soll heißen, rein in der Theorie kann man Vergleiche wie "bei X Stunden Zocken am Tag hat sich durch den Verbrauch die Karte XY nach nur 69 Jahren amortisiert" aufstellen, in der Realität habe ich zumindest andere Erfahrungen gemacht.
 
  • Gefällt mir
Reaktionen: Benji21
Sinthuria schrieb:
Weniger verbrauch bedeutet auch weniger Abwärme. Und mit weniger Abwärme lassen sich auch deutlich leisere Kühllösungen realisieren.

Was bei den getesteten Karten ja so super funktioniert hat... :freak::schluck:
 
  • Gefällt mir
Reaktionen: Acedia23, KarlsruheArgus und DonL_
Und wenn man Grafikkarten in dieser Klasse mit einem 1080p Monitor nutzt, und nicht zockt, dann fressen die AMD 570/580 auch nur 5-7 Watt.
Dieser Vergleich für 4K ist doch mäh
Bei meinem Stromanbieter (0.21€/kWh) hätte sich die Karte nach 3095 Stunden Dauerlast amortisiert.

0,1 KW * 0,21€ = 0,021€

65€ Preisdifferenz / 0,021€ = 3095,23h

Gegenprobe:
65 Watt also (0,065KW * 0,21€) * 3095,23h = 42,25€
165 Watt also (0,165KW * 0,21€) * 3095,23h = 107,25€
= 65€ Differenz

Also für nen kleinen PC mit einem 4K Display oder TV mit dem man ab und an auf 1080p zockt würde ich definitiv die 1650 nehmen.

Aber zum zocken an einem 1080p Display ist das absoluter Schwachsinn die 3095h entsprechen ca 3 Jahren bei 2-3 Stunden täglich. Keine Ahnung ob ne LowBudget Karte solch eine Halbwertszeit hat.

Der Strompreis ist natürlich für jeden anders. Bei 29 Cent die Kilowattstunde wärens nur noch 2240 Stunden Laufzeit.
Wer am Wochende also 2 Tage je 5h zockt für den läge die Ersparniss mit der 1650 bei 15€ im Jahr (bei 29cent /kWh)
 
Zuletzt bearbeitet:
Ich hätte nichts dagegen, wenn die Artikelüberschrift zur Radeon VII weniger "provokant" gewesen wäre.
Jedoch ist der Unterschied in den Überschriften zwischen GTX 1650 und Radeon VII begründbar:

Die GTX 1650 hat ein wesentlich schlechteres P/L als die Konkurrenz (Radeon 570 4GB) oder wahlweise ein immer noch schlechteres P/L als die 570 8GB und dazu auch noch viel weniger VRAM.
Allerdings ist sie deutlich energieeffizienter als die RX 570, hat ein ein besseres P/L als die 1050 Ti und passt halbwegs ins Nvidia Linup. Könnte gerne günstiger sein, aber es ist o.k.

z.B. möchte ich mir demnächst eine Programmierworkstation mit Ryzen 3000 bauen, und möchte dazu eine möglichst stromsparende Grafikkarte - die GTX 1650 ist eine Option dafür.

Die Radeon VII hingegen:
  • ist weniger energieeffizient als die Konkurrenz
  • ist vom P/L schlechter als RTX 2070 / RTX 2080
  • gibt es nur im Referenzdesign mit mittelklassiger Kühllösung.
  • einziger Pluspunkt: schnellerer und mehr VRAM
In der Überschrift fanden sich genau diese Punkte:
"AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 "
 
  • Gefällt mir
Reaktionen: Mike2002
Wadenbeisser schrieb:
Da steckt wohl ein kleiner Rechenfehler drin. ;)
100W = 0,1 kWh * 24 (1 Tag) * 365 (1 Jahr) = 876 kWh im Jahr
876 kWh * 0,3€ entspräche dann 262,80€ im Jahr

Hey :). Du gehst ja aber davon aus, dass ich das Ding wirklich 24 / 7 auf Volllast laufen lassen würde :)!
Eigentlich wärs ja:
100 W -> 0,1 kWh also:
0,1 kWh * 1 (wegen 1 Std. angenommener Spielzeit) * 365 = 36,5 kw pro Jahr
Du verbrauchst 100 Watt am Tag weniger wenn du eine Karte besitzt die 100 Wattstunden besitzt und sie 1 STd auf Volllast betreibst oder eben 36,5 kw pro Jahr.
36,5 * 0,3 = 10,95 im Jahr.

Sooo meins noch mal als Formel:
Gesucht (x): Zeit in Std. die man bei 4 Jahrenlebensdauer am Tag zocken müsste (Volllast) um 50 Euro zu sparen.
50 Eur = X * 4 * 365 * 0,03 Eur * 1
x= 50 / 4 / 365 / 0,03 * 1
x= 1,14
Probe:
0,1 * 1,14 * 365 = 41,61
41,61 * 0,3
12,48 (aka 12,5 Rundungsdifferenz)
das * 4 = 50 Eur..... Stimmt schon was ich gerechnet hab :)

Einfache Herleitung: 50 Euro durch 4 Jahre = 12,5
Für 12,50 bekommst insgesamt 41,6 KW im Jahr pro Tag 113,9 Watt was halt ne Laufzeit von 1 Std 6 - 7 min darstellt.
 
  • Gefällt mir
Reaktionen: KarlsruheArgus
KlaraElfer schrieb:
Die Radeon hatte auch außerhalb des Speichers keinen einzigen positiven Effekt der in der Halbleiterbranche irgendetwas wert wäre. Hier hat man die effizienteste Karte aller Zeiten im Test, die im Vollausbau noch effizienter könnte, sehr wahrscheinlich 2,5 oder sogar bis zu 3 mal effizienter arbeiten könnte als eine Polaris GPU und das auch noch im selben Fertigungsprozess.

Du sparst ja 100 Watt Strom gegenüber einer RX 570, das gleicht den Anschaffungspreis wieder aus.

Jeder der ein sparsames System will, greift daher zur GTX.
Mit der Karte sind Systeme möglich die unter Last nur um die 120 Watt benötigen.
Die RX570 hat 150W TDP. Für mich sind das 75W Unterschied. Der Fertigungsprozess ist nicht der selbe. 14nm GloFo/Samsung ist nicht so effizient wie 12nm TSMC und auch nicht vergleichbar. Ich finde das beste an der Karte, das man sie evtl. passiv kühlen könnte.
 
Sweepi schrieb:
Jedoch ist der Unterschied in den Überschriften zwischen GTX 1650 und Radeon VII begründbar:
Die Radeon VII hingegen:
  • ist weniger energieeffizient als die Konkurrenz
  • ist vom P/L schlechter als RTX 2070 / RTX 2080 ...
In der Überschrift fanden sich genau diese Punkte:
"AMD Radeon VII im Test: Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2 "

eine vergleichbare Überschrift wäre bei dem hier genannten Fall aber:
"1650 im Test: Zu langsam, zu teuer, aber geringer Verbrauch"

Stattdessen ist die Formulierung der aktuellen Überschrift eher positiv. Und das ist der Punkt, an dem sich viele hier stören...
 
  • Gefällt mir
Reaktionen: Herr Melone, simosh, Acedia23 und 3 andere
Smartin schrieb:
Ach komm, wenn es so wäre, würde die Karte (AMD 570) im Test auch nicht das verbrauchen, was sie verbraucht, sondern, maximal 150W. Tatsächlich liegen aber nun mal 100W dazwischen (oder der Test von CB ist falsch), und letztlich ist es auch das, was Du am Ende des Tages als Mehrverbrauch hast.
Das ist für mich das Gleiche wie die Angaben beim Spritverbrauch von Autos usw. Vergleichst Du da auch die theoretischen Angaben oder das was tatsächlich verbraucht wird?
Ich hatte ja auch schon weiter oben mal geschrieben, dass sich der Mehrverbrauch ja nicht auf die Karte allein beschränkt, sondern auch noch höherer Verbrauch durch aufwendigere Kühlung, höhere Ineffizienz etc.

Selbst wenn ich das alles berücksichtige,
Differenz 150W !
30€/(0.3€/kWh)=100kWh
100kWh/0,15kW=666h unter Vollast

Ich kann somit im schlimmsten Fall 665h spielen ,mit mehr Leistung als bei einer GTX1650, und wäre immernoch günstiger.
Für den Gelegenheitsspieler sind selbst 600h in 2 Jahren schon viel.

Ich selbst hab eine GTX1080, also kann man mich nicht als AMD Fanboy im GPU-Bereich betrachten 😀.
 
Zurück
Oben