Dark_Knight
Banned
- Registriert
- Nov. 2008
- Beiträge
- 3.150
Manche suchen aber auch echt das Haar in der Suppe.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
cheff-rocker schrieb:Er hat schon Richtig gerechnet, da er nicht von 500W ausgeht, sondern von 500W-50W=450W.
Smartbomb schrieb:oder Watt und Zeit in Zusammenhang anders als in kWh bringen
Mcr-King schrieb:Nee die sind nicht verantwortlich wenn NV HDCP 2.2 und die Video Codecs nicht in die Karte richtig einbauen.
cheff-rocker schrieb:So ganz scheinst du in der Materie noch nicht durchzublicken, sonst würdest du nicht so einen Schwachsinn verzapfen.
Deine Rechnung stimmt zwar, aber sie berücksichtigt nicht, dass die Grafikkarten nicht nur eine Stunde laufen. Wenn wir davon ausgehen, dass sie 3Std. Am Tag laufen, was für manche Zocker ein viel zu kleiner Wert ist. Sind wir bei 36GW * 3h * 365Tage, sind wir bei bei einem Jahres verbrauch von 39,420 TWh was 6,1% des Jahresverbrauchs der Privaten haushalte (636TWh), 2015 ausmachen würde. Private Haushalte sind mit einem Viertel am gesamten Endenergieverbrauch verantwortlich. (Quelle: http://www.umweltbundesamt.de/daten/private-haushalte-konsum/energieverbrauch-privater-haushalte), also sind wir bei fast 2% vom gesamten Endenergieverbrauch und nicht bei 0,0000… %. Wie du schreibst das ist eine unterschied von einigen 10erpotenzen.
Zu behaupten das es nichts ausmacht, ist einfach nur krass.
Um den jüngeren zu zeigen das es sehr wohl was ausmacht (finanziell). Rechnen wir mal aus wie hoch die Stromkosten sind, wenn eine Spiele PC 500W verbraucht und sagen wir 5 Std. am Tag lauft. Berechnet sich der Verbrauch pro Jahr, wie folgt 365Tage*5h*500W = 912,5 KWh. Bei 0,26€ pro KWh ergeben sich dann Kosten von 237,25 €.
Die Umwelt profitiert davon, wenn man weniger Energie Verbraucht!!
Mann muss nur berücksichtigen dass Siliziumchips in der Herstellung richtig viel Strom verbrauchen (deswegen auch der hohe Preis). Diese zur Herstellung verwendete Energie wirkt sich nicht auf dem Stromverbrauch in Deutschland aus, weil in der Regel nicht hier produziert. China und andere Produzierende Länder verbrauchen in erster Linie deswegen so viel Energie, weil sie für die Welt Silizium Chips herstellen (und andere Produkte). Dies sollte man eigentlich in die Energie Bilanz der jeweiligen konsumierenden Länder mit einbeziehen.
Die Ständige Neuanschaffung von Prozessoren und Grafikkarten lohnt aus energetischer Sicht nicht, da diese eine Zeitlang laufen müssen um den Energie verbrauch aus der Herstellung zu amortisieren.
der merkt den Unterschied von 50W-100W (unter Benchmarkbedingungen!) weder auf der Jahresabrechnung, noch an den Lüfterdrehzahlen der Gehäuselüfter.
AdmiralPain schrieb:Du verwechselst Terawatt mit Gigawatt. (1 Terawatt = 1000 Gigawatt)
Der Verbrauch aller Grafikkarten sind eigentlich in Gigawatt hoch gerechnet, es sind keine Terawatt, die Gesamterzeugung die du erwähnst sind aber Terawatt, somit sind deine 6% in deiner Rechnung eigentlich wie ich es geschrieben habe im Bereich von 0,0006% ... am Gesamtverbrauch anzusiedeln. Und das war meine Argumentation.
Ein kleiner aber doch sehr großer Unterschied.
Ich hab schon Recht, vertrau mir doch einfach mal.
AdmiralPain schrieb:Das bedeutet im Umkehrschluss, mit einer 50 Watt Grafikkarte, gegenüber einer 500 Watt Grafikkarte, hochgerechnet auf 80 Millionen Haushalte (Extrembeispiel), erzeugst du gerade mal eine Differenz in der deutschen Stromerzeugung von unter 0,00000* %[\b] und dann fangen mit viel Glück irgendwann die Zahlen an.
Wie ich geschrieben habe sind (8*10^7 * 450W=36GW), das war die Rechnung auf die ich mich bezogen habe und die Stimmt! Zu finden hier:Bonanca schrieb:Hast du dir überhaupt Mal die Rechnung angeschaut um die es geht bevor du kommentiert hast?
Es geht um die Rechnung von Admiral Pain, der behauptet hat dass (guck Mal, ich habs dir sogar rausgesucht
"selbst wenn jetzt 80 Millionen Nutzer plötzlich eine 500 Watt Grafikkarte in Deutschland hätten, bemerkt man den Unterschied, dank Umweltsuggestion zwar höchstens in der Geldbörse, die Umwelt merkt davon aber nichts.
Das wären nämlich gerade mal 40 000 000 Watt"
Willst du mir jetzt also immernoch erzählen dass er mit 450 Watt gerechnet hat?
Wie kommt er dann auf 40... Watt?
Und willst du mir jetzt ernsthaft erzählen dass 80.000.000*500 (von mir aus auch 450) =40.000.00 sind?
In dem von dir Zitierten Text von AdmiralPain.Jambana schrieb:Meinst du das ernst? Deine gesamte Sichtweise beruht anscheinend auf diese eine völlig falsche Berechnung. 80.000.000 x 450 W ergibt 36.000.000.000 W, also 36 GW.
Mcr-King schrieb:Ja genau die RX570 ITX zeigt ja dass sie auch wenig verbrauchen können, davon abgesehen gibt's auch bei NV Board-Hersteller wo die Grafikkarten wesentlich mehr verbrauchen nur da interessiert es keinen komisch.
cheff-rocker schrieb:Lies dir mal meine Kommentar durch, dann behaupte noch mal das ich TW mit GW verwechselt habe, muss dich da leider enttäuschen.
Und nein ich vertraue dir nicht, weil ich finde das deine Behauptung einfach nur Schwachsinn ist, entschuldige die Ausdrucksweise.
Wenn ich mich verrechnet habe, zeig mir doch bitte meinen fehler! Ansonsten hast du doch geschrieben:
Da bist du immer noch einige 10er Potenzen entfernt von 0,0006%. Und da fängt es an warum ich dir so widerspreche muss, du scheinst einfach kein Gefühl für Zahlen zu haben und wirfst dann mit solchen um dich. Es reiht sich Behauptung an Behauptung die nicht belegt sind. Leute lesen das dann hier und glauben, später noch das 500W mehr verbrauch der Umwelt nicht Schaden. Du hast natürlich Recht das die größeren Energie mengen in anderen Bereichen verbraucht werden. Aber Privathaushalte verbrauchen immer noch 25% der Endenergie in Deutschland. Das ist nicht nichts, sondern 25%! Wenn sich das reduziert, profitiert davon auch die Umwelt.
Wie ich geschrieben habe sind (8*10^7 * 450W=36GW), das war die Rechnung auf die ich mich bezogen habe und die Stimmt! Zu finden hier: In dem von dir Zitierten Text von AdmiralPain.
Aber ich versteh schon Troll Alarm!!! You got me! ^^
Bin hier raus wenn mir niemand einen Fehler in meinen aussagen aufzeigen kann.
Meffen schrieb:Wenn ich die Watt Diskussion richtig verstehe, dann ist AMD schuld am Klimawandel :'( :'( :'(
Da hat sich EchoeZ die Mühe gemacht, den Unterschied zwischen Leistung und Energie zu erklären (#86), und dann kommst du mit einer solchen Einheit daher. Das tut echt weh!Luxmanl525 schrieb:[...] bei uns z. b. kostet die Kw/h knapp über 31 Cent und zwar Brutto, nicht Netto. [...]
DeadEternity schrieb:...
RX5xx ist für mich schon etwas enttäuschend. Jeder der eine RX470/480 bereits sein eigen nennt kann RX570/580 überspringen. Ich verstehe nicht was sich AMD hierbei gedacht hat.
Luxmanl525 schrieb:Hallo zusammen,
@ EchoeZ
Wenn man 2-3 Stunden am Tag spielt, merkt man sehr wohl, wenn eine Karte 100 Watt mehr zieht als z. b. das Konkurrenzprodukt bei ähnlicher Performance. Ebensolch kommt es auch auf den Versorgerpreis an, bei uns z. b. kostet die Kw/h knapp über 31 Cent und zwar Brutto, nicht Netto.
Bei mir macht meine Radeon 5850 bei 2-3 Stunden Spielens ca. 0,4 - 0,5 Kw/h aus - auch abhängig von der Belastung eines jeweiligen Spiels -. Ich habe das Spaßeshalber mal genauestens Überprüft. Bei mir ist es so, daß ich abhängig vom Spiel sogar schonmal 5 Stunden am Stück absolviere, bei Pillars of Eternity letztens z. b., was mich völlig einfing.
Und dies 7 Tage in der Woche. Wohingegen ich aber auch Zeiten habe, wo ich gar nicht Spiele. Alles in allem macht es bei mir 100 Kw/h aus, die ich Spiele im Jahr. Die RX 570 zieht viel zuviel Strom in Relation zur Performance, von der RX 580 ganz zu Schweigen. Ich werde in nächster Zeit endlich meine 5850 Ersetzen. Voraussichtlich wird es eine KFA² GTX 1060 OC oder EX. Die ca. 240 - 250 € Kosten bei mehr als deutlich geringerem Strombedarf, erst Recht in Relation zur Performance. Mir ein Rätsel, was AMD sich da gedacht hat mit der Neuauflage der RX 470 / 480 bzw. Umwandlung in RX 570 / 580.
So long....
Jenergy schrieb:Da hat sich EchoeZ die Mühe gemacht, den Unterschied zwischen Leistung und Energie zu erklären (#86), und dann kommst du mit einer solchen Einheit daher. Das tut echt weh!
kW/h wäre sowas wie J/s² (Joule pro Sekunde im Quadrat), was keinen Sinn ergibt. Was du meinst, ist kWh.