deadohiosky schrieb:
@Schnie Ich werfe nichts durcheinander.
Hier wurde die Aussage getätigt 50% mehr Verbrauch. Das ist der erste Fehler. Dann wurde aufbauend auf diesem Fehler gesagt "maximaler (realer) Verbrauch"= TDP.
Dass das nicht stimmt wollte ich mit den Messungen von ht4u aufzeigen.
Richtig, allerdings wie ich schon geschrieben habe hängt die TDP immer mit der Leistungsaufnahme zusammen(höhere Leistungsaufnahme = höhere TDP(schummeln lassen wir mal außen vor)) Bezüglich dem tatsächlichen Verbrauch hat Lübke geschrieben :
Lübke schrieb:
die tdp ist zwar die größe zur bemessung der abwärme, aber was wird denn aus dem strom in einer gpu? die tdp entspricht zu 99,9 % dem lastverbrauch.
So nun ein Auszug aus Wikipedia :
Wikipedia schrieb:
Mit Thermal Design Power (Abkürzung: TDP, gelegentlich auch falsch: Thermal Design Point) wird in der Elektronikindustrie ein typischer Wert für die Verlustleistung eines Prozessors oder anderer elektronischer Bauteile bezeichnet, auf deren Grundlage die Kühlung ausgelegt wird.
Soweit so gut, wenn man jedoch "Verlustleistung" in die Wikipedia eingibt kriegt man folgendes zu sehen:
Wikipedia schrieb:
Als Verlustleistung bezeichnet man die Differenz zwischen aufgenommener Leistung (Leistungsaufnahme) und in der gewünschten Form abgegebener Leistung (Leistungsabgabe) eines Gerätes oder Prozesses.
Wenn man den Artikel genauer durchliest , stößt man auf folgenden Satz(bezogen zwar nur auf den Leitungsverlust, ist jedoch auch auf die Elektronik anwendbar):
Wikipedia schrieb:
Der Leitungsverlust bei der Übertragung elektrischer Energie hängt direkt vom Leitungswiderstand R, somit von der Leitungsdicke und dem verwendeten Material, sowie vom fließenden elektrischen Strom I ab
Die Formel dazu ist P(Leitungsverlust) = R(Wiederstand)*I²(Stromstärke zum Quadrat)
Somit ist der Bezug der Leistungsaufnahme zur TDP mithilfe von externen Quellen bewiesen. Jetzt schauen wir an was an Lübkes Aussage mit den 99,9% falsch sein soll.
Wie (ebenfalls auf Wiki nachzulesen) ist die Formel für die Wirkleistung( die nun zur 100% dem tatsächlichen Verbrauch entspricht): P(Wirkleistung) = P(Verlustleistung)+P(Nutzleistung). Was ist bei der Grafikkarte die Verlustleistung? Natürlich - die Abwärme. Was ist die Nutzleistung? Etwa die Umwandlung in die mechanische Energie? Ja, aber nur wenn da noch ein Lüfter dran ist (und selbst dann ist der Verbrauch sehr gering) In die Lichtenergie? Eher nicht da die Grakas in der Regel nicht leuchten
. Was bleibt uns - richtig nur noch die elektrische Energie. Aber moment mal - wir wandeln elektrische Energie in elektrische Energie ? Klingt unlogisch. Also ist die besagt elektrische Energie das, was wir der Karte zuführen. Da diese nicht in andere Energieformen umgewandelt wird (Licht-, Elektrische- und Mechanische Energien) bleibt uns nur noch die
thermische Energie(Abwärme). Somit kann man sagen die Leistungsaufnahme einer Grafikkarte aus Verlustleistung(thermische Energie) + Lüfter (mechanische Energie)+ein kleines bisschen Nutzenergie(wobei der Lüfter gehört ebenfalls zur Nutzenergie - wir wollen ja unsere GraKa mit seiner Hilfe kühlen). Geht man zusätzlich von einer passiven Karte aus, kann man tatsächlich behaupten dass die TDP dem Verbrauch entspricht (vlt nicht 99,9 % sondern 99,7% - kann hier keine genaue Werte liefern, dennoch müsste es ungefähr passen) Zur guter Letzt kann man sogar behaupten dass der Verbrauch etwas höher ist als die TDP(allerdings vernachlässigbar gering)
deadohiosky schrieb:
Der Verbrauch(Leistungsaufnahme) ist sicherlich gestiegen. Er könnte sogar um 60% gestiegen sein, oder eben nur um 30%. Die Leistung allerdings ist faktisch! um bis zu 50% (fps in Spielen) gestiegen.
Daher kann man weiterhin nichts über die (In-)Effizienz der Karte aussagen.
Ebenfalls richtig. Der tatsächlicher Verbrauch ist momentan eine unbekannte Größe(hast ebenfalls richtig geschrieben). Nur wird oft vergessen dass die Praxis manchmal ungenauer ist als die Theorie. Hört sich komisch an, ist aber so
Ein Beispiel zur Verdeutlichung- die Karte kann von 18 bis 30 Watt reell verbrauchen (kommt auf Hersteller an, auf die Speichergröße, den Takt usw...)womit wir auf ganz viele Ergebnisse kommen, was Verbrauch angeht. Im Vergleich dazu gibt es eine einzige theoretische Größe - die TDP(mit den besagten 27 Watt). Da ich bereits bewiesen habe dass die TDP in direkter Beziehung zum Verbrauch steht(und diesen fast zu 100% wiedergibt) und dieser sich um 50 %erhöht hat, kann man davon ausgehen dass auch die Leistungsaufnahme um 50 % gestiegen ist(s.o.) Würden wir also davon ausgehen dass im Spiel Hawx(vom DVD_ im Posting Nr. 16) die HD 6450 und die 5450 mit den maximalen Verbrauchen (also 27 und 19 Watt) laufen , könnte man auch den Wirkungsgrad ausrechnen. Die Formel lautet n=P(ab)/P(zu) Somit wäre der Wirkungsgrad bei der 5450 n=17(Fps)/19(Watt)=ca 0,894; Bei der 6450 n= 30(Fps)/27(Watt) =ca 1,11 womit die Effizienz der HD 6450 eindeutig bewiesen wäre. Angeblich natürlich
Denn zusätzlich müssen wir noch die Steigerung in % ausrechnen also = 1,11*100/0,894 = ca 124,161% Somit haben wir eine Effizienzsteigerung beim Havx, unter Berücksichtigung der maximalen Leistungsaufnahme, von ca 24% bei gleichzeitiger Verbrauchssteigerung von 50 % mehr Strom(natürlich können diese Werte vom Spiel zum Spiel unterschiedlich sein) Dass die maximale Leistungsaufnahme beim Hawx erforderlich ist, ist nur eine Annahme, eine genauere Recherche kann man nur machen wenn man beide Karten zur Verfügung hat und beiden die maximale Leistung abverlangt (zB Furmark) und dann die erreichte Punkte von Beiden, in die Formel einsetzt, kann man tatsächlich feststellen wie effektiver/ineffektiver die neue GraKa von AMD ist ( und ja man kann die TDP beibehalten denn die Werte werden annähernd an die tatsächliche Verhältnisse herankommen - nicht zu 100% aber zu 99,9% oder vlt auch 99,7%
)