Reale Leistungsaufnahme der Phenom CPUs

Klar muss man das berücksichtigen, dagegen sage ich ja auch nichts. Aber die TDP ansich hat dennoch nicht viel mit dem
realen Verbrauch der CPU zu tun.

Wieviel ein Bloomfield allein Verbraucht werden wir wohl bald sehen, spätestens wenn HT4U sonen Teil in die Finger
bekommt ;)
 
komisch das h4tu den intel nicht ausgelastet bekommt:

Core2MaxPerf zeigte sich dann als das Tool unserer Wahl, um eine möglichst hohe Auslastung auf unsere Testprobanden zu bekommen. Mit nicht seltenen 100-%-Peaks und einem Schnitt von etwa abgelesenen 80 bis 85% ist uns bislang kein Tool bekannt, das Intel-CPUs mehr einheizen kann.
damit wird ja wohl die gesamte Strommessung ad absurdum geführt, da garnicht der maximale Stromverbrauch erreicht wird, somit vergleichbarkeit wieder nicht gegeben.

somit wäre dann wieder wohl die THG Messung die richtigen -.-

http://ht4u.net/reviews/2008/intel_core_leistungsaufnahme/index6.php

Auslastung mit Prime bei einer AMD CPU
http://www.abload.de/img/unbenanntcyo.png
 
Zuletzt bearbeitet:
LoL..

was ist denn PerfWatch bitte für ein Müll Programm?

Sorry, aber das zeigt einfach nix gescheites an :rolleyes:

perf-15ks.jpg


perf-20mg.jpg


Achja, bei AMD das AMD Tool nehmen für die Anzeige der Auslastung und bei Intel PerfWatch?

Zeig mir mal AMD Phenom + PerfWatch + Prime
 
Zuletzt bearbeitet:
Hast es schon ausprobiert? Da steht nix davon das es bei AMD nicht funzt (Athlon & Duron stehen ja auch mit in der Liste der funzenden Prozzis)..

Naja, wird bei AMD aber definitiv nicht anders aussehen.
 
Es gibt ne fehler Meldung beim starten jetzt bräuchte man ein vergleichbares Programm auf AMD seite sonst kann man wieder nicht vergleichen -.-
 
Also "IntelBurnTest" ist soziemlich das krasseste Programm was die Auslastung eines Core 2 angeht... Hab noch kein Tool gesehen
welches so Heizt und so schnell Fehler ausspuckt (wenn man übertaktet hat).

Wenn IntelBurnTest es nicht schafft weiter auszulasten dann wohl garkein Tool...

Hab auch gerade alles zusammen (IntelBurnTest + Prime + SuperPi) getestet und da war insg. sogar noch weniger Auslastung (~50%).
Da kann also irgendwas definitiv nicht stimmen.
 
Man kann, bei guter Kenntnis des Innenlebens einer CPU, zwei verschiedene Programme schreiben, bei deren Ausführung zwar bei beiden eine CPU-Auslastung von 100% angezeigt wird, aber der Stromverbrauch trotzdem deutlich unterschiedlich ist. Das liegt an der Zählweise der Performance-Counter, die nur zwischen "macht was"-Zyklen und "macht nix"-Zyklen unterscheiden. Heutige CPUs haben in jedem Kern massenhaft verschiedene Rechnwerke, die parallel schuften können. Wenn man manuell Kode scheibt, der all dieses Rechenwerke parallel belastet (Intels TAT versucht das z.B.), wird man einen viel höheren Stromverbrauch messen als bei der Ausführung von echten, sinnvollen Programmen ala Linpack, die nur einen Teil der vorhandenen Rechnerke auslasten und viel Zeit mit Speicherzugriffen vertrödeln.


Beim Vergleich von CPUs sollte man deshalb alle Kandidaten mit dem gleichen Problem stressen, da sonst Aussagen ala "Bei 100%-Auslastung frißt die CPU 50 Watt" nichts wert sind.
 
Da gibt es wirklich einige Auffälligkeiten in dem Test, habs mir auch gerademal angeschaut. Sie schreiben das man mit Prime nur 40 % Last erzeugen kann, bei den Phenom aber das Tool CPU-Burn in Version 1.4, welches eine "leicht" bessere Auslastung zu Tage förderte als Prime95, zum Einsatz kam. Wieviel genau sagen sie aber nicht, es sind wohl so 60%, laut ihrem aktuellen Intel-Test.

Bei den Intel verwenden sie aber Core2MaxPerf was 90% bieten soll. AMD werden mit 60% gemessen, Intel mit 90%. Aber das haben sie ja selbst auch eingesehen "Mehr noch, es bedeutet, dass wir eigentlich Intel durch die Wahl dieses Tools benachteiligen. " Also legen wir auf die Phenom nochmals 40% drauf und prompt stehen sie nicht so toll da, wie hier ursprünglich gejubelt wurde.

Das zeigt mal wieder, was es für eine Wissenschaft ist. Es gibt keinen richtigen Test, da die Lastverhältnisse niemals übereinstimmen. Und der Vergleich zwischen AMD und Intel geht deshalb halt mal gar nicht, maximal noch untereinander.
 
Zuletzt bearbeitet:
Wenn ich das also richtig verstehe wurden die AMD CPUs weniger ausgelastet als die Intel CPUs...

Deswegen wohl auch dieser Satz im Test:

Andere mögen uns evtl. vorhalten, dass wir Intel hier durch die Verwendung von Core2MaxPerf benachteiligt haben....
 
Volker schrieb:
...Also legen wir auf die Phenom nochmals 40% drauf und prompt stehen sie nicht so toll da, wie hier ursprünglich gejubelt wurde.
Wobei du dabei davon ausgehst, dass die Leistungsaufnahme linear mit der Auslastung ansteigt, was wohl nicht in der Realität so aussehen muss. Afaik ist es sogar quadratisch, da mit steigender Auslastung mehr Spannung an den Spannungswandlern CPU anliegt und außerdem gehen noch die jeweiligen Wirkungsgrade in diese Abschätzung mit ein.

Im Grunde weiß man anhand solcher Test lediglich tendenziell, was eine bestimmte CPU an Leistung aufnimmt mit einem Messfehler von ca. +/-50% , mehr nicht.
 
Ja das war ja auch net wörtlich gemeint, sondern sehr überspitzt ausgedrückt :p
 
es macht die Sache komplizierter zum Vergleichen letztendlich.

theoretisch müsste doch AMD aber besser auszulasten sein da nativ aufgebaut.
gibt es ein programm das ähnlich das perfmon für Intel beim Phenom die "reale" Auslastung zeigen kann
ohne dieses Wissen kann man schlecht beurteilen wie der Phenom ausgelastet wird.
 
Zuletzt bearbeitet:
Denahar schrieb:
Wobei du dabei davon ausgehst, dass die Leistungsaufnahme linear mit der Auslastung ansteigt, was wohl nicht in der Realität so aussehen muss. Afaik ist es sogar quadratisch, da mit steigender Auslastung mehr Spannung an den Spannungswandlern CPU anliegt [...]
So ein Quatsch. Wieso sollte die Spannung bei höherer Auslastung steigen?
 
Einen Phenom auszulasten ist mMn schwieriger als einen Core2 auszulasten, da der Phenom mehr parallele Rechenwerke besitzt (der Phenom ist noch klassisch, d.h er trennt physikalisch zwischen Integer und Float-Formaten), aber die ähnlich füttert wie der Core2 das tut, d.h. die Rechenwerke öfter "leer" sind - wobei das so auch wieder etwas schwierig zu beurteilen ist, wenn viel Mischung (double (bzw. float), long (bzw. int) nach Java-Rechnung) dabei ist, also wie oft bei AMD Interger xor float gerechnet wird bei entsprechendem Code. Und: Es ist eigentlich nahezu unmöglich für eine CPU, die intern sehr RISC ist, die einen Decoder hat, der mit reinem CISC-Code gefüttert wird, die Einheitenauslastung zu simulieren, weil die internen Abläufe sich extrem unterscheiden können von dem, was als Befehl eingegeben wird. Der Softwareschreiber hat seit dem PPro bzw. K6 keinerlei Einfluss mehr auf das, was sich in der CPU abspielt, weil ab da keine nativen x86er mehr gebaut werden. Ich nehme an, dass das Intel-Core2-Tool die CPU über SSE füttert und so versucht Einfluss auf die Rechenwerke zu nehmen, was aber wiederum andere, grosse Teile der CPU außer Acht lässt.

aspro
Das liegt an den VRMs. Sind diese analogen VRMs relativ knapp kalkuliert, erhöht der Hersteller des Boards die Spannung bei hoher Last automatisch ein bisschen, um Spannungsabsenkungen durch die VRM-Auslastung entgegenzuwirken. Ist die Stromversorgung hingegen überdimensioniert, gibts zwar stabilere Spannungen, aber je nach Wirkungsgrad ein Effizienzproblem, siehe die 1. Generation AM2+ Bretter. Die Gigabyte MA790FX-Boards und auch die Asus M3A32 bzw. M3N-HT Boards haben einen unglaublich schlechten Wirkungsgrad und verballern mal eben 30-50% mehr Strom als eigentlich nötig wäre, nur weil die VRMs schlechte Wirkungsgrade haben (billig sind) und man viel davon verbaut hat. Das ist auch nicht mehr ohne VRM-Kühlung betreibbar. Hinzu kommt obendrein noch, dass all diese Boards übervolten.
 
Zuletzt bearbeitet:
aspro schrieb:
So ein Quatsch. Wieso sollte die Spannung bei höherer Auslastung steigen?
Kein Quatsch, sondern Realität. Hot hat es gut erklärt. Natürlich hält sich der Einfluss ijn Grenzen, aber es ging rein um die Aussage, dass eine angenommene Linearität nicht korrekt sein kann. Nicht so wild, es ist auch nicht wirklich wichtig.
 
Mag sein, aber er sprach von quadratischer Erhöhung der Leistungsaufnahme mit der Auslastung, was mit einer linearen Erhöhung der Spannung einhergehen müssen, was sicherlich nicht der Fall ist.
 
Warum nicht? Es gilt: P = U²/R.
 
Chrisch schrieb:
was ist denn PerfWatch bitte für ein Müll Programm?

Sorry, aber das zeigt einfach nix gescheites an
Na, da wäre ich mir nicht so sicher. Ich würde grundsätzlich erstmal der Windows Anzeige nicht trauen. Ich kann dir problemlos eine Anwendung schreiben, die nix macht, also der Prozessor vor sich hin idlen kann, aber trotzdem 100% Auslastung erzeugt. Oder wer es selbst mal testen möchte, hier der entsprechende WinAPI Quellcode für C++ (nur für einen Thread):
Code:
#include <windows.h>

LRESULT CALLBACK main_window_handler(HWND hWnd, UINT uMsg, WPARAM wParam, LPARAM lParam)
{
	switch (uMsg)
	{
		case WM_COMMAND:
			return 0;
		case WM_CREATE:
			return 0;
		case WM_DESTROY:
			PostQuitMessage(0);
			break;
	}
	return DefWindowProc(hWnd, uMsg, wParam, lParam);
}

int WINAPI WinMain(HINSTANCE hInstance, HINSTANCE/* hPrevInstance*/, LPSTR/* lpCmdLine*/, int nCmdShow)
{
	WNDCLASSEX wc;
	wc.cbSize = sizeof(wc);
	wc.style = 0;
	wc.lpfnWndProc = main_window_handler;
	wc.cbClsExtra = 0;
	wc.cbWndExtra = 0;
	wc.hInstance = hInstance;
	wc.hIcon = NULL;
	wc.hCursor = LoadCursor(NULL, IDC_ARROW);
	wc.hbrBackground = HBRUSH(COLOR_WINDOW + 1);
	wc.lpszMenuName = NULL;
	wc.lpszClassName = TEXT("win32gui");
	wc.hIconSm = NULL;
	ATOM at = RegisterClassEx(&wc);
	if (at == 0)
	{
		MessageBox(NULL, TEXT("error: RegisterClassEx()"), NULL, 0);
		return 0;
	}
	HWND window = CreateWindowEx(
		WS_EX_CONTROLPARENT,
		wc.lpszClassName,
		TEXT("my win32gui application"),
		WS_OVERLAPPED | WS_CAPTION | WS_SYSMENU | WS_MINIMIZEBOX | WS_MAXIMIZEBOX | WS_THICKFRAME | WS_CLIPCHILDREN | WS_CLIPSIBLINGS,
		CW_USEDEFAULT, CW_USEDEFAULT,
		CW_USEDEFAULT, 0,
		NULL,
		NULL,
		NULL,
		NULL);
	if (!window)
	{
		MessageBox(NULL, TEXT("error: CreateWindowEx()"), NULL, 0);
		return 0;
	}
	ShowWindow(window, nCmdShow);
	MSG msg;
	for (;;)
	{
		if (PeekMessage(&msg, NULL, 0, 0, PM_REMOVE))
		{
			if (msg.message == WM_QUIT)
				break;
			TranslateMessage(&msg);
			DispatchMessage(&msg);
		}
		else
		{
//			WaitMessage();
			Sleep(0);
		}
	}
	return static_cast<int>(msg.wParam);
}
Wie HOT schon sagte, eine Auslastung sämtlicher Recheneinheiten ist sehr schwierig. Und von Architektur zu Architektur auch nicht ohne weiteres vergleichbar.
 
Edit: Da THG ja so eine vertrauenwürde Quelle ist...

Phenom 9850 = 141W
Phenom 9750 = 127W

http://www.tomshardware.com/reviews/...on,1918-5.html

Da hat HT4U sich dann doch wohl vermessen
__________________

Leider findet man (ich ^^) bei THG keine Angaben wie und auf was sie gemessen haben. Vergleicht man diese verlinkten Resultate aber mal mit dem hier:
http://ht4u.net/reviews/2008/intel_core_leistungsaufnahme/index9.php
und bedenkt dabei, dass möglicherweise ein Motherboard mit vielen "unnützen" Phasen zum Einsatz kam, erklärt sich vielleicht was THG tut bzw. getan hat :).

Also "IntelBurnTest" ist soziemlich das krasseste Programm was die Auslastung eines Core 2 angeht... Hab noch kein Tool gesehen
welches so Heizt und so schnell Fehler ausspuckt (wenn man übertaktet hat).

Wenn IntelBurnTest es nicht schafft weiter auszulasten dann wohl garkein Tool...

Du irrst. Wir wurden von einem Leser auf das IntelBurn-Test Tool hingewiesen. Ich habe es ausprobiert und es lastet weniger Einheiten aus, als Core2MaxPerf und es sorgte bei einer schnellen Gegenprobe der Messung inkl. Wandler für ca. 1,2 Ampere weniger Stromfluss.

LoL..

was ist denn PerfWatch bitte für ein Müll Programm?

Sorry, aber das zeigt einfach nix gescheites an

Dann probiere es doch selbst mal mit verschiedenen Tools aus - du wirst sehen, dass es gerade für unseren Zweck, sehr hilfreich war. Leider eben nicht auf Phenom funktionell. Ich habe mich hier mit dem Autor schon in Verbindung gesetzt. Vielleicht wird es noch einen Phenom Support geben.

komisch das h4tu den intel nicht ausgelastet bekommt:

Wieso ist das komisch? Solange die Hersteller uns nicht ihre internen Tools zur Verfügung stellen, welche wohl existieren, aber nicht für die Öffentlichkeit bestimmt sind, solange wird es vermutlich nicht möglich sein, die Einheiten der Prozessoren vollständig auszulasten.

Man kann natürlich über Diagramme auch drüber schreiben 100% Last und man erspart es sich, die Karten auf den Tisch zu legen und darauf hinzuweisen, dass mit üblichen Mitteln, die jeder Anwender täglich zur Verfügung hat, eben nur eine solche Auslastung möglich ist.

Wenn THG auf der englischen Seite 100% Auslastung über ein Diagramm schreibt und auf der deutschen Seite Prime 95, dann ist es doch durchaus interessant, was sich in unserem Vergleich beim Einsatz der unterschiedlichen Tools gezeigt hat.

Da gibt es wirklich einige Auffälligkeiten in dem Test, habs mir auch gerademal angeschaut. Sie schreiben das man mit Prime nur 40 % Last erzeugen kann, bei den Phenom aber das Tool CPU-Burn in Version 1.4, welches eine "leicht" bessere Auslastung zu Tage förderte als Prime95, zum Einsatz kam. Wieviel genau sagen sie aber nicht, es sind wohl so 60%, laut ihrem aktuellen Intel-Test.

Bei den Intel verwenden sie aber Core2MaxPerf was 90% bieten soll. AMD werden mit 60% gemessen, Intel mit 90%. Aber das haben sie ja selbst auch eingesehen "Mehr noch, es bedeutet, dass wir eigentlich Intel durch die Wahl dieses Tools benachteiligen. " Also legen wir auf die Phenom nochmals 40% drauf und prompt stehen sie nicht so toll da, wie hier ursprünglich gejubelt wurde.

Das zeigt mal wieder, was es für eine Wissenschaft ist. Es gibt keinen richtigen Test, da die Lastverhältnisse niemals übereinstimmen. Und der Vergleich zwischen AMD und Intel geht deshalb halt mal gar nicht, maximal noch untereinander.

Aber Volker - es war überhaupt nicht die Absicht hier Waffengleichheit zu schaffen, sondern war es Absicht die Prozessoren, soweit möglich, zu 100% auszulasten. Und wenn ich kein besseres Tool wie CPU-Burn finde und die anderen schwächer sind, CPU Burn dafür auch Peaks auf 100% zustande bringt, dann wähle ich lieber CPU Burn als Prime 95. Und wenn das Withopf Tool bei Intel noch einmal eine Schippe drauflegen kann und ebenfalls Peaks auf 100% misst, dann ist es für mich ebenfalls Tool der Wahl.

Schon seit wir diese Vergleiche machen gibt es immer wieder, bei jedem Test, den Hinweis darauf, dass der Speichercontroller bei AMD doch im Prozessor sitzt und damit sowieso keine Waffengleichheit besteht. Und selbst wenn wir es im Test schreiben, also darauf hinweisen, wird es überlesen und der Hinweis kommt erneut ;). Also warum soll ich den Intel nicht ein wenig benachteiligen, wenn AMD ohnehin im Nachteil wäre.

Apropos Speichercontroller. Vor Jahren war mal die Rede davon, dass der im Bereich von ca. 7 Watt liegen würde. Allerdings weiß ich nicht (und glaube nicht), ob man das ebenso auf den AM2 und den AM2+ Controller beziehen kann. Die Aussage bezog sich auf den DDR1 Controller.

Ansonsten entschuldigt, ich bin hier sehr sehr selten unterwegs und wurde auch nur auf den Thread aufmerksam gemacht. Wenn ihr Fragen zu dem Test habt, dann könnt ihr die bei uns im Forum stellen - da werden die sicher eher beantwortet als hier ;D


Gruß
Peter
 
Zurück
Oben