News AMD bringt stromsparende Sechs-Kern-Prozessoren

@ Kasmopaya:

Zitat aus der von dir verlinkten Quelle (tomshardware.de):"Bei unserer Messung sind zusätzlich die Verlustleistungsanteile der Festspannungsregler enthalten." Genau das meinte gruffi.

Die Leistungsaufnahme eines Phenom 9850, 125W TDP
inklusive Wandler: http://ht4u.net/reviews/2008/amd_phenom_leistungsaufnahme/index8.php
exklusive Wandler / nur CPU: http://ht4u.net/reviews/2008/amd_phenom_leistungsaufnahme/index9.php

Das Thema der "abrauchenden" Mainboards ist eher auf einige "Computerselbstbauexperten" zurückzuführen, welche die durch die Hersteller angegebenen Spezifikationen missachtet haben.
 
Zuletzt bearbeitet:
die entwicklung von hardware geht gut voran ,nur die software hinkt immer hinterher.
 
Kasmopaya schrieb:
http://www.tomshardware.com/de/9100e-Phenom-X4-AMD-Energiesparen,testberichte-240017-5.html

Auf jeden Fall nicht normal die TDP zu überschreiten und das ganze fällt recht schnell auf weil einige Mainboard das einfach nicht verkraften und innerhalb kürzester Zeit abrauchen...

Also bei dem Link von Tom steht da nur der Verbrauch des Prozessors. Keine Angaben zur Verlustleistung (=TDP). Und jeder weiß hat die Verlustleistung nichts mit dem Verbrauch zu tun.
 
Popey900 schrieb:
@Sheeep

Die Gameentwickler sind nicht zu blöd, Sie wollen die Masse bedienen , und es gibt immer noch sehr viele Gamer die auf einem Leistungsstarken Single-oder Dualcore unterwegs sind. Ein Gutes Spiel zu Progrmmieren dauert in der Regel auch paar Jahre, wer hatte vor paar Jahren Quadcore ?

Ich denke die Spiele in naher Zuzkunft, werden mit Sicherheit von mehr Kernen Profitieren.

MFG Popey

Es ist nicht besonders aufwendig bestimmte Teile auf andere Kerne zu verlagern. Ein Spiel hat genug paralellisierte Teile um auf mehrere Threads verteilt werden zu können.
Ansonsten wäre es auch kein Thema was auf ne Graka auszulagern...

Mit Physik, KI, Wegfindung, Wetterveränderung, Positionierung, Scripts etc. gibts da mehr als genug Sachen die gleichzeitig berechnet werden müssen. Brauchst nur alle in unterschiedliche Threads schreiben...dazu braucht es kaum Zeit...
Ist dann natürlich nicht 100% skalieren aber es würde sicher 20-30% pro Kern mehr bringen, solange es nicht wie bei Gothic 3 ungesetzt wird...(WHERE IS THE GURU?) :D


Mister79 schrieb:
Schön zu hören. Aber was mich stört, AMD baut 6 Kerne Intel 4+4 und 2000 schlag mich tod haben wir 18 Kerne aber die Software hängt noch immer bei 1 - max 2 Kernen. Die Entwickler sind gerfragt und das je mehr als sonst. Lange haben sich die Entwickler beschwert das nix neues kommt und sie sich kaum entfalten können. Jetzt kommt jeden Tag was neues und die hängen weiter an der alten Schei.... rum.

Sonst sehr schön zu hören. Mal sehen wann der Desktopmarkt davon provitieren wird.

Ich jubel über jeden Kern mehr...ich hab seit gestern ne Numeriksimulation laufen...auf 2x Xeon E5472 und das kommt trotzdem nicht vorwärts...würde aber mit jedem Kern skalieren...
also software dafür hab ich genug...auch wenn sie z.T. handmade ist...
 
Zuletzt bearbeitet:
Floletni schrieb:
Also bei dem Link von Tom steht da nur der Verbrauch des Prozessors. Keine Angaben zur Verlustleistung (=TDP). Und jeder weiß hat die Verlustleistung nichts mit dem Verbrauch zu tun.

Der "Verbrauch" einer CPU entspricht zu 100% der Verlustleistung weil jegliche Energie die der Prozessor aufnimmt in Wärme umgewandelt wird.
 
Siehe den Beitrag von Aquila83, kein Phenom verbraucht selbst mehr als seine TDP-Angabe - nur wenn man Verluste an Spannungswandlern ua. dazu addiert, weil man sie mit misst, was aber nicht Sinn der Sache ist, denn die TDP gilt für den prozessor selbst und nicht für Prozessor plus Board-Infrastruktur. 109 W sind jedenfalls nicht mehr als 125 W.

P.S.
Es werden doch manchmal gerne Automobilvergleiche gemacht: Bei Autos ist es völlig normal, dass man, wenn man die PS des Motors angibt, das angibt, was der Motor selbst leistet und nicht das, was an den Reifen bzw. auf dem Asphalt davon übrig bleibt. Letzteres wäre auch schlecht vergleichbar, weil die PS-Zahl in einem anderen Auto oder mit verändertem Fahrwerk, veränderter Motorentkopplung, veränderten Reifen usw. schwanken würde.
 
Zuletzt bearbeitet:
Oder man setzt den Phenom auf ein AM2 Board. Das führt dazu das die CPU mehr als 125W aufnehmen kann und somit rutscht diese Konfig in die 140W Klasse.
Quelle: AMD Datasheet 43375.pdf
 
@ DaruDaru:

Der Phenom I ist davon nicht betroffen, sondern nur der Phenom II. Dies ist aber darauf zurückzuführen, dass die AM2-Platinen keine geteilte Spannungsversorgung für CPU und Northbridge bieten.
 
MountWalker schrieb:
Warum in der deutschen Wikipedia steht, der XDA DRAM der PS3 würde mit 3,2 GHz laufen, ist mir auch unklar, weil RAMBUS maximal 1GHz bei XDA-RAM entworfen hat

In der englischen Wikipedia steht das der XDA-RAM mit dem selben Takt wie die CPU läuft. Siehe:

http://en.wikipedia.org/wiki/PlayStation_3_hardware

The PS3 has 256MB of Rambus XDR DRAM, clocked at CPU die speed.

Ich denke mal das damit gemeint ist "Effektiver Takt == CPU Takt" und nicht der wirkliche Takt :) Naja, so scheiße wirds schon nicht sein, denn wenn man sich mal das Technical Interview der Killzone 2 Macher anschaut, wo gezeigt wird was allein von der CPU berechnet wird, muss da schon ordentlich Anbindung vorliegen. Anders könnte so eine Streaming Architektur, in der die CPU auch zum rendern involviert ist, auch nicht funktionieren.

Die Sony Ingenieure werden sich sicher was dabei gedacht haben.
 
Zuletzt bearbeitet:
Der einzige Sinn, wie gesacht, der sich ergeben kann, ist "8 * 400 MHz" und mit 8 * 400 MHz ereicht der XDR DRAM eben 25,6 GiB/s und nicht mehr, was zwar mehr ist als der aktuell noch übliche DDR2-1066, welcher im Dual-Channel-Modus 17 GiB/s hat, aber nicht so übertrieben mehr und von DDR3-1066 im Triple-Channel bzw. DDR3-1600 im Dual-Channel eingeholt wird. Die Zahlen liegen auf dem Tisch - wenn der RAM in der PS3 mehr Bandbreite haben sollte, entspräche er nicht der RAMBUS-Sezifikation und wäre damit auch kein RAMBUS XDR DRAM. ;)

P.S.
Wie gesacht, wenn der Unterschied wirklich so extrem wäre, wie er manchmal herbeigeredet wird, gäbe es XDR DRAM auch öfter für HPC-Computer.

P.P.S.
Die meisten Leute, die im Vergleich gesehen hatten, wie schlecht DDR2 im Vergleich zu XDR gewesen sei, hatten vermutlich nicht berücksichtigt, dass man am PC einen Dual-Channel-Modus für DDR-Speicher hat - sowas hat die PS3 nicht.
 
Zuletzt bearbeitet: (Tippfehler bei XDR DRAM)
aspro schrieb:
Wieso soll es technisch nicht möglich sein, die TDP zu überschreiten? Das ist auch nur ein empirisch festgelegter Wert.
Nein, ist er nicht. Das wurde auch oft genug erklärt. Die TDP bei AMD CPUs berechnet sich dadurch, dass alle Transistoren bei maximaler spezifizierter Spannung unter Vollast stehen. Mehr geht technisch nicht. Wenn die TDP in irgendeinem Test überschritten wird, dann liegt das daran, wie hier mittlerweile mehrfach erklärt wurde, dass Verluste der Spannungswandler auf dem Board oder vom Netzteil hinzugerechnet wurden. Das hat dann aber mit der Leistungsaufnahme des Prozessors selbst, auf welche sich ja die TDP bezieht, nichts mehr zu tun.

Ich hoffe, das haben die üblichen Verdächtigen endlich mal verstanden, anstatt immer wieder die gleichen falschen Sachverhalte zu kolportieren. Schönen Gruss an Ycon und Kasmopaya. :)
 
Zuletzt bearbeitet:
mh, und wieder 2 Kerne mehr die keine Sodtware unterstüzt...na mal sehn was die Zukunft bringt.
 
Warum beschwert ihr euch alle über 6 Kerne?

Spiele werden noch nicht unterstützt....aber dafür ist die CPU auch NICHT gemacht....

Numerik, Computer-Algebra-Programme, Videoediting, Virtuelle Maschinen ja sogar Excel kann multithreading.
Und dann gibts immer noch Selfmade...
 
gruffi schrieb:
Nein, ist er nicht. Das wurde auch oft genug erklärt. Die TDP bei AMD CPUs berechnet sich dadurch, dass alle Transistoren bei maximaler spezifizierter Spannung unter Vollast stehen. Mehr geht technisch nicht.
Schon mal was von Leckströmen gehört?
 
Also es gibt sicherlich Software und auch Lastzustände in denen 6-Kerne sinnvoll sind. Ein Server ist ja nicht daraus ausgelegt, um die Eingaben eines einzelnen Anwender zu verarbeiten sonder die Anfragen zahlreicher Clients. Und bei vielen Client-Anfragen quasi zur gleichen Zeit macht es dann schon Sinn die Anfragen parallel bearbeiten zu können.

Und ob es wirklich so eine gute Arbeit ist, wenn ein 6-Kern Prozessor mit 2 GHz "nur" eine TDP von 80 Watt hat, ist schwer zu sagen. Man kann ihn ja nicht mit z. B. einem 6-Kern Xeon vergleichen. Ein Intel Xeon L5520 kann durch SMT 8 Threads verarbeiten, ist mit 2266 (Turbo Mode: 2533 MHz) getaktet und hat eine TDP von 60 Watt.
 
aspro schrieb:
Schon mal was von Leckströmen gehört?
Leckströme ist eine spezifische Grösse des Prozesses. Das hat mit der Aussage exakt nichts zu tun.
 
Höhere Leckströe = höhere Leistungaufnahme. Wieso soll das nichts mit der Behauptung zu tun haben, dass (AMD) CPUs nicht mehr verbrauchen können, als die TDP angibt?
 
Da kann ich mich nur nochmal wiederholen.

Leckströme ist eine spezifische Grösse des Prozesses.

Sämtliche Ermittlungen der Leistungsaufnahme enthalten logischerweise bereits die für den Prozess ganz spezifischen Leckströme. Ich habe eher das Gefühl, du bringst hier Leckströme und Verlustleistung durcheinander.
 
So manche kritik kann auch ich nicht nachvollziehen vor allem wenn man bedenkt das
das ja server cpu,s sind.
Ich habe weder ein server rak oder mobo denke aber das eine sechs oder X kern cpu bei servern bei den vielen aufgaben die ein server abarbeiten muss sinvoll sind, vor allem wenn sie auch noch strom und somit kosten spart:)
 

Ähnliche Themen

Zurück
Oben