News AMDs „Llano“ bereits mit 135 „Design Wins“?

Deine Argumentation kann ich aufgrund von 3 Punkten nicht teilen.

Punkt 1:
Deine Logik bedenkt nicht, dass der x86 Prozessor ja immer läuft, egal womit encoded wird. Es hilft also nicht wenn man mit anderen Chips sparsamer decoden kann als mit ner x86 CPU, man muss mit dem Zusatzchip und allem was nötig ist um ihn zu benutzen weniger verbrauchen als die Differenz der x86 CPU zwischen idle und decoden. Genau das habe ich ja angesprochen und nicht, dass ich die 10 Watt von meinem Media-Player mit nem PC schlagen könnte.

Punkt 2:
Das Beispiel der Media-Player hat mit der Praxis vom Video-Abspielen am Rechner offensichtlich nicht viel zu tun.
Wie kann sonst die HD6570 aus dem verlinkten Artikel 26 Watt mehr als im idle verbrauchen wenn mein Media-Player mit ca. 10 Watt auskommt und die 5450 mit "nur" 11 zusätzlichen Watt über idle ?

Punkt 3:
Ich habe geschrieben, dass ne CPU mit nem Mehraufwand von den besagten 11-26W ein Video decoden können sollte. Ob andere Units effektiver sind oder nicht ist in dem Punkt absolut belanglos, also versuch mir nicht die Worte im Munde zu verdrehen.
Da es CPUs mit 25W TDP gibt die 1080p decoden können geht das also definitiv. ;)

Wie gesagt kann ich es mangels SandyBridge oder Llano System nicht testen, es macht also wenig Sinn da weiter drüber zu diskutieren, imo sind UVD und co deshalb nur noch nice-to-have.
 
Blutschlumpf schrieb:
Deine Argumentation kann ich aufgrund von 3 Punkten nicht teilen.
[...]
Wie gesagt kann ich es mangels SandyBridge oder Llano System nicht testen, es macht also wenig Sinn da weiter drüber zu diskutieren, imo sind UVD und co deshalb nur noch nice-to-have.
das ist keine Argumentation und IMHO auch nicht:
http://www.pcgameshardware.de/aid,6...eforce-8200-im-HTPC-Vergleich/Mainboard/Test/
Leistung: HD-Wiedergabe
Im HD-Test liegt hingegen die Geforce-8200-Platine vorne: Beide Chips entlasten den Prozessor, beim Nvidia-Modell ist die CPU-Last jedoch stets geringer. Das 780G-Board verbraucht zwar im Windows-Idle grundsätzlich weniger Strom (62,6 gegen 64,6 Watt, CnQ deaktiviert), aufgrund der höheren CPU-Auslastung ist der Stromverbrauch des gesamten PCs bei der HD-Wiedergabe hingegen meist etwas höher als beim Geforce 8200.

Der 690G berechnet gar keine HD-Videoformate - CPU-Last und Stromverbrauch sind deutlich höher als bei den neuen Onboard-Grafik-Chipsätzen.
Wird eine CPU belastet beim Video abspielen ist der Stromverbrauch höher - Punkt.
Auch bei Nvidia als PureVideo bekannt:
http://www.nvidia.de/page/purevideo_hd.html
Die PureVideo HD Technologie ist eine Kombination aus einem speziellen Core zur Videobearbeitung auf dem NVIDIA Grafikprozessor und einer Software in den NVIDIA Treibern. Diese Kombination gewährleistet erstklassige Videoqualität bei minimaler Belastung der CPU und geringem Stromverbrauch bei der Wiedergabe von Blu-ray oder HD-DVDs am PC.

Wenn du dir nun eine eigene Logik bastelst ist das auch gut :rolleyes:
 
Amando schrieb:
-Das kann Intel nicht... Video Endcodieren via GPU genauso wenig, Sound ueber HDMI ausgeben... kurz gesagt ist zu schwach auf der Brust fuer die heutigen Zeiten, frueher haette es gereicht...
Sorry aber das ist doch mal echt Quark was du da schreibst.
Sicher sind die IGPs von AMD und auch Nvidia immer in Sachen 3D-Leistung schneller gewesen und werden sie mit Llano auch wieder deutlich sein, aber du stellst hier komlette Unwahrheiten zu den Multimediaeigenschaften hin.
Mehrkanal LPCM und Bitstreaming über HDMI konnte schon Intels Westmere. Bei AMD war beides erst ab Ontario/Zacate möglich.
Und die Encodierung beim SandyBridge war doch überall großes Thema, hat jede Hardwareseite getestet.
 
Complication schrieb:
Wird eine CPU belastet beim Video abspielen ist der Stromverbrauch höher - Punkt.
Du willst anhand von einem 3 Jahre alten Test mit nem K8 und nem Phenom 1 auf den Stromverbrauch aktueller Hardware schließen ? Wusste nicht, dass das dein Stand der Technik ist, dann hast du natürlich recht.

Schon der Sprung von K8 auf nen Core2 Duo bedeutet schon mehr als eine Halbierung der CPU-load, hab beides hier im Einsatz gehabt. Während der K8 bei 1080p an seine Grenzen kam war der C2D nichtmal halb ausgelastet, beim kleinen 4400 wohl gemerkt.
Wenn du dir nun eine eigene Logik bastelst ist das auch gut. ;)
 
Complication schrieb:
Wird eine CPU belastet beim Video abspielen ist der Stromverbrauch höher - Punkt.
Das ist Unfug².

Eine i3-2100T beschleunigt jeden HD-Film flüssig. Nun nimm mal eine HD 6970 und lass die den Film decodieren: Die verbläst dafür rund 70 Watt statt 20W im idle. Das ist ergo mehr als die 35W TDP des i3!

Die Aussage, GPU < CPU, gilt nur für Lowest-End-Karten/IGPs.
 
Naja, zumindest beim Preview auf der CeBIT blieb der Verbrauch der Llano APU trotz starten des 1080p Videos Big Buck Bunny und damit wohl auch dem "starten" des UVD3, konstant bei 54W, während Sandy-Bridge von 68W auf 70W anstieg. Daraus kann man entweder sehen, dass der UVD nur Strom in homöopathischen Mengen braucht, oder das er permanent unter Strom steht oder beides.
 
EDIT
Werte: Der i3-2100T kommt auf eine idle- zu full-load-Differenz von 29 Watt. Das Abspielen einer Blu-ray fordert die CPU natürlich weniger als Prime 95. Die idle- zu Blu-ray-Differenz der HD 6970 beträgt wie gesagt 50 Watt (genauer: 22W zu 71W).

Lonely Shepherd schrieb:
Naja, zumindest beim Preview auf der CeBIT blieb der Verbrauch der Llano APU trotz starten des 1080p Videos Big Buck Bunny und damit wohl auch dem "starten" des UVD3, konstant bei 54W, während Sandy-Bridge von 68W auf 70W anstieg. Daraus kann man entweder sehen, dass der UVD nur Strom in homöopathischen Mengen braucht, oder das er permanent unter Strom steht oder beides.
Es gibt offenbar nur einen P-State für die Llano-APU (wie auch bei Ontario/Zacate).
 
Zuletzt bearbeitet:
y33H@ schrieb:
Das ist Unfug².

Eine i3-2100T beschleunigt jeden HD-Film flüssig. Nun nimm mal eine HD 6970 und lass die den Film decodieren: Die verbläst dafür rund 70 Watt statt 20W im idle. Das ist ergo mehr als die 35W TDP des i3!

Die Aussage, GPU < CPU, gilt nur für Lowest-End-Karten/IGPs.


Anbei ein Link bei dem jemand das gleiche bemerkt hat: http://www.hardwareluxx.de/communit...tscheidet-ihr-euch-807335-2.html#post16854419

Der Verbrauch im Videomodus ist eben gleich um einiges höher als im Idle.
 
Ich sagte ja, es ist bei (ansatzweise) potenten CPUs aus Strom-Sicht oft sinnvoller, diese für Blu-ray, Flash, HTML5 etc. einzusetzen anstatt einer dicken GraKa. Wobei zumindest die aktuellen Geforces bei Blu-ray 7 Watt gegenüber idle zulegen (GTX 570), statt wie die genannte HD 6970 mal eben so 50 Watt zu verblasen.
 
Zurück
Oben