News AMD stellt Radeon HD 6450 vor

Wenn dann Tests von ht4u... die schauen wenigstens nach der Leistungsaufnahme _nur_ von der Karte.

Und ja Luebke ich weiß, das du Blu-Ray Szenario meinst. Trotzdem kann ich dir das nicht glauben. :-D

Die zieht doch schon im Idle mehr... :-P

@ deadohiosky: Er weiß was ne TDP ist, warum bezieht er sich trotzdem drauf?
1. Weil ers kann! ;-) UND
2. Weil er etwas quer denkt.

Und jetzt Pflaum mal nicht so rum... ist ja schrecklich hier...
 
du sollst es mir auch nicht glauben, ich will das mit dir ausprobieren ;)
ich hab die zahlen doch auch nur aus artikeln abgelesen...
wäre das was für nen eigenen artikel?

btt: ich hoffe wolfgang bekommt die karten bald für nen eigenen test. und bitte: unbedingt die 5450 zum vergleich ranziehen. wenn die angaben von amd falsch sind, isses ja gut. aber wenn ich denen glaube, ist das imho enttäuschend.
 
Ok du hast doch nicht begriffen was die TDP ist, so wie du grad redest... man man man, Junge was soll nur aus dir werden. ;-)

TDP ist das maximale was der Kühler, der drauf sitzen sollte, bewältigen können muss.
 
@Mursk

Ich möchte hier nicht rumpflaumen nur klarstellen, dass eine TDP-Angabe erst einmal nichts anderes ist als ein Richtwert und zwar für den OEM um seine Kühllösung entsprechend auszurichten. Diese Werte können dann unter Umständen real erreicht werden, wie zum Beispiel mit einem Stresstest wie Furmark und dergleichen. Bei Spielen und anderen die Grafikberechnung betreffenden Bereichen, also in "realen" Szenarien wird die angegebene TDP aber generell nicht erreicht, wie bei ht4u-Tests gut zu sehen ist.

Und genau deshalb glaube ich eben nicht, dass Lübke weiß was TDP bedeutet.

zu CB und Tests: Auch CB wertet nur die Leistungsaufnahme des Gesamtsystems aus, plus Ungenauigkeiten wie dem Netzteil und dessen Effizienzwerten unter verschieden Lastverhältnissen.

AMDs Angaben sind nicht "falsch" das ist die TDP, die maximal durch die Kühllösung abzuführende Abwärme, angegeben in Watt, bzw. genauer: eine konkrete Angabe der laut AMD maximalen Leistungsaufnahme des Gerätes. Die dadurch entstehende Abwärme muss abgeführt werden, die Wattzahl ist dabei der Indikator wie hoch diese Abwärme ausfällt.
 
Luebke: Weil du was über Angaben von AMD gesagt hast und das kann ja nur die TDP sein.

deadohiosky: ht4u hat halt die Verbrauchswerte der Komponente. Wie die das machen... keine Ahnung. Obs wirklich genau ist... keine Ahnung und dementsprechend ob man den glauben darf, ich denke aber schon.

Und vom ganzen System ist zwar realitätsnäher (was durch die Monster CPUs ja meistens wieder schön vernichtet wird ;-) und ja ich weiß das man die braucht) aber ich habs halt so lieber, das ich seh was die Komponente zieht.

Gruß
 
@deadohiosky: da du ja offensichtlich doch weist, was eine tdp ist, sollte dir eigentlich klar sein, dass gerade bei karten fürs untere preissegment diese angaben nicht exorbitant über der tatsächlichen leistungsaufnahme (gleiches scenario wie zur tdp-ermittlung, nicht furmark!) liegen. denn das würde die karten für die boardpartner unnötig teuer machen. warum? weil die kühllösung entsprechend der tdp dimensioniert wird.

is das so kompliziert? Oô
ok lassen wir das. so lange wir nur die tdp angaben von amd haben und keine messwerte, lohnt sich die diskussion sowieso nicht.

@Mursk: ja bei der 5450 isses doch auch nur die tdp^^ und die wurde ebenfalls von amd und für die kühlerdimensionierung festgelegt ;)

ok ich hab kein lust mehr auf das thema. ich warte auf nen test von wolfgang...
 
Zuletzt bearbeitet:
@Lübke

Was meinst du denn mit exorbitant? 20 Watt? 50 Watt?
Ich kann mit dem Wort im Zusammenhang nichts anfangen.


http://ht4u.net/reviews/2010/amd_radeon_hd_5450/

TDP des HD 5450 Referenzdesign(laut AMD): ca. 19 Watt

von ht4u gemessen

Unter Last (Spiele) : 14,2 Watt
Unter Last (FM) :15 Watt

4 Watt Unterschied. Da stellt sich die Frage: Ist das eine exorbitante Diskrepanz

Kühllösungen in diesem Marktsegment sind vor Allem eins: billig. Da tut es nichts zur Sache ob ein Gramm mehr Alu oder Plaste verwandt wird, die zwei Cents werden dann eben auf den Preis raufgeschlagen.

Die Diskussion lohnt sich nur dahingehend dir klar zu machen, dass TDP != "realer" maximaler Verbrauch unter normalen Umständen ist.
 
Doch die zwei Cents tuen erst recht bei diesem Preis gehörig was zur Sache, da wird um jeden Cent gefeilt, um das Produkt nochmals 2 € günstiger als der Konkurent rauszubringen.

Und ja 19 W zu 15 W ist ein exorbitanter Wert, sind ja fast 25 %. Iwo muss man dem Luebke da doch so ein bischen recht geben. ;-)
 
In relativen Zahlen (es sind 36%) kann man alles exorbitant ausdrücken in absoluten Zahlen sind diese 4 Watt theoretisch vernachlässigbar, zeigen aber sehr gut dass die TDP eben nicht erreicht wird und noch ein Polster da ist, die TDP ist bei AMD so gut wie immer ein wenig höher angesetzt, im Gegensatz zu Nvidia und auch Intel(bzw. wird sehr spielerisch mit dem Begriff TDP umgegangen).


Das mit den zwei Cents war auch nur eine Unter/Übertreibung. Was wollte ich eigentlich damit sagen: Auch die Kühllösungen unterscheiden sich in diesem Preissegment nicht. Entweder es wird das Referenzdesign von AMD übernommen oder eben eine eigene Kühllösung (weiter-)genutzt, das macht die Grafikkarte für den Hersteller weder teurer noch billiger. Denn auch die Kühllösungen sind weitaus höher ausgelegt, es ist ein Massenmarktprodukt und muss auf der ganzen Welt funktionieren, in Sibirien als auch in Südafrika.
 
deadohiosky schrieb:
aber wer kauft sich heutzutage schon einen HTPC?:rolleyes:

Ich zum Beispiel. Und da ich günstige Teile gewählt habe bleibt mir nun die Entscheidung: Neues Sstem für ~150€ oder eine Grafikkarte für ~30€ Rate was ich nehm.
 
Das musst du schon im Kontext sehen: Der ganze Beitrag war komplett ironisch gemeint und sollte damit ausdrücken, dass unzählige Menschen HTPCs kaufen.;)
 
Tatsächlich, habe statt "mehr FPS" "weniger FPS" gelesen. Verzeihung.
 
@deadohiosky: irgendwie reden wir noch immer an einander vorbei. was eine tdp ist, ist also jedem hier klar. aber wie kommst du darauf, dass amd die völlig willkürlich festsetzt, bzw marketingschädlich bei der 6450 50% höher ansetzt als bei der 5450?
ob die beiden karten jetzt nen puffer von 4 watt haben oder nicht, spielt doch gar keinen walzer. fakt ist, amd schreibt für die 6450 einen leistungsstärkeren kühler vor als für die 5450. aus spass an der freude? um ihre boardpartner zu foppen? oder vllt weil die karte unter last eine höhere leistungsaufnahme hat?

es mag ja im einzelfall ein kleiner betrag sein zwischen einem kühler bis 20 watt und einem bis 30 watt, aber die karten werden millionenfach verkauft (nein nicht unbedingt an cb-leser aber an oems). ich hab mich auch schon oft gewundert, wieso auf den billigkarten kleine nervende quäker drauf sind, statt die mit 5 g mehr alu passiv zu betreiben, aber scheinbar wird da mit pfennigbeträgen kalkuliert.
 
@Lübke

Nein, wir reden nicht aneinander vorbei du verstehst meines Erachtens weiterhin nicht was die TDP überhaupt bedeutet. Sie soll einfach nur aussagen wieviel Abwärme unter den schlechtesten Umständen abgeführt werden muss. AMD hält sich genau daran und drosselt künstlich.


Beispiel gefällig?

Nehmen wir.... die HD 6990. Sie hat eine TDP von 375 Watt.

Diese Angabe wir nicht überschritten (siehe ht4u):

http://ht4u.net/reviews/2011/amd_radeon_hd_6990_antilles_test/index13.php


Und dann nehmen wir zum Vergleich die GTX 590: Sie hat eine TDP von 365 Watt

Komischerweise wird diese Angabe aber um ca 60 Watt durch Tessmark überschritten:

http://ht4u.net/reviews/2011/asus_nvidia_geforce_gtx_590_im_test/index14.php


Hier versagt z.B. die Nvidia-Drosselung, die normalerweise bei 365 Watt eine Erhöhung der Leistungsaufnahme verhindern müsste. (Aber das ist eigentlich vollkommen unerheblich)


Aber auch unter normaler Last, also bei Spielen kommt die GTX 590 sehr sehr deutlich an den Rand ihrer Spezifkationen, während die HD 6990 mehr als ein gutes Polster nach oben hat.

Das mag man als schlechtes Marketing auslegen oder einfach als Dienst am Kunden, je nachdem wie man gestrickt ist.


Bei low budget Karten wird irgend etwas draufgeschraubt das genug Abwärme ableiten kann, das kann eine überdimensionierte und laute Kühllösung sein oder eben ein passiver Kühler. Der Kunde bezahlt dann den Aufpreis oder für die Turbine.
 
doch das tun wir ganz offensichtlich >.<

wer hat die tdp der 5450 festgelegt? richtig amd
und wer hat die tdp der 6450 festgelegt? richtig, wieder amd
warum sollte amd also deiner meinung nach zwei unterschiedliche maßstäbe bei der festlegung der tdp vergleichbarer karten ansetzen?

nebenbei bemerkt ist dein beispiel das denkbar ungünstigste das du finden konntest. da hat die angabe der hersteller auch was mit den pci-specs und mit marketing zu tun. da wird natürlich ganz bewusst bei der angabe der tdp rumgepfuscht. bei der gtx480 z. b. musste nvidia das auch schon machen...

aber gut, da du ja felsenfest davon überzeugt bist, dass amd die tdp vollkommen willkürlich ohne rücksicht auf kühlerhersteller, boardpartner oder die eigene marketingabteilung oder gar den verbrauch festlegt, versuchen wir mal was anderes um dir die gestiegene leistungsaufnahme zu erläutern.

schau dir bitte nochmal die technischen daten der beiden karten an. (quelle wieder wolfgangs artikel)

Transistoren ca. 292 Mio. ca. 370 Mio.
Shader-Einheiten
(MADD) 16 (5D) 32 (5D)

aufgefallen? da die hd6k nicht deutlich effizienter gegenüber der hd5k geworden ist, wie willst du mir erklären, dass die 6450 bei den unterschiedlichen shaderzahlen und der unterscheidlichen chipgröße nicht mehr verbrauchen soll als die 5450?
 
@deadohiosky
du wirfst hier einige Sachen durcheinander. Natürlich hast du Recht damit was TDP angeht, übersieht jedoch einige wichtige Punkte - mit steigender Leistungsaufnahme , steigt logischerweise die DTP(in der Regel natürlich).

So nun zur 2. Sache die du scheinbar übersehen hast - die AMD (der Hersteller der mehr von der Karte weiß als wir alle) gibt die TDP an, die für die HD 6450 mit 27 Watt höher liegt als die 19 Watt bei der 5450. Somit kann man von der erhöhten Leistungsaufnahme ausgehen(s. o.) Dass so etwas in der Praxis so gut wie nie vorkommt, wissen eigentlich alle. Somit hat Lübke rein theoretisch(aber wirklich - nur rein theoretisch;)) Recht. Da jedoch weder du, noch ich, oder Lübke und nicht einmal der Weihnachtsmann beide Karte besitzen, können wir die (wirklich - nur rein theoretische Werte) weder bestätigen noch abstreiten. Das kann nur die Praxis, die aufgrund der Nichtverfügbarkeit der Karte, zum jetzigen Zeitpunkt, unmöglich ist. Somit kann man hier noch diskutieren, was jedoch nicht darüber hinweg täuschen kann dass der Lübke, mit seiner Annahme der theoretischen Hypothese sachlicher ist und letztendlich auch Recht hat(natürlich bis zahlreiche Tests das widerlegen)

MFG Schnie
 
Da wir uns nun offensichtlich im Kreis drehen, kommen wir zum Eingangszitat zurück.

Lübke schrieb:
50% mehr verbrauch als die 5450? das ist imho die falsche entwicklung in dem bereich. amd sollte sich lieber an nvidias einstiegsmodell (g210) orientieren und versuchen die in sachen verbrauch zu schlagen. wer leistung will, greift sicher nicht zu so einer karte und für alles andere sind g210 und 5450 die bessere wahl...

Deine Aussage.

Die 6450 "verbraucht" 50% mehr als die 5450. Eine faktisch falsche Aussage. Die TDP wurde um ca. 50% erhöht, das sagt aber erst einmal nichts über den Verbrauch an sich aus. Sie könnte und dürfte laut AMD unter Umständen bis zu 50% mehr verbrauchen ist eine richtigere Aussage, aber nicht bewiesen ob das im Endeffekt dann auch zutrifft, da es dazu keinerlei "reale" Messwerte gibt.

Oder interessiert dich wie viel eine Karte in einem Stresstest verbraucht?
Und dahingehend frage ich mich warum das von mir gewählte Beispiel ungünstig ist, das würde ich dann schon gerne mal erklärt haben. Ich wollte nur feststellen, das AMD es doch sehr genau mit der TDP, vllt. ein wenig zu genau. Das aber AMD als schlechte Geschäftspraxis auszulegen kann ich nicht nachvollziehen.

Bzw., warum redest du denn immer wieder von Willkür. AMD hat die TDP nach besten Wissen und Gewissen festgelegt, diese wird auch daher nicht überschritten, das Nvidia zum Teil schummelt wird da anscheinend sogar billigend in Kauf genommen.
 
Lübke schrieb:
jetzt bitte mal von euch: ist die entwicklung, dass die karten mehr strom brauchen eurer meinung nach der richtige weg?

In dem Fall schon. Kraft kommt bekanntlich von Kraftstoff und da man hier die Rohleistung potentiell (bitte ohne Goldwaage) verdoppelt hat, ist der Antieg der TDP durchaus in Ordnung.

Es ist nunmal so, dass es sich seit HD3000/2000 (mal Treiberprobs und Bildquali außen vor) sowie Llano nicht mehr lohnt, so eine schwächliche Karte mit 80 Shadern rauszubringen. Denn beide CPUs sind in jedem Fall sparsamer und günstiger als so eine lowendkarte.

In dem Zusammenhang stelle ich sogar die 6450 in Frage, da Llano bekanntlich auf 5570-Niveau liegen soll, aber irgendwer wird das Ding schon kaufen.

Und wenn der 28nm Shrink kommt und die Konkurrenz weiter pennt, wird AMD auch ne 7450 bringen mit 160 Shadern und dann wieder 19W TDP ;)

Und ob nun 19W oder 27W... Also bitte. Is ja lächerlich wegen theoretisch 8W mehr hier so eine Diskussion zu starten. Vielleicht lag die 5450 auch grad noch im Rahmen für 19W TDP und die 6450 eben knapp drüber-->nächsthöhere Klasse. AMD schmeisst auch alle Phenom X2 in ne 80W TDP Klasse, obwohl das nicht notwendig wäre...

@DVD_: Die Benches von Anandtech hast du fein rausgesucht. Hawx ist Nvidia bekanntlich eh schneller, genau wie Starcraft und Mass Effect.

Wie eigentlich das meiste was AnandINTELtech bencht. (außer Crysis und Metro, wos schon wieder besser aussieht)

Zudem brauch die 220GT mehr Saft (ca. 30W), insofern kein Vergleich.
 
Zuletzt bearbeitet:
@Schnie Ich werfe nichts durcheinander.


Hier wurde die Aussage getätigt 50% mehr Verbrauch. Das ist der erste Fehler. Dann wurde aufbauend auf diesem Fehler gesagt "maximaler (realer) Verbrauch"= TDP.

Dass das nicht stimmt wollte ich mit den Messungen von ht4u aufzeigen.

Der Verbrauch(Leistungsaufnahme) ist sicherlich gestiegen. Er könnte sogar um 60% gestiegen sein, oder eben nur um 30%. Die Leistung allerdings ist faktisch! um bis zu 50% (fps in Spielen) gestiegen.

Daher kann man weiterhin nichts über die (In-)Effizienz der Karte aussagen.
 
Zurück
Oben