News AMD stellt Radeon HD 6450 vor

KAOZNAKE schrieb:
@DVD_: Die Benches von Anandtech hast du fein rausgesucht. Hawx ist Nvidia bekanntlich eh schneller, genau wie Starcraft und Mass Effect.

Wie eigentlich das meiste was AnandINTELtech bencht. (außer Crysis und Metro, wos schon wieder besser aussieht)

Wenn AMD mit seinen PR Folien suggerieren will, dass sowohl Sandy Bridge Grafik als auch GT220 und G210 auf ein und dem selbem, lahmen Level arbeiten.
12-1080.1446063941.jpg


Und die HD 6450 (angeblich) ja soooo unentlich viel schneller arbeitet als all ihre "Gegner".
7-1080.2136797166.jpg


War es für mich heute früh doch mal interessant, was eine GT220 tatsächlich leistet,
wenn auch sie mit ihrem schnellsten Speicherausbau arbeit.
THG hatte ja nur eine GT220 mit DDR2 RAM im Angebot, statt DDR3.
Da blieb nur noch Anandtech.

Aber selbst mit DDR2 kann die alte GT220 immernoch, ab und zu mithalten.
Also bedank dich bei AMD's PR Abteilung und ihrer übertrieben Darstellung.
Left4Dead2%201680.png

F12010%201680.png


Btw, Anandtech als "based" hinzustellen ist grade zu peinlich intantil von dir. :baby_alt:

Und was den Stromverbracuh angeht.
Mit DDR3 ist die GT220 drüber, leistet aber auch mehr.

Mit DDR2 liegt sie gleich auf mit der HD 6450.
Wobei sie im großen und ganzen hinter die 6450 zurückfällt, was Perf./W angeht,
aber mein gott, in irgendwas muss die neue AMD ja wenigstenes etwas besser sein.
Power.png


Aber wie ich schon schrieb.
Einzig der Stromverbrauch ist ok, also als Officekarte, passiv gekühlt, könnte man sie gebrauchen, aber dafür kann man dann auch jede HD 4350 / G210 mit noch weniger Verbrauch nehmen.

Also wer nicht grade BluRay3D braucht, der ist mit den alten Karten, wenn es nur um HD Material und bisschen surfen geht, immernoch besser dran, weil die noch weniger verbrauchen.

Aber es soll ja noch ne HD 6300er kommen... genauso wie ne GT520, welche nach den jetztigen Daten eher wie ein G210 Ersatz ausschaut.
 
*Prust*

Herrlich.

Ich erkläre dir mal wo bei dir der Fehler liegt. Erstens, nimmst du die AMD-Folien zu ernst und stellst sie nicht in Relation. Was meine ich damit...naja eben den Schrott den Nvidia mit ihren Folien zu verticken sucht. :lol: (beide Unternehmen... nehmen sich nichts in der Hinsicht

Die erste Folie sagt nichts weiter aus, als das die 6450 DX11 Effekte darstellen kann, die direkte Konkurrenz (laut AMD) aber nur DX10.

Bei der zweiten Folie wird "irgendeine" Grafikeinheit genannt, was soll uns diese also sagen, außer dass das eine typische amerikanische Marketingmasche ist: Produkt A reinigt zu 5,5% schneller die hinteren Zähne und das bei 2% weniger Nasenbluten.

Dass du dir dann aber zwei Benchmarks heraussuchst bei der die GT 220 "gewinnt" ist dann aber doch eher lächerlich. Ich spare mir aber die anderen Benchmarks hier zu posten und beschränke mich auf die Tatsache, dass man keine Rückschlüsse auf Grund von zwei isolierten Benchmarks ziehen sollte, schon allein der Tatsache geschuldet das es die Programme "The way it's meant to be played" und "Gaming Evolved" gibt.

Es gibt auch keine DDR2 oder 3 Version in diesem Test:
Gigabyte GV-N220OC-1GI
Underclocked to simulate GeForce GT 220 DDR2



Zum Verbrauch zitiere ich dann zum zweiten Mal:

We reverted to FurMark for our power load reading, as our usual choice, 3DMark 11, does not work with the GeForce GT 220. As such, these values are much higher than a user would see during game play. In any case, the Radeon HD 6450 lands about where we would expect it to in the middle of the pack.



better luck next time.

(unendlich wird übrigens... naja eben unendlich geschrieben)
 
Zuletzt bearbeitet:
deadohiosky schrieb:
@Schnie Ich werfe nichts durcheinander.
Hier wurde die Aussage getätigt 50% mehr Verbrauch. Das ist der erste Fehler. Dann wurde aufbauend auf diesem Fehler gesagt "maximaler (realer) Verbrauch"= TDP.
Dass das nicht stimmt wollte ich mit den Messungen von ht4u aufzeigen.
Richtig, allerdings wie ich schon geschrieben habe hängt die TDP immer mit der Leistungsaufnahme zusammen(höhere Leistungsaufnahme = höhere TDP(schummeln lassen wir mal außen vor)) Bezüglich dem tatsächlichen Verbrauch hat Lübke geschrieben :

Lübke schrieb:
die tdp ist zwar die größe zur bemessung der abwärme, aber was wird denn aus dem strom in einer gpu? die tdp entspricht zu 99,9 % dem lastverbrauch.
So nun ein Auszug aus Wikipedia :

Wikipedia schrieb:
Mit Thermal Design Power (Abkürzung: TDP, gelegentlich auch falsch: Thermal Design Point) wird in der Elektronikindustrie ein typischer Wert für die Verlustleistung eines Prozessors oder anderer elektronischer Bauteile bezeichnet, auf deren Grundlage die Kühlung ausgelegt wird.
Soweit so gut, wenn man jedoch "Verlustleistung" in die Wikipedia eingibt kriegt man folgendes zu sehen:

Wikipedia schrieb:
Als Verlustleistung bezeichnet man die Differenz zwischen aufgenommener Leistung (Leistungsaufnahme) und in der gewünschten Form abgegebener Leistung (Leistungsabgabe) eines Gerätes oder Prozesses.
Wenn man den Artikel genauer durchliest , stößt man auf folgenden Satz(bezogen zwar nur auf den Leitungsverlust, ist jedoch auch auf die Elektronik anwendbar):
Wikipedia schrieb:
Der Leitungsverlust bei der Übertragung elektrischer Energie hängt direkt vom Leitungswiderstand R, somit von der Leitungsdicke und dem verwendeten Material, sowie vom fließenden elektrischen Strom I ab
Die Formel dazu ist P(Leitungsverlust) = R(Wiederstand)*I²(Stromstärke zum Quadrat)
Somit ist der Bezug der Leistungsaufnahme zur TDP mithilfe von externen Quellen bewiesen. Jetzt schauen wir an was an Lübkes Aussage mit den 99,9% falsch sein soll.
Wie (ebenfalls auf Wiki nachzulesen) ist die Formel für die Wirkleistung( die nun zur 100% dem tatsächlichen Verbrauch entspricht): P(Wirkleistung) = P(Verlustleistung)+P(Nutzleistung). Was ist bei der Grafikkarte die Verlustleistung? Natürlich - die Abwärme. Was ist die Nutzleistung? Etwa die Umwandlung in die mechanische Energie? Ja, aber nur wenn da noch ein Lüfter dran ist (und selbst dann ist der Verbrauch sehr gering) In die Lichtenergie? Eher nicht da die Grakas in der Regel nicht leuchten;). Was bleibt uns - richtig nur noch die elektrische Energie. Aber moment mal - wir wandeln elektrische Energie in elektrische Energie ? Klingt unlogisch. Also ist die besagt elektrische Energie das, was wir der Karte zuführen. Da diese nicht in andere Energieformen umgewandelt wird (Licht-, Elektrische- und Mechanische Energien) bleibt uns nur noch die
thermische Energie(Abwärme). Somit kann man sagen die Leistungsaufnahme einer Grafikkarte aus Verlustleistung(thermische Energie) + Lüfter (mechanische Energie)+ein kleines bisschen Nutzenergie(wobei der Lüfter gehört ebenfalls zur Nutzenergie - wir wollen ja unsere GraKa mit seiner Hilfe kühlen). Geht man zusätzlich von einer passiven Karte aus, kann man tatsächlich behaupten dass die TDP dem Verbrauch entspricht (vlt nicht 99,9 % sondern 99,7% - kann hier keine genaue Werte liefern, dennoch müsste es ungefähr passen) Zur guter Letzt kann man sogar behaupten dass der Verbrauch etwas höher ist als die TDP(allerdings vernachlässigbar gering)

deadohiosky schrieb:
Der Verbrauch(Leistungsaufnahme) ist sicherlich gestiegen. Er könnte sogar um 60% gestiegen sein, oder eben nur um 30%. Die Leistung allerdings ist faktisch! um bis zu 50% (fps in Spielen) gestiegen.

Daher kann man weiterhin nichts über die (In-)Effizienz der Karte aussagen.
Ebenfalls richtig. Der tatsächlicher Verbrauch ist momentan eine unbekannte Größe(hast ebenfalls richtig geschrieben). Nur wird oft vergessen dass die Praxis manchmal ungenauer ist als die Theorie. Hört sich komisch an, ist aber so:) Ein Beispiel zur Verdeutlichung- die Karte kann von 18 bis 30 Watt reell verbrauchen (kommt auf Hersteller an, auf die Speichergröße, den Takt usw...)womit wir auf ganz viele Ergebnisse kommen, was Verbrauch angeht. Im Vergleich dazu gibt es eine einzige theoretische Größe - die TDP(mit den besagten 27 Watt). Da ich bereits bewiesen habe dass die TDP in direkter Beziehung zum Verbrauch steht(und diesen fast zu 100% wiedergibt) und dieser sich um 50 %erhöht hat, kann man davon ausgehen dass auch die Leistungsaufnahme um 50 % gestiegen ist(s.o.) Würden wir also davon ausgehen dass im Spiel Hawx(vom DVD_ im Posting Nr. 16) die HD 6450 und die 5450 mit den maximalen Verbrauchen (also 27 und 19 Watt) laufen , könnte man auch den Wirkungsgrad ausrechnen. Die Formel lautet n=P(ab)/P(zu) Somit wäre der Wirkungsgrad bei der 5450 n=17(Fps)/19(Watt)=ca 0,894; Bei der 6450 n= 30(Fps)/27(Watt) =ca 1,11 womit die Effizienz der HD 6450 eindeutig bewiesen wäre. Angeblich natürlich :D Denn zusätzlich müssen wir noch die Steigerung in % ausrechnen also = 1,11*100/0,894 = ca 124,161% Somit haben wir eine Effizienzsteigerung beim Havx, unter Berücksichtigung der maximalen Leistungsaufnahme, von ca 24% bei gleichzeitiger Verbrauchssteigerung von 50 % mehr Strom(natürlich können diese Werte vom Spiel zum Spiel unterschiedlich sein) Dass die maximale Leistungsaufnahme beim Hawx erforderlich ist, ist nur eine Annahme, eine genauere Recherche kann man nur machen wenn man beide Karten zur Verfügung hat und beiden die maximale Leistung abverlangt (zB Furmark) und dann die erreichte Punkte von Beiden, in die Formel einsetzt, kann man tatsächlich feststellen wie effektiver/ineffektiver die neue GraKa von AMD ist ( und ja man kann die TDP beibehalten denn die Werte werden annähernd an die tatsächliche Verhältnisse herankommen - nicht zu 100% aber zu 99,9% oder vlt auch 99,7% ;) )
 
Zuletzt bearbeitet:
Übrigens, falls es bisher noch niemandem aufgefallen ist: Die 27 Watt der 6450 beziehen sich auf eine Karte mit GDDR5-Speicher. Die zum Vergleich herangezogene 5450 hat dagegen DDR3-Speicher an Board. So wirklich fair ist dieser Vergleich imho nicht.

Wenn, dann sollten die beiden Karten sich schon auf Augenhöhe begegnen und beide mit der gleichen Speicherbestückung bei einem Verbrauchsvergleich gegeneinander antreten. Und dann sieht die Welt schon ein wenig anders aus.
Bei THG ist zu lesen, dass eine 6450 mit DDR3-Speicher dann nur noch eine TDP von 20 Watt hat, im Vergleich zu den 27 Watt der GDD5-Variante.

Dann stehen also den 19 Watt TDP der DDR3-5450 20 Watt TDP der DDR3-6450 gegenüber. Das kann man doch wohl kaum kritisieren, vor allem unter dem Gesichtspunkt, dass die 6450 ja leistungsfähiger ist als die 5450.
 
Zuletzt bearbeitet:
deadohiosky schrieb:
Zum Verbrauch zitiere ich dann zum zweiten Mal:

Also wurde die GT220 als auch die 6450 mit ein und dem selben Program getestet.
Das Furmark deutlich höher belastet als jedes Spiel, oder selbst als 3D Mark ist bekannt.

Aber ändert nichts an den Verhältnissen zwischen den Karten, wenn beide mit dem selben Programm getestet wurden.

Und die Folien, hab ich schon verstanden, nur geht es ebend um das Bild was AMD's PR erreichen will, was im Widerspruch zur Relalität steht.
Sowas Kommentarlos stehen lassen ist grade zu naiv.

Der Einwand, Nvidia würde angeblich ja genauso heftige Kundentäuschung betreiben, ist hier erst mal eine reine Unterstellung. :rolleyes:
 
"Reine Unterstellung *augenroll*"?

Jetzt neu: NVIDIA® GeForce® GTX 590 ist die leistungsstärkste DirectX 11 Grafikkarte, die je gebaut wurde. Das schlanke Design der GeForce GTX 590 Grafikkarte birgt zwei GTX 500 Grafikprozessoren mit jeweils 512 Recheneinheiten und eine spezielle Dampfkammerkühlung. Sie verbindet Eleganz mit maximaler Leistungsfähigkeit.

"leistungsstärkste Grafikkarte, die je gebaut wurde"?

Eleganz und maximale Leistungsfähigkeit? Soll ich ich mir die Karte um den Hals hängen weil sie so elegant ist?:freak:



Weder Nvidia noch AMD bekleckern sich beim Marketing mit Ruhm, das sollte man einfach mal zugeben und nicht einfach die Scheuklappen aufsetzen. Das kann man entweder objektiv kritisieren oder einfach ignorieren und sich auf das Wesentliche fokussieren.


http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index15.php

Zu Furmark

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index7.php

Der Furmark erzeugt eine konstante Last, die in Spielen bestenfalls in Form von kurzzeitigen Peaks entsteht, aber eben nichtsdestotrotz auftreten kann. Man darf den Furmark und somit unsere Last-Ergebnisse also gerne als Worst-Case-Szenario interpretieren. Und genau mit diesem Worst-Case-Szenario scheint nicht jeder Hersteller gerechnet zu haben...


Furmark ist nichts anderes als ein synthetischer Benchmark, wie 3dMark und Co. auch.

Was er aber, im Gegensatz zu den meisten anderen BMs, ganz exzellent kann, ist die "wirkliche" maximale Leistungsaufnahme zu ermitteln.

Es ist und bleibt aber ein Benchmark. Solange man nicht den lieben langen Tag nur Benchmark über Benchmark durchlaufen lässt, sagen diese Werte rein gar nichts über die tatsächlichen Werte aus und daher finde ich es auch unverschämt von THG diese Werte als Leistungsaufnahme zu präsentieren, im Nebensatz aber fallen zu lassen, naja theoretisch würden die Werte anders aussehen, aber wir bekommen 3DMark 2011 bei der GT 220 nicht zum Laufen. Was nutzt mir die Leistungsaufnahme des "Systems", wenn ich nicht weiß in wie weit die CPU an der Last beteiligt ist, bzw. wie effizient das "2000 Watt NT"(Übertreibung) bei dieser Last ist.

Lies dir einfach mal den verlinkten Artikel zur Leistungsaufnahme, Furmark und TDP etc. durch.

Es macht nämlich sehr wohl etwas aus. Solange wir nicht wissen ob z.B. die HD 6450 künstlich gedrosselt wird und theoretisch noch eine höhere La unter Furmark haben könnte, oder nicht haben diese "Messungen" einfach keinerlei Gewicht.
 
Zuletzt bearbeitet:
@deadohiosky

Bei dem Text zur 590 seh ich keine Übertreibung, CB selber kommt zum Schluss, dass 6990 und 590 auf Augehöhe liegen und je nach Benchmarkzusammenstellung, können sich sich beide Hersteller, mal hier mal da, "Schnellste Graka" an die Backe schmieren.

AMD ist im Moment nur etwas lauthals bockig, weil die GTX 590 nicht nur schnell, sondern auch noch sehr viel leiser ist.
Da zählt jetzt jedes Prozentpünktchen der Balken, für AMD's PR und damit gehen sie ebend aktuell hausieren, na und finden ja auch genug Leute die ihnen das abnehmen.

Die andere Sache mit Furmark.
Das Furmark grundsätzlich nichts taugt, grade weil AMD in Sachen Limiter (Powermangament) weiter ist und hier vermutlich stärker abregelt, ist klar.
Im Zweifel ist das aber ebend auch nicht positiv für die 6450 auszulegen, aber hier spekulier ich nicht, und halte mich an die Messungen die es gibt.

Ist ja nicht meine Schuld das AMD, weder PCGH, noch Ht4u noch CB mit Mustern versorgt, zum Release.
Grade PCGH und HT4u bieten ja genauere Messungen und CB hätte ja einen wichtigen BluRay & Dual Monitor Vergleich gehabt.

Ich könnte AMD jetzt unterstellen, dass sie daran überhaupt kein interesse haben, aber beweisen kann ich es nicht.
Und früher oder später werden auch diese drei ein Muster der 6450 abgreifen, also wirds die Zeit zeigen müssen.
 
CB hat doch ein TestSample? Ist bloß zu spät eingetroffen. Steht im "Artikel"(News).


Zum Marketing: Nvidia gestehst du diese Großspurigkeit zu: "Wir haben die größte, beste längste und sind besser als der Rest". Wenn AMD das behauptet ist das aber Kundenverarsche? Der Argumentation kann ich nicht mehr folgen.


Das ist eben das Problem, woran macht man die schnellste Grafikkarte fest? An der Lautstärke des Lüfters oder der Leistungsaufnahme der Karte.

In diesem Scheißeweitwurf-Wettbewerb sehe ich ganz klar AMD vorne. Warum?

AMD gewinnt in dem einen Spiel, verliert in dem anderen, ist generell bei niedrigeren Auflösungen der Nvidia unterlegen, das Blatt wendet sich aber wenn der Karte angemessenere Auflösungen abgefragt werden. Man kann also sagen, Gleichstand.

Nun kommt aber hinzu dass di HD 6990 nicht nur erheblich weniger Leistung aufnimmt für die gebotene Leistung, sondern dabei auch noch erheblich kühler bleibt. Zu allem Übel kommt dann auch noch hinzu dass sowohl der UVP als auch der Straßenpreis 40-60 Euro unter der GTX 590 liegt.

Nvidia hat bei seinem Referenzdesign dann nur noch den leiseren Lüfter als einsamen Pluspunkt zu stehen. Der leise Lüfter hilft aber nicht noch ein paar fps herauszuholen.

Was bleibt? Beide Karten sind vollkommener Humbug, die HD 6990 ist aber die effizientere bei gleicher Leistung.


Die Limitierung ist weder positiv noch negativ auszulegen. Fakt ist, Furmark stellt keine normalen Nutzungsbedingungen her, genauso wenig wie 3DMark und Konsorten.

Was soll nun als Vergleichswert herhalten, unrealistische, synthetische Benchmarks oder die Leistungsaufnahme während BluRay-Wiedergabe, En/Dekodierung, Spiele?
 
Lübke schrieb:
50% mehr verbrauch als die 5450? das ist imho die falsche entwicklung in dem bereich. amd sollte sich lieber an nvidias einstiegsmodell (g210) orientieren und versuchen die in sachen verbrauch zu schlagen. wer leistung will, greift sicher nicht zu so einer karte und für alles andere sind g210 und 5450 die bessere wahl...

Sie sollen sich an einem Produkt orientieren das langsamer als eine 5450 ist aber selbst in der DDR2 Variante mehr frisst als selbige?
http://ht4u.net/reviews/2010/amd_radeon_hd_5450/index16.php
http://ht4u.net/reviews/2010/amd_radeon_hd_5450/index13.php
 
@deadohiosky:
Die 6450 "verbraucht" 50% mehr als die 5450. Eine faktisch falsche Aussage.
ist sie das? na dann zitier ich dich doch ma:
http://ht4u.net/reviews/2010/amd_radeon_hd_5450/

TDP des HD 5450 Referenzdesign(laut AMD): ca. 19 Watt

von ht4u gemessen

Unter Last (Spiele) : 14,2 Watt

dann bemühen wir mal adam riese:
14,2 + 50% = 21,3
dann nochmal ein zitat von dir:

Ich habe schon mal einen Wert gefunden:

http://www.hardwareheaven.com/review...emp-noise.html

22 Watt unter Vollast, "behauptet" hardwareheaven.

faktisch falsch? nach deinen eigenen "fakten" stimmts aber ebenso wie nach amds eigenen aussagen.

Und dahingehend frage ich mich warum das von mir gewählte Beispiel ungünstig ist, das würde ich dann schon gerne mal erklärt haben. Ich wollte nur feststellen, das AMD es doch sehr genau mit der TDP, vllt. ein wenig zu genau.
also bisher hast du immer behauptet, die tdp angaben bei amd seien vollkommen willkürlich, aber danke dass du mich endlich mal bestätigst ;)

@KAOZNAKE: wofür braucht denn jemand, der nen llano hat ne zusätzliche grafikkarte, die schwächer als eine 5570 ist? merkste was? ;)

ich kann dir versichern, dass in den kommenden jahren nicht alle pc verschrottet werden und gleichzeitig llano nen marktanteil von 100% erreicht. ^^ es wird genug abnehmer für die karte (und auch die gt520) geben. und die 5450 ist mehr als schnell genug. von der geschwindigkeit reicht den meisten zielgruppen auch die gf6200 oder x1300 aus. bei der karte geht es nicht um leistung. verbrauch und leise kühlung hingegen sind wichtig für htpc, officerechner und surfmaschinen.

@wadenbeisser:
Sie sollen sich an einem Produkt orientieren das langsamer als eine 5450 ist aber selbst in der DDR2 Variante mehr frisst als selbige?
das war natürlich auf die geschwindigkeit gemünzt wie aus dem kontext zu entnehmen war. es ging darum, dass behauptet wurde, die gt220 wäre schneller. aber die gt220 ist nicht die kleinste ausführung ihrer reihe, sondern die g210.
damit will ich weder mehr verbrauch noch rückschritt auf dx10 fordern. sollte eigentlich klar sein, oder?
ich hab die g210 noch nie empfohlen, aber wenns um ne möglichst sparsame karte geht und nur die g210 und 6450 zur wahl stünden, hätte die veraltete g210 die nase vorn. traurig genug, oder?
 
Zuletzt bearbeitet:
Nur mal so, der Typ heißt/hieß Adam Ries und zweitens, kann ich nichts mit deiner Rechnung anfangen. Du kannst nicht einfach einen Wert nehmen und da 50% draufschlagen, dass ist einfach nur unseriös und sagt nichts aus, den Wert von hardwareheaven habe ich einfach hinzugezogen um dir zu zeigen, hier gbit es Leute die einfach die LA eines Gesamtsystems mit SB Chip nehmen, die Grafikkarte hinzufügen und dann aus der Differenz die LA der Karte abschätzen. Hättest du den Artikel gelesen wäre dir das sicher aufgefallen.


Denn du verstehst nämlich weiterhin nicht, was für ein Problem ich mit deinen Aussagen habe: sie sind nicht belegbar, weil es keine Messwerte gibt, der reale Verbrauch könnte
noch deutlich über den 50% der HD 5450 liegen, würde die TDP müsste trotzdem nicht erreicht werden.

Ich wiederhole mich noch einmal, die TDP sagt nichts über den tatsächlichen realen Verbrauch aus, aber das interessiert dich ja nicht, obwohl du ja schon zugeben musstest, dass du den Begriff nicht richtig verstanden hast.

Ich werde einfach noch einmal den Artikel posten, anscheinend hast du ja den Rest der Beiträge überflogen.

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/

http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php


Hier wird auch übrigens von TDP gesprochen, lustigerweise wird bei Nvidia und AMD seit geraumer Zeit von "Typical Board Power" gesprochen. Auch das wäre dir aufgefallen, wenn du den Artikel gelesen hättest.

Abschließend... ich habe nie behauptet AMD würde die TDP Angaben willkürlich treffen, finde es traurig dass du deine eigenen Worte mir in den Mund zu legen suchst.
Auch habe ich nie behauptet die HD 6450 würde nicht mehr verbrauchen in der Tat bin ich überzeugt, sie verbraucht mehr, wie viel sie aber in realen Szenarien verbraucht, das kann ich nicht einschätzen, warum kannst du das?
 
obwohl du ja schon zugeben musstest, dass du den Begriff nicht richtig verstanden hast.
weder musste ich noch hab ich das behauptet. allerdings drängt sich mir mehr und mehr der verdacht auf, dass du es doch nicht verstehst. es gibt einen kausalen zusammenhang zwischen leistungsaufnahme und abwärme. da kann amd nicht einfach bei 100 watt leistungsaufnahme ne tdp von 15 watt angeben, nur weil denen grad danach ist. ob da nun ein sicherheitspuffer von 4 watt oder von 10 watt ist, spielt gar keinen walzer. aber den hat die 5450 ebenso. da kannst du deine eigenen aussagen noch so oft umdrehn.

wie viel sie aber in realen Szenarien verbraucht, das kann ich nicht einschätzen, warum kannst du das?
kann ich nicht, aber amd kann das. und das haben sie getan. und deren einschätzung liegt bei 50% über der 5450, die sie nach gleichem maßstab festgelegt haben.

da du dir aber wiederholt wiedersprichst und immer wieder von vorne anfängst, werde ich diese diskussion auch nicht mehr fortführen. mal ist amd sehr genau mit der festlegung der tdp, dann ist es wieder frei geraten... scheinbar gehts dir nur noch um rechthaberei.

meine aussage, dass der verbrauchsanstieg bei lowendkarten imho der falsche weg ist, bleibt. obs nu 50%, 30% oder 1000% sind, spielt keine rolle. wenn du mehrverbrauch gutheißt, is das deine sache. hab keine lust mehr das mit dir zu diskutieren.
 
Wie gesagt, du hast dir ja immer noch nicht den Artikel durchgelesen, daher erübrigt sich auch für mich jedwede weitere Diskussion, dass du dann auch noch deine Anfangsbehauptung anpasst und auf einmal sagst, ist doch egal ob 50, 60, 10%...

Deine Anfangsaussage bleibt, 50% höhere TDP= 50% höherer Verbrauch.


AMD legt die TDP bzw. "Typical Board Power" nach ihren Maßstäben fest, da ist es ohne Belang ob du andere Maßstäbe ansetzt. Auch Nvidia macht das. Sie gehen nämlich davon aus, dass normale Menschen nicht den ganzen Tag Furmark laufen lassen um die "wirkliche" TDP zu messen, also laut Definition die maximale Verlustleistung.


Polemische Aussagen,wie
wenn du mehrverbrauch gutheißt, is das deine sache.
darfst du gerne aus dieser Diskussion heraushalten.

Die ganze Diskussion ist eigentlich lächerlich. Wer die Karte braucht, der wird sie sich (z.B.) in den eigenen HTPC einbauen und sich über die Mehrleistung freuen, derjenige der darauf bedacht ist seinem System nur einen bestimmten Verbrauch zuzugestehen wird sich dagegen entscheiden. Und genau um diesen Punkt geht es mir, du legst fest wie viel diese Karte verbrauchen darf/sollte, alles andere ist dir egal. Man kann nicht aus einer "alten" Architektur auf einmal mehr Leistung quetschen und gleichzeitig die Leistungsaufnahme verringern. AMD hat im Moment sehr effiziente Architekturen, jedenfalls im Vergleich zu Nvidia, trotzdem können sie nicht zaubern. Wer die Karte gebrauchen kann und mit der Mehrleistung zufrieden ist, der wird sich kaufen, wenn nicht dann nicht.

Die HD 6450 verbindet Eigenschaften der GT 220 und der Gt 430... und das wahrscheinlich zu einem deutlich niedrigeren Preis bei niedrigerer Leistungsaufnahme.


edit:Weiterhin bleibt auch die Frage offen, wie sich eine HD 6450 mit DDR3 und einer "Typical Board Power" von 20 Watt schlagen wird, bei 5% höherer TDP als die 5450 10, 20, 30% mehr Frames würde auf jeden Fall einen Mehrwert darstellen, die "gesteigerte" maximale Leistungsaufnahme sollte hier dann vernachlässigbar sein. Oder?
 
Zuletzt bearbeitet:
@Lübke
Es war einfach das denkbar schlechteste Beispiel das du bringen konntest.
Die Karte ist langsamer als der Vorgänger, zieht mehr Strom, ist schlechter ausgestattet und die TDP liegt bei ca. 30W. Wenn man pech hat frisst die GT210 dann so viel wie die 6450 ist dabei aber deutlich langsamer und schlechter ausgestattet. Na ja...erst einmal ein paar Tests abwarten.

Die Vergleiche mit der GT220 sind noch schlechter. Die ist zwar selbst in der DDR2 Variante etwas schneller aber verbrauch aber mit ihren ca. 58W deutlich mehr. http://geizhals.at/deutschland/a524510.html?fs=GT220&in=
 
ok war doof ausgedrückt. ich wollte nur denen entgegen, die meinten dei gt220 wäre ja ähnlich stark oder gar stärker, dass die 6450 auch mit der g210 in einem segment liegt. die gt220 ist die zweitschwächste karte und wäre das (schlechtere) pendant zur 5550.

von nvidia wäre wohl vermutlich die gt520 die erste echte alternative der dx11-generation (falls da nicht auch ne g510 angedacht ist). und wie die sich schlagen wird, bleibt abzuwarten.

edit: welchen mehrwert stellt es dar, wenn statt der sagen wir 2.000% der erforderlichen leistung zur bilddarstellung für word, win rar und co. 5.000 % der erforderlichen leistung (zahlen fiktiv! bevor sich hier wieder leute daran aufhängen) vorhanden sind? nochmal, das ist ne office-karte, keine spielekarte. wer was zum zocken sucht, der muss halt mal 42 € für ne 5550 investieren oder sich was gebrauchtes suchen, wenn er sich das nicht leisten kann...

einen mehrwert würde es imho darstellen, wenn die karte wie meine alte s3 virge aus dem office-pc mit unter 7 watt und vollkommen kühlerlos betrieben werden kann. selbst die konnte schon mohrhuhn und diverse flashgames. von word und excel mal ganz zu schweigen. crysis muss auf solchen karten imho gar nicht möglich sein.

das ist meine kritik an der entwicklung. ich hoffe, dass war jetzt verständlich.
 
Zuletzt bearbeitet:
nVidia muss ebend erst einmal dort hinkommen wo AMD bereits ist.
Selbst in den geringeren Verbrauchsklassen ist AMD zumindest mit den integrierten Grafiken präsent.
Von den IGPs der Chipsätze bis hin zu den Fusionsprodukten hat man schon eine kleine Auswahl, ist aber auf AMDs CPUs beschränkt. Allerdings schaut es bei Intel auch nicht anders aus, wodurch dort für nVidias Produkte so gut wie kein Platz ist. Zumindest bei den x86er Prozessoren.
 
@wadenbeisser: ja nvidia hat das segment zuletzt erstaunlich schludern lassen. wenn ich aber bei meinem fachhändler sehe, dass der noch massig fx5500 an firmen für bürorechner verhökert, dann zeigt mir das, dass das interesse in dem segment einzig beim preis liegt, und bei lautlosem sparsamen betrieb. da ist weder dx11 noch viele spiele-fps gefragt. ich hab ihn mal drauf angesprochen, dass die 6200 nur 2,- € mehr kostet und deutlich schneller ist. wollen die kunden nicht sagte er.
auch ati hat zu agp-zeiten die radeon7000 bis zum schluss als office-lösung gehabt.
 
Zuletzt bearbeitet:
@deadohiosky
Hm, du gibst mir mit deinen Aussagen und Links Recht, versuchst dennoch zu diskutieren.
Hast du überhaupt gelesen was ich geschrieben habe? Wenn ja hast du denn verstanden? Eher nicht sonst hättest du mir die Lektüre bezüglich TDP nicht verlinkt. also starten wir einen 2. Versuch
deadohiosky schrieb:
@Mursk
AMDs Angaben sind nicht "falsch" das ist die TDP, die maximal durch die Kühllösung abzuführende Abwärme, angegeben in Watt, bzw. genauer: eine konkrete Angabe der laut AMD maximalen Leistungsaufnahme des Gerätes. Die dadurch entstehende Abwärme muss abgeführt werden, die Wattzahl ist dabei der Indikator wie hoch diese Abwärme ausfällt.
Du sagst hier dass die Abwärme in Watt angegeben wird. Ist das überhaupt möglich? Klar ist das möglich - gibt es auch Formel dazu: 1 Watt/Sekunde= 1 Joule:) Was kennen wir alle aus dem Physikunterricht: die Energie geht nie verloren - sie wird immer nur umgewandelt. Hoffentlich hast du nichts gegen, da es sich um eine Axiome handelt. Nun darfst du mir erklären, was mit der , der Grafikkarte zugefügten, Energie passiert. In welche Formen wird sie denn umgewandelt?(Tipp - lese was ich in meinem 2. Posting geschrieben habe) Somit musst sogar du zugeben dass es sich nur um die thermische Energie handeln kann(mit dem minimalen Abzug von der Energie in Form von schwacher elektromagnetischer Strahlung, welche jedoch nicht ins Gewicht fehlt (daher ist die Aussage mit 99,99% korrekt)) Wenn du damit nicht einverstanden bist - dann beweise mir das Gegenteil, aber bitte unter der Berücksichtigung der physikalischen Gesetze und nicht mit irgendwelchen Links zur TDP.

Nun zur TDP selbst. Es wäre naiv zu glauben dass Nvidia und AMD sich an einem einzigen Benchmark orientieren. Höchstwahrscheinlich sind es mehrere, von deren Ergebnissen dann der Durchschnitt gebildet wird(sowohl beim Minimal- als auch beim Maximalverbrauch) Daraus kann man schließen, dass bei der HD6450 der durchschnittlicher Verbrauch um 50 % erhöht hat. Wie kann es auch anders sein wenn der Hersteller das so behauptet. Daraus ergeben sich auch die, von dir aufgezeigten, Differenzen, weil man sich vlt nur auf einen Test (z.B. nur Furmark) bezieht und nicht die Gleichen nimmt, die der Hersteller bei seinen Kontrollen benutzt hat und schon gar nicht den Durchschnitt daraus.

Wenn du immer noch nicht damit einverstanden bist - kannst du mir auch gerne antworten - aber bitte sachlich, auf meine Fragen bezogen und per PM - will mich nicht ins OT reinreiten.

In diesem Sinne,
MFG Schnie
 
Zurück
Oben