Bericht AMD Zen: Als Ryzen mit 3,4 GHz+ und 95 Watt TDP gegen Broadwell-E

Es werden zwei High End CPU Designs verglichen. Die GTX Titan sind zum einen aktuell mit Abstand das schellste GPU Paket (-> CPU Limit) und zum anderen kann dadurch niemand AMD vorwerfen über Treiberoptimierungen (eigene GPUs) das Ergebnis zu verfälschen.

Für die Präsentation einer absoluten High End Plattform ist die RX 480 nicht gerade das Optimum und Vega aufgrund des frühen Entwicklungstandes praktisch keine Option. Derart weit vor dem Release lässt man sich einfach nicht in die Karten schauen. Die Titan für den CPU Vergleich zu nehmen und Vega separat (ohne Performance) zu zeigen war deshalb durchaus die goldene Mitte.
 
Hefeteigmeister schrieb:
Endlich macht AMD Intel wieder platt. Ich bin gespannt, wie sich die 4-Kerner schlagen werden und wie viel diese kosten werden.
...
So sehr ich mir ebenfalls solch ein Ergebniss (zumindest Perspektive) auch wünsche... aber...
DAS ist nicht ansatzweise gesagt und wird auch nicht durch die bei der Präsentation genutzten Benchmarks gestützt.
Ausser du "spielst" nur Blender, oder bist beruflich bedingt Blender-Hardcore-Nutzer, und nutzt warum auch immer keine GPU für Blender... zumindest könnte es dann endlich wieder eine Alternative zu Intel geben.
 
LoRDxRaVeN schrieb:
FX-51 z.B., schon mal davon gehört? Oder duzende Opterons? Natürlich wird auch für eine AMD CPU mehr bezahlt, wenn denn dementsprechende Voraussetzungen vorhanden sind.

- der fx-51 ist von 2003, einer zeit, in der amd intel das leben richtig schwer gemacht hat.

- kostet der fx-51 keine 1000€ sondern wurde damals mit 733$ veranschlagt (http://www.tomshardware.de/die-neue-garde-vier-boards-amds-athlon-64-fx,testberichte-708-3.html)

- opterons sind server cpus - ryzen nicht; das ding ist in erster linie gaming und workstation.

heute siehts leider so aus, dass amd seit 6 (!) jahren mit jeder neuen intel generation an boden verliert, und auch wenn für mich persönlich piledriver auch heute noch durchaus ne brauchbare cpu für manche anforderungen ist (die apus sind für office auch spitze), und die cpus mit vulkan und dx12 sich besser halten als erwartet, ist bei den meisten angekommen, dass amd zu diesem jetzigen zeitpunkt praktisch aus dem consumer cpu markt raus ist, zumindest was neukäufe angeht.

es ist ja auch nicht so, dass intel mit jeder generation immer deutlich schneller wird. nichteinmal die detailverbesserungen konnte oder wollte amd auffangen. es war aber wohl auch besser direkt in zen zu investieren, das ist kein vorwurf - bulldozer/piledriver kam einfach zur falschen zeit.

die bereitschaft so viel geld für eine marke auszugeben ist eher eine emotionale als rationale angelegenheit, und emotional ist amd voll durch, weil sie die letzten 6 jahre nicht konkurrenzfähig waren, und jetzt auf einmal soll man denen, nach dem, was mit bulldozer passiert ist, das "gleiche" geld hinwerfen wie intel, die die letzten jahre ein quasi-monopol auf dem markt hatten und momentan absolut unangefochtener marktführer sind?

du kannst wegen mir anhand von benchmarktabellen in deinem umfeld die "wahrheit" 24/7/365 hoch und runterpredigen. bis beim otto normalo ankommt, dass amd wieder konkurrenzfähig ist und man bei amd fairerweise den selben preis zahlen soll wie bei intel, ist schon lange zen refresh draußen - oder garnichts mehr.
 
Zuletzt bearbeitet:
YforU schrieb:
...

Für die Präsentation einer absoluten High End Plattform ist die RX 480 nicht gerade das Optimum und Vega aufgrund des frühen Entwicklungstandes praktisch keine Option. Derart weit vor dem Release lässt man sich einfach nicht in die Karten schauen. Die Titan für den CPU Vergleich zu nehmen und Vega separat (ohne Performance) zu zeigen war deshalb durchaus die goldene Mitte.
volle Zustimmung!

Selbst falls Vega schon so weit wäre, dass man es an dem Abend hätte präsentieren können, wäre es nicht Sinnvoll gewesen.

Zum einen würde Vega und Ryzen zu sehr von einander ablenken.
Zum anderen könnte man bei dem reinen AMD Testsystem bei diversen Tests und Präsentationen nicht urteilen, ob die Performance (egal ob negativ oder positiv) von der CPU, GPU / Grafikkarte, dem Board, den frischen Treibern oder gar dem OS geschuldet ist.

Ausserdem ist die Reichweite von zwei aufeinander abgestimmte Präsentationen viel höher.
 
Hefeteigmeister schrieb:
Edit: Aber AMD scheint ja nicht mal von seinen eigenen Grafikkarten überzeugt zu sein :lol:
Warum nutzen die für die Vorführung zwei GTX Titan? :lol:

Hätte AMD das gemacht, hätte es 20 Seiten Beiträge gegeben, dass doch BF1 soviel besser auf AMD Hardware läuft und die böse AMD Grafikkarte dann Intel CPU ausbremst. Nur mal als Beispiel.
 
YforU schrieb:
Es werden zwei High End CPU Designs verglichen. Die GTX Titan sind zum einen aktuell mit Abstand das schellste GPU Paket (-> CPU Limit) und zum anderen kann dadurch niemand AMD vorwerfen über Treiberoptimierungen (eigene GPUs) das Ergebnis zu verfälschen.
Wenn man zwei High End CPU Designs vergleicht, dann doch bitte von unabhängiger Seite.
Ich kann mich nicht daran erinnern, dass Intel irgendwo auf einem Event seine CPU's gegen die von AMD vergleicht und undurchsichtige Parameter nutzt.
AMD macht das aber auch anders herum, wie man an dem Beispiel Fury gesehen hat. Da wird dann mit einer Intel CPU auf einem Event die ach so tolle eigene GPU im Benchmark gezeigt.

Mir soll das aber egal sein, weil ich solche Vergleiche von einem Hersteller gemacht grundsätzlich ignoriere. Da bleibt immer ein Fader Beigeschmack und man muß sich fragen ob AMD das wirklich nötig hat.
 
oldmanhunting schrieb:
Mir soll das aber egal sein, weil ich solche Vergleiche von einem Hersteller gemacht grundsätzlich ignoriere. Da bleibt immer ein Fader Beigeschmack und man muß sich fragen ob AMD das wirklich nötig hat.

Die einen sagen AMD macht zu wenig Marketing, die anderen sagen sie machen zu viel, keinem kann man es recht machen.
Finde das Event gut, es macht auf AMD aufmerksam, insbesondere da man von dem OEMs nicht viel Unterstützung erwarten kann, die haben keine Zeit, sind gerade Geldkoffer Intel holen...

BookerDeWitt schrieb:
Im gleichen Atemzug AMD für solch einen Fehler zu schimpfen, aber dann auf die Integrität von nVidia und Intel hinzuweisen ist mMn aber höchst paradox und lächerlich. Intel als verurteiltes, illegal marktbeherrschendes Unternehmen, dass jeden Fortschritt behindert, in dem es den einzigen Konkurrenten ruiniert und sich dann ausgeruht hat, sowie nVidia, als kundenunfreundliches, betrügerisches Unternehmen, dass ständig schlimmeres Marketing betreibt, als AMDs Fehler haben sich eigentlich keinen guten Ruf verdient.

/signed
 
YforU schrieb:
Ein konkurrenzfähiges Produkt für weniger als die Hälfte des üblichen Marktpreises zu verkaufen macht kein wirtschaftlich orientiertes Unternehmen. Erst recht nicht wenn es sich dabei um das Spitzenmodell einer ganzen Produktreihe handelt. Damit ruiniert man sich freiwillig selbst die Marge im gesamten Portfolio.

Verkaufte Einheiten * Gewinn pro Einheit zählt.

Die Entwicklungskosten pro Einheit sinken mit jeder verkauften Einheit.
 
foofoobar schrieb:
Verkaufte Einheiten * Gewinn pro Einheit zählt.

Die Entwicklungskosten pro Einheit sinken mit jeder verkauften Einheit.

Erstmal muss AMD schauen wie viele sie am Anfang liefern können.
Zur HD 5870 haben sich die Händler wegen der Knappheit den ganzen Gewinn geholt, dass muss auch nicht sein ;)
 
Mehr Kerne als die Standart Intel CPU und ohne Turbo schneller als das Top Model. Er braucht auch noch ein viertel weniger Strom als das Intel Gegenstück

Wer nach der Präsentation noch Intel kauft ist selber schuld. Gegen sowas kommen die blauen halt nicht an
 
flappes schrieb:
OMG wer nicht in der Lage ist aus einer 200 eine 150 oder 100 zu machen und "Rendern" zu klicken, der sollte erst gar keinen Benchmark laufen lassen. ;)
Das kann jeder, wenn er denn weiß das dies zu machen ist und AMD hat versäumt dies zu kommunizieren. Die Aufforderung zum Vergleich zusammen mit der Downloadseite wären zwei Möglichkeiten gewesen dies zu tun, so aber wird selbst jemand mit einer ähnlich schnellen CPU zu dem Ergebnis kommen, sein CPU wäre ja viel langsamer, selbst wenn sie das nicht ist. Das hat mal mindestens ein Geschmäckle.

flappes schrieb:
es wird am Ergebnis des von AMD gezeigten Tests nichts ändern, in deren Szenario waren beide CPUs gleich schnell.
Eben in dem Szenario, nur wie das wirklich aus? Ich kann Dir ein Szenario bauen wo ein kleiner i3 den 6900K schlägt, realistisch ist das dann aber nicht. Wenn man die Werte die AMD für die Intel CPU nicht nachstellen kann und bisher konnte das keiner, dann muss man aber eben auch die Realitätsnähe des ganze Vergleiches oder wie Du sagst, des Szenarios, bezweifeln. Die RYZEN hat ja noch keiner außer AMD und daher kann man eben noch nicht vergleichen und muss neutrale Reviews abwarten, aber hätte man die Ergebnisse bei der AMD PR Veranstaltung nachvollziehen können, wäre dies gut für AMDs Glaubwürdigkeit gewesen, leider hat AMD diese Chance aber vertan.

psYcho-edgE schrieb:
Deshalb gehe ich bei CPUs auch vom Maximum 95W aus.
Die Demo hat doch gezeigt, dass die Leisutngsaufnahme zwischen Last mit 188W und Idle mit 93W schon 188W - 93W = 95W betrug. Dabei lief die CPU angeblich nur m Grundtakt ohne Boost.

Hefeteigmeister schrieb:
Endlich macht AMD Intel wieder platt.
Dies alleine aufgrund der Demo zu unterstellen halt ich für gewagt, dafür gibt es zu viele Ungereimtheiten. So ist die Idle Leistungsaufnahme von 106W für ein X99 System mit einem 6900K ungewöhnlich hoch und dann aber unter Last mit 191W, also nur 85W mehr als im Idle für ein Programm welches AVX nutzt, was Blender seit Version 2.71 oder so macht, dann aber zu gering. Auch hat wohl noch keiner bei der Blender Demo mit einem 6900K die Werte von AMD anhand der AMD Daten nachvollziehen können. Es empfiehlt sich also mit einer gewissen Vorsicht an die Sache zu gehen und nicht zu große Erwartungen aufzubauen, die am Ende womöglich enttäuscht werden.

Gaugaumera schrieb:
Er braucht auch noch ein viertel weniger Strom als das Intel Gegenstück
Ein Viertel? Unter Last waren es für das Gesamtsystem 3W weniger und zwischen Last und Idle mit 95W sogar 10W mehr als beim Intel System.

Gaugaumera schrieb:
Wer nach der Präsentation noch Intel kauft ist selber schuld. Gegen sowas kommen die blauen halt nicht an
Wer nach der Präsentation blind AMD bestellt ohne neutrale Reviews abzuwarten, der ist selbst schuld wenn er sich hinterher getäuscht fühlt.
 
Zuletzt bearbeitet:
foofoobar schrieb:
Verkaufte Einheiten * Gewinn pro Einheit zählt.

Die Entwicklungskosten pro Einheit sinken mit jeder verkauften Einheit.

Ja. Nur ist Summit Ridge kein Design welches bezogen auf x86 PCs überhaupt signifikante Marktanteile erreichen kann. Gut 60% des Marktes machen heute mobile CPUs aus. Von den verbleibenden knapp 40% (Desktop) sind dann noch SFF und (OEM) Office Systeme mit IGP abzuziehen. Der überhaupt adressierbare Markt liegt bei 15 - 20% welcher mit Intel zu teilen ist. Das Brot und Butter Geschäft im Consumer Bereich mit hohen Volumen bei gleichzeitig ordentlichen Margen sind Produktreihen wie Intels i5 mit IGP. Sowohl Desktop als auch Mobile. Also das was AMD Q4/2017 über Raven Ridge adressieren wird.

High End Desktop CPUs wie auf LGA 2011 und in Zukunft Summit Ridge (AM4) gibt es nur weil diese so oder so für Enterprise (Server) entwickelt werden müssen. Stückzahlen welche die Entwicklungskosten rechtfertigen würden werden dabei aber nicht am Desktop abgesetzt. Entsprechend ist die Marge wichtiger als das Volumen. Diesen Part übernehmen andere Produktreihen.

oldmanhunting schrieb:
Ich kann mich nicht daran erinnern, dass Intel irgendwo auf einem Event seine CPU's gegen die von AMD vergleicht und undurchsichtige Parameter nutzt.
AMD macht das aber auch anders herum, wie man an dem Beispiel Fury gesehen hat. Da wird dann mit einer Intel CPU auf einem Event die ach so tolle eigene GPU im Benchmark gezeigt.

Im Gegensatz zu Intel und Nvidia bedient AMD sowohl den CPU als auch den dGPU Bereich. Es macht deshalb durchaus Sinn bei der Vorstellung eines High End Designs aus einer Sparte dieses in Kombination mit dem Maximum zu präsentieren. Egal ob das dann aus eigener Entwicklung kommt oder nicht. Ansonsten benachteiligt man sich am Ende nur selbst. AMD schreibt bei Reviews den Testern schließlich auch nicht vor das eigene GPUs nur mit eigenen CPUs getestet werden dürfen/sollen. Wäre im übrigen aktuell äußerst kontraproduktiv.
 
Zuletzt bearbeitet:
YforU schrieb:
High End Desktop CPUs wie auf LGA 2011 und in Zukunft Summit Ridge (AM4) gibt es nur weil diese so oder so für Enterprise (Server) entwickelt werden müssen. Stückzahlen welche die Entwicklungskosten rechtfertigen würden werden dabei aber nicht am Desktop abgesetzt. Entsprechend ist die Marge wichtiger als das Volumen. Diesen Part übernehmen andere Produktreihen.


Und genau da bin ich mal gespannt welche Strategie AMD da fahren wird. Denn wie Du schon sagst der Markt für High-End 8 Kerner zu dementsprechenden Preisen ist extrem klein. Und da Die Haswell 8-Kerner und jetzt die Skylake 8-10 schon ne Weile auf dem Markt sind ist diese Zielgruppe höchstwahrscheinlich auch schon gut gesättigt. Die Anzahl der Leute die bereit sind 1000€ und mehr auszugeben und bis jetzt immer noch keinen 8-Kerner haben dürfte ziehmlich klein sein.
Für alle die schon einen haben ist ein Gleichziehen oder auch nur ein leichtes plus von Ryzen wohl kein Grund die ganze Plattform zu wechseln. Da muss der Ryzen 8-Kerner dann schon eín ganzes Stück besser sein oder darf halt dafür nicht im Preisbereich von Intel liegen.

Perfekt wär natürlich der 8-Kerner zum Preis eine i7-6700K, dann hätte man endlich 8Kerne im "Mainstream", aber ob das passiert. Da dürfte wohl keine Marge mehr übrig bleiben, je nach Produktionskosten zahlen die dann sogar drauf, also eher unwahrscheinlich.

Bei den 4-Kernern sollte das hingegen besser laufen, da ja immer noch extrem viele mit den alten i5-2500K usw unterwegs sind, da lohnt der Plattformwechsel schon eher wenn P/L stimmt. Vielleicht können sie da etwas quer "finanzieren" und so den Preis für die 8-Kerner niedrig halten.

Keine Ahnung, hoffe endlich wieder auf gute Konkurenz. Und bin echt gespannt wie der 8-Kerner sich P/L technisch einordnen wird.
 
Zuletzt bearbeitet:
Holt schrieb:
Das kann jeder, wenn er denn weiß das dies zu machen ist und AMD hat versäumt dies zu kommunizieren.

Hier müsste man definitiv Absicht unterstellen, denn es kann mir ja niemand erzählen, dass man ein gut organisiertes Event planen kann und dann in der B Note derart scheitert.

So ist die Idle Leistungsaufnahme von 106W für ein X99 System mit einem 6900K ungewöhnlich hoch und dann aber unter Last mit 191W, also nur 85W mehr als im Idle für ein Programm welches AVX nutzt, was Blender seit Version 2.71 oder so macht, dann aber zu gering.

Das sieht so aus, als ob AMD ein Szenario gefunden hat, wo ZEN recht wenig Strom benötigt ( Ein Szenario mit einer Teilauslastung ).
Daher auch der geringe Verbrauch des 6900k.
Auch hat wohl noch keiner bei der Blender Demo mit einem 6900K die Werte von AMD anhand der AMD Daten nachvollziehen können

Wenn das der Fall ist, unterstelle ich AMD Täuschung.
 
Irgendwie kribbelt es mir schon ein schnelles amd System nächstes Jahr zusammen zubauen.

Das mit 499€ für den top Ryzen könnt ihr euch aber abschmieren.
Amds FuryX kam auch nicht zum kundenfreundlichen Preis von 299€ raus. 699€ waren es.

Die Zeiten in denen Amd High End Hardware zum "wir sind bekloppt und pfeifen auf den maximalen Gewinn"
Preis anbietet sind lange vorbei.
 
Ich meine wir wünschen uns ja alle einen guten und starken Ryzen, der zu einem Preis von 500-600 Euro mit seinen 8 Kernen den Markt aufwirbelt. Ob das so kommt muß man einfach abwarten.

Leute die schreiben, Sie würden Ryzen heute blind kaufen ohne Preis und Leistung zu kennen kann ich einfach nicht ernst nehmen aber es soll halt jeder das machen was er will.
 
@Fysher der vergleich hinkt, die fury x hat ne die size von 600mm², dazu kommt noch 4Gb teurer stacked ram oder war das ein anderes modell?

Wenn mich google nicht im stich laesst hat die 4core variante nur 5mm² die 8core folglich 10mm² stimmen die zahlen? Naja selbst wenn die fertigung ausschuss 10x so teuer waere ist da viel luft dazwischen vielleicht kann mir mal noch einer erklaeren warum eine 60x groessere die nicht 60x so viel kostet?

Der Punkt ist aber der die herstellungskosten duerften schon grob mit den grafikkartenherstellungspreisen zusammenhaengen. Das ist also nicht weil amd 200% gewinn will.

Bei den 6 und 8cores ist das aber voellig los geloesst von den Herstellungspreisen, eben monopolpreise. Selbst Intels Core I5 haben schon hohe Marten weil man selbst in dem Bereich quasi ein Monopol hat.

Anders gesagt bezogen auf die herstellungskosten sind die amd karten billig.

Die Grafikkarten wurden so truer weil sie auch vdeutlich schneller geworden sind ueber die jahre.

Be Radeon 8500 die z.b. recht billig damals war, hatte 16 shader/cores 70mm² die size also die die size alleine hat sich fast verzehnfacht. Das da die preise steigen muessen ist klar.

Athlon 64 die size war dagegen 150 bis 200mm² grob. Irgendwie kommen mir die zahlen zum zen falsch vor. Wahrscheinlich sinds cm² statt mm² das warden dann 100mm²fuer den 8core?

Man sieht dann aber das grafikkarten logischerweise teurer werden mussten und cpus nicht. Das hat nichts damit zu tun das amd nun luxusmargen bei grafikkarten einfahren will, sondern mit hoeheren herstellungskosten.

Und die size ist da sicher nicht der einzige Factor aber doch ein wichtiger Factor!

Na mal zum vergleich die 22nm Intel I7 prozessoren haben 160nm bis 180nm die haben allerdings auch ne gpu dabei, zen ja nicht? Schon alleine deshalb hat amd selbst bei gleicher marge bis zu 40% spielraum nach unten wenn sie auch noch die margen reduzieren sind deutlich billigere preise moeglich.
 
Zuletzt bearbeitet:
blackiwid schrieb:
@Fysher der vergleich hinkt, die fury x hat ne die size von 600mm², dazu kommt noch 4Gb teurer stacked ram oder war das ein anderes modell?
Eine GPU ist einfacher zu entwickeln, da relativ symmetrisch. Dafür braucht eine GPU aber einen Treiber, eine CPU nicht.

Wenn mich google nicht im stich laesst hat die 4core variante nur 5mm² die 8core folglich 10mm² stimmen die zahlen?
Etwa 250mm². Die Größen kannst du z.B. hier finden.

Der Punkt ist aber der die herstellungskosten duerften schon grob mit den grafikkartenherstellungspreisen zusammenhaengen. Das ist also nicht weil amd 200% gewinn will.
Die Herstellungskosten sind nur ein kleiner Teil der Kosten, der bei weitem größte Teil sind die Forschungs- und Entwicklungskosten. AMD entwickelt seit mehr als vier Jahren an ZEN und hat da mehrere hundert Millionen $ reingesteckt, die müssen erst einmal wieder erwirtschaftet werden, dazu muss die Entwicklung auch weitergehen. Schau dir einfach mal in den einzelnen Quartalsberichten die Kosten für F&E an und rechne das zusammen, das sind mehrere Milliarden. Intel und Nvidia haben da sogar noch höhere Aufwendungen.
 
blackiwid, die Größe des Dies ist doch recht egal wenn es um die Preise geht, die werden aufgrund so vieler Faktoren gemacht, dass die Diesize alleine darauf nur wenig Einfluss hat.

Daddelkopf schrieb:
Hier müsste man definitiv Absicht unterstellen, denn es kann mir ja niemand erzählen, dass man ein gut organisiertes Event planen kann und dann in der B Note derart scheitert.
Inzwischen wurde eine HowTo nachgereicht und demnach sind 150 Samples zu wählen und die Peview zu aktivieren. Die Zeit skaliert offenbar sehr gut mit der Samplerate und manche waren beim ersten Test mit den 200 Samples dann doch geschockt wie lahm ihre CPU und wie schnell RYZEN ist. In dem Sinne hat AMD sein Ziel erreicht und den Eindruck einer sehr schnellen CPU hinterlassen.

Daddelkopf schrieb:
Das sieht so aus, als ob AMD ein Szenario gefunden hat, wo ZEN recht wenig Strom benötigt ( Ein Szenario mit einer Teilauslastung ).
Zwar kenne ich Blender nicht, aber eigentlich sollte der die Kerne voll auslaste, wie man auch im Taskmanager gesehen hat und auch AVX Befehle nutzen. Dies was aber zumindest bei dem 6900K offenbar nicht der Fall, sonst hätte der mehr Leistung gezogen als nur 85W mehr unter Last wie im Idle. Mit AVX sind es bei dem mit Prime über 120W mehr zwischen Idle und Last.
Daddelkopf schrieb:
Daher auch der geringe Verbrauch des 6900k.
Geringer war der nur für das gesamte System, die CPU selbst hat sich gegenüber Idle 10W mehr als der 6900K gegönnt.
Daddelkopf schrieb:
Wenn das der Fall ist, unterstelle ich AMD Täuschung.
Das war eine PR Veranstaltung die zeigen soll wie toll RYZEN ist und da kannst Du keine objektiven Vergleiche erwarten. Der i7 musst mit Dualchannel auskommen und konnte damit sein Vorteil bei der RAM Bandbreite dank Quadchannel nicht nutzen, dann ist Blender Open Source, also könnte AMD den Source-Code selbst mit entsprechenden Flags neu compiliert und z.B. AVX deaktiviert haben. Auch hat Intel damals Blender als Demo für die Optiane (3D XPoint) SSD benutzt und damit gegenüber einer NVMe PCIe SSD mit NAND Flash deutlich Unterschiede erzielt:
Wie weit man der Intel Demo trauen kann ist eine andere Frage, aber sie zeigt jedenfalls deutlich, dass bei entsprechenden Systemen und Daten bei Blender auch das Disk-I/O einen deutlichen Unterschied machen kann. AMD hat nicht verraten welche Laufwerke und wie viel RAM verbaut waren, oder steht das irgendwo? Es gibt also eine Menge Faktoren an denen man drehen kann um bessere oder schlechtere Ergebnisse zu erzielen und wenn die CPU ständig auf Daten warten muss, dauert es eben länger und sie verbraucht weniger Energie. Wie viel weniger, kann wieder von System zu System unterschiedlich sein. Also bleibt es dabei, dass man die Reviews abwarten muss, denn den Angaben der Hersteller kann man immer nur sehr beschränkt trauen.
Ergänzung ()

Fysher schrieb:
Die Zeiten in denen Amd High End Hardware zum "wir sind bekloppt und pfeifen auf den maximalen Gewinn"
Preis anbietet sind lange vorbei.
Die Zeiten gab es nie, als AMD damals konkurrenzfähige CPUs hatte, waren deren Preise auch entsprechend, nur sind die Zeit wo AMD solche CPUs hatte eben länge vorbei und kommen nun hoffentlich endlich zurück.
 
Holt schrieb:
Ergänzung ()

Die Zeiten gab es nie, als AMD damals konkurrenzfähige CPUs hatte, waren deren Preise auch entsprechend, nur sind die Zeit wo AMD solche CPUs hatte eben länge vorbei und kommen nun hoffentlich endlich zurück.

Zu Phenom II Zeiten war die Preise schon sehr sehr gut und auch die 5870 wurde besonders am Anfang zu günstig, für die Anzahl die sie liefern konnten, verkauft.
 
Zurück
Oben