Test Test: Trinity vs. Ivy Bridge im CPU-Test

Meetthecutthe schrieb:
Hier wird sich ja immer noch um die Erkenntnis des aktuellen AMD-Fail gewunden. Respekt für die Ausdauer :cool_alt: .

Du gehst auf keine Argumente ein, zitierst aus dem Kontext gerissen und am Ende, obwohl es so viele Argumente für die APU gibt, kommst du an und redest von einem Fail. Was willst du eigentlich in dieser Diskussion?
Ergänzung ()

phiber66 schrieb:
@MrTengu
mein Computer nutze ich hauptsächlich zur Audiobearbeitung das heist wave bearbeitung und mp3 converting ist nur am rande wichtig aber auch hier sieht man beiläufig das Intel die Nase seit jahren vorn hat und AMD dort die angesetzt hat sich zu verbessern! Die AMD-Schwäche im Audiobereich ist ja nicht erst seit gestern bekannt sondern seit Jahren bekannt!
um 2 Gigabyte Wave Datei in mp3 umzuwandeln benötigt ein Core i7 3770k 2Minuten ein
AMD 3870k LLano braucht dafür knapp 7Minuten!!!
Wichtiger ist aber meine DAW Software also (Fruity Cubase Ableton,usw... !)
meine DAW profitiert sehr von CPU Takt aber auch vor allem von entsprechenden CPU Features wie HT & SMT, multithreaded generated Processing!
ich glaube sowas alles hat nen Core I5 nicht mal! Für mich spielt Preis und Stromverbrauch eine wichtige Rolle, aber auch falls ich doch mal nen 3D Spiel spielen will, wenn ich die Zeit dafür habe...! denn soll dies auch spaß machen und ich will nicht ständig irgendwelche Details auch bei älteren Games so wie Far Cry 2 runterschrauben, hatte vorher nen 3870k von AMD und mal ehrlich besser gleich ne vernünftige Grafikkarte rein!
schön und bewundertswert von AMD das die integrierte Grafikeinheit APU schnell/schneller ist
aber für einige ältere nicht so anspruchsvolle Games & HTPC ist das nur zu gebrauchen da ändert sich auch mit Haswell nichts leistungstechnisch gross!


Dann wärst du doch niemals mit einer APU gut gefahren. Du kannst keine APU in eine DAW bauen. Wir stellen selber DAW Software her, da brauchst du Power unter der Haube.

Insofern, gute Wahl.
 
timo82 schrieb:
Vielleicht meinen die, dass der A10 uner Last mehr als dreimal so viel Strom verbraucht, wie im Idle.
Im Idle 55W, unter Last 160W.

Das ist ja der komplette PC.
ein Trinity Komplettsystem verbraucht ca. 32 W im Idle - der Rest geht auf die hier im Test verbaute GTX680. Was das soll ist mir wirklich ein Rätsel.

Ein i3-3220 System braucht 20% mehr im Idle

1_01-Leistungsaufnahme-Idle.png


Bei den Werten von Planet3D ist zu berücksichtigen dass der Llano mit einem MSI Board gemessen wurde, welches im Idle ca. 5 W weniger verbraucht als das Referenzboard von Asus im Test.

50410.png
 
timo82 schrieb:
Vielleicht meinen die, dass der A10 uner Last mehr als dreimal so viel Strom verbraucht, wie im Idle.
...
Vielleicht kommt es beim reinen CPU Verbrauch ja hin!

Erstens ist der Idle Wert eh nichts Wert. Wenn ich mir einen Trinity kaufen sollte, bau ich da keine GPU zusätzlich ein. Wenn ich sowas vorhabe, würde ich mir gleich einen FX kaufen.
Idle mit iGPU ist Trinity sparsamer als der i3-3220 mit iGPU weil die iGPU in SB und IB deutlich ineffizienter ist als die iGPU im Llano/Trinity! Das wird sich erst mit Haswell ändern.

Und was die reine CPU unter Last an Strom mehr verbraucht ist rel. irrelevant, da ich die Stromkosten für das gesamte System bezahle. Und da zahl ich im schlechtesten Fall max. 1,8-mal mehr. Und nicht das Dreifache.
 
pipip schrieb:
Simon
Nur sind die % angaben leider nicht 1zu1 zu vergleichen oder ?
Bsp : Niedrige Zahlen : 92 vs 114 watt => 25 %

jetzt das in min ausgedrückt : 7:44 Minuten vs 8:50 Minuten.

Das heißt der A10 ist 64 sec länger im idle.

Das dumme ist nur, dass der 5800K allein in der aktiven Zeit 14,69 Wattstunden verbrät, während der 3870K nur 13,54 Wh benötigt. Die Rechnung geht so oder so nicht zugunsten des Trinity auf.

Egal wie man sich das hinrechnet, signifikante "Fort"schritte sind das ja wohl mal nicht.
 
Schade dass keine kleineren Modelle getestet wurden. Die "65 Watter" find ich sehr interessant.
 
Daedal schrieb:
Nein ist es nicht - erkundige dich bitte mal. Was hat denn GPGPU mit gemeinsamen Speicherbereichen von CPU und GPU zu tun und Verwendung von gemeinsamen Pointern?

Hier hat es Info: http://hsafoundation.com/pubs-presos/
Danach solltest du es wohl kaum noch als Buzzword für GPGPU sehen.

Was ist der Unterschied zur GPGPU? Richtig, es gibt keinen. HSA ist nur ein Marketingbegriff, der exakt das selbe beschreibt. Zugriff auf einem gemeinsamen Speicher ist essentiell, dass GPGPU in Zukunft wesentlich interessanter wird. nVidia hat sowas z.B. mit CUDA 4 oder 5 eingeführt, wo der komplette Systemspeicher "unified" gemacht werden lann. Project Denver von nVidia geht in die selbe Richtung und integriert ARM Cores direkt im selben Die.
Und Intel hat schon mit Sandy Bridge die Möglichkeit erschaffen, dass GPU und CPU über den gemeinsamen L3 Cache kommunizieren können. AMD dagegen lässt beide Teile immer noch über dedizierte Speicherkanäle Daten austauschen.

Es wundert mich persönlich nicht, dass viele AMD Marketingmenschen eben kontinuierlich HSA als Heilbringer verkaufen wollen. Der letzte Hoffnung der Firma.
 
Simon schrieb:
Das dumme ist nur, dass der 5800K allein in der aktiven Zeit 14,69 Wattstunden verbrät, während der 3870K nur 13,54 Wh benötigt..

Grande Katastrophe! Damit ist der 5800k bei dieser Aufgabe 0,0002875 Cent teurer! :rolleyes:
 
Erstmal Danke für den Test.

Trinity ist damit schon deutlich attraktiver als Lliano. Intel wird wohl die Preise senken müssen oder mit der Abschaltpolitik bei den Dualcores aufhören müssen.

Noch spannender wird´s dann in einem halben Jahr mit Steamroller Grafik Core next Grafik und 28 nm und das ohne Boardwechsel im Gegensatz zu Intel.
 
Simon schrieb:
Das dumme ist nur, dass der 5800K allein in der aktiven Zeit 14,69 Wattstunden verbrät, während der 3870K nur 13,54 Wh benötigt. Die Rechnung geht so oder so nicht zugunsten des Trinity auf.

Doch nämlich dann wenn man erst 34,5 Minuten oder später wieder etwas anderes macht was die CPU belastet.

Nach 34,5 Minuten (Trinity 7:44 Last + 26,76 min Idle; Llano 8:50 Last + 25,66 min Idle) liegt der Verbrauch für das Trinity System unter dem des Llanos.

Llano verbraucht im Idle +12,8% mehr als nen Trinity
i3-3220 verbraucht im Idle +24,7% mehr als nen Trinity (10,5% mehr als nen Llano)

Wenn das kein signifikanter Fortschritt ist was dann?
 
ankabo schrieb:
Wieder ein Prozessor den niemand braucht.
Er verbraucht für seine Leistung viel zu viel Strom und wenn es um richtig Performance geht, hat er keine Puste. Hier scheint jeder € verschenkt zu sein.
Warten wir auf die nächste Baureihe von AMD, Intel kann sich ja zur Zeit zurücklehnen.

Schon einmal berücksichtigt, dass es sich hierbei um eine APU mit performanter GPU handelt?

Die GPU dieser APU ist doppelt so schnell wie die neuste seitens Intel [HD 4000]. Der herausragende Leistungswert der A10 GPU zieht halt nun mal einen etwas höheren Stromverbrauch mit sich!

Der höhere Stromverbrauch, gegenüber Intels neusten 3000er CPUs, kommt natürlich nicht nur von der GPU, das ist klar.

AMD arbeitet aber dran deren x86-Prozessoren effizienter und performanter zu gestalten, und ich hoffe, das sie es eines Tages schaffen werden, mit Intel gleichzuziehen, oder sie sogar noch zu übertrumpfen! Ich vermisse einfach die pro Kern Leistungswerte aus den guten alten FX-60 Zeiten!


Für einen ausreichend leistungsstarken Multimediarechner reicht AMDs neue A10-5800K APU aber alle mal! :)
 
Zuletzt bearbeitet:
John_Sheppard
Naja wer weiß :O vllt ist Trinity noch der Athlon XP und Kaveri könnte mit streamroller + GNC und gemeinsamer Adressraum schon wie damals HT und 64Bit ein neuer Meilenstein sein :O
abwarten und tee trinken ^^
 
MountWalker schrieb:
Warum ist eine VLIW4-Einheit denn weniger "CPU-Teil", als eine SSE-Einheit oder eine AVX-Einheit? x87 war die erste FPU im "x86-Umfeld", diese wurde ersetzt durch 3Dnow! und SSE. Ich verstehe nicht, wo der Prinzipunterschied zwischen einer FPU-Einheit für AVX und einer FPU-Einheit für AMD Stream besteht - das sind zwei unterschiedliche Instruction Sets, aber AVX ist auch ein anderes Instruction Set als SSE.

schau dir die athlons auf trinity-basis an und was bei denen noch aktiv ist (ich nehme an dass es sich bei denen nahezu ausschliesslich um ausschussware mit defekter und desaktivierter gpu handeln wird) das zählst du zur CPU. die VLIW4 einheiten werden da dann wohl kaum mehr drauf sein (oder funktionieren) => teil der gpu. die ist fein raus in meiner kritik. alles andere (sprich der cpu-teil) ist ein schuss ins ofenrohr.
 
Ist eig. jemandem aufgefallen das auf Seite 5 beim Bild vom I3 oben im Screen I5 3550 steht ?? O_O
 
Perry S. Hilton schrieb:
alles andere (sprich der cpu-teil) ist ein schuss ins ofenrohr.

Warum? Man bietet mehr Performance, das Performance/Leistungsaufnahme-Rating ist besser und man braucht im Idle 12,8% weniger als der Vorgänger (Llano A8-3870K) und dabei hat der Llano (4 Integer-Kerne und 4 FPUs) und Trinity (4 Integer-Kerne und nur 2 FPUs). Jetzt fehlt nur noch Software mit FMA Unterstützung und der Llano mit den alten Stars-Kernen sieht gar kein Land mehr. Ich seh hier keinen Schuss ins Ofenrohr, sondern eine kleine Weiterentwicklung bei gleichen Fertigungsprozess. Mehr war nicht zu erwarten.
 
Zum Anfang muss ich erst einmal dem Journalisten des CPU Tests gratulieren, dass er es wieder mal geschafft hat die Nachteile der AMD Trinity CPU hervorragend übertrieben ins rechte Licht zurücken, während es Herrn Andermahr möglich war eine neutrale und sachliche Bewertung des Grafikteils zu formulieren.

Manch indifferente Formulierung und Präsentation des gemessenen ist teils blanker Hohn und war auch nach den Kommentaren des Testers gegenüber AMD Produkten zu erwarten.
Leider bringt auch die Zweiteilung des Produktes (AMD Trinity APU) in zwei separate Tests relativ wenig, wenn man am Ende gar kein Fazit zieht, was das Endprodukt bewertet, sondern nur Einheit für Einheit.

Aber zuerst mal zu folgendem:

Volker Riska schrieb:
Bereits von vornherein war klar, dass der A10-5800K und der Core i3-3220 nicht in einer Liga spielen. Doch was am Ende dabei herauskommt, sind keine kleinen Unterschiede; die Modelle trennen Welten. 33 Watt bringt der Core i3-3220 auf die Anzeige, wenn man den Differenzwert zwischen voller CPU-Last und Idle in Windows ermittelt. Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache! Die TDP von 100 Watt wird von „Trinity“ genau so ausgenutzt wie vom Vorgänger „Llano“, der unterm Strich sogar noch etwas weniger Energiebedarf anmeldet.

Wenn ein Produkt in einer anderen Liga spielt, ist der Unterschied eher groß anzunehmen und nicht klein.
Zu erwarten AMD würde Intel mit Performance/Watt jetzt angreifen ist der blanke Hohn.
Man hätte ja wenn man schon dabei ist, zumindest auf die stromsparendere Variante alias 5700k hinweisen können.

Zu allererst wäre es sinvoll gewesen auf den gleichhohen Idle verbrauch beider Systeme einzugehen und vielleicht einmal Teillastszenarien oder die Leistungsaufnahme bei Spielen oder sonstigen Anwendungen zu messen um den Test etwas wertvoller als eher leider wenig differnt zu machen.
Sich nur auf den Last Verbrauch zu fokussieren und Buzzwörter wie "3mal so hoher Verbrauch" zu verwenden, aber dann nicht zu relativieren ist gelinde gesagt keine gute journalistische Arbeit und zeigt im Vergleich zu anderen Tests wie Tomshardware, der PCGH, Anandtech und etc.. Verbesserungspotenzial.

AMD war deshalb in den Ausführungen vor dem Start sehr deutlich, man solle doch stets die aktuellsten und neuesten Anwendungen nutzen, denn je älter das Programm ist, desto mehr fällt das Modul-Design zurück.

Was in einer Anpassung des Codes begründet ist und mit dem Modulkonzept an sich, eher wenig zu tun hat.

Perry S. Hilton schrieb:
naja leider wie zu erwarten: im wesentlichen ein faildozer halt. warum sollt ich mir dieses teil antun, wenn ich von intel für den gleichen preis ziemlich genau die gleiche leistung kriege, die aber semipassiv kühlen kann?

Naja, wenn du schon Wörter benutzt welche die Architekur pauschal als "schlecht" und ineffizient deklarieren, musst du auch den Fertigungshintergrund berücksichtigen.
Auch wenn dies hier der Thread zu CPU Leistung ist, muss stets das gesamte Produkt beurteilt werden. Der CPU Teil ist schließlich nicht alleine zu erwerben.

Diese einfache Erkenntnis ist natürlich durch die 2 Fazits zu den unterschiedlichen Einheiten etwas versperrt, soviel sei dir verziehen.

beckenrandschwi schrieb:
Die Leistung, wofür AMD hier mächtig die Muskeln (großes DIE, hohe Leistungsaufnahme) spielen lassen muss, schüttelt INTEL einfach so aus dem Ärmel.

Die Größe ist immer relativ, vor allem wenn Intel einen 22nm Prozess fährt und AMD einen 32nm Prozess.
Die Die Größe würde sich bei AMD fast halbieren.

Krautmaster schrieb:
rinity macht in meinen Augen eine wirklich gute Figur. Gerade auch deshalb, da die Leistungsaufname idle gut ausfällt. Multimonitor wird aber wohl wieder so ein Fall sein... bei der die Aufnahme zu hoch ausfällt.

Jetzt fehlt noch der Test eines kleinen 25W Modells mit 2 Modulen. Der wäre HTPC technisch interessant.

Multimonitor wurde nicht getestet.
Der Grund warum die Blue Ray Leistungsaufnahme bei AMD höher ausfällt, sind etwaige Bildverbesserer deren Sinn sich für mich nicht ganz erschließen.
Man kann in den Optionen diese aber auch deaktivieren, bei den Desktopkkarten wird somit immerhin ca 20% der Leistungsaufnahme eingespart.


thomas_003 schrieb:
sorry, aber das rumgehacke auf dem stomverbrauch kann ich nicht ganz nachvollziehen
klar braucht das teil ein bisschen strom unter last, aber im idle, wo sich die cpu in 90% der fälle befinden dürfte, kann sie locker mit intel mithalten
und klar ist die leistung nicht überragend, aber dafür sind sie günstig

Du darfst bei Computerbase differente Betrachtungsweisen eher klein schreiben.
Dies liegt vor allem an den Nutzern, welche sich lieber durch einfach gehaltene Zusammenhänge wühlen und lieber eindeutigere, wenn auch bezweifelbare Fazits besser aufnehmen.
Zum Nachdenken ist keine Zeit ;).

Herdware schrieb:
Und dann ist da noch der "gut genug"-Effekt, der AMD bisher geholfen hat, sich trotz Leistungssrückstand einigermaßen am Markt zu halten.

Es gibt keinen gut genug Effekt, sondern nur P/L.

Numrollen schrieb:
tromverbrauch bei Last ist ja spitze theoretischer Natur aber völlig unbrauchbar um darauf mehrfach einzugehen oder das Fazit komplett darauf auszulegen. Ich habe auf einen 3770K gewechselt von meinem 5 Jahre alten Q6600 (beide OC), habe ein Strommessgerät über eine Woche laufen lassen und ausgewertet.

Meine Rede. Man muss den Lastverbrauch nicht schönreden, hier hat AMD gegnüber dem effizienten 2 Kerner von Intel erheblichen nachholbedarf.

Meetthecutthe schrieb:
Die einen sagen dazu "innovativ" die anderen einfach "dumm" .

Man entwickelt nun mal als wirtschaftlich klug agierendes Unternehmen nicht am Markt vorbei. Das AMD sich nicht als solches Bezeichnen kann wurde wiederholt unter Beweis gestellt.

Gut dass es solche Weltverbesserer wie dich gibt.
Ich bin echt erstaunt über deinen fundierten Sachverstand. Leicht "daherreden" können viele Leute.
Wirklich Ahnung von der Materie haben die allerwenigsten und da schließe ich mich aus, weil ich vor dem Know How der Firmen und einigen Mitarbeitern Respekt habe, welche Produkte der Halbleiterbranche herstellen und entwickeln.

Es war ist das Fazit für eben diesen Test den wir aktuell kommentieren und somit richtig.
Davon ab kommt für 95% der CB-Leser ohnehin nur eine dedizierte Grafikkarte in Betracht. Der GPU Teil des Prozessors ist somit fü diese Nutzer irrelevant (und wurde nicht umsonst separat getestet)

Stelle dir mal vor du würdest den hier konstruktiv Diskussionsfähigen Usern so einen Unfug live beim Stammtisch erzählen.
Jeder würde sich für so viel Polemik und Plakativität Fremdschämen, aber hier im Netz gehen einem derartige Trollversuche viel einfach über die Lippen... ach ja ich vergaß.. Finger.

nanoworks schrieb:
"Ausschnitt aus dem Fazit:

Zitat:
Für den Preis von knapp über 100 Euro liefert AMDs Flaggschiff der neuen „Trinity“-Familie eine gute Performance.
Zitat:
durch diese Dinge schlägt man den Vorgänger und auch Intels Core i3 in Anwendungen
Zitat:
Im Bereich der Anwendungen hält man deshalb „Llano“ mit 16 Prozent auf spürbarem Abstand und selbst Intels Core i3-3220 wird geschlagen
Zitat:
Unterm Strich ist es letztlich das Gesamtpaket, das zugunsten von „Trinity“ gegenüber „Llano“ spricht
Damit ist eigentlich alls gut auf den Punkt gebracht. Wie immer ein einwandfreier Test. Danke CB."

Merkste was? So kann man doch nicht diskutieren!

Huch was ist denn da passiert @ meetthecutthe.
Man schmiert sich das Brot so wie es einem in den Kram passt, dein "schmieren" liegt aber leider noch eine Niveau klasse weiter unten.

Meetthecutthe schrieb:
CPU und dedizierte Grafikkarte - so sieht das Szenario des interessierten CB-Lesers aus. Das es selbst bei den meisten die das ganze nun versuchen schön zu reden so ist kann man in vielen Fällen ihrer Signatur und/oder ihren jüngsten Posting rund um ihre dedizierten Grafikeinheiten im entsprechenden Unterforum entnehmen.

Gab es dazu eine Umfrage?
Ich finde es relativ grotesk, dass du so minderbemittelt bist und schlicht erfundene Fakten als Beweismittel benutzt um andere User mit dedizierten Grafikkarten die Disksussionssubstanz zu nehmen versuchst.
Versuchs doch beim nächsten mal einfach mit Inhalten und Argumenten. ;)

Sontin schrieb:
Wer wirklich mit seinem HTPC spielt, der kommt an einer dedizierten Grafikkarte nicht vorbei. Oder kauft sich eine Konsole.

Interessant. Dass Spiele mit Trinity teils erheblich besser spielbar sind als mit Intels HD 4000 ist also eine Lüge?
Und wenn man sich die Tests ansieht, kommt man in einigen Klassikern sehr gut um eine dedizierte Grafikkarte herum.
Du kommst wohl aus deiner relativ tiefen Suppenschüssel nicht mal mit dem Kopf herausgucken und hast wohl alle Tests Fazits zur Spieberkeit vieler Spiele schlicht nicht gesehen, würde man vermuten müssen.

Tomahawk schrieb:
Ich verstehe aber dennoch nicht, der das Ding kaufen soll. Für einfache Office-Rechner genügt ein Dualcore-Celeron. Wenn man sehr wenig ausgeben möchte, aber dennoch Spielen möchte, ist eine 40 Euro-CPU (z.B. Celeron G550) und dazu eine Grafikkarte wie z.B. eine HD6750/6770 deutlich schneller.

Korrekt, am besten einfach gar nichts kaufen und Leistungsklassen und Unterschiede zwischen den Produkten mit -dreh dich im Kreis- Argumentationen ignorieren.

Meetthecutthe schrieb:
Du bist ein wenig verblendet. Nichts desto trotz wirst auch du langsam einsehen müssen das AMD mal wieder versagt hat.

Verstehe ich konkret nicht. Die Grafikeinheit ist gut und leistet 80% mehr als die Intel Grafikeinheit, die CPU Leistung ist gegenüber den I3 Konkurrenzfähig, der Idle Verbrauch ist vorbildlich und die Spielbarkeit vieler Titel ist durch immernoch bessere Treiber besser.

Nachteil ist der Stromverbrauch unter !Vollast!, welche aber nur sehr selten anliegt und das ist der Punkt den man mit in eine Bewertung des Produktes mitaufnehmen sollte.
Auch spielt das Mainboard rein, welches bei CB relativ üppig.

phiber66 schrieb:
So orderte ich für 268€ (Gesamtpreis incl.Versand) den Core I7 3770k
Auch wenn der Preis für die CPU jetzt wieder auf 286€ gestiegen ist sind 268€ für mich ein absoluter Wucherpreis! Intel ist ein Halsabschneider! Nur weil sie die derzeit schnellere CPU verkaufen machen sie Preise die den Kunden an den Bettelstab bringen!

Es war eigentlich schon bekannt in welchen Leistungsbereichen sich der Trinity CPU Teil bewegen wird.
Wenn du schon einen gegner für Intels i7 3770 suchst, hättest du Vishera abwarten müssen, aber da gibt es für AMD nur Chancen auf einen Stich bei Anwendungen.

Sontin schrieb:
Leute,
könnt ihre den Quatsch mit dem Marketingbuzzword HSA nichtmal lassen. Das ist nichts anderes wie reines GPGPU und wird auch in Zukunft eben nicht die Aufgaben der CPU übernehmen. CPUs sind eben keine GPUs. Und daran wird auch kein Marketingbuzzword etwas ändern.

Ich weiß nicht,woher du die Informationen beziehst, welche solch eine klare Ansage vorraussetzen.

Simon schrieb:
Also wie man die Ergebnisse als wesentlich besser und effektiver bezeichnen kann, ist mir persönlich ein absolutes Rätsel. Sieht eher nach einem gepflegten Treten auf der Stelle aus, wenn man die einzig und alleinigen Vorteile durch neue Befehlsätze auf CPU-Seite als Grundlage für die bessere Performances in ein paar Benchmarks gegenüber dem Llano zugrunde legt, ist das eher ein Rückschritt.

Seit jeher sind die Performanceschritte der CPU kleiner als der GPU.
Bei dem gleichen Fertigungsprozess von "gepflegtem" auf der Stelle Treten zu sprechen ist in Anbetracht der Rahmenbedingen eher weniger nachvollziehbar.
Und nur wegen der Befehlseerweiterungen ist man nicht schneller, schaue dir Spielebenchmarks von Anno 2070 an, oder Paint.net.
 
Zuletzt bearbeitet:
phiber66 schrieb:
um 2 Gigabyte Wave Datei in mp3 umzuwandeln benötigt ein Core i7 3770k 2Minuten ein
AMD 3870k LLano braucht dafür knapp 7Minuten!!!

Ach komm, du vergleichst wirklich eine 300 € CPU mit einer 87 € CPU, eine 4-Kern CPU mit einer 2-Kern CPU und beschwerst dich dass die weniger als 1/3 kostende CPU gegen das Luxusmodell abstinkt?

Überhaupt, einerseits sagt jeder "i3, mehr braucht der Durchschnittsuser eh nicht, für Office x-mal überdimensioniert", andererseits wird über AMD hergezogen, weil sie nur ca. i3-Geschwindigkeit schaffen? Für i3-Preise.
Klar, der Stromverbrauch ist kompletter Bockmist und ich verstehe nicht warum AMD nicht endlich auf 22nm umstellt.
 
pipip schrieb:
vllt ist Trinity noch der Athlon XP und Kaveri könnte mit streamroller + GNC und gemeinsamer Adressraum schon wie damals HT und 64Bit ein neuer Meilenstein sein
Hey, sag nix gegen den Athlon XP. Die sauteuren Pentium III sahen gegen die damals verdammt alt aus und die ersten Pentium 4 waren noch ein stück langsamer. Erst mit dem Northwood hat Intel aufgeholt. Oder war das noch vor deiner Zeit?
 
Zurück
Oben