Test AMD Phenom II X6 1055T und 1090T BE im Test: Sechs Kerne für alle!?

die.foenfrisur schrieb:
nein,
wenn man mal die errata studiert, dann fällt einem das auf:

Erratum #319, "Inaccurate Temperature Measurement"


mfg

@lu88


GEH in den sandkasten SPIELEN...

Wie wärs mit fachlichen Argumenten gegen meine Thesen anstatt mich persönlich anzugreifen? ;)
 
danke für den test :) weita so!
 
hm joa die Tests sind in sofern auch etwas kirre da kein Mensch einen i7 930 oÄ mit DDR3 1066 betreiben wird. Prinzipiell ist der Test gut, aber man sollte gelegentlich einfach noch die interessantesten CPUs gegeneinander antreten lassen. zb 100-300€ + das jeweilige HighEnd Produkt.

Dazu ein Crossfire / SLI Test, wenn einem 800x600 schon nicht schmecken. Vielleicht können sich mehr damit identifizieren wenn sie wissen, dass die HD6XXX vllt. doppelte 5870 Performance haben wird.

Auch wärs schön zu sehen ob Multi GPU auf AMD oder Intel Unterbauten besser läuft. Vllt harmoniert die HD5870 ja mit dem 890er Chipsatz viel besser in CF...

ich verstehe ja dass 1366 nun mal 1066er Ram als Spezifikation vorschreibt aber machts das besser? Einerseits schreit man 800x600 is unrealistisch... andererseits testet man mit anderem Ram den kein Mensch kaufen würde. Und CF oder SLI wäre schonmal nice zu sehen... gibts sicher mehr von als Leute die mit 800x600 zocken xD. Klar kann man keine 5x HD5870 einbauen - deswegen kann 800x600 ruhig da bleiben.
 
Zuletzt bearbeitet:
Gut dann kaufe ich mir doch einen PII x4 965. Ich finde den 1090T zwar nicht schlecht aber mir kommt es dann doch hauptsächlich auf Spiele drauf an. Und schön mal ca. 130 € sparen. :D Die könnte man in einen Bulldozer später stecken.
 
Krautmaster schrieb:
hm joa die Tests sind in sofern auch etwas kirre da kein Mensch einen i7 930 oÄ mit DDR3 1066 betreiben wird.

Intel spezifiert seine S.1366 Prozessoren ja lediglich mit DDR3 1066, insofern ist da dein Szenario nicht der offiziellen Intel Spezifikation entsprechend - somit ein OC Szenario.

Das Argument mit dem Grakalimit kam ja schon im alten Testsystem (zur Erinnerung, damals war es eine 9800GTX, jetzt eine HD5870) zur Sprache. Jetzt ist ein neues Testsystem da, und wieder das gleiche Gejammere. (Wegen dem werden die Intels bei entsprechender Auslastung bspw. Anno auch nicht schneller)
 
Ein GPUlimit gibt es in den Test ja nicht, weil speziell Szenen ausgewählt werden, wo ein CPUlimit vorherscht.
Dazu werden auch entsprechende Setting gewählt. Also ist die Diskussion ziehmlicher Schwachsinn.
 
Es heisst doch, das High-K/Metal Gate die Leistungsaufnahme positiv beeinflussen soll, weil die Leckströme geringer ausfallen. Ist dem so, habe ich das richtig verstanden?

Wenn ja, kann man sich ja nach diesem Auftritt der X6 Cpu's auf die Bulldozer von AMD freuen. 32nm, erstmalig HK/MG und eine nagelneue Architektur. Na wenn das nicht nach extremer Effizienz schreit :).

Performancetechnisch liegen die CPU's wie erwartet, jedoch wie schon oben in meinem Beitrag zu entnehmen ist, bin ich doch positiv von der Leistungsaufnahme unter Last sowie idle ein wenig überrascht.
 
Athlonscout schrieb:
Intel spezifiert seine S.1366 Prozessoren ja lediglich mit DDR3 1066, insofern ist da dein Szenario nicht der offiziellen Intel Spezifikation entsprechend - somit ein OC Szenario


joa, aber aber ist der Test dann repräsentativ wenn der PC so im Einkauf dann eigentlich immer anders aussehen würde?
Außerdem wird meines Wissens ein 1600er Ram als ein solche eingestellt, heißt das System läuft also standard OCaber stabil.

Fakt is, der Ram der auf Intel läuft läuft auch auf AMD. Wenn also jemand 1600er Ram kauft, was denk ich Gang ung Gäbe ist, beides ohne Mucken auf beiden Systemen läuft, dann sollte man auch so testen.


Das Argument mit dem Grakalimit kam ja schon im alten Testsystem (zur Erinnerung, damals war es eine 9800GTX, jetzt eine HD5870) zur Sprache. Jetzt ist ein neues Testsystem da, und wieder das gleiche Gejammere. (Wegen dem werden die Intels bei entsprechender Auslastung bspw. Anno auch nicht schneller)

Anno ist ohnehin ein Fall für sich was man auch am Test sehr gut sieht. Zumindest schieben sich die Intel CPU auf Nehalem Basis über das letzte Jahr langsam aber allmälich nach vorne. Klar ist der Parcour anders, aber das tut wenig zur Sache.

Spiele sind Anwendungen. Ohne GPU Limit sähen Spiele den Anwendungsbenchmarks ähnlich bis gleich.
Aber ich sag auch garnicht dass man mit AMD nicht zocken kann, im Gegenteil, heute kann man es sehr gut und auch in 5 Jahren wird der Unterschied eventuell nur 10% betragen... mit neuer GPU. Dennoch wäre mir ein CF / SLI Bench lieb.

Merke: Spiele = Anwendungen ;)

Nur Spiele werden immer GPU lastiger und CPU ist zunehmend wayne. Wir werden an den Punkt kommen, bzw sind eigentlich schon da, wo man eigentlich nur noch GPU aufrüsten muss. Ein Quad @3,5 Ghz wird in 5 Jahren mit entsprechender GPU kaum langsamer sein wenn sich nichts tut wie Raytracing.
Deswegen isses für Gamer wirdklich Jacke wie hose ob er Intel Quad 3 Ghz oder Intel Quad 3 Ghz kauft, vorallem wenn man die Halbwertszeit des Systems anschaut.
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Eventuell hat HT4U ach ein Fehlerhaftes Sample mit einen Standardspannung von annähernd 1,4Volt bekommen, oder sie haben es nicht gebacken bekommen den CPU auf einem Mainboard mit korrekt funktionierendem Bios zu testen.
Warum da keine Rückfrage an AMD stattfindet und der Test ähnlich wie damals der Schmarrn mit den extremen Fertigungsschwankungen aufgrund einer HD5750 auch einfach rausgehauen wurde, lässt von meienr Seite nur Häme zu.
Schließlich können sie auch utopische 60Watt mit undervolten erreichen, also irgendwas stimmt da ganz gehörig nicht.

Du bist dir aber schon im Klaren, dass dieser, aber insbesondere dein Beitrag davor recht unverschämt ist?

Wenn AMD uns ein Testkit bestehend aus einem Mainboard, Speicher und CPU schickt, darf man sich wohl darauf verlassen, dass dies Resultate produziert, welche AMD auch validiert hat und für korrekt hält.

Wenn ich mir die Resultate so betrachte, könnte es durchaus sein, dass das MSI-Board schlechten Einfluss auf die Gesamtsystem-Leistungsaufnahme hat.

Und genau da liegt der Punkt, welchen man mal beachten sollte. Wenn man sich aktuell die ca. 20 Artikel im Web anschaut, und man sieht, dass bei verschiedenen CPUs verschiedene Plattformen eingesetzt werden und wenn man die Abweichungen quer in den einzelnen Tests und quer der einzelnen CPUs betrachtet kann man nur zu einem Entschluss kommen: die übergreifende Betrachtung von der Gesamtsystemleistungsaufnahme bei Prozessoren ist für den Hintern, weil sie von zu vielen Faktoren abhängt.

http://ht4u.net/reviews/2009/leistungsaufnahme_cpus_praxis/index28.php
(Da gibt es zwar 31 Seiten Informationen, aber ich wähle jetzt nur die einfach zu verstehende Seite mit Diagrammen)

Und warum sollte sich TMPG für Leistungsaufnahme nicht eignen? Weil es etwas ist, was die Anwender täglich einsetzen? Weil es bei aktivierten EE-Optionen bei den Prozessoren die vorhandenen Kerne nie alle gleichzeitig zu 100 Prozent ausnutzt? Letzteres wäre ja praxisnah. Oder weil schlicht nicht die Resultate herauskommen die du haben möchtest.

Und was dein Hinweis auf Utopie angeht, naja... haben wir uns bestimmt ausgedacht, weil Intel uns mit Sicherheit im Vorfeld dafür bezahlt hat den X6 schlecht dastehen zu lassen.

@Voker: kann ich am Wochenende deinen Ferrari von AMD haben? Kriegst dafür auch meine Kreuzfahrt von Intel.
 
@Krautmaster

Ist ja auch fraglich, ob ein höherer RAM Takt bei der S. 1366 Plattform überhaupt nennenswert Mehrleistung bringt. Speicherbandbreite hat die Plattform Dank Triple-Channel ohnehin.

Evtl. könnte man den 3. Riegel auch (zumindest Anteilig) ins P/L Rating einfliessen lassen.
Ergänzung ()

Peter/HT4U schrieb:
@Voker: kann ich am Wochenende deinen Ferrari von AMD haben? Kriegst dafür auch meine Kreuzfahrt von Intel.

Begnüge dich doch wenigstens mit dem Intel - BMW.

J24202_BMW_Intel_600.jpg


:evillol:
 
übertakten lässt er sich scho mal gut. Der 1055T macht auf anhieb 3,4, respektive 3,9 ghz ohne Spannungserhöhung mit.


gruß
 
sorry falls doppelpost oder es die antwort schon gibt, aber es doch ein wenig viel das hier alles zu lesen an kommentaren...

zu erstmal toller test wiedermal!
find echt gut was amd da fabriziert.
auch den vergleich mit intel.
hur fehlt mir, wenn iher schon den 860 extra mit durchlaufen lasst, wie er sich ohne turbo verhällt. wenn ich mich recht entsinne hat der doch bei intel eine große steigerung zur folge gehabt, was dann halt die frage aufwirft, wie sieht der direkte vergleich aus, wenn der blaue ohne turbo läuft.
oder hab ich es einfach mal wieder übersehen?

gruß
 
@Peter/HT4U Schön und gut. a)Aber du wirst doch nicht ernthaft behaupten wollen, das euch das nicht komisch vorkam und zumindest im Austausch mit anderen Seiten festgestellt hast, dass da was nicht richtig läuft? Erwähnt wurde das nirgends im Test.
b) Die Verbrauchwerte sämtlicher Pheneom 2 x4 sind auch großflächig Mumpitz, imho stimmt da auch was nicht.
Dass TMPG für die Leistungsaufnahme nicht geeignet ist war lediglich eine Spekulation, aufgrund der Schwankungen aller CPU´s im Verhältnis zu anderen CPu´s im Verbrauch.
Ich halte es demnach immernoch für schwer fahrlässig zumindest ohne ein paar Worte den test so zu bringen. Aber klar der Test wird einfach rausgehauen, weil man sonst nichts hat, vertändlich.
 
Zuletzt bearbeitet:
Gratulation AMD !
Mit einer so unterlegenen Architektur so was auf Die Beine zus tellen, RESPEKT :daumenhoch:
Ist das beste, was sie rausholen konnten, mit einer ganz ordentlichen Leistungsaufnahme... Solange sie die nächste Architektur nicht ieder verkacken :D
 
irgendwie bin ich ziemlich enttaeuscht. die ausreisser nach unten sind doch zu drastisch.
kein prozzie, ueber den man sich freut, wenn man ihn gekauft hat.
bin gespannt auf die fortschritte in den naechsten 12 monaten.
da warte ich wohl noch mit einem neukauf.:rolleyes:
 
Mich wundert gerade ziemlich, dass weder im Testbericht selber durch eine Erklärung, noch hier durch eine Frage auf einen doch sehr interessanten Umstand eingegangen wurde: Wieso ist der 1090T auf einem 790FX im Schnitt 2%, teilweise jedoch deutlich schneller als der viel neuere 890FX?

Auch scheinen ja gerade die 800x600 Benchmarks besser zu sein, wenn der Turbo ausgeschaltet wird?
Gibt es noch andere Szenarien, unter denen man mit ausgeschaltetem Turbo besser fährt? Und hat jemand eine Erklärung dafür?

Schlecht am Test finde ich generell, dass er sich erlaubt ein Urteil über den Turbomodus fallen zu können, wenn (fast) nur Tests gefahren werden, die für mehrere Kerne ausgelegt sind. Außerdem geht das Fazit nicht auf die Fragestellung in der Einleitung ein.
 
Schön was AMD da gebastelt hat, klar ist es keine Revolution aber man erkennt deutlich die letzten evolutionären Zuckungen der alten Architektur.
2 Kerne mehr bei gleichem Verbrauch ist prima genauso der Turbocore. Man merkt deutlich die Verbesserungen in der Fertigung.Da bin ich auch mal sehr gespannt auf 32nm und Bulldozer.
 
das problem ist "vermutlich" oft der 6MB (kleine) level3-cache, der nun 6 kerne, statt 4 versorgen soll ;)

der x4 hat pro kern mehr l3 cache.
außerdem scheint turbocore nicht so optimal zu laufen, wie es sollte.

mfg
 
Ich glaube nicht dass der Level3 Cache ein Problem ist - Intel hat ja genau das falsch gemacht bei seinem 6-Kern 980X und die Mehrleistung verschenkt welche die 2 zusätzlichen Kerne gegenüber einem 975 4-Kerner hätte haben können.
Complication schrieb:
Bei Intels 6-Keren CPU hat das dazu geführt dass oftmals der i7 975 (4-Kern) schneller ist als der i7 980X(6-Kern)
Siehe:http://www.xbitlabs.com/articles/cpu/display/intel-core-i7-980x_3.html
A simple increase in the amount of CPU cache is always accompanied with some negative effects. Intel’s engineers did not change the logical organization of the L3 cache, so it is still 16-way associative. Considering the increased size and the arbitration among more CPU cores, the cache latency has increased by 33%.

The second factor that may have a negative effect on performance is that the uncore part, including the L3 cache and the memory controller, has a reduced frequency in the Gulftown. Intel tried this with the Lynnfield series and achieved a considerable reduction in power consumption by reducing the frequency and voltage of the L3 cache. The same goes for the new CPU. Its memory subsystem performance has been sacrificed for the sake of the two extra computing cores. Otherwise, the six-core Core i7-980X would not fit within the 130-watt TDP specified for LGA1366 processors.
t3-png.184522

The difference in practical cache performance is obvious: the Bloomfield is 33% better than the Gulftown in the speed of reading from the L3 cache and 25% better in terms of latency. The new CPU is also inferior when it comes to working with system memory. The practical bandwidth and latency of the six-core CPU is 15-20% worse than those of its four-core predecessor that seemingly has the same 3-channel DDR3-SDRAM controller.

Thus, despite the extra computing cores and the larger cache, the Core i7-980X may be slower than the Core i7-975 in practical applications due to objective reasons. This explains the rather low model number of the new product, by the way. The new Gulftown is not better than the Bloomfield from every aspect. It is weaker in some important respects.
 
Zurück
Oben