News AMD „Bulldozer“: CPU-Takt 3,5+ GHz, L3-Cache mit 2,4 GHz

Topas93
So ein Mist, dann sollte AMD wohl abrüsten, damit du zufrieden bist. Der 890FX bietet jetzt schon 42 Lanes.
 
Eins finde ich irgendwie komisch:

Es hies einst bei Intel: Turbo wäre der letzte Schrott

Jetzt bringt es AMD und da fahren alle drauf ab :D
 
Da gibts einige Dinge zu beachten:
1.) Damals als Intels Turbo kam, gabs nur Vista, das mit Turbo und SMT nicht viel anfangen kann
2.) Der Turbo, den Intel anfangs verwendete war ziemlich ineffizient. Erst Lynnfield brachte da Besserung.
 
So ein Mist, dann sollte AMD wohl abrüsten, damit du zufrieden bist. Der 890FX bietet jetzt schon 42 Lanes.
Ja über diesen chipsatz hab ich mich auch nicht beklagt :) aber die 9xxer serie soll wenn ichs richtig verstanden habe n bissl mehr verbrauchen. Es wäre mal wider schön wenn nicht mehr so ausladende nbkühler nötig wären^^.
 
Das bisschen mehr bedeutet 0,5 bis 1 Watt mehr. Bei einem Chipsatz, der 15-20 Watt und einem Rechner, der insgesamt zwischen 100 und 300 Watt verbraucht, ist das völlig egal.
 
Nun ja ich finde generell das der Chipsatz zu warm ist. Und bei einer so geringen kühlfläche macht ein watt schon ein kleine bizzlchen was ;) wärens 3 watt weniger wäre ich zufrieden . Aber das ist ja nur der Chipsatz :).
Aber ich hoffen Amd gewinnt wider was damit :). Hoffentlich läufts nicht so schief wie mit dem PhenomI. da wurde ja auch das blaue vom himmer versprochen^^
 
viel wichtger ist ja dann wohl der punkt des boarddesigns der jeweiligen hersteller. das macht bei weitem mehr aus im verbrauch, als die eventuellen paar watt mehr der chipsätze.
 
Der verbraucht net mehr als ein 890er, kein Wunder, ist es doch dieselbe Northbridge, gepaart mit nem Hudson als SB (SB9x0 und Hudson haben dieselbe ID im Treiber), der verbraucht aber eher weniger als mehr.
RD890 + Hudson (alias 990FX) bringen übrigens ingesamt 46PCIe-Lanes mit, das sollte für so ziemlich alles reichen.
Seitdem NV den MCP55 in Rente geschickt hat ist der Verbrauch der Chipsätze bei beiden Herstellern irrelevant geworden.
 
Zuletzt bearbeitet:
@Topas93
Die Chips dürfen über 100°C warm werden, bevor sie in den kritischen Temperaturbereich kommen. Das ist auch der Grund, warum die meistens passiv gekühlt sind. Das reicht alle mal.
 
Ich sag mal so:

1. AMD hat jetzt schon einen 6-Core mit Standard 3,2GHz (mit Turbo 3,6GHz)
2. Nach allem was man so hört wird Bulldozer ein "Highspeed-design" (also auf viel Takt ausgelegt, ähnlich wie IBMs CPUs)
3. 32nm Fertigung mit HKMG. 32nm per se bietet ja schon Raum für mehr Takt. HKMG reduziert die Leckströme nochmals deutlich. Ebenfalls sehr brauchbar für hohe Takte
4. Wird ein 8-Core (also 4-Modul) Bulldozer eher kleiner werden von der Die-size als ein Thuban. (Da ja 4 Module quasi 4 alten Kernen entsprechen + jeweils 12% drauf, was aber durch 32nm wieder ausgeglichen wird. Wieder gut für hohe Takte.
5. Und das beste kommt zum Schluss, diese Aussage von JF-AMD (John Fruehe von AMD)

"Turbo CORE is about the headroom. There are a few workloads (heavily FPU-laden technical and HPC) that fire all transistors. To keep the processor within the TDP, you end up netting out a lower clock speed than you would have for a lighter workload.

You have to bin for "worst case scenario" so you end up leaving some clock speed on the table. That is why the same die that nets a 2.7GHz shaghai gave you a 3GHz Phenom. They are the same silicon but characterized for different workloads.

With Turbo CORE you keep the base clock speed, so that in the worst case scenario you are at base. But for workloads with headroom you get to boost.

We'll see ~500MHz with 16 fully utilized cores.

With fewer cores utilized it could go higher.


Für mich persönlich kommt gar nichts anderes in Frage, als das es einen 8-Core Bulli mit 3,5GHz Standardtakt geben wird. Und je nach Core Auslastung auch locker über 4GHz mit Turbo :eek:
 
Lazkopat schrieb:
...'Am heutigen 1. April sickerten Informationen über ein sogenanntes Cross-Licensing Agreement durch'...
Erst Informieren dann antworten.
Mir stellt sich da nur die Frage: bist Du ein Spaßvogel oder ein :freak: , wenn Du in einer ernst gemeinten Diskussion einen Aprilscherz (der sogar in dem Artikel per Update als solcher enttarnt wird!) zum Unterfüttern Deiner Fehlinformationen verwendest?
Fakt ist: NVidia hat und wird auf absehbare Zeit auch keine x86-Lizenz erhalten.

Skeidinho schrieb:
Es hies einst bei Intel: Turbo wäre der letzte Schrott

Jetzt bringt es AMD und da fahren alle drauf ab
Ja, dann hol Dir doch einen AMD. Außer Dir hab ich jedenfalls kaum kritische Stimmen gegen die Turbo-Technologie von Intel gehört. Und OC-ler zählen da mal nicht, die wissen auch, wie man den Turbo abstellt. Woran liegt es? Subjektive Wahrnehmung? Versteckte Aggressionen gegen Deinen eigenen Prozessor?

So oder so freue ich mich auf den Vergleich SB vs BD. Auch wenn ich als Gelegenheitszocker eher ein Kandidat für Llano bin (wenn sich die 3D-Performance so bewahrheitet, wie vermutet, wird das wohl reichen). Bei Intel wird man da wohl auch weiterhin auf dedizierte Grafik angewiesen sein.

Gruß FatFire
 
Lazkopat schrieb:
2

Erst Informieren dann antworten.

Der Link ist laut Redaktion ein Aprilscherz :rolleyes:

Im Netz heißt es, Nvidia wird keine x86 CPUs produzieren weil Sie es nicht besser als AMD & Intel können, man legt nur wert auf GPU & Tegra.

denkt ihr morgen hat Nvidia plötzlich eine eigene x86 Architektur die mit AMD oder Intel mithalten kann, cyrix hat das versucht und hatte keine chancen, die entwicklung einer CPU Architektur kann über 4 Jahre dauern.
 
Zuletzt bearbeitet:
Lazkopat schrieb:
Nicht Nvidia will keine SLI für AMD Chipsätze Anbieten sondern AMD will es nicht in ihre eigenen Chipsätze Integrieren.

Naja, SLI kostet Geld und warum sollte AMD an Nvidia für SLI Geld bezahlen?

Sollen sie es doch wie AMD machen und SLI einfach ohne Lizenz lauffähig machen..
Also überall da wo mehr als eine Grafikkarte reinpasst, würde dann auch SLI laufen.
So isses bei Crossfire ja auch...
 
@Jocotty: AMD hat da aber noch einen kleinen Interessenkonflikt. Was hat AMD davon, dass ihre Boards SLI unterstützen?
So kann auf einem AMD Board nur eine Multi-GPU Gespann von AMD laufen. Wenn SLI auch unterstützt würde, würden Enthusasten, die auf AMD gesetzt haben auch die Möglichkeit haben ein Nvidia SLI Gespann zu betreiben.
 
Jocotty schrieb:
Naja, SLI kostet Geld und warum sollte AMD an Nvidia für SLI Geld bezahlen?

Gute Frage - sollte eigentlich auch im Interesse von NV sein ( wird es auch wenn sie keine neuen Chipsätze bringen... ).
 
Lazkopat schrieb:
Das Ganze ist etwas anders.
Intel wollte nicht das Nvidia Chipsätze für ihre CPU´s herstellt.
Erst Als Nvidia vor Gericht gegangen ist wegen Vertragsbruch, ist Intel mit Nvidia einen Ausergerichtlichen Vertrag eingegangen. Intel muss NVIDIA ein Paar Milliarden € Zahlen sowie eine X86 Lizenz an NVIDIA Austellen so das NVIDIA auch CPU´s Herstellen darf. Dafür soll Nvidia die Anklage zurück ziehen.
Die außergerichtliche Einigung ist überhaupt noch nicht vollzogen worden, deswegen frage ich mich, wie du schreiben kannst, dass es schon so sei? Auch erfahren wird nicht, welche Einigungen dann gemacht werden und du wirst es ganz sicher auch nicht erfahren.
Das Nvidia eine X86 Lizenz gerne hätte, ist ja schon kommuniziert worden, aber eine offizielle Stellungsnahme gab es bis jetzt noch nicht von Nvidia.
Lazkopat schrieb:
Nicht Nvidia will keine SLI für AMD Chipsätze Anbieten sondern AMD will es nicht in ihre eigenen Chipsätze Integrieren.
Das ist ja mal völlig falsch. Man muss nichts in einem Chipsatz integrieren um CF oder SLI nutzen zu können. Überhaupt hat das nichts mit dem Chipsatz zu tun, sondern es müssen einfach nur 2 PCI-E Grafiksteckplätze vorhanden sein. Ob SLI auf AMD funktioniert liegt alleine am Treiber und da legt Nvidia weiterhin einen Riegel davor.
 
Die Chips dürfen über 100°C warm werden, bevor sie in den kritischen Temperaturbereich kommen. Das ist auch der Grund, warum die meistens passiv gekühlt sind. Das reicht alle mal.
Achsoo nunja ich glaube amd kann bei intels sb mitthalten. was aber wichter ist das noch genügend spieltraum für ivy bridge da ist :)
 
Zuletzt bearbeitet:
Zurück
Oben