News IDF: 3,33 GHz „Penryn“ 45% schneller als QX6800 (U)

@Master_okiwan

Vll. liegt das auch an der unterschiedlchen Vermarktungsstrategie zwischen Intel und AMD . Je mehr Informationen Intel unters Volk wirft umso mehr News gibt es dazu. Thunderhans hat dazu eigentlich was völlig anderes geschrieben, der hat die Geschwindigkeitsangabe in GHZ zwischen Penryn und einem Intel 4 verglichen was so aber reiner Blödsinn ist.
Also lieber nochmal nachdenken ;)
 
Die TDP hat rein gar nichts mit dem realen Verbrauch zu tun, auch bei Intel nicht.

Selbst der jetzige 65 nm Quadcore QX6700 (2,66 GHz) verbraucht laut diversen Messungen gerade einmal 76 Watt unter Volllast, während der QX6800 (2,93 GHz) laut dem Computerbase Review sich nur 4 Watt mehr genehmigt.

Beide kommen jedoch mit einer TDP von 130 W daher und das obwohl sie selbst bei Belastung aller 4 Kerne nur bis zu 80 Watt erreichen.

Der Penryn wird da keine Ausnahme machen, denn der Schritt von 65 nm auf 45 nm ist groß und die Grundarchitektur ist immer noch die gleiche - nur verbessert. Wo also soll der zusätzliche Verbrauch her kommen?
 
Bloomfield mit HT und integriertem Speicherkontroller, das wird richtig interessant. Und der Nehalem, der ja was komplett Neues sein wird. Da bin ich echt mal gespannt.

Hat trotzdem einen üblen Beigeschmack, da Intel ganz offensichtlich so Gas gibt, um seine Monopolstellung zurück zu bekommen bzw. AMD zu verdrängen.

Hoffentlich tut sich im Ernstfall IBM mit AMD/ATi zusammen.
 
wenn die core architektur schon ohne integrierten Speichercontroller so schnell ist, wie wird die dann abgehen, wenn der auf der CPU sitzt!

ich hoffe sehr, dass AMD wieder mindestens gleichzieht!
 
Die Core2 Architektur profitiert vermutlich nicht von höherer Speicherbandbreite wenn der Memorycontroller jetzt in der CPU drinn wäre.
http://hardware.thgweb.de/2007/04/09/intel_core_2_extreme_qx6800_vergleichstest/

Bei der Entwicklung der CPU hat sich der Hersteller stark auf den Prozessorkern allein konzentriert. Die Conroe-Mikroarchitektur lässt sich vom hohen Front-Side-Bus und schnellen Speicher wenig beeindrucken. Das liegt vor allem an der Smart Memory Access-Technologie und Memory Disambiguation welche den großen L2-Cache dazu verwenden, die Häufigkeit der Zugriffe auf den Arbeitsspeicher deutlich zu verringern.
 
Zuletzt bearbeitet:
Voyager10 schrieb:
die neuen ca. 50 SSE-Befehle
Es sind 47. ;)

Was mich daran stört, dass Intel 12MB L2 einsetzt? Man sieht beim C2D doch, dass soviel Cache gar nicht so viel mehr bringt - also wieso stellt man nicht günstigere Cores her? Zumal das ganze wesentlich umweltschonender wäre. Bei AMD sieht man ja, dass der nur halb so große L2 von 0,5MB/Core dazu führt, dass man die Prozessoren günstiger herstellen kann und kaum Leistung verliert. Wünschte ich mir von Intel auch.
@Simon:
Ich hätte es wirklich nicht gut gefunden, wenn Intel mit dem C2D bereits ihren CSI integriert hätten - dann säße AMD wahrscheinlich wirklich mit VIA am Tisch.
Was ich damit sagen wollte, ist, dass Intel offenbar wieder den P4-Weg geht: Mehr Takt, mehr Cache und hoffen, dass es klappt.
 
RubyRhod schrieb:
Was ich damit sagen wollte, ist, dass Intel offenbar wieder den P4-Weg geht: Mehr Takt, mehr Cache und hoffen, dass es klappt.

ja wie sollen sie es sonst machen? sie können nicht jedes Halbe jahr eine neue Architektur auf den markt werfen!

AMD hat beim A64 auch nur immer den takt gesteigert und dann halt 2 Cores auf einen DIE gepackt!
 
RubyRhod schrieb:
Man sieht beim C2D doch, dass soviel Cache gar nicht so viel mehr bringt - also wieso stellt man nicht günstigere Cores her?

So klein ist der Unterschied gar nicht. Zwischen 2 MB und 4 MB liegt der Unterschied je nach Anwendung zwischen 0 und 10 %.
10 % sind in Takt umgerechnet schon eine ganze Menge. Wenn man eine CPU mit 3 GHz und 12 MB Cache bauen kann, die in vielen Fällen genauso schnell ist, wie eine 3,33 GHz CPU mit weniger Cache, so wird man dies auch tun. Das besondere an Cachespeicher ist, das er kaum Strom verbraucht und bei nichtnutzung abgeschaltet werden kann.

Zudem wird Intel am besten wissen, wieviel Cache sich in der Produktion rentiert. Cachegrößen von z.B. 1 MB wären mit dem bald kommenden 45 nm Fertigungsprozess wahrscheinlich gar nicht so viel günstiger, da man eben genügend Platz zur Verfügung hat. ;)

Die Effektivität des Caches hängt maßgeblich von der Architektur ab, daher sind Core 2 und Athlon X2 nicht miteinander vergleichbar.
 
Zuletzt bearbeitet:
@P4 mentalität: das sehe ich nicht so, weil die performence/takt doch für einen shrink erstanlich erhöht wurde :king:

und die sache mit dem riesen L2 cache ist auch bald geschichte: nämlich dann wenn intel mit seiner neuen architektur auf den integrieten spreicherkontroler setzt ;)

hmmm, bei so viel lob für intel, kann man nur hoffen, dass K10 richtig der burner wird :freak:
 
Alle die jetzt schreiben "Intel geht wieder den P4-Weg" sind bestimmt auch die Leute, die meinen, dass seit der Core-Architektur die Leistung nicht mehr vom Takt abhängt oder der Takt nicht mehr entscheidend sei!
Der Takt ist noch genauso wichtig, wie immer. Nur muss man heute die Architekturen berücksichtigen, wenn man Prozessoren vergleicht.

Edit:
@ RubyRhod
Dann ist ja Intel schon von Anfang an bei der Core-Architektur den P4-Weg gegangen. Was unterscheidet einen E6300 von der 6800er Extreme Edition? Mehr Takt und mehr Cache...

Wenn ihr das als Rückschritt seht, dass 4 Kerne, von denen einer fast doppelt so schnell ist wie ein schneller Prescott, den gleichen Stromverbauch haben, wie die Netburst-Architektur, dann weiß ich auch nicht mehr weiter...
Autos benötigen auch immer weniger Benzin für die Leistung. Wenn sie in ein paar Jahren einen LKW rausbringen, der mit 10 L/100 km mehr als fast alle Autos braucht (aber weniger als alle bisherigen LKWs), ist das dann auch ein Rückschritt?
 
Zuletzt bearbeitet:
Schauen die Fans eigentlich WAS hier verglichen wird?
Lineare Rechnung sieht so aus:
3,33GHZ gegen 2,93Ghz = 12% Mehrleistung
1.066FSB gegen 1333FSB = 25% Mehrleistung
8MB L2 gegen 12MB L2 = minimal

Wo bleibt die super revolutionäre neue Architektur?
 
Zuletzt bearbeitet:
die Prozent kann man aber nicht einfach zusammenzählen!

Und es soll keine super revolutionäre neue Architektur werden, sondern nur eine Verbesserte Core 2 Duo Architektur. Der Core 2 Duo war die neue Architektur!
 
40 % schneller bei HL2, ja klar :P bei 640 x 480? Von einer Auflösung steht da nämli garnix.

Wen interessiert schon, dass ein Spiel mit einer neuen CPU bei niedrigen Auflösungen 40 % schneller ist, wenn man mit 1920 x 1200 arbeitet/spielt. Sieht man ja schön an den core cpu´s. Bei hohen Auflösungen ist der Geschwindigkeitsvorteil dann bei 1 - 2 %, also gleichwertig mit AMD...., weil Spiele eher GPU-Lastig sind.
 
HolyDreamz schrieb:
Wo bleibt die super revolutionäre neue Architektur?

Wer hat das behauptet? Wo stand das?

Aber im Allgemeinen begrüße ich diese weltmännische Einstellung vieler Forumposter:

- 10 bis 20 % Mehrleistung ... lächerlich! Sie hätten mindestens 100 bis 200 % erwartet.
- ein Unternehmen kann in Bezug auf die Vorgängermodelle große Schritte machen ... lächerlich! Sie finden immer etwas, was nicht so in ihr Weltbild paßt (Cache-Erweiterung contra Umweltbewußtsein)
- grundsätzlich kann man keine News ohne Seitenblick oder -hieb zum Mitbewerber belassen ... wohl aus Angst, dieser könnte irgendwie zu kurz kommen.
- viele sind für eine Karriere in der Politik prädestiniert: geringer Tiefgang, geringer Weitblick, stark ausgeprägtes Gespür für populistische Meinungsmache, mangelnde Objektivität ... gepaart mit zunehmendem Realitätsverlust (Bemängelung des P/L-Verhältnisses bei High-End-Komponenten["viel zu teuer, für die Hälfte würde ich es nehmen"], Beurteilung Sinn/Unsinn und Nutzen einer Entwicklung unter ausschließlicher Berücksichtigung des eigenen, oft begrenzten Verständnisses der Thematik ["braucht doch eh kein Mensch"]).

Die oberflächliche Polarisation auf einfach zu begreifende Feindbilder sowie die mangelnde Kritikfähigkeit (fehlende oder offensichtlich falsche Argumente zur Unterstützung der eigenen Meinung bzw. Kritik) sind schon immer ein Barometer für die Qualität einer Gesellschaft / Community gewesen ... das ständige Nörgeln an etwas ist wohl typisch deutsch?
 
@ Tunguska

Das triffts auf den Punkt.
Ich wäre dafür dieses Posting bei jeder News als Startposting zu verwenden.
Vielleicht würden dann einige bei News zu Neuerscheinungen veranlasst werden endlich erstmal zu Denken, bevor sie ihre Meinunge schreiben!
Das würde dem Niveau sicherlich nicht schaden!
So genug OT!
 
Naja.. also wirklich..
Der Penryn doch ein stink normaler Die-Shrink, von dem man einfach mehr Takt bei weniger/gleicher elektrischer Leistung erwartet. Und dass C2D-Prozessoren mit einem hohen FSB mehr leisten, sieht man bei vielen OC-Berichten. (Ich glaube Simon hatte mal einen Vergleich eines E6600 266x9 vs 400x6 und der 400er FSB hat trotz gleichen Prozessortaktes eine ganze Menge gebracht (genaue Zahlen will ich jetzt nicht raussuchen).
Insofern spielt Intel doch das alte Spiel weiter:
Die-Shrink --> schnellerer FSB --> neuer Chipsatz = beudetet komplett umrüsten. Damit einem das leichter fällt, wird mit 12MB L2 geworben und das am besten noch mit AMDs 0,5MB L2 vergleichen.
Also wie gesagt.. 45% schneller ist zwar eine ganze Ecke, aber das ist nun wirklich nichts überaus besonderes unter diesen Bedingungen.
 
Ein stinknormaler Die-Shrink ist es nicht zuletzt angesichts von SSE4 absolut nicht. Aber die Änderungen sind nicht so umfassend, wie die reißerische Präsentation glauben machen will.
 
Zurück
Oben