News Erster CPU-Z Screenshot von Intels Nehalem?

Kevin1992 schrieb:
Seit 4 Jahren stagniert man bei einem real-takt von 3GHz. Kann man nicht zur Abwechslung endlich mal da die Schraube wieder anziehen?!
Die Pro Kern leistung steigt doch auch an ,auch wenn nicht so viel.
Nein die einzige Möglichkeit die Leistung zu vervielfachen ist über mehr Kerne.
Den Takt kannst du nicht mal eben vervierfachen.


Kevin1992 schrieb:
Ich finde das ist ein Fake-Bild.
CPUz liest auch nur aus einer internen Datenbank.
Ein Wunder, das überhaupt etwas angezeigt wird.
 
ich denke nicht das es sich um ein fake handelt, immerhin hat Intel ja bereits ein lauffähiges Model vorgestellt. Das CPUz nich wiklich viel damit anfangen kann sollte klar sein.
Mit der Entwicklung des Neahelms scheint intel gut vorrangeommen zu sein und dem launch ende 08 steht bis jetzt nichts im Weg. Scheint auf jedenfall so. Der 45nm Prozess ist soweit ja auch gut am laufen.
Ich denke bis spätestens Juni wird man Benchmarks sehen, ähnlich wie es vor Einführung der Core Architektur war. Die werden dann wieder lust auf mehr machen.
 
@_PaYnE_: ja und? Is doch normal, nur das OS ist für ein Spielerechner ein bisschen oversized

@Thema: Ich würde auch viel lieber mehr Dampf auf dem Takt haben als noch mehr Kerne. Auch in 2 Jahren werden diese 8 Kerne kaum bis nicht wirklich genutzt.
 
Krass wenn man meinen 2 Kern zum Vergleich nimmt xD wo nur 2 "Leisten" sind ^^ und da 16 !
 
@Sir_Sascha: nunja.... xp nimmt ja nicht die volle menge ;-)
@Thema: taktung ist schon okay... es müssten nur sämtliche programme und spiele mal die kerne zu nutzen wissen... das ist dann effektiv ^^
 
ja langsam kommen wir in die richtung die ich solange erwartet habe!

8 Kerne würden mir schon reichen wenn sie verfügbar wären! ;)
 
Nicht gerade aussagekräftig dieser Screenshot. Aber viele Kerne müssen erst einmal unterstützt werden, sonst liegt die Leistung brach.
 
nicht schlecht bin gespannt was die CPU´s so bringen xD

bin atm mit meiner noch ganz gut zufrieden
 
Es geht also voran. Mehr kann man da nicht raus entnehmen.

Btw. Weltuntergangsrufer für AMD:
Ist euch schon mal aufgefallen, daß bislang fast immer ein Hersteller nach einem Top-Produkt wieder Flaute hatte? Und das im Wechsel mit der Konkurrenz?
AMDs Athlon war top, Intel zu dem Zeitpunkt mies. AMD brachte kaum Steigerung danach (Phenom) und Intel lieferte einen Top C2D. Also mal abwarten. Kann nämlich durchaus sein, daß Nehalem sich zu C2D so verhält wie Phenom zu Athlon. Warum? Die ganze Forschung zum C2D kostete auch Zeit die dann für den Nachfolger fehlt. D.h. nicht, daß Nehalem zu Pehonm kein Knaller sein kann, aber zum C2D vielleicht nicht.
 
könnte es sein, dass SSE 4.1 + SSE 4.2 darauf hinweisen, dass mit nehalem bereits der befehlssatz SSE 4a von amd übernommen wird...? (im sinne des patent-austausches)
 
Das "sämtliche Programme und Spiele mehrere Kerne nutzen" wird aber nicht passieren! (Zumindest nicht in den nächsten 10-20 Jahren)

Wer sich ein wenig mit Softwareentwicklung auskennt, Multithreaded-Anwendungen sind im allgemeinen extrem kompliziert, da schleichen sich sehr schnell diverse Fehler ein und das Problem: Man kann durch testen im Allgemeinen nicht alle Fehler finden! Ob und wenn ja welcher Fehler auftritt hängt von allem Möglichen ab, auch Hardware und sonstiger Software.
Da gibts so "lustige" Sachen wie Deadlocks (Programm bleibt einfach stehen), Lifelocks (dasselbe, nur das weiter CPU-Power verbraten wird) und völlig undefiniertes Systemverhalten.
Außerdem ist es bei vielen Programmen einfach nicht sinnvoll möglich Multithreaded zu programmieren, denn muss man zuviel Synchroisieren frisst das den performancevorteil eventuell wieder vollkommen auf oder das Programm läuft sogar noch langsamer, auf einem Singlecore wird es durch die Synchronisation sowieso langsamer laufen!

"Leicht" machbar und sinnvoll ist Multicore-Support bei Sachen wie Raytracing, Audio-/Video-Berarbeitung, Packprogramme (je nach Format) usw.
Bei Spielen wirds schon schwierig, da muss das Spiel auf jeden Fall von Grund auf für Multicore-Support ausgelegt sein, wenn man bedenkt das bei der Spieleentwicklung viele bestehende Grundlagen wiederverwendet werden (siehe die ganzen Engines) wird das noch dauern... Trotzdem muss man sich überlegen was man überhaupt in Threads unterteilen kann, bei mehreren KI-Gegnern die nicht direkt zusammenarbeiten könnte man diese wohl in Threads unterteilen, Physik ist schon nicht mehr so einfach (es sei denn es geht nur um Animationen die im Prinzip keinen Einfluss auf das Spiel haben)


Nicht falsch verstehen: Ich wünsche mir auch das es mehr Multicore-Support gibt, aber eie gesagt:
Es gibt gute Gründe dafür das es nicht mehr Multicore-Support gibt und mal ehrlich:
Programme haben jetzt schon genug Bugs, wo soll das hinführen wenn jetzt noch neue Bugs hinzukommen die weder im Vorfeld durch Tests entdeckt werden können noch reproduzierbar (und damit kaum zu beheben) sind? Und selbst wenn die Fehler reproduzierbar sind ist es oft ein enormer Zeitaufwand herauszufinden wieso dieser Fehler auftaucht und wenn man das weiß heißt es noch lange nicht das man den Fehler überhaupt beheben kann ohne weite teile des Programm komplett neu zu schreiben!


Gruß
Nova
 
@Nova

ich bin zwar nur ein laie, aber ich finde, dass es bei so vielen cores (und es sollen ja immer mehr und mehr werden) ohnehin (zusätzlich) eine hardware-seitige thread-aufteilung geben sollte; ich glaube, es war schon mal die rede davon, dass sich mehrere (vituelle) kerne dem programm/OS als ein kern darstellen, ein einzelner software-thread aber dennoch hardwareseitig von mehreren kernen parallel abgearbeitet wird (jetzt aber nicht auf nehalem bezogen). wenn ich hier etwas falsch verstanden habe, bitte ich um konstruktive korrektur.
 
Ich finde es faszinierend, wieviele Leute anscheinend nur die Bildchen anschauen, ohne dabei den Text zu lesen, geschweige denn, ihn zu verstehen :D

Leute, mal ernsthaft:
1. Lesen
2. Denken
3. Schreiben
(4. Edit *g*)

Ich finde es reichlich verfrüht, bereits jetzt wilde Spekulationen über CPU's ins Rollen zu bringen, die noch (sicherlich mehr als) ein Jahr vor uns liegen.
Aber ich muss einigen hier Recht geben.
In Sachen Serversysteme, (3D-)Rendering und A/V-Editing gibt es "ausreichend Leistung" einfach nicht.
Für Heimanwender und deren Kisten wird ein "normaler" Dual-Core Prozessor aber wohl noch lange ausreichen ;)

Ich werde meinen Athlon XP jedenfalls noch eine ganze Weile nutzen :P
Und vielleicht später auch direkt auf Nehalem umsteigen.
Mal sehen, was die Zukunft bringt ;)

Grüße
Idle
 
@53: klingt zwar schön, kann aber einfach nicht funktionieren. Zumindest genausowenig wie aktuelle CPUs mit 16 GHZ laufen können. Spaghetticode kann man nunmal nicht parallel ausführen, es hängt ja jede Instruktion vom Ergebnis des Vorgängers ab.
 
Ich frage mich ja wirklich, wozu der Riesencache (L3) gut sein soll.
Zwar vermute ich, dass der nur zu Zwecken der MCM-Realisierung so groß ist, aber sicher kann man das natürlich nicht wissen.
Nuja, L3... halte generell nich so viel von 3 Cache lvls...
 
flo36 schrieb:
Ok mein nächster CPU heißt Nethalem Preis: egal
Nethalem? Nie was davon gehört...

Kevin1992 schrieb:
Das Intel Logo ist doch falsch.
Ist es das denn wirklich? Was du meinstens siehst ist ein CPU-Logo, hier ist aber nur das Firmenlogo - vermutlich, weil CPU-Z genau weiß, dass es kein passendes CPU-Logo hat.

Kevin1992 schrieb:
Außerdem steht da nur "Intel Core 2"
Richtig, es steht weder Core 2 Duo, noch Core 2 Quad, noch Core 2 ... was das mit dem Bild zudem erklären könnte. Weiter unten steht aber Nehalem btw.

Und warum die Bezeichnung fehlt: 1. ist das das Package, 2. ist das auch keine Sockel 775 CPU. CPU-Z ist kein Hellseher-Programm mit integrierter Glaskugel, es muss die Dinge kennen, die es ausgeben muss (zumindest einen Teil davon)

Shizzle schrieb:
Toll ... 2 Quads bzw 16 Prozesse. Und wer soll für sowas programmieren? In 90% aller Anwendungen würde ein höherer Takt mehr bringen als 4 weitere Kerne! Seit 4 Jahren stagniert man bei einem real-takt von 3GHz. Kann man nicht zur Abwechslung endlich mal da die Schraube wieder anziehen?!

Nova1984 schrieb:
Das "sämtliche Programme und Spiele mehrere Kerne nutzen" wird aber nicht passieren! (Zumindest nicht in den nächsten 10-20 Jahren)
Deine Glaskugel möchte ich haben.
 
Hi
@ Sir_Sascha und all jene die sich wegen die anzahl der kerne aufregen.

für mich das interessante an nehalem war ja das nehalem kerne abschalten kann, um die anderen mit mehr herz zu betreiben. siehe CB artikel zitat:

"Eine weitere „Besonderheit“ bei Nehalem ist die Turbo-Mode Funktion, die dem Prozessor erlaubt, die Taktfrequenz bei Nichtbelastung eines oder mehrerer Kerne in drei Stufen nach oben zu schrauben, ohne die Thermal Design Power der gesamten CPU zu überschreiten. Wenn beispielsweise zwei Kerne nichts zu tun haben, dürfen die anderen beiden auf einer höheren Frequenz laufen, um auch in Anwendungen, die keine vier Kerne optimal ausnutzen können, einen entsprechenden Leistungsvorteil zu generieren."

also sehe ich keinen grund warum sich hier manche so aufregen.
 
@57 Ycon
Hauptspeicher ist einfach zu langsam, daher L3 cache. Der hat niedrigere Latenzzeiten.
Auch wenn es im Schnitt nur 10% Performance bringen würde bei Vollauslastung aller Kerne,
würde sich soetwas doch auszahlen, oder? (wenn nicht zu teuer)
 
Zurück
Oben