Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntels „Haswell“-Prozessoren doch erst Anfang Juni?
Haswell (HW) bringt wieder 10%. Das geht von Prozessorgeneration zu Prozessorgeneration ja immer weiter und ist keine bloße Addition. HW wird schneller als IB, der bereits schneller als SB ist: SB 100% -> IB 110%. Diese 110% nehmen wir als Ausgangsbasis für IB, rechnen für ihn mit 100% weiter: IB 100% -> HW 110%. Nun ist der Unterschied SB -> HW nicht bloß 20%, sondern mehr als das.
Klar ist das blöde Zahlenschieberei, aber genau an den Zahlen machen ja alle alles fest. Man muss das nur richtig lesen. Und selbst wenn es "nur" 20% sind, was habt ihr denn erwartet - einen Anstieg von 50% pro Kern? Wann gab's das denn das letzte Mal nach nur einem Jahr Wartezeit?
Da hast du schon recht, aber 1,1*1,1 ergibt halt nur 1,21, was dann gerade 1% mehr wäre als die hier genannten 20%. Damit dieser Effekt wirklich ins Gewicht fällt, müssen es entweder mehr Sprünge sein oder die einzelnen Sprünge größer. Selbst bei 4 Sprüngen wäre der Effekt bei 10% pro Sprung noch kaum der Rede Wert.
Das ist ja auch nur eine hypothetische Rechnung für das angegebene Minimum seitens Intel (10%). Wenn man jetzt sehr optimistisch rangeht und von der Angabe das Beste nimmt (bis zu 20%), dann hat man bei 1,2*1,2 schon 1,44, also 4%.
Ist irgendwie bescheuert so zu rechnen und man merkt, dass es ja eh nichts bringt, weil es ohnehin nur ungefähre Angaben sind. Man wird abwarten müssen, was die ersten Benches sagen. Zumal die CPUs in manchen Bereichen vielleicht nur 5%, in anderen dafür merklich schneller sein werden. Wer weiß. Und dann sind da immer noch die anderen Entwicklungen im Inneren...
Wobei auch dort die 4% gegenüber den 20% weniger ins Gewicht fallen bzw. kaum von Bedeutung sind. Nen Update von Ivy auf Haswell wird sich für die meisten User sowieso net lohnen und für Leute die von älteren Generationen kommen, die merken eh mehr als nur die paar % Rechenungenauigkeit.
Versteh mich net falsch, das sollte keine Kritik an deiner Richtigstellung sein, ganz im Gegenteil. Mir ging es eher darum, dass hier oft auf einstellige Prozentwerte geachtet wird, die aber für die meisten User doch eh keinen Unterschied machen, da diese Mehrleistung in aller Regel eh nie wirklich spürbar sind. Da steckt oft mehr Emotion drin, als wirklicher Nutzen
Die zweite Ziffer nach dem Komma macht doch praktisch nichts mehr aus. Wer in der Praxis zwischen 20% und 21% bzw. 40% und 44% einen Geschwindigkeitsunterschied feststellt, dem könnte man noch nen ollen P4 3GHz verkaufen indem man ihm diesen als das beste vom besten anpreist. Wenn man dran glauben soll man in dieser Traumwelt leben, alle anderen bleiben bitte realistisch.
Selbst die Core 2 Quad mit Sockel 775 sind so exstem schnell das sich oft kein Aufrüsten wegen der Geschwindigkeit lohnt,
viel wichtiger ist doch ehr die moderne Ausstattung wie zum beispiel SATA 6Gb/s , USB 3.0 , UEFI BIOS ... !
komisch das sich dieses gerücht immernoch so hartnäckig hält o_O vergleich das mal. spiel mal nen civ5 oder sc2 oder bf3 oder was auch immer mit nem c2q und dann mit nem sandy. da hast direkt doppelte framerates (und bei exteme vielen andern games auch. einzig pure konsolenports fallen da nicht ins gewicht weil sie meistens eh genügsame anforderungen haben) der c2q is grenzenlos veraltet. man bekommt vllt bei einigen games noch framerates von 30fps oder gar 60 hin, aber das heißt noch lange nich das die teile noch gut genug sind.
son civ5 mit 60fps will ich mal auf nem c2q sehen. sagen wir mal in runde 400 keine chance, da hast dann deine 15-20fps und das wars.
Oh ja, schrecklich. Ich bin auch erwachsen und ich nutze meinen privaten Computer fast nur für Spiele. Auf Arbeit wird er für Office, Matlab etc. benutzt. Irgendwie kann ich keinen bestimmten Zusammenhang zwischen "Erwachsen" und "Nutze Computer für XYZ" herstellen. ;-)
Aber ja, für deine Nutzungsart ist ein Core 2 Quad absolut ausreichend.
Bei Aussagen wie: "Selbst die Core 2 Quad mit Sockel 775 sind so exstem schnell das sich oft kein Aufrüsten wegen der Geschwindigkeit lohnt" sollte man Worte wie "für mich" nicht vergessen.
@Eisenfaust
Wie HardRockDude schon meinte Rendern muss immer schneller gehen, egal wie schnell es ist. Und ab den Drücken von F12 frisst Blender die Grafikkarte mit Cycles komplett auf, also Leistungsgrenze erreicht. Manche Effekte kann leider bis jetzt nur die CPU rendern z.B. Motion blur, da währe ein schnellerer Prozi echt nett.
Bei Windows regen mich nur manchmal ein paar Kleinigkeiten auf wie: es dauert ewig bis ein neuer Ordner auf die externe USB 3 HDD erstellt wurde. Und eine SSD zähle ich heutzutage zu den Systemminima von Win 7. Für Linux hab ich leider nicht genügend Kenntnisse, da währe ein Mac Pro eine gute Alternative.
Außerdem hatte ich gar nicht gesagt das ich einen Supercomputer habe, ich bin der Meinung das man seinen Computer schon ausreizten sollte wenn man dafür schon Geld zahlt.
@HardRockDude
Das mit der Performanceoptimierung ist auch so eine Sache gibt ja alle paar Stunden eine neue Version. Bei den letzten Feature Cycles + Haare ist die GPU langsamer gewesen als die CPU. Wenn man Blender professionell nutzt sollte man noch einen Softwarefrickler haben der einen den ganzen Krempel optimiert.
Kaufe dir ein neues Board und schicke das verbugte Board auf RMA-Tour und verkaufe den etwaigen Austausch einfach. Mit bisschen Glück bootet das neue Board deine alte Windows-Installation wieder.
Mein Phenom wird dann wohl noch mindestens 6 Monate drin bleiben. Ehe ich Geld zusammen habe, lohnt sich Ivy schon gar nicht mehr, wenn paar Wochen später Haswell am Start ist.
Von der IPC her sind Phenom 2 und C2Q bei gleicher Taktung vergleichbar?
@Eisenfaust
Wie HardRockDude schon meinte Rendern muss immer schneller gehen, egal wie schnell es ist. Und ab den Drücken von F12 frisst Blender die Grafikkarte mit Cycles komplett auf, also Leistungsgrenze erreicht. Manche Effekte kann leider bis jetzt nur die CPU rendern z.B. Motion blur, da währe ein schnellerer Prozi echt nett.
Bei Windows regen mich nur manchmal ein paar Kleinigkeiten auf wie: es dauert ewig bis ein neuer Ordner auf die externe USB 3 HDD erstellt wurde. Und eine SSD zähle ich heutzutage zu den Systemminima von Win 7. Für Linux hab ich leider nicht genügend Kenntnisse, da währe ein Mac Pro eine gute Alternative.
Außerdem hatte ich gar nicht gesagt das ich einen Supercomputer habe, ich bin der Meinung das man seinen Computer schon ausreizten sollte wenn man dafür schon Geld zahlt.[...]
Ich sage nicht, daß Kapital tot herumstehen muß. Ich sage aber, daß es eine Vernunftsbarriere gibt zwischen Aufwand und Nutzen. Wir haben andere Software in peto, große 3D Pipelines, die für wiss. Zwecke sehr große Datenmengen (Bilddaten) bearbeitet. Blender macht das zwar auch, aber da weiß ich nun nicht genau, was Blender-intern passiert. Die Vorraussetzung, Blender sei bereits optimal, ist nicht legitim. Wenn nun auf die großen Datenmengen, die bereits einen Dual-Sockel Host mit 128 GB RAM und unter Mitwirkung einer TESLA 2095 sättigen, eine neue Architektur angesetzt wird - wie hoch soll der Zugewinn ausfallen, damit es sich lohnt eine neue Büchse zu beschaffen? Persönlich habe ich zwischen Sandy-Bridge und Ivy-Bridge so gut wie KEINE(!) Leistungsunterschiede bemerken können, solange man die Software nicht explizit AVX und den neuen RNG nutzt. Läßt man den Compiler eine Vektoroptimierung durchführen, so liegen die Zugewinne höchstens bei 3% - das hat Andreas Stiller (c't) in einem Benchmark bereits festgestellt und das kann ich leider auch so bestätigen. Die Autovektorisierer/Optimierer der Compiler sind eher vektoreinheitenfeindlich. OpenCL ist da auch keine Wunderwaffe, wenn man automatisiert eine Vektoroptimierung durchführen lassen will. Das wird sich allerdings jetzt sehr schnell ändern, ändert aber nichts an meiner Grundaussage. Handoptimiert allerdings ergeben sich dann wiederum traumhafte Sprünge zwischen Sandy- und Ivy-Bridge, die bereits oberhalb der 25% Marke in einigen Modulen liegen.
Wenn Modellrechnungen tage- bis wochenlang rechnen, sind 25% eine Hausnummer. Auch bei Rechnungen > 1 h sind 25% nicht zu verachten. Aber für den Hausgebrauch rechnet man in der Regel nicht auf Heimcomputern an langen Projekten.
Ich sage ja nicht, daß Haswell keinen großen Schritt nach vorne machen wird, ich meine aber, daß für die eher rückständige Windoof-Software die meisten Ivy-Bridge-Funktionen noch immer brach liegen, und so wird das auch mit Haswell sein. Ich werde AVX2 sicherlich mit LLVM/CLANG 3.2 oder einem der GCC Compiler > 4.7 handoptimiert nutzen können und wieder traumhafte Leistungswerte erreichen, aber welche allgemeine Software wird explizit auf eine neue Architektur getrimmt?
Unterm Strich sind Haswells neuen Architekturmerkmale bemerkenswert. Zwei neue Ausführungseinheiten und AVX2. Beide werden leider nur die Integerleistung steigern, der Nutzen für die FPU ist begrenzt. Die neuen Caches am Ringbus, die eine bessere Threadoptimierung ermöglichen sollen, sind gewiss nicht zu verachten, aber bis Software auf das neue Verhalten der ISA angepaßt und optimiert ist, vergehen wohl noch Computer-Äonen. Noch immer ist bei vielen Softwareprojekten SSE3 ein Fremdwort und AVX wird sicher noch 5 Jahre ein Schattendasein führen, bevor Software standardmäßig mit diesen Funktionen gebaut wird. Wir schleppen einfach zu viele Relikte des x86-Schrotts durch.
Und warum soll ich nun die Umwelt und meinen Geldbeutel belasten, wenn der Vorteil einer Neuanschaffung marginal ausfällt? Im Bereich "Hobby" kommt man sowieso nur noch mit brachialer Gewalt an eine Vernunftsbasis, das wird gerne das 1000fache des relativen Mehrwertes an Leistung pekunär ausgegeben, nur um das Neueste, Beste und Schnellste zu haben.
Nun
Ergänzung ()
Diablow51 schrieb:
Von nem 1090T auf nen 3770 sinds ca. 60 % - 80 % je nach spiel.Also auf nen 4770 sinds dann 70 - 90 % gegenüber nem 1090T.wechsel lohnt sich also.
... wenn eine CPU bereits im Schnitt > 20% Leistung mitbringt, würde ich es bereits als lohnend erachten, eine Neuanschaffung zu tatigen, solange der Mehraufwand in Relation zum Einkommen steht. Leider kann man solche Rechnungen nicht anfertigen, wenn Investitionen in den mehrfachen k-Euro Bereich gehen.
Die Geschichte zeigt, dass Verspätungen meist auf Probleme folgen:
HD 2900
Bulldozer
Fermi
Prescott
Es scheint inzwischen klar, dass Haswell ein Fail wird, die Verspätungen, die hohen Temperaturen und der gesteigerte Stromverbrauch bei sinkenden Taktraten sind Indizien, dass Haswell ein Prescott 2.0 wird. Daher wundert es mich, dass die Leute tatsächlich überlegen, sich einen Haswell zuzulegen oder gar auf ihn zu warten.
Was auch ein Omen bzgl der Leistung ist, ist dass bei Intel zuletzt jede 2. Architektur in die Hose ging:
Prescott/Pesler --> Fail
Conroe/Yorkfield --> erfolgreich
Nehalem/Westmere --> schwach
Sandy Bridge/Ivy Bridge --> erfolgreich
Haswell/Broadwell --> Fail
Bei AMD ist es lustigerweise immer die erste Variante einer neuen Architektur:
Agena --> Fail
Deneb --> stark
Zambezi --> Fail
Vishera --> stärker
Daher würde ich mir als potenzieller Aufrüster nicht zu viele Hoffnungen machen und stattdessen jetzt zuschlagen.
Mal sehen welchem der beiden Möglichkeiten das Fazit von Haswell am Ende näher kommt:
"Der Haswell wird im Vergleich zu seinen Vorgängern sehr warm. Die von uns gemessenen 10°C mehr bei offen liegendem Testsystem sind kein Pappenstil. Doch auch das wäre zu verkraften, wenn die Leistung den Erwartungen entsprechen würde. Leider wird man auch hier enttäuscht".
Alternativ:
"Die Theorie klang sehr gut, doch das finale Produkt fällt vorerst tief: Was Intel aus einem 170 mm² großen und satte 1,8 Milliarden Transistoren umfassenden Prozessor-Die herausholt, enttäuscht auf nahezu ganzer Linie. Nicht nur, dass die Performance wenig Überzeugungsarbeit leistet, der exorbitante Stromverbrauch, der dazu notwendig ist, schockiert regelrecht. Doch der Reihe nach."
krOnicLTD schrieb:
so wies derzeit aussieht wirds einfach nur etwa so ein cpu-seitiger boost wie der ivy zum sandy war, also bestenfalls 10%. zum sandy würden es dann schon 20% sein in etwa. is natürlich nicht gut
Das sind die Angaben von Intel. In der Praxis werden es -5% - +5% sein bei gestiegener Leistungsaufnahme und gestiegenen Temperaturen. Das wird denke ich den wenigsten Ansprüchen genügen.