News Aktualisierte Desktop-Prozessor-Roadmap von Intel

Lars_SHG schrieb:
Schreck lass nach - da können wir ja bald 10 jähriges Jubiläum der 4-Kerner feiern und es gibt immer noch nicht mehr Kerne unter 500 €!
Das nennt man wohl Stagnation!

Nichts gegen die Optimierungen der Ivy-Bridge zum Stromsparen hin, aber nicht jeder kommt mit so wenig Kernen klar oder will gleich 500 € für eine brauchbare CPU ausgeben!

10 Jahre? 6 Jahre! (Quelle: http://www.golem.de/0611/48933.html) Aber wenn die nächsten 4 Jahre für dich so bald sind, dann kannst du 2017 natürlich ganz easy das 10-jährige Jubiläum feiern.

Und zur zweiten Aussage: WER kommt denn bitte NICHT mit "so wenig" - d.h. 4 - Kernen aus? Also mir reicht das völlig. Und zwar sowohl zum Rendern in C4D, meiner Bildbearbeitung in Photoshop und auch zum zocken ab und zu. Virtuelle Maschine mit eingeschlossen.

Also weiß wirklich nicht wo du lebst, aber die Leistung die du für 200€ in Form von nem i5-3570k kriegst reicht ja wohl für 99,9% der User. (Kenne niemanden der 500€ für ne "brauchbare" CPU ausgeben würde... 200 reicht dicke, und zwar in allen Belangen.)

€dit: Wenn deine PDF ruckelt hast du was falsch gemacht und das ist im Zweifelsfall ein Problem der Software aber sicher nicht der Leistung der CPU (und wird sich auch nicht bessern wenn die dann 2 Kerne mehr hat.) Und die Zeitdauer des Bootens hängt wirklich nicht von der CPU ab... es sei denn du hast ne SSD! Aber ob du dann 12 oder 11 Sekunden zum starten brauchst rechtfertig sicher nicht eine CPU die mal eben 300€ teurer ist.)
 
Zuletzt bearbeitet:
Boah, schon wieder ein neuer Sockel für Haswell. Die wollen mir doch nicht allen ernstes erzählen, dass das notwendig sei zur Performancesteigerung, oder?
 
Weiß jemand ob auch wieder an der iGPU rumgebastelt wird?
Gibt es schon erste Trends oder Aussagen in welchen Regionen sich die Leistung bewegen wird?
Es würde mich wirklich freuen wenn ich endlich diese nervige nVidia LP-Karte aus meinem HTPC verbannen könnte.
 
time-machine schrieb:
was willst du mit mehr als 4 kernen @ donsanchez? höchstens in prime werden alle kerne ausgelastet aber ich hab noch keine anwendung gesehen wo alle 4 kerne ans limit getragen werden. kein photoshop kein adobe premiere sony vegas etc. solange nicht alle kerne voll ausgelastet sind gibt es auch kein grund sich nen sechskerner zu holen zumal dieser sich im privatbereich nur langweilen würde

Also wenn bei mir der Adobe MediaEncoder ein HD-Video rendert mit diversen Plugins (ColorGrading, Highlight Correction + Stabilizer) sind bei mir alle 8 Threads auf 99% am Anschlag und die RAM-Last liegt bei 7,9 GB.
 
BF3 spielen und livestreamen = 6 Kerne ERWÜNSCHT.
Also nicht wirklich benötigt aber nice to have.
Einfach mal ein Beispiel aus Gamersicht, weil das hier auf CB anscheinend die Referenz ist. ^^
Wer nicht captured, der braucht auch mehr oder weniger keine >4 Kerne als Gamersicht.


Bei professionellen Anwendungen, wie man hier sieht, ist man mehr oder weniger gemischter Meinung. Wers braucht, der kauft sichs. Wers nicht braucht der überlegt es sich halt...
 
Zuletzt bearbeitet:
Mal ne Frage. Hab noch ein Q6600 mit 2,88 GHz laufen:p Wie viel schneller wäre ungefähr die neuen Haswell CPUs wie mein Q6600 wenn sie auch ne Leistungssteigerung von 13-20% zu IB haben
 
Voyager10 schrieb:
Wenn ich da 2006 an Conroe denke, dort hatte Intel 40% Mehrleistung bei 40% geringeren Verbrauch gehabt , seit dem stagniert das Prinzip bzw. wird es von Jahr zu Jahr weniger und das liegt an der fehlenden Konkurenz.

Das liegt vor allem an der technischen Machbarkeit. Wenn du jedes Jahr 40 Prozent Mehrleistung haben willst, bräuchte man ein exponentielles Wachstum. Das kann niemals auf Dauer gut gehen.
 
ich schaffs auch ohne Probleme 12 Threads ans Limit zu bringen. Sicher, kein tagliches Szenario - kommt aber vor und im Falle des Falles ist es dann deutlich schneller.
 
Was mault Ihr eigentlich alle rum, dass Intel nur 4 Kerne anbietet? Ich dachte, die Intel-Prozessoren sind eh die schnellsten und besten, die es gibt. Hier wird doch immer mit Benchmarkbalken argumentiert. Dann solltet Ihr doch wohl absolut nichts vermissen... ;)
 
Zuletzt bearbeitet:
Tidus2007 schrieb:
Och, da gibt es schon einiges. Bei mir werden immer 99% erreicht beim Rendern von Material mit Fraps. Hab nen 4 Kerner, also so schwer ist es nicht wenn man das passende macht . Aber normal im Office Bereich geht es natürlich nicht so schnell. Aber ohne 4 Kerner wäre es heute schon echt übel Videomaterial zu Rendern, zu bearbeiten etc.
__________________
q6600 4x2,4ghz, 8GB Ram DDR2 mit 800mhz, EP35DS3-r Mainboard
128GB Samsung 830 SSD, 500gb SATAII HDD, 22 Zoll Monitor mit HDMI, 512mb HD3870
Macbook 2009 mit Sandisk G25 128GB SSD

Ich hoffe du meinst nicht die CPU in deiner Signatur. Ein uralter Q6600 mit 2,4Ghz, bitte??? Mit nem I7 3770K@ 4,5Ghz bist du mindestens 4-6mal schneller. Darüber hinaus @all wenn ihr beim RENDERN von Filmen eine CPU Auslastung von 100% bekommt solltet ihr nicht Geld in ne dicke CPU stecken sonder lieber ordentliche Programme kaufen MIT GPU Beschleunigung! Das spart 1/3 Zeit und das Ergebnis sollte für 99% der Hobby Filmer ausreichen.
Ich hab mit meiner GTX680 keine Probleme mehr.

SamSoNight schrieb:
Boah, schon wieder ein neuer Sockel für Haswell. Die wollen mir doch nicht allen ernstes erzählen, dass das notwendig sei zur Performancesteigerung, oder?
Nein, das nennt man Verkaufsstrategie. Würdest du auch so machen. ;) Neu CPU = Neues Board = Intel Chipsatz...
 
Zuletzt bearbeitet:
Klar, und die Bildqualität zeig ich dann meinem Hund. Der sieht den Unterschied nämlich nicht.
 
Selissa schrieb:
Klar, und die Bildqualität zeig ich dann meinem Hund. Der sieht den Unterschied nämlich nicht.

Laber nicht so eine Scheiß sondern lass taten sprechen. Ein direkt Video in HD. Ein mal mit CPU und einmal mit GPU gerendert im Splitscreen. Wobei deiner Aussage nach die GPU um ein VIELFACHES schlechter ist.
Ich lass mich gern überzeugen, aber hohle Scheiße kann jeder labern.
http://www.youtube.com/watch?v=_KFw5sxOITY
Gleich vorm geflame ein INGAME Video von MW2 ist nicht Aussage kraftig genug. Dessen bin ich mir bewusst aber die Grafik sieht auf BEIDEN Seiten SCHEIßE aus. Das als Info.
 
Immernoch 4 Kerne, weitere 5 "Pins" gespart, die Hersteller freuts, der Kunde wird abgezockt.
 
SamSoNight schrieb:
Boah, schon wieder ein neuer Sockel für Haswell. Die wollen mir doch nicht allen ernstes erzählen, dass das notwendig sei zur Performancesteigerung, oder?



Was heißt wieder? Also wenn es für Ivy einen neuen Sockel brauchte. Alleine für das integrierte FIVR braucht es einen neuen Sockel.
 
Du musst mich nicht so anmachen. Kann ich doch nichts dafür, dass Du blind bist.
Man sieht selbst zwischen vers. Codern einen riesen Unterschied. Und die einzige GPU Beschleunigung, die etwas taugt ist quick sync von Intel. Leider nur bei HD Material, und außerdem unterstützt quick sync kein 50 Hz Material. Damit auch durchgefallen. Wenn Du Lustig bist, kann ja nach Beispielen suchen. Ich mach es nicht für Dich. Auf Tomshardware gab es letztes Jahr mal einen netten Vergleich aller GPU Beschleuniger. Viel Spaß beim suchen.
 
Dragon45 schrieb:
Laber nicht so eine Scheiß sondern lass taten sprechen. Ein direkt Video in HD. Ein mal mit CPU und einmal mit GPU gerendert im Splitscreen. Wobei deiner Aussage nach die GPU um ein VIELFACHES schlechter ist.
Ich lass mich gern überzeugen, aber hohle Scheiße kann jeder labern.

Du hast zwar recht, wenn es um die Qualität beim Rendering CPU vs. GPU geht. Siehe übrigens auch hier: http://www.slashcam.de/artikel/Test...-CPU-Effekte-unter-Premiere-Pro---alles-.html

Aber ganz ehrlich: Dein Ton ist unter aller Sau. Verstehe das nicht, dabei kann man mit guten Argumenten sich das Blöd anmachen anderer ganz einach sparen.
 
ICh weiss was du meinst, aber sollche Leute wie Selissa gehen mir auf Sack mit ihren Ultraübertriebenen Vergleichen. Ich weiss selber das es einen Unterschied gibt, aber mal ehrlich wir sind keine Hollywood Regisseure, falls Selissa doch einer ist, ist dies wohl die Ausnahme.
http://www.youtube.com/watch?v=QLrRCe2vDwg
Hier noch eins von AfterEffect... wie man sieht es ist nicht so klar aber ein 2Pixel Bild ist es auch nicht und man bedenkt im direkt Vergleich erkennt man es, wenn du ein düsteren Actionlasstigen Film siehst ohne Direkt vergleich und du 3 bis 3,5 Meter von deiner 46" Glotze weg sitzt. Ja dann ... SIEHST DU DAS NICHT MEHR.
 
Herrlich, ein neuer Sockel, ich glaubs nicht... Und ich wollte mir einen schönen Ivy Bridge holen.

Das ist ja alles sehr schön, was Intel da macht, aber ich bin dafür, dass man ENDLICH den Core i7-3770T (bzw. i5-3570T) auf den Markt lässt! Seit Monaten angekündigt aber nirgends verfügbar...
 
Hmm, irgendwie schade, denn so wird das Zeitfenster zwischen neuer Architektur und der Highendauskopplung selbiger immer größer.

Im Q1 2013 ist Haswell im Mainstream Bereich schon längst mit neuer Architektur angekommen, mit neuen Befehlssätzen und erweitertem Support für vllt. USB 3.0, Thunderbolt und co.

Im Q3 2013 soll dann erst Ivy Bridge E kommen.

Bereits im Q1 2014 müsste ja dann schon Broadwell in 14 nm in den Läden stehen.

Dann wird es immer wieder die Diskussion über den Sinn der Enthusiast CPUs im Gegensatz zur Mainstream Variante geben, denn diese wird mit neuerer Architektur sicher nicht deutlicher schlechter Abschneiden. Broadwell in 14nm gegen Ivy Bridge E in 22nm.

Ein direkter Sprung zu Haswell-E wäre wirklich interssanter, da wir ja alle wissen wie gering der Unterschied zwischen Ivy und Sandy ist.
 
SamSoNight

Boah, schon wieder ein neuer Sockel für Haswell. Die wollen mir doch nicht allen ernstes erzählen, dass das notwendig sei zur Performancesteigerung, oder?

Das ist eine technische Notwendigkeit durch einige Veränderungen, wie z.B. der Integration der Spannungsregulierung. Die vorherigen Sockeländerungen waren ebenfalls notwendig und technisch begründet.

Ist es notwendig sich zu Themen zu äußern, wenn man keine Lust hat, sich entsprechend zu informieren?
 
Zurück
Oben