News „Broadwell-K“ mit Iris-Pro-Grafikeinheit vermutet

Matzegr schrieb:
Iris 5200: 40 EUs, 16 FP ops pro EU, Takt: 1300MHz -> 832 GFLOPs
i7 4770: 20 EUs, 16 FP ops pro EU, Takt: 1250MHz -> 400 GFLOPs

Ich hab den AMD64 Teil des Chips gemeint. Deshalb habe ich übrigends die Iris ohne CPU benannt. Gibts da einen konkreten Namen für den CPU-Teil des 4770?
Mir ging es darum hervorrzuheben welche Bereicherung der GPU Teil seien kann, wenn man ihn denn nutzt.
 
@marco_f

Nur als Anmerkung: Die 217,3 FPS der CPU werden durch AVX 2 erreicht, nicht durch X86-64. (Und Intel 64 ist nicht identisch mit AMD64)

Und der CPU Teil heißt... i7 4770 ;-) .... die GPU HDxxx oder Iris (Pro) xxxx
 
Naja ich meinte mit AMD64 die Archtektur. Die FPU gabs schon vor AVX, und X86 gibts auch ohne FPU(z.b. 286 meines Vaters erster). AMD64 denke ich versteht man schon als Abgrenzung zur GPU(und x86-64 ist ja nur eine Lizensierung).

Und zum i7 4770 gehören nicht nur die Rechenkerne, sondern auch noch GPU, RAM-Controller, Spannungsregler,.....

Viel interessanter finde ich den Fakt, dass die Rechenkraft der CPUkerne vervielfacht wird. Das ist natürlich etwas mit Vorsicht zu geniessen(Äpfel und Birnen), aber die ewigen Gamernörgler die meinen sie brauchten die GPU nicht haben noch recht, aber ich sehe das als nahliegendste Lösung zur stagnierenden CPU-Leistung. Man stelle sich vor es wird endlich umgesetzt und die Rechenkraft vervielfacht sich :schluck:
 
Zuletzt bearbeitet:
Intel weis schon was sie tun.
Wenn Multicore kommt und HT optimal auch bei Games mal genutzt wird ist der Boost wie man an Crysis 3 sieht schon enorm.
Und mit nem consumer 6 Kerner würd man evtl paar Kunden gewinnen wenn die nur 400€ kosten aber dafür Kunden die normal eine 2011er Plattform gekauft hätten evtl verlieren.
Und da diese 400-500 € Gruppe wohl so gering ist, zahlt sich das für Intel schlicht einfach nicht aus hier etwas zu unternehmen.

Oder wir machens einfach und schieben wie immer AMD die schuld zu :evillol: .

Mal schaun HSA müsste ja 2014 auch in fahrt kommen und wenn Intel etwas gleichwertiges hat wär geil wenn Phys-x dann im Gamingberreich von der CPU auf die igpu verlagert werden könnte.
Somit wären auch bei einem 4 Kerner wieder Rechenresourcen frei.
 
Zuletzt bearbeitet:
Mal hoffen, dass sich sich Broadwell besser übertakten lässt als Ivy und Haswell.
Ich will nämlich endlich mal von meinem Q6600 @ 3,4 GHz runter. :D

Gab es nicht vor ein paar Wochen Gerüchte, dass mit Broadwell 6 Kerner im Desktop-Segment Einzug erhalten sollen?
Ich meine so etwas gelesen zu haben, oder habe ich das nur geträumt? :freaky:
 
S.Kara schrieb:
Mal hoffen, dass sich sich Broadwell besser übertakten lässt als Ivy und Haswell.
Ich will nämlich endlich mal von meinem Q6600 @ 3,4 GHz runter. :D

Gab es nicht vor ein paar Wochen Gerüchte, dass mit Broadwell 6 Kerner im Desktop-Segment Einzug erhalten sollen?
Ich meine so etwas gelesen zu haben, oder habe ich das nur geträumt? :freaky:


ich gehe eher davon aus, dass sich broadwell ebenso schleht, wenn nicht sogar schlechte oc lässt als haswell.
durch den shrink wird s noch schwieriger zu kühlen sein, wenn wieder nur wlp untr dem headspreader ist.

und nein. boadwell beiben weiterhin 4 kerne das maximum. genauso auch bei der nachfolgegeneration skylake :(
 
Immerhin gibts bei Haswell-E den Schritt auf 8 Cores. ;)

Irgendwie kann ich Intel auch verstehen, dass die nicht die bei den Mainstream-CPUs Core-Zahl hochtreiben. Der Nutzen für >90% der Consumer wäre doch sehr gering. Da investiert Intel lieber in andere Bereiche, eben z.B. der iGPU.

Andererseits erscheint es mir auch nicht wirklich logisch, die stärkste iGPU mal wieder in die High-End-Modelle der Mainstream-CPUs zu packen, obwohl die in den allermeisten Fällen sicher mit einer dedizierten Karte kombiniert werden.
In einem kleinen i3 oder Pentium würde die Iris Pro-Grafik viel mehr Sinn ergeben. Z.B. für HTPCs oder sogar kleine Gaming-Systeme. Aber da gäbe es für Intel wohl das Problem, dass sie dafür dann nicht solche hohen Preise verlangen könnten.

Gewisse Nischen für High-End-CPUs mit besonders starker iGPU sehe ich aber auch. Z.B. für besonders noble (und teure) Desktop-Rechner mit 4K-Display, die aber nicht für Spiele gedacht sind.
 
Herdware schrieb:
Immerhin gibts bei Haswell-E den Schritt auf 8 Cores. ;)

das ist mir schon klar ;)
werde mich wohl deshalb auch im oberen segment umschauen müssen, wenn mein ivy nicht mehr reicht.
beim upgrade hätte ich schon gern mehr als wieder 4 cores
 
Das hört sich aber garnicht gut an.
Ich hatte gehofft die lassen die iGPU mal weg und bauen dann 2 zusätzliche Kerne ein, war wohl Wunschdenken.
Gerade jetzt wo es immer mehr Spiele gibt die von mehr als 4 Kernen profitieren und ein Shrink ansteht, wäre es eigentlich die perfekte Zeit dafür. Aber wenn selbst Skylake noch mit max 4 Kernen rumgurkt...

Und zum LGA 2011 zu grifen lohnt preislich wohl nicht - 100 € zusätzlich für das Board + 300 € zusätzlich für einen 6 Kerner, wer weiß was der 8er kosten wird.

Mal hoffen, dass die Broadwell-K's nicht total enttäuschend werden.
 
broadwell wird nichts anderes sein als hasswell +/- 5 % schätze ich einfach mal.
wenn dir dein q6600 nicht mehr reicht, kannst du auch jetzt schon zu hasswell greifen
 
S.Kara schrieb:
Und zum LGA 2011 zu grifen lohnt preislich wohl nicht - 100 € zusätzlich für das Board + 300 € zusätzlich für einen 6 Kerner, wer weiß was der 8er kosten wird.

Eigentlich ist Intels CPU-Preispolitik (zumindest im High-End) über die Jahre extrem konstant. Man kann z.B. tatsächlich immer noch die uralte Preistabelle aus dem CB-Review der ersten Core 2 Duo nehmen und fast exakt auf Intels aktuelle Produktpalette übertragen. (Und Dollar-Preise sind erfahrungsgemäß nach Einbeziehung von Steuern, Zoll usw. fast immer gleich Euro-Preise.)

An der Spitze steht einsahm die Extreme Edition für ca. 1000€. Das wäre heute der 4960X.
Darunter dann die "Nr.2" für ca. 500€. Heute wäre das der 4930K.
Dann die "Nr.3" für ca. 300€. Das ist heute gleichzeitig mit dem 4820K (S2011) und dem 4770K (S1150) belegt.
Dann die "Nr. 4" für ca. 200€. Da wäre heute der i5 4670K angesiedelt.
usw. ...

Wenn diese 1000-500-300-200-Abstufung so bleibt und 8-Core nicht nur der Extreme Edition vorbehalten bleibt, wird der günstigste 8-Core-Haswell-E wahrscheinlich der "5930K" für ca. 500€. Also 200€ über dem High-End-Quadcore.
Interessant wird, ob der "5820K" dann ein 6-Core sein wird.
 
Zuletzt bearbeitet:
Mir würde schon reichen, wenn die Kollegen von Intel wieder auf Lötzinn umsteigen. Die Power der aktuellen CPU/GPU's ist für mich aktuell vollkommen ausreichend.
 
Wenn ich mit einer i7 K CPU und verbauter GPU die stärkste iGPU dazu bekomme, dann muss es doch möglich sein diese irgendwie sinnvoll zu nutzen.
Hauptmonitor an die GPU und Zweitmonitor an die iGPU funktioniert ja aber einen Vorteil habe ich davon nicht. Habe das bei mir getestet aber die GTX770 macht 2 Monitor genauso sparsam auch ohne iGPU.
Videos render ich mit Cuda, was ca. 30% schneller geht.
Lucid Virtu MVP habe ich bei mir getestet und als nicht erstrebenswert abgehakt.

Stand heute bei mir ist: Das sinnvollste was ich mit der iGPU machen kann ist die im Bios zu deaktivieren. Selbst wenn mal meine GTX kaputt geht, habe ich immer eine andere GPU herum liegen die ich dann stecken kann.

Nutzt jemand von euch seine iGPU sinnvoll neben der GPU?
 
habe meine igpu auch deaktiviert.
Lucid Virtu MVP hat bei mir noch nie funktioniert.
ich brauch keine igpu in meiner großen kiste.
bei einem htpc sieht die sache schon wieder anders aus. aber dafür brauch ich keine k-cpu :(
 
Bigfoot29 schrieb:
grade für Nicht-(und Gelegenheits-)Spieler hat AMD üblicherweise das günstigere Angebot

Ja, aber eben nicht in jedem Fall auch das Beste.
Ergänzung ()

Warhead schrieb:
weiterhin quadcore für desktop = fail
wiedermal maximaler gpu-ausbau auf den größten i7 für desktop = fail²

Jo mei, dann kaufs halt net und weich auf etwas für dich passenderes aus.

Ab 199 Euro gibts nen 8-Kern Opteron
Ab 340 Euro nen 12-Kern Opteron
Ab 550 Euro gibts 16 Kerne.

Intel baut Dinge nicht weil sie es können, sondern weil es sinnvoll ist und auch gekauft, bzw. benötigt wird.
Der einzige Ausrutscher wo sie mal in Verlegenheißt gekommen sind waren wohl die P4 Heizkraftwerke ;)
 
DocWindows schrieb:
Ja, aber eben nicht in jedem Fall auch das Beste.

Wenn ich mir so ankuck wie neuere Games und Engines auf mehr Kernen skalieren,
da braucht doch keiner "das Beste" sondern was Bezahlbares das genügend leistet.

Z.B: BF4 schau mal was der kleine und billige FX-6300 für 95€ reisst! Mit Mantle dürfte es noch mehr werden.
Für gewaltige 16€ mehr gibts Dasselbe auch noch mit 400 Mhz mehr Takt in Form des FX-6350.
Wer braucht da nen i4770 mit 20 Bildern mehr? Wobei kaum jeder Intelkäufer eine Ares II im Rechner hat. :lol:
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefield_4-test-bf4_proz_2.jpg

http://gamegpu.ru/images/stories/Test_GPU/Action/Crysis%203%20The%20Lost%20Island/test/crysis3%20proz%202.jpg

Die CPU ist da heutzutage bei gut gemachten Games ziemlich zweitrangig, auch wenns viele nicht einsehen.
Daher kann ich es schon nachvollziehen, wenn Intel mehr Augenmerk auf die GPU Abteilung wirft.
 
Zuletzt bearbeitet:
und was genau hat der FX-6300 mit dem Thema Iris-Pro im Broadwell-K zu tun?
 
Intel baut Dinge nicht weil sie es können, sondern weil es sinnvoll ist und auch gekauft, bzw. benötigt wird.
Es wird gekauft, weil es keine brauchbare Alternative gab!
Schau doch einfach mal auf den Erfolg des Xeon 1230 V3 - keine integrierte CPU, weil es 95% der Käufer eben auch nicht brauchen!
Insofern denke ich auch das dies besser passt:
weiterhin quadcore für desktop = fail
wiedermal maximaler gpu-ausbau auf den größten i7 für desktop = fail²
 
Gott wie ich auf kaveri in 20 nm warte Intel Grafik omg
 
MikelMolto schrieb:
und was genau hat der FX-6300 mit dem Thema Iris-Pro im Broadwell-K zu tun?

Von wegen der Jammrerei, dass zu wenig auf Prozessorseite und zuviel auf GPU Seite gemacht wird
ist der Einwurf mit dem kleinen FX um zu zeigen, dass die CPU zukünftig unwichtiger wird durchaus
legitim.
 
Zurück
Oben