News (Fast) offiziell: Clarkdale ersetzt Havendale

Definitiv reicht eine Onboard oder in die CPU integrierte Grafikeinheit zum Surfen und arbeiten mit Office & Co vollkommen aus ... also ist es ok ... schön wäre es wenn Sie es endlich mal hinbekommen würden das in 2D die Onboard/CPU Grafik arbeiten würde (weniger Energieverbrauch) und für 3D dann die Monster PCIe Karte ... und das ganze dann noch ohne Eingriff oder Handgriff des USERS ... *träum*
 
@frankkl
Kann ja keiner was dazu dass du irgend ne Paranoia hast. Ne IGP hat keinen Nachteil gegenüber einer Grafikkarte wenn man damit keine großartigen 3D-Sachen machen will. Die Argumente die du immer bringst sind vollkommen aus der Luft gegriffen.
 
Werden GPU und CPU da im Nachhinein 'zusammengelötet'? Wäre es da nicht effektiver alles zusammen zu produzieren? Warum also diese unterschiedlichen Herstellungsverfahren? Das leuchtet mir grad nicht so wirklich ein.
Selbst wenn die getrennte Herstellung kostengünstiger wäre, versaut man sich diesen Vorteil doch durch das Nachbearbeiten (Zusammenfügen) der einzelnen Teile wieder. Nicht?

Persönliche Anmerkung:

Bereits seit Wochen sind die Gerüchte am kochen...

Richtiger wäre: 'die Gerüchte kochen' (sind am kochen - omg)
Noch richtiger wäre: 'die Gerüchteküche kocht' oder 'Bereits seit Wochen kocht die Gerüchteküche, ...'
(Wie sollen denn Gerüchte kochen?)

Ich korrigiere sowas ja nich gerne, aber hier sträuben sich einem die Fußnägel. :lol:
 
Also die onboard Grafik unseres MA790GP-DS4H hier bringt bei rthdribl freundliche 85 Frames/s auf den Schirm.

Ihr könnt ja mal gängige midrange Karten benchen, aber eine 6600gt bringts da grademal auf 25FPS...

Meine alte X1950pro auf 120FPS

Die Dinger sind ganz schön Potent geworden!

http://www.daionet.gr.jp/~masa/rthdribl/ <-- rthdribl Benchmark

Außerdem kann man Surround View mit vier Monitoren machen oder Hybrid Crossfire... In zukunft auch Power Xpress zum Stromsparen. Wenn Die Gragikkarte mal zickt nimmt man die onboard Grafik.....

So eine onboard Grafik ist ein Segen!


Zum Thema Sockel. Gerade das Triple Channel Speicherinterface des Core i7 macht ja die Boards so abartig teuer. Also bringt man ne DualChannel Ausführung und dann fallen halt auch 240 Pind weg. Das ist wie es beim Sockel 754 vs 939 bei AMD war.

@ Volker

RTHDRIBL fänd ich übrigens noch einen guten Benchmark für Grafikkarten und CPUs...
 
Zuletzt bearbeitet:
Naja die Boards müssen dann ja auch auf die Prozessoren ausgerichtet sein, denn was bringt dir eine Grafikeinheit in der CPU versteckt, wo du keinen Monitor anschließen kannst?

Also alte boards damit aufrüsten wird wohl schwierig sein
 
Ja davon redet ja auch erstmal keiner. Man trennt sich in Zukunft eh von dem System North- und Southbridge, es verschmilzt nach und nach. Wenn der Prozessor eine Grafikeinheit besitzt, dann wird die passende Platine auch einen Grafikausgang bieten. Wie immer sie das auch handhaben, in einem Jahr sind wir schlauer :D

Und nochmal zur Onboardgrafik. Insbesondere im letzten Jahr kam der Durchbruch für diese Dinger. Sicherlich haben sie davor Jahre lang rumgedümpelt, aber heute sind echt eine super Alternative. Ich brauch beispielsweise kein Notebook zum arbeiten mit fetter Grafik das mir den Akku leersaugt, onboard reicht vollkommen. Klar sprechen sie nicht den traditionellen Zocker an, aber es geht beim Clarkdale auch um den Mainstream und damit Office-PCs. Dafür sind die Onboard-Dinger ja wohl perfekt, denn in einem Großraumbüro brauch eine Telefonistin sicher keine extra Grafikkarte in ihrem Rechner.
 
Zuletzt bearbeitet:
Naja, war ja irgendwie auch logisch, daß Intel die i5er gleich im 32nm Prozess fertigen will, da man damit noch günstiger produzieren kann. Derweil hält man die Kunden mit den Core2Duos und Quads bei Laune (notfalls noch ne schnellere Version nachschieben) und testet mal die Nehalem Architektur mit dem Core i7.
Fehlen nur noch die Xeon Versionen und schon kann Intel ungeniert im Opteron Revier wildern. ;)
 
@Ned Flanders

Wie hast du getestet, Fenster oder Vollbild ?
Meine Midrange scheint stärker zu sein als die alte 1950pro, komme auf 240FPS (Fenster mit nur 75% GPU-Last) und 60FPS Vollbild.
 
Tja ham die Jungs von Intel gemerkt dass sie doch nicht so toll sind was GPUs betrifft, also in 45nm. AMD liefert ab April erste Grafik-Produkte in 40nm (von TSMC), der Spieß lässt sich also auch umdrehen...

Aber die integrierte AES-Beschleunigung ist interessant (siehe Folie).
 
Wenn die Grafikkarte in 45nm hergestellt wird, dann kann man sich doch vorstellen, dass das Teil 2 Dice (dies oder Die Plural) haben wird, oder? Es ist glaube ich nicht möglich 45nm und 32nm chips in einem herzustellen.
Das wird auf jeden Fall nicht billig aber hoffentlich kühl und kein schwarzes loch für coulombs.
 
@kadda67
exakt ist es auch nicht. das gibt nen wafer mit 45nm und nen wafer mit 32nm. dann nimmt man jeweils ein die (gpu + cpu) und packt die auf ein package, klebt nen heatspreader drüber und verscherbelt das zeugs aufm markt. so einfach ist das ganze :)

@monitor-ausgang-nörgler
kennt ihr noch die extension-cards mit denen man zu dem VGA ausgang onboard noch nen DVI ausgang zuschalten konnte? Ich denke genau so wird es dann auch laufen, entweder ist der chip für die ausgänge und die ausgänge (dvi/hdmi/vga/svideo/usw...) direkt aufm board, oder sie werden mittels pcie-extensioncard nachgerüstet :freaky:

soweit meine theorie
 
Ups, erst 2010.

Hätte ein Havendale in Mobiler-Form in die Next-Gen-Notebook-Generation im 2H 2008 von Intel eingesetzt werden sollen??????????????????????


Na dann bin ich mal gespannt, ob sich dieser Termin (anfang 2010 oder so) eingehalten werden kann.
Denn wir wissen ja nicht, warum Havendale verschoben wurde. Und in der Vergangenheit waren die Probleme manchmal doch großer, sodass weitere Verschiebungen kamen a la K10, R600, GT200b usw usw.

Kampfkuchen schrieb:
Ja da is eine Onboard-Grafik in der CPU.

Wie bei AMDs Fusion

Wikipedia AMD Fusion

Gruß Kampfkuchen
Soviel ich weiß, ist Fusion nicht gleich Nativ.

Es gab mal eine AMD-Grafik, wo der Weg zum nativen Fuison dargestellt wurde. Und Swift wäre AFAIK zwei getrennte Dies (CPU & GPU), die dann irgendwie zusammengefügt geworden wären.

AMD hat schon langer mit Fusion, die Zusammenarbeit von GPU & CPU gemeint, obwohl sie recht irreführend waren alias Fusion = 1 Die.

AMD arbeitet schon viel länger am Fusion-Projekt und dürfte wahrscheinlich erst 2011 die ersten nativen rausbringen.

Bei den ganzen durcheinander & sonstigen Erfahrungen dürfte AMD den 2-Die-in-one-Package alias Swift gekillt haben und sich dann doch aufs native alias APU gestürzt haben.

Somit wäre ich nicht überrascht, wenn Intel auch etwas Probleme bekommt und mit der Havendale-Verschiebung könnte schon das erste anzeichen geben.
Schließlich hat AMD auch Probleme. Zwar haben sie ein kleineres Forschungsteam alias kleineres R&D, aber dafür hat AMD viel länger Erfahrung mit nativen Dual & Quads sowie mit ATI Grafikerfahrungen. Neben der schon längeren Arbeit an diesem Projekt

Aber man muss sagen, Intel hat immerhin gute Erfahrung mit zusammenfügen von 2 Dies in 1 Package und könnte sowas im Gegensatz zu AMd schaffen/rausbringen.

Aber viele Vorteile würde ich nicht sehen. Eher im Notebook-Bereich alias Platz & Kühler & Gewicht & Gehäuse-Volumen usw.
Sowas könnte wichtig/interessant sein, aber nicht essentiell.
 
Zuletzt bearbeitet:
Bei mir wars glaub Fenster... ist aber schon ne weile her... Die 4670 macht sich ja gar nicht schlecht!
 
Mal 'e ganz blöde Frage: Das Ding soll ein Dualcore sein? Und Quads gibt's wie bisher als "zusammengesetztes"? Oder überlässt man das dem i7? Alles in allem kriege ich da so das Gefühl, dass intel nicht zwischen Highend und Mittelklasse, sondern zwischen Mittelklasse und Lowend die Grenze ziehen will - denn das 2010 niemand mehr Dualcores oberhalb der "Bürorechner"-Klasse vermarkten wird, sollte klar sein..
 
@CB
Hallo ich verstehe das Interface zum Chipsatz nicht!
Wie sehen dieses DMI-Dingens und dieses FDI-Dingens genau aus?
Handelt es sich um einen differentiellen- oder einen parallelen Bus?
Und wie siehts mit den Transferraten aus? Selbst auf den verlinkten News fand ich keine Infos.
Das ist doch eine interessante Information, die ich übrigens auf den Folien zu den AM3 Prozessoren vermisst habe! Schließlich werden die AM3 Prozessoren auch nicht alle denselben HT-Takt fahren.
 
naja... kommt drauf an, wieviel Strom das Teil dann braucht. Bei Core iX assoziiere ich das i nämlich mitlerweile mit ineffizient...
Wobei 32nm sehr vielversprechend klingen... Allerdings vertrau ich nur noch auf Praxistests.

Aber DualCore mit Hyperthreading müsste doch unseren DualCore-Fetischisten hier wie gerufen kommen. Damit hätten sie nen DualCore, der bei Bedarf ein Pseudo-Quad is... :evillol:
(das musste jetz sein ;) )

MfG, Thomas
 
Interessant wäre doch wenn der Prozessor die integrierte Grafikeinheit (die ja sicherlich eher auf einen beschränkten Befehlssatz mit mathematischen Schwerpunkt beruht) als eine Art mathematischen Co-Prozessor, oder wie eine externe FPU nutzen könnte. Schnelleres abarbeiten von Gleitkomma- Berechnungen wäre die Folge, also ein giftiger Renderzwerg :D.
Aber man kann eben nicht alles haben. Ich als Intel- Ingenieur würde das jedenfalls aus diesem Standpunkt angehen.
 
Zuletzt bearbeitet:
Ich weiß nicht, aber mir kommts so vor als fällt keinem auf, dass Intel hier versucht ne Schlappe zu nem Erfolg umzudeuten. Laut Intels tollem Tick-Tock-Modell z.B. sollte letztes Jahr die Nehalem-Generation eingeführt werden, aber momentan gibts nur den i7. Bisher hat Intel eine neue Generationsfamilie doch zeitlich immer relativ eng beieinander raus gebracht. Wo sind also die Server-, Mobile- und Mainstream-Desktop-Ableger verblieben? Richtig, die verspäten sich! Die Next-Gen-Mobile-Plattform wurde meines Wissens nach (korrigiert mich wenn ich falsch liege) noch nicht mal richtig angekündigt. Es hat für mich den Anschein als hätten sie wirklich ernsthaftere Probleme, so wie mit ihren Itaniums bei denen sie angeblich noch mal aktuelle Verbesserungen einfließen lassen wollen. :rolleyes:

So, und dann haben sie schon letztes Jahr den Core i5 verschoben, um jetzt den Havendale doch quasi vollends zu streichen. Von wegen man nutzt lieber gleich die großen Fortschritte im 32nm-Herstellungsverfahren :o - laut ihrer eigenen Roadmaps ist 32nm dieses Jahr eh fällig, zusammen mit einer neuen Generation, Westmere. Und der Clarkdale ist in meinen Augen im Endeffekt nichts weiter als ein Vertreter eben dieser Generation. Selbst wenn er nun in einem Jahr erscheinen sollte und man ihn Westmere zuordnet, so würde sein Erscheinen dem Zeitplan trotzdem noch hinterher hinken.

Wär schön wenn CB die News etwas "entschärft", will heißen ein wenig kritischer gestaltet, denn selbst laut Folie heißt es bei Intel, dass es sich um Westmere handelt.


P.S.: Auch im Bezug auf Berichte über Intels "vorzeitige" 32nm-Fortschritte wär meiner Meinung nach mehr Sachlichkeit/Objektivität gefordert.
 
Zuletzt bearbeitet:
ghecko schrieb:
Interessant wäre doch wenn der Prozessor die integrierte Grafikeinheit (die ja sicherlich eher auf einen beschränkten Befehlssatz mit mathematischen Schwerpunkt beruht) als eine Art mathematischen Co-Prozessor, oder wie eine externe FPU nutzen könnte. Schnelleres abarbeiten von Gleitkomma- Berechnungen wäre die Folge, also ein giftiger Renderzwerg :D.
Aber man kann eben nicht alles haben. Ich als Intel- Ingenieur würde das jedenfalls aus diesem Standpunkt angehen.
Ich glaube, das wäre die letzte Stufe der Fusion-CPU (auf AMD-Grafik "Der Weg zur Fusion-CPU).
Also, nicht nur der Grafikteil alleine in einem Eck sondern in mehreren Teile auf der ganzen Nativen Die zerstreut inmitten von CPU-Teil.

Aber sowas werden wir IMO 2011 nicht sehen.

@Knut Grimsrud
Zustimmung.
Die Andeutungen (Itanium-Verschiebung, Havendale-Verschiebung) für "große/größere" Probleme sind da.
Auch die Begründung ist für mich lächerlich alias Wirtschaftslichen Gründen wegen der Wirtschaftskrise.
Das ist lächerlich, denn dann hat Intel die ganzen Jahren bewusst unwirtschaftslich gearbeit und viel Geld bewusst beim Fenster rausgehaut.
Alias Wirtschaftlicher ATOM-Kern + 130nm-Chipsatz.

Es ist/war wirtschaftlicher alte & schon abgeschriebene Fabriken weiter produzieren zu lassen.
Was macht es für ein Sinn, eine paar Mrd. Euro teuere Fabriken zu bauen um etwas wirtschaftlicher zu sein???????
Es deuten sich eher Probleme an.

Aber wenn Intel richtig reagiert, dann wird es keine/kaum Probleme geben, da Intel mit seinen bisherigen Produkten auch gut leben kann.

Nur durfen sie nicht den selben Fehler machen wie AMD alias gleichzeitig i5 & 32nm, aber keinen 32nm-Core2.
Denn wenn sich der i5 weiter ungeplant verschiebt, dann kann AMD nachziehen und im ungünstigen Fall Intel überholen.
(siehe K10-Barcelona, welcher in April 2007 statt März 2008 unbugged hätte kommen sollen. Aber unvorhergessehene Bugs machten einen Strich durch die Rechnung)

Dazu hat AFAIK Intel per i7 (non-Server) & 45nm-Einführung (Quad-Server) auch ungemütliche Bugs gehabt, was praktisch zu einer Verschiebung führte.

Oder, AMD wird wahrscheinlich den K10.5 in mobiler Version in der next-Notebook-Version bringen.
Und wenn dann ein RS8x0 mit RV810 in 40nm kommt sowie SB800, dann könnte AMD im Notebook-Sektor gleichziehen, wenns nicht schlimmer kommt.

Ein gleichstarker bzw. stärkerer AMD vs Intel hätte in der heutigen/zukünftigen Zeit viel mehr Auswirkungen, da Intel dann nicht mehr die großen Plattform-Vorteile sowie die vielen Exklusive-Verträge wie damals hatte.
Auch wenn das nur paar Monate der fall ist, kann es große auswirkungen haben.

(Da würde ein GM45 @ 45nm auch schon die lage deutlich verbessern. Vorallem soll die Struktur-Verkleinerung (siehe oben), ja so wirtschafltich sein. Also, könnten sie jetzt alle Chips in 45nm produzieren lassen.)

Aber aber aber, dafür müsste AMD auch mal die Chipsatz-Palette sowie CPUs gut einführen, die dann auch von der Performance nicht entäuschen. Das hat es bisher ja auch nicht gegeben.

Aber wer hätte vor einem Jahr gedacht, dass Nvida nach der GT200-Einführung ordentlich ins Straucheln kommt.

Und der Phenom II ähnelt momentan dem RV770. i7 ist schneller, aber teuer (inkl. Mainbaord). Wobei der 9650er konkurreznfähiger ist als 9800gtx+

Mal sehen was kommt.
Aber eines war mir schon lange klar. Wenn AMD stark wrid, dann gerät Intel in die "Krise".
(siehe Nvidia) Und ohne K10-Bug würde es jetzt auch schon ganz anders aussehen alias K10-Dual-core usw.
 
Ich weis nicht obs schon jemand gesagt hat, glaube aber da war bestimmt schon jemand schneller (war jetzt zu faul alle Kommentare zu lesen): Ich denke mal, dass die Grafikeinheit vor allem für GPGPU und GPU Computing zum Einsatz kommt. Wird zwar eine relativ abgespeckte GPU sein, aber bei linearen Berechnungen wie Gleitkommaberechnungen ist die sicher noch schneller als die CPU. Eventuell bietet das auch Softwareseitig einen Vorteil weil die CPU bei sich intern Sachen auf die GPU auslagern könnte und hätte so mehr Resourcen übrig für Berechnungen, die eine GPU nicht ganz soo gut kann. Also wie sowas von der Software her adressiert wird, weiß ich leider nicht, da hab ich keine Ahnung. Aber wäre zumindest praktisch wenn die CPU selbst das mit der Auslastung regelt.
Ansonsten dürfte die interne Grafikeinheit auch noch interessant für HTPCs werden weil man dann nur einen Kühler braucht und man auch sperrige PCIe Karten verzichten kann. Ich würde da aber persönlich trotzdem eher zu einer onboard-Grafik tendieren.
 
Zurück
Oben