News Ivy-Bridge-GPU bis zu 60 Prozent schneller als SB

Athlonscout schrieb:
Naja, Herstellerbenches incl Marketinggeblubber sollte man immer mit etwas Vorsicht betrachten. Bedenke auch, dass schon mehrmals gerade für Futuremark Benchmarks die Treiber "optimiert" wurden.


Intel ist da sehr zuverlässig. Intel hat im Vorfeld zu Sandy Bridge +100% versprochen und es ziemlich perfekt getroffen.

r4yn3 schrieb:
Einfach weil 30% schon als optimistisch angesehen wurden. 60% wären schon hoch gegriffen, aber ich lasse mich gerne eines besseren belehren.
Solange der CPU Part nicht unter der GPU Performancesteigerung leidet solls mir recht sein.


Die 30% vom 3dmark06 kannst du vergessen, der Bench ist viel zu CPU lastig. Schau dir Llano an, die sind da auch nur so 50% schneller obwohl es eher 100% sind bei richtiger GPU Last.

overflyer schrieb:
Wann kommen die ersten Ivy Bridge APUS (Also CPU+GPU) raus? Ich wollte mir nämlich einen HTPC bauen und wollte zuerst einen AMD Liano verwenden. Ich habe schon IMMER AMD verwendet und war immer zufrieden damit.

Für HTPCs wurde mir allerdings jetzt zum ersten mal von AMDs APUs abgeraten und auf Intl verwiesen. Klar könnte ich ne Sandy Bridge Version nehmen, aber wieso, wenn die nächste Generation eh bald den Endkunden erreicht?!

Gruß
over ;)


Quadcores ab März, Dualcores ab April/Mai.
 
Ich würde es vielmehr begrüßen, wenn die CPU in einer Variation auch ohne GPU erhältlich wäre.
Die Server CPU der Sandy Bridge Generation sind relativ teuer.
 
Wem interessieren die 60% Steigerung ? wenn es doch nach intel-fans geht, ist doch die HD 3000 mehr als ausreichend oder ?.
Wichtiger ist doch dass man damit gpgpu betreiben kann.
 
Wenn sie ein bisschen gpuram dazu stecken würden wären warscheinlich schon über 100% mehr ^^
Da würde ein 256MB Chip schon reichen, wobei wir mittlerweile bei GDDR3 schon bei 512MB Datendichte pro Chip angekommen sind. Ein einziger Chip auf dem Mainboard und die Sache wäre gegessen.

Aber wahrscheinlich nicht so einfach möglich, man müsste wohl die ganze Architektur auf so einen extra Speicher hin optimieren. Vielleicht irgend wann in Zukunft. Hauptsache man kann die dicke NV oder AMD Grafikkarte komplett abschalten, aber das geht ja auch nicht -> ergo die GPU im Desktop ist eher kontraproduktiv. Belegt TDP und treibt die Kosten in die Höhe, noch dazu verhindert sie aktuell bezahlbare 6 Kerner beim Mainstream Sockel und verfälschen die Marktanteile Richtung Intel

Wenn die CPU Anforderungen weiterhin so niedrig bleiben, können die Core 2 Quad Käufer wohl auch Ivy überspringen und auf die nächste Architektur warten.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
DBelegt TDP und treibt die Kosten in die Höhe, noch dazu verhindert sie aktuell bezahlbare 6 Kerner beim Mainstream Sockel.

Die IGPs belegen keine TDP wenn diese nicht genutzt werden. Intels Powergating ist schon sehr effektiv.
Das durch die IGP angeblich ein 6-Kerner auf S.1155 verhindert wird wage ich auch zu bezweifeln. Ist imho eine rein unternehmenspolitische Entscheidung.
 
Sollen sie lieber mal die CPU 60% schneller als SB machen :D
 
Athlonscout schrieb:
Wo ist Intel was 3d Mark angeht zuverlässig?



Vantage spiegelt die Leistung in Spielen wieder. Llano doppelt so schnell in Vantage, Llano doppelt so schnell im Durchschnitt von Spielen (ohne AA). Problem? Die Steigerungsprognosen der letzten beiden Generationen sind zuverlässig gewesen. Das ist erstmal Fakt, kann jeder selbst recherchieren. Aber egal, das läuft eh auf das übliche Getrolle einiger hinaus.
 
Zehkul schrieb:
..."nette Dreingabe"...

Schon mal daran gedacht das es eigentlich gar nicht mehr sein soll? Intel kann sich hier imo Zeit lassen, und ihr Treiberteam, sowie ihre Erfahrungen in Sachen GPU wachsen lassen.
Und wenn ich mir die Comments so ansehe, sind die Besitzer einer HD3000 durch die Bank zufrieden damit, denn sie erfüllt ihren Zweck, sie erzeugt ein Bild.

Ralf555 schrieb:
Die 30% vom 3dmark06 kannst du vergessen, der Bench ist viel zu CPU lastig. Schau dir Llano an, die sind da auch nur so 50% schneller obwohl es eher 100% sind bei richtiger GPU Last.

Ich beziehe mich hier nicht auf 3D Mark, sondern auf News vom Jahresanfang.
http://vr-zone.com/articles/ivy-bri...rmance-advantage-over-sandy-bridge/11061.html
Ich wäre erstaunt, würden sie ihre eigenen Erwartungen verdoppeln.

Kasmopaya schrieb:
Wenn die CPU Anforderungen weiterhin so niedrig bleiben, können die Core 2 Quad Käufer wohl auch Ivy überspringen und auf die nächste Architektur warten.

Können wohl schon, aber ich will einfach nicht mehr ^^
 
Die IGPs belegen keine TDP wenn diese nicht genutzt werden.
Doch und zwar die sehr wichtige Maximale, Intel berechnet ja die TDP mit GPU und CPU last gleichzeitig. Ergo könnte man wenn man die GPU entfernen würde mit der TDP zb. mehr Kerne realisieren. Die Desktop Intel IGP Schleuderei ist die schlechteste Entwicklung seit langen. Im Notebook sind sie allerdings genial, weil extrem Strom sparend.

Können wohl schon, aber ich will einfach nicht mehr ^^
Bei mir das gleiche, das sind dann einfach die Luxusprobleme wenn man seine Hardware zu gut kauft. Die hält viel zu lang und läuft und läuft und läuft, man wird sie einfach nicht mehr los... :rolleyes:
 
MilchKuh Trude schrieb:
Wenn die von 12 auf 16 Execution Units gehen und dabei 60% mehr Power rausholen, dann muss doch auch kraeftig am Takt gedreht werden.
Was nicht das Problem ist. Per Turbo müssen die IGPs ja eh schon bis 1300MHz mitmachen und übertaktet machen die auch mal eben 1900 MHz mit.
http://www.3dcenter.org/artikel/amd-llano-radeon-hd-6550d-vs-intel-hd-graphics-3000-oc
Kasmopaya schrieb:
Da würde ein 256MB Chip schon reichen, wobei wir mittlerweile bei GDDR3 schon bei 512MB Datendichte pro Chip angekommen sind. Ein einziger Chip auf dem Mainboard und die Sache wäre gegessen.
Also entweder meinst du DDR3 mit 512MB (4GBit) oder GDDR5 mit 512 MBit. Ich tippe ersteres. Aber mit dem einzelnen Chip ist es auch nicht so einfach. Erstens bringt dir so ein Chip mit 32 bit Anbindung jetzt auch keine Wunderleistung und zweitens musst du den Krempel wieder anbinden. Brauchst also nen zusätzlichen Controller in der CPU und einige extra Pins am Sockel.
 
@ Kasmopaya: Nee, deine Argumente stimmen nicht ganz xD

Die 6-Kerner werden nicht für den Sandy-Bridge-Sockel (1155) kommen. Grund: Zuwenig Fläche und zu wenige Kontakte! Nicht aus Kostengründen. Außerdem wäre die CPU dann ein 120 Watt TDP-Modell werden und das Mainboad müsste dementsprechend auch mehr Kondensatoren (und bessere Bestückung haben), damit es fest ist.

So - und weil der Sockel 1366 halt einige Kontakte mehr hat, und nen größeren Sockel hat, gibts das dort. So jedenfalls wurde es mir gesagt. Du siehst also, deine Argumentation geht nicht auf! Denn nur weil man ein paar Prozent mehr Platz auf den Die hat, kann man noch lange nicht 2 weitere Kerne dazuhauen xD Die wollen auch Anbindung! Es gibt aber noch mehr Probleme als die zwei Dinge.

Z.b. wäre da noch die "Trichannel-Ramanbindung" bei den 6-Kern-CPUs von Intel. Und die gibts nunmal auf Sockel 1155 nicht! Und deshalb kannste auch keine 2 weiteren Kerne dazuhauen, weil die schlicht nicht kompatibel sind mit der Architektur.

Irgendwie logisch, oder?

2-4 Kerne => Dualchannel!
6 Kerne = Trichannel
Mehr als 6 Kerne (8 Kerne) => Quadchannel!
Beim Sockel 2011 soll es zwar auch 6 Kerner geben, aber bei Quadchannel macht das kaum Sinn.

Zu mir: Ich verwende ebenfalls noch nen stromsparenden Core 2 Quad (allerdings mit Power), ich werde erst wechseln, wenns die 8 Kerner für den 2011-er Sockel gibt. Weil unter 8 Kernen, auch wenn die CPUs jetzt mehr Ghz haben, werd ich nicht umsteigen.

Und ich steige nicht um, weil ich dann meinen Rechner verkaufe, nein. Ich brauch nur ne neue CPU, Ram + Mainboard. Meine aktuelle Bestückung kann ich dann wunderbar als besseren HTPC einsetzen.

Also nicht wechseln wollen, stimmt nicht. Ich möchte nur auch ordentlich Leistungszuwachs sehen, wenn ich mir nen teuren Sockel 2011-Prozessor kaufe + dazugehöriges teures 8-Ramsockel-bestücktes Mainboard. Ich will da was von haben.
 
Irgendwie logisch, oder?
Ne irgend wie nicht, du lässt dich da von Intel verarschen. Das ist reine Abzocke. Wenn man 6 Kerne haben will soll man gefälligst den teuren Server Sockel kaufen. Technisch hätten sie Mainstream sowas von easy auf 6 Kerne auslegen können.(von anfang an, wie du sagtest mit anderen Pins/TDP) Vielleicht mit weniger Takt und die TDP zu halten, aber mit den K Versionen wäre das dann auch Geschichte gewesen. Der 6 Kern Phenom ist einfach zu wenig Druck seitens AMD, würde es einen extrem schnellen 6 Kerner von AMD schon heute geben, hättet ihr schon lange bezahlbare 6 Kerner. Wartet mal auf Bulli, wenn der was wird müsste sich Intel dann auch wieder mal bewegen. Bis jetzt ist alles Richtung Gewinnmaximierung ausgelegt. Merkt man an immer neuen Rekordgewinnen. Das schlimme ist, ihr merkt es gar nicht richtig, weil Sandy sowieso extrem schnell ist und man nicht viel Grund hat zu meckern... Das ist das schlimme an schleichenden Monopolen, man merkt den Stillstand nicht wirklich, dazu braucht es eine starke Konkurrenz, umso mehr umso besser für uns.
 
SmartSirius schrieb:
Irgendwie logisch, oder?
Naiv würde es eher treffen. ;)
Auf 1155 gibt s keine 6/8-Cores weil Intel möchte, dass du dafür schön tief in die Tasche greifst und die Premium-Plattform kaufst.
Nen 95W S1155 Six-Core zu bauen dürfte kein großes Problem darstellen, alles ne Frage der Spannung und des Taktes.
Die zusätzlichen Kontakte des S1366 haben weniger mit der Anzahl der Cores zu tun, die braucht man primär für den zusätzlichen Speicherkanal des Tripple Channel.
S1366 läuft auch mit 1 oder 2 Channels, der Memory-Controller ist nicht Teil von 2 Cores oder so, somit besteht kein direkter Zusammenhang zwischen den Kanälen und der Anzahl der Kerne. Aber ich freu mich auf den ersten 16-Kerner und die entsprechenden Board-Layouts, deiner Rechnung nach müsste man da ja 8 Channels dran hängen. ;)
 
@ Kasmopaya: Und was ist jetzt genau daran dein Problem?

Ich fände es ehrlich gesagt (für die nahe Zukunft), besser KEINEN Supercomputer so bald im Haus zu haben. Ich mein, hallo? 8 Kerne? Wohooo- der Prozessor hält locker 10 Jahre, wenn die Spieleindustrie so weiter macht. Oder glaubst du, Windows 9/10 läuft nicht mehr mit nem Octocore? xD

Glaub ich kaum. Und genau deswegen will ich auch einen, damit ich endlich nicht mehr denken muss "Die Industrie hat mir hier ein Stück Betahardware mit nur 4 Kernen gegeben, ich brauch daher schon wieder nen neuen, weil der hier, obwohl noch keine 2 Jahre genutzt, schon wieder Altmetall ist". Und es kostet nunmal immer, so war das schon seit Ewigkeiten. Es wird immer Leute geben, denen das zu teuer ist. Dann spar doch! Was denkst du denn, wie lange ich sparen musste auf die Teile, die ich heute besitze?

Findest du nicht, es wäre besser, mal langsamer zu machen in der CPU-Industrie, damit man endlich mal seine Power voll auskosten kann (damit Software-Unternehmen mal mehr Zeit finden, eine CPU auch richtig auszunutzen, ihre Software richtig an die neuen Funktionen der CPUs anzupassen) und nicht morgen blind schon wieder in den Laden rennt, weil die CPU eben schon wieder so gesehen (obwohl man es eigentlich auch selbst weiß) veraltet ist?

Was ist heute? Du rennst in den Laden, kaufst nen ordentlichen Quadcore, nur um dann zu Hause angekommen festzustellen, dass gerade eben die nächstschnellere CPU angekündigt wurde. Und dann? Du nimmst es hin. Aber innerlich bist du aufgewühlt, weil du nicht ein paar Tage länger gewartet hast mit dem Kauf. Du fühlst dich veräppelt, weil du ein "uraltes Stück Silizium" (von der Technologie gesehen, weil andere in ihren Prototypen-Labors längst 80 Kerne und mehr züchten) gekauft hast.

Fändest du es nicht auch besser, in Zukunft weniger Prozessoren zu kaufen, und dafür längere Nutzungsphasen zu haben? Damit du endlich mal ne CPU 10 Jahre nutzen kannst ohne gleich sagen zu müssen "Oh, der ist jetzt aber schon wieder veraltet, nächstes Jahr hol ich mir gleich nen neuen!"

Denk mal drüber nach!

Ähnlich ist das übrigens bei Fernsehern derzeit. Kaum nen 500-1000 Euro Full HD - Galaxis-Edition mit Ultra-Surround-Sound etc gekauft, schon wird der "UHDV"-Fernseher angekündigt xD Somit hast du wieder einmal veralteten Müll gekauft. Du meinst, HD ist toll? Du hast UHDV (wirklich schärfer als die Realität *g*) noch nicht gesehen. Ich empfehle mal den Gang ins Imax.

So und jetzt vergleiche mal. War das früher auch so? Nein. Da hat man einen Fernseher gekauft und genutzt, bis er kaputtging! Das war normal, weil die Dinger damals schon sackteuer waren. Und heute kauft sich jeder Teenie obwohl er es meist nicht braucht, ein Iphone.

Im Prinzip bekommen wir alle derzeit von der Gamesindustrie dafür die Quittung. Und weißt du auch warum? Weil du unzählige Bugs in den Spielen findest (allein ich prüfe das regelmäßig wieviel Bugs in meinen Spielen sind und die meisten find ich auch relativ schnell), weil es einfach nicht läuft, weil die meisten Spiele doch überhaupt keinen Spaß mehr machen (ist auch kein Wunder, bis auf Grafik wird nirgendwo drauf geschaut), weil es einfach immer schneller, immer weiter, immer mehr HD und Ultra-HD sein muss. Weil jeder (oder zumindest der große Teil) nur noch grafikgeil durch die Welt läuft und meint, jedes Jahr ein neues Handy zu brauchen und nen neuen Fernseher und neues Auto, und neues xzy (beliebiges Wort einfügen, danke xD) :D Und die meisten zahlen das dann auch noch mit - richtig geraten - auf Kredit xD Du siehst - das alles ist überhaupt das größte Problem auf der Welt.

Fortschritt ist sicher schön. Aber nur solange die Welt darunter nicht leidet.

Kauf dir ein Handy, kauf dir ein Fernseher. Aber nutze es auch! Und lass es nicht verfaulen oder kauf dir jedes Jahr ein neues Teil. Ich sag dir, das wird nochmal der Untergang der Menschheit sein. Erstickt im Müll :D :D
 
Zuletzt bearbeitet:
SmartSirius schrieb:
Die 6-Kerner werden nicht für den Sandy-Bridge-Sockel (1155) kommen. Grund: Zuwenig Fläche und zu wenige Kontakte! Außerdem wäre die CPU dann ein 120 Watt TDP-Modell werden und das Mainboad müsste dementsprechend auch mehr Kondensatoren (und bessere Bestückung haben), damit es fest ist.
Leuchtet mir nicht ein. Warum zu wenig Fläche und Kontakte? Nur weil ich mehr Kerne verbaue brauche ich nicht wesentlich mehr Kontakte.
Mit was willst du die denn anbinden damit du mehr Konatkte brauchst?
Und in die TDP von 95W bekommst du locker 6 Kerne in 22nm. Brauchst also auch keine zusätzlichen Pins für die Stromversorgung.

Das mit den Speichercontroller ist ja auch Quatsch. Man braucht mitnichten für 6 kerne nen weiteren Speichercontroller. SandyBridge skaliert doch kaum mit nem höheren Speicherdurchsatz. Wir hatten auch schon Quadcores (Q6600) die sich mit 8,5 GB/s begnügt haben. Das kann man mit DDR3-Speicher bei 64bit mit einer Arschbacke absitzen. Da wären wir bei Dualchannel und DDR3 1866 schon bei 30 GB/s. Mehr als die offiziellen 25,5 GB/s des Triplechannel beim aktuellen 6 Kerner.

Der Grund für die zusätzlichen Kontakte beim s2011 sind die ganzen QPI-Links für den Multiprozessorbetrieb und das ganze PCIe-Interface.
 
Zuletzt bearbeitet:
@ bensen: Richtig. Das PCI Express-Interface (Sandybridges sind da ja kastriert) hatte ich vergessen.

Da gehen einige Kontakte drauf. Du hast gesagt, 6 Kerne in 22nm kriegste locker hin. Schon, aber 22nm gibts noch nicht! Erst Ivybridge in einigen Monaten wird das bringen, falls diese nicht verschoben wird. Aber eben keine 6 Kerne wird diese Ivybridge haben!

Und doch bleiben meine anderen Argumente: Die Sockel 1155 Plattform ist soweit ich weiß nicht für Prozessoren größer als ~95W TDP ausgelegt. Dürfte sicher auch in den entsprechenden Handbüchern erwähnt werden (bei der Kompatibilitätsliste) ;) Je mehr Kerne und je mehr Verbrauch, desto mehr Phasen sollte man auch auf dem Board haben, was die ganze Stromversorgung wiederum teurer macht, mehr Platz dafür benötigt usw.

Das alles ist nicht so einfach, wie ihr es gerne hättet. Und ich glaube Intel hat es auch einfach nicht gemacht, weil es denen zuviel Arbeit ist. Dann hätte man schließlich noch ein anderes CPU-Design gebraucht, mehr Arbeit gehabt usw. Und wozu das alles? Damit ein paar Leute jetzt schon nen 300 Euro (unter 300 Euro wäre da gar nix zu machen) Prozessor mit 6 langsameren Kernen hätten. Toll.

Und so wie es jetzt aussieht, wird es auch gar keine 6-Kerner für Sockel 1155 geben. Nur Quadcores. Aber immerhin haben die ja SMT.
 
Fändest du es nicht auch besser, in Zukunft weniger Prozessoren zu kaufen, und dafür längere Nutzungsphasen zu haben? Damit du endlich mal ne CPU 10 Jahre nutzen kannst ohne gleich sagen zu müssen "Oh, der ist jetzt aber schon wieder veraltet, nächstes Jahr hol ich mir gleich nen neuen!"

Denk mal drüber nach!
5+ Jahre sind schon extrem viel für einen aktuellen Gaming PC der quasi alles auf max. packt. Gugg dir mal meine CPU Historie an, die kann man an einer Hand abzählen. Ich kauf nur Meilensteine, meine Hardware hält immer sehr lange durch: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-82#post-9326740

Mein akutelles Mainboard würd ich gerne 10 Jahre behalten, einfach per Slot Schnittstelle die neue CPU rein, Bios Update und Ram und sonstiges weiter verwenden. USB 3 und SATA III per Adapter Karte. Wenns möglich wäre würd ichs machen, Aber CPU Power schlägt sich auch in der Grund Speed vom PC wieder, alle 5+ Jahre ist es wirklich sinnvoll mal wieder neu zu kaufen. Bei GPUs immer mit neuer DX API. Bis jetzt immer das Zeichen einer wirklich neuen Generation.

Und ich muss mich nicht ärgern wenn was neue raus kommt, da ich mich vorher informiere was ich kaufe und wann was neues kommen könnte, das auch nur annähernd besser sein könnte. Dh. ich weis schon vorher was einige erst zuhause oder später wissen.



Erstickt im Müll
Wegwerfgesellschaft, bin ich auch kein Fan von. Mein letztes Auto war 25 Jahre alt dann kam die Abwrackprämie, mein neues sollte auch weider 20+ Jahre durchahlten, wenn alles nach Plan läuft. Aber ich glaube wir driften ab, lieber wieder zum Topic, sonst gibts Haue von den Mods. Nicht das wir HisNs ersten Arbeitstag hier versauen, will ja auch keiner. :rolleyes:
 
Zurück
Oben