News Bestätigt: „Ivy Bridge“ mit DirectX-11-Support

makiyt schrieb:
Da muss ich dich korrigieren. Jede GPU der GeForce 8 Reihe unterstützt CUDA.

Quelle:
http://www.nvidia.com/object/cuda_gpus.html
Abschnitt: CUDA-FÄHIGE GEFORCE PRODUKTE

Es war mit Sicherheit kein syntehtischer Code.

Tatsächlich. Habe das mit der 7xxxer Serien verwechselt.

Auch im Videofilmer-Forum (slashcam) berichten die Leute von Steigerungen mit Mainstreamkarten um 150€ um den Faktor 4. Mit ner guten Graka kommst dann auch auf den Faktor 6 bis 8.

Die Frage ist mit welcher CPU. Anwendungen, die mit der GPU beschleunigt werden können, lassen sich auch sehr einfach Quad Core optimieren.
Da ist der Sandy Bridge (2600) gegenüber deinem Dual Core um ca. den Faktor 4 schneller, mit Ivy Bridge, der dann wahrscheinlich schon als 8 Core Variante erscheinen wird, sieht es dann noch schlechter aus und mehr als die Performance einer aktuellen Mainstream Karte, wird Intel auch in 1-2 Jahren nicht erreichen können. Da wäre es deutlich sinnvoller eine kleine GPU zu verbauen und stattdessen gleich eine 6Kern Variante auf den Markt zu werfen. Besonders die HD3000 beim 2600K, der als Übertakter CPU für die P67 Plattform gedacht ist, wo sowieso die integrierte Grafikkarte gar nicht genutzt wird, ist besonders sinnlos.
 
@Voyager10

Links? Test? Quelle?

Ausserdem möchte ich bei Intel Grafikkarten gerne mal eine AA und Filterqualitätsuntersuchung, bevor man hier solche Behauptungen aufstellt.
Denn wenn ein Spiel auf einer Intel-Graka läuft (was ja auch schon nicht immer der Fall ist), hat das nicht selten ziemliche Grafikfehler oder es wird schlicht die Hälfte gar nicht erst gerendert.
So nach dem Motto wer braucht schon voluminöse Raucheffekte...
Und wenn die NV Fanboys über ATIs Weg meckern die Standardfilterqualität zu senken und immer angebliches Texturenflimmern einwerfen (tritt extrem selten auf), sollte man bei Intel mal einen doppelten Blick auf die sogenannten Leistungsfortschritte werfen, denn da wird richtig gespart bei der Bildquali.
 
rate mal, wer gewinnt.

Du ratest aber auch nur du weisst es nicht genau , in den mobilen Sandys sind immerhin 12 Einheiten verbaut.
 
Canopus: ich kann deine Argumentation nachvollziehen, aber da die Fusion-Southbridge Hudson beinahe identisch (möglicherweise sogar der selbe Silizium-Chip) zu den 9er Southbridges ist, bleibt mir das Ganze trotzdem ein Rätsel. Zudem erwarte ich, dass die integrierten Lösungen den USB 3.0-Standard besser unterstützen und auch eher die volle Geschwindigkeiten erreichen, laut c't gibt es mit den externen Chips noch Probleme mit USB-Hubs und bekanntlicher Weise bremsen sie auch ganz ordentlich. Und Hudson bietet gleich 4 USB 3.0-Ports, Boards mit sovielen Ports via externem Chip sind rar und teuer.

Das ist meist alles zu verschmerzen, aber eben doch reichlich suboptimal.

Was PCIe 2.0 angeht: gerade bei den 1155er-Boards ist das Problem endlich gegessen, auch die x1-Ports unterstützen nun PCIe 2.0. Das wurde allerdings auch reichlich Zeit.
 
andr_gin schrieb:
Die Frage ist mit welcher CPU. Anwendungen, die mit der GPU beschleunigt werden können, lassen sich auch sehr einfach Quad Core optimieren.

Das war in dem Test ein Intel Core 2 Quad Q9650, der ja nicht soo schlecht ist :).

Ist echt so, dass eine einigermassen leistungsstarke Karte jede Extreme-CPU locker in die Tasche steckt :)
 
Voyager10 schrieb:
Du ratest aber auch nur du weisst es nicht genau , in den mobilen Sandys sind immerhin 12 Einheiten verbaut.

Abgesehen von den qualitativen Mängeln, die auch andeuten, dass hier mangelnde Rechenpower durch weglassen von Features kompensiert wird, war in Benchmarks zu erkennen, dass Sandy mit 12 EUs beim 2600k ungefähr die Leistung einer Radeon 5450 mit DDR3 erreicht. Sofern das spiel mit Sandy-Grafik überhaupt läuft.

Core i7-2600k hat 850 MHz/1.350 MHz GPU-Takt, Core i7-2657M 350 MHz/1.000 MHz. Der Standardtakt liegt also fast bei 1/3, der Turbo-Takt immerhin bei 3/4. Allein der Turbo würde die i7-2657M-GPU sehr nah an die HD 6310 heranrücken. Aber der Turbo läuft nur volles Brett, wenn die CPU-Kerne nur wenig zu tun haben. Bei einem anspruchsvollen Spiel wenig wahrscheinlich.

Zacates 6310 erreicht die Leistung einer 5450 mit DDR2 (ungefähr 2/3 der Leistung mit DDR3). Ist auch logisch, denn beide haben 80 SPs des selben Typs und sind ähnlich getaktet, Zacates GPU muss aber noch Bandbreite an die beiden CPU-Kerne abgeben. Obendrein wird die HD6310 von 2 CPU-Kernen unterstützt, die jeweils nichtmal die Rechenleitung eines 1 GHz Sandy-Kerns haben, die getestete Sandy 2600k hat mindestens die 6fache CPU-Power (4 Kerne statt 2, 3,4 GHz) und ein vielfaches an Speicherbandbreite. Sag nicht, dass die CPU-Power keinen Einfluss auf das Ergebnis hat.

Oh, und Zacate ist in 40nm Bulk gefertigt, Sandy jedoch in 32nm ULK.
 
Zuletzt bearbeitet:
noskill schrieb:
Damit gibt es bei den aktuellen Sandy Bridge also kein OpenCL...
Öhhm, doch. :D


Canopus schrieb:
Auch wenn trotzdem noch im Vergleich zur AM3 Plattform zu wenige vorhanden sind. AM3 kann man mit 42 Lanes in der Northbridge kaufen.
Nicht im Vergleich zu AM3 Plattform, sondern nur im Vergleich zum FX-Chipsatz. Die Mainstreamchipsätze haben auch nicht mehr Lanes.

Somit wäre ein integriertes USB 3.0 für die kleinen Bulldozer-Chipsätze definitv interessant.
Aber man pumpt eben nicht mehr all zu viel Geld in die "alte" Produktlinie. Die Chipsätze die man hat werden eben weiterverwendet und minimal verbessert.


@Edgar_Wibeau
Schön das du schon weißt wo die GPU im Turbo läuft und wo nicht. Die Test der mobilen SandyBridge darfst du auch gerne verlinken.
 
Zuletzt bearbeitet:
bensen schrieb:
@Edgar_Wibeau
Schön das du schon weißt wo die GPU im Turbo läuft und wo nicht. Die Test der mobilen SandyBridge darfst du auch gerne verlinken.

Nochmal. Wenn man Sandys GPU 2/3 des Standardtakts wegnimmt und 1/4 des Turbo-Takts, sowie ihre CPU-Leistung auf 1/6 senken würde - denn GPUs kann man nru bei gleicher CPU-Leistung wirklich vergleichen, oder? Würde sie dann um 1/3, also auf die kolportierte Leistung von Zacates HD 6310, oder darunter zusammenbrechen? Ich halte das für sehr wahrscheinlich. Auch, wenn das Ganze im Core i7-2657M bei 17W Power-Budget läuft.

Tests habe ich keine vorzuweisen, aber ich kann rechnen. Und es bleiben die signifikanten Mängel (sei es Hardware oder Treiber) der Sandy-GPU.
 
andr_gin schrieb:
Nur weil AMD in einer Verzweiflungstat alles in die integrierte GPU steckt, muss diesen Schwachsinn ja nicht jeder nachmachen.
Nee klar, was für eine Verzweiflungstat einfach eine GPU zu integrieren, die auf einer aktuellen GPU-Architektur basiert, welche nunmal DX11 unterstützt. Sollen lieber künstlich einen Schritt zurück gehen oder was? Da fass ich mir doch an den Kopf.


On Topic: Schön wenn Intel in Sachen iGPUs endlich wirklich aus dem Quark kommt.
 
Zuletzt bearbeitet:
Ich denke mal dass AMD durchaus viel in die intigrierte GPU gesteckt hat, in dem Wissen dass man an Intels CPU-Leistung vorerst nicht drankommen kann, sofern Intel sich nicht einen Schnitzer wie damals den P4 erlaubt. AMDs APUs haben nunmal den Vorteil dass die über mehr Grafikleistung verfügen als Intels Sandies, dafür aber die CPU weniger Leistung bringt. Das bedeutet? Wenn ein Spiel auf einer AMD CPU läuft ist die Warscheinlichkeit größer dass es auch über die intigrierte GPU flüssig (nicht unbedingt schön) läuft, wogegen bei Intel dann eher eine zusätzliche GraKa benötigt würde -> Stromersparnis.

Da ich jedoch zu den Leuten zähle die ein Notebook niemals für Anspruchsvolle Spiele benutzen würden (und WENN dann nur eines mit richtig viel power), halte ich eine Leistungsfähige GPU im Prozessor eh für sinnlos. Wenn mir das Ding den Desktop darstellen kann und im Idealfall auch noch games wie Solitaire darstellen kann würde mir dass schon reichen. Für Leistungshungrige Sachen wären dann Sachen wie NVs Optimus von Vorteil, so dass man beim zocken halt auf die Lesitungsstarke (und Energiehungrige) GraKa wechseln kann.
 
Thanok
Wir reden hier von Zacate. Wir reden von der Atom Konkurrenz. Wie passt da deine Erzählung rein?
Ich denke mal dass AMD durchaus viel in die intigrierte GPU gesteckt hat, in dem Wissen dass man an Intels CPU-Leistung vorerst nicht drankommen kann, sofern Intel sich nicht einen Schnitzer wie damals den P4 erlaubt.
AMD wird mit dem Zacate einfach das bessere Paket haben als Intel mit Atom. Womöglich sogar extrem günstig herstellen können und somit gute Preise bieten können. Insofern sehe ich deine Ansage als eher aus den Hut gegriffen. Beim Zacate geht es weder um absolute Power für die CPU, noch um absolute Power für die GPU. Muss ja auch nicht sein, bietet Atom und dessen Plattform ja nicht viel. Sandy 17W ULV weiß der Geier wird erheblich teurer für die Hersteller sein als Zacate und auch einen anderen Marktbereich bedienen. Insofern passt deine Erzählung noch weniger auf das Reale betrachtet.
Man könnte möglicherweise Llano deine Erzählung unterstellen. Llano wird aber die deutlich bessere Grafik haben als Sandy. Llano Grafik wird auf dem Niveau einer 5570 liegen und nicht mit der Intel IGP auf dem Niveau einer 5450 tümpeln.
 
Thanok:
Sandy und Ontario/Zacate sind eh zwei verschiedene Marktsegmente, die Überschneidung ist minimal: sobald es von Sandy ULV Celerons gibt, konkurrieren die auch mit Zacate. Hier hat AMDs APU aber einen gewaltigen Kostenvorteil, da das Die nur 75 mm² groß ist. Es kostet in der Herstellung ungefähr so viel wie ein Pineview-Atom (z.B. N550), der nur etwas größer ist. Siehe http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg, die Ontario-Größe ist auf der Grafik noch geschätzt.

Ich verstehe dein Argument mit der nicht benötigten Grafikleistung sehr gut, meinen Desktop mit Phenom X4 betreibe ich auch mit der Onboard-HD 3300. Meine GF 8600 hab ich vor längerer Zeit verkauft, einfach weil ein Kumpel sie gebrauchen konnte, ich aber keinen Nutzen mehr darin sah. Die Daddelzeit ist einfach vorbei.

Heute zeichnen sich aber ganz andere Herausforderungen ab: immer mehr Webseiten setzen auf multimediale Inhalte, 720p-Videos sind auf einigen Seiten schon Standard. Dazu kommt HTML5, das ja noch in den Startlöchern sitzt. Sobald dieses richtig zuschlägt, bist Du mit einer zu lahmen Grafik einfach am Arsch, weil diese Aufgaben eben nur von einer Grafikkarte effizient abgehandelt werden können. Eine sehr kräftige CPU bewältigt diese Grafikaufgaben vielleicht auch, verheizt aber deutlich mehr Energie dabei - blöd in einem Notebook. Und deshalb kann eine kräftige, effiziente GPU eben, schlicht gesagt, einfach nicht schaden. Ich hab heute schon manchmal den Effekt, dass Flash-Videos (unter Linux) ruckeln und der Rechner trotz massig CPU-Leistung (4x 2 GHz sind normalerweise massig mehr als ausreichend für jede normale Tätigkeit) bös anfängt zu haken. Manchmal schaltet sich sogar mein KDE-3D-Desktop ab, mit der Meldung es sein nicht genügend Leistung vorhanden. Das liegt, wie ich weiß, an einem Defizit im von mir verwendeten Open-Source-Treiber, aber es zeigt auch an, was passieren kann, wenn die CPU sich eigentlich langweilt, die Grafik wegen Web-Inhalten (!) aber nicht mehr hinterherkommt. Website-Designer orientieren sich halt nicht mehr am kleinsten gemeinsamen Nenner, das merkt man auf nem 1024er Netbook schnell, wenn man ständig seitwärts scrollen muss.

Aber ich würde mir mit einer Sandy-Grafik im Notebook tatsächlich keine Sorgen über dieses Thema machen. Mit einer Atom-Grafik, auch der modernen integrierten, würde ich das sehr wohl. Ion ist wegen des Stromverbrauchs eine durchwachsene Lösung in einem Subnotebook. Und deshalb wird mein Nächstes ein X120e.

Wer sich aber (um im niederpreisigen Thinkpad-Lager zu bleiben) ein Edge E220s zulegen will, dem kann ich (bis auf den Spiegelbildschirm) nur gratulieren. Ist aber halt a bisserl teurer (Faktor 2) und mehr CPU-Leistung als Zacate bietet, brauch ich für meinen Teil mobil nicht. In 2-3 Jahren sehen wir dann weiter :D

Canopus: Etwas kürzer, aber prägnant! :) Llano wir (CPU-Performance-seitig) im Notebook-Bereich eher die Sandy-Konkurrenz antreten, auf dem Desktop nur in der Mitte, in der Oberklasse ist dann Bulldozer zuständig. Wie gut sich die drei in diesem Absatz Genannten gegeneinander schlagen werden, sehen wir in den nächsten 6 Monaten. Spannend wird's allemal :cool_alt:
 
Zuletzt bearbeitet:
Zurück
Oben