News Intel bestätigt 16 EUs, USB 3.0 und PCIe 3.0 für „Ivy Bridge“

Da Grafikkarten nicht mal PCI 2.0 voll ausnutzen und "aktuelle" Spiele aufgrund Konsolenportierung wieder mehr CPU als GPU Lastig zu sein scheinen, wird dieser Trend an mir vorüber gehen ;-)
 
klingt gut, sandy wollte ich eh aus lassen...
 
Ich denke, das wird hier etwas zu "trocken" betrachtet. PCIe 3.0 bietet ja nicht nur mehr Bandbreite, die wie wir alle wissen imo noch keine GraKa brauch, sondern unterstütz ja auch neue Intruktionen. Das hat man ja auch bei PCIe 2.0 gesehen. Da gab es mal anfangs Tests mit der ersten nV Karte die PCIe 2.0 unterstützt, der 8800 GTS 512 (G92). Diese ist weit schlechter als aktuelle Grafikbeschleuniger und trotzdem konnte ein Performanceunterschied zu PCIe 1.1 (also von der Bandbreite her PCIe 2.0 @ x8) nachgewiesen werden.

Ich denke es geht da um mehr als nur Bandbreite. Vllt. sind die neuen Funktionen von PCIe 3.0 auch nötig um verschiendene neue Stromspaarmodi einzuführen, oder um Latenzen zu verkürzen.

Die andere Frage ist natürlich, welche GPU-Generation das erstmals unterstützt.

Edit: War jetzt alles nur geraten, aber ich hab etwas gefunden, das meine These unterstützt:
http://www.golem.de/1011/79531.html
Die neue Spezifikation enthält darüber hinaus einige Erweiterungen am verwendeten Protokoll: Dazu zählen Hinweise zur Datenwiederverwendung (Data Reuse Hints), atomare Operationen, eine dynamische Anpassung der Leistungsaufnahme und die freie Anordnung von Transaktionen. Dabei bleibt PCIe 3.0 aber abwärtskompatibel zum Vorgänger.
 
Zuletzt bearbeitet:
ich freu mich auf die sachen die auf mich/ uns zukommen. wird alles wieder gutes geld kosten. ich persönlich bin voll gespannt drauf was in 365 tagen alles eintrifft : PCI3.0 + quadchannel + DDR4-ram mit 1,2 volt+ 28nm-nvidia/ati-GPU`s - alles zusammen klingt nach " richtig schnell ".
 
Die gleiche Diskussion (PCIe 2.0 vs PCIe 3.0) gab's doch damals schon bei AGP vs PCIe. Da brachte PCIe auch keinerlei Geschwindigkeitsvorteile für die Grafikkarte allein. Also was soll das jetzt wieder? PCIe 3.0 wird kommen und hat auch seine Vorteile. Und in 2 Jahren wird niemand mehr drüber nachdenken ;-)
 
Was sich hier einige über PCIe 3 beschweren. Die Plattform gibt es 2012 zu kaufen und dabei sind 2 Jahre im Schnitt ohne Neukauf normal. Also bis ins Jahr 2014 rein. Keiner weiß wie leistungsfähig die Grafikkarten in 3 Jahren aussehen und was sie an Bandbreite benötigen. Besser früher als zu spät.
 
damit in einigen Jahren Nvidia und AMD PCIE 3.0 Grafikkarten bauen können, muss eben erstmal die Schnittstelle weit genug verbreitet sein, damit erst anzufangen, wenn man die Grafikkarten auf den Markt wirft, ist unsinnig.
Von daher denkt man einfach nur in die Zukunft.
 
Wolly555 schrieb:
Die Option zwischen integrierter GPU und dedizierter GPU im Desktopbereich wäre mal was Tolles.

Das gibt es schon heute: Lucid Virtu. Es schaltet sich die Grafikkarte leider nicht ab und es gibt ein Overhead. Am Ende weniger Leistung bei höheren Stromverbrauch im Vergleich zu einer normalen Karte.
 
ice-breaker schrieb:
damit in einigen Jahren Nvidia und AMD PCIE 3.0 Grafikkarten bauen können, muss eben erstmal die Schnittstelle weit genug verbreitet sein, damit erst anzufangen, wenn man die Grafikkarten auf den Markt wirft, ist unsinnig.
Von daher denkt man einfach nur in die Zukunft.

Das könnte schon bei der 28nm Generation der Fall sein, die vermutlich im ersten Halbjahr 2012 auftaucht.
 
Neuer Chipsatz wird doch bedeuten, dass man neues Mainboard braucht und vil. auch neuen Sockel?
Oder sehe ich das falsch?
Abder wenn doch dann ist das nicht so toll....
 
Zum Thema PCI-E 3.0 ... Hier mal ein kleines Video welches verdeutlichen sollte das bereits jetzt die anbindung mehr als schnell genug arbeitet...
Wenn er das alles über einen Kamm schert kann man ihm nur Schwachsinn unterstellen, einige Programme gieren nach PCIe Bandbreite und die FPS brechen dann ordentlich ein. Aber der Großteil also 95% braucht keine schnelle PCIe Bandbreite das ist richtig, es sei denn man hat nicht zufällig wie er 2GB Vram und Vram Krüppelt noch mit 1GB rum, da hat dann das Interface wesentlich mehr zu tun. Alles im allem viel zu grob seine Aussage.
 
semih999 schrieb:
Neuer Chipsatz wird doch bedeuten, dass man neues Mainboard braucht und vil. auch neuen Sockel?
Oder sehe ich das falsch?
Abder wenn doch dann ist das nicht so toll....


Für Ivy Bridge brauchst du nicht zwingend ein neues Board. Für PCIe 3.0 oder natives USB 3.0 dann natürlich schon. Der Sockel bleibt der gleiche und Intel hat mehrmals die Kompatibilität hervorgehoben.
 
Gibts irgendwo ein Schema wie die Intel Grafik aufgebaut ist? Kann mit den EUs nicht viel anfangen - nur dass die verhältnissmäßig stark sind. Intel erreicht mit 12EUs das, wofür nV 40 1D Shader und AMD 160/5 braucht (so in etwa).
Verstehe es ja immer noch nicht so ganz - aber ich bin auch Laie - warum baut Intel nicht mal 1. seine Treiber auf nVidia Quadro FX Qualität aus (kein Problem mit dem Budget), implementiert 2. sätmliche modernen Funktionen (und noch mehr) in seine GPUs und verbaut 3. 128 EUs mit ner TDP von 200 Watt auf einer dedizierten Karte?
So wie ich das sehe, hängt es anders als in GMA950 Zeiten gar nicht mehr an der Technologie, sondern am Engagement.

Sie werden sicher einen Grund haben. Aber schade ist es trotzdem. Sie hätten das Potential Bewegung in den GPU Markt zu bringen - keine Innovation! Die hat im Gegensatz zu Intel immer AMD angestoßen (Dualcore, integrierter Speichercontroller, iGPU (sie haben zu mindest eher angefangen es zu entwickeln :D)


E:
Danke Memory_Stick
sagte ja, dass ich nicht ganz so viel Ahnung habe. Und was ich an deiner Antwort sehr schätze ist dass du mich zitiert hast ohne das Ding so in einzelteile zu zerlegen, dass der Sinn entstellt wird. Und noch viel besser ist, dass du nicht auf diese "du bist so dumm und erzählst nur Scheiße und ich weiß alles und verbessere dich" Weise geantwortet hast, wie es hier im Forum leider so oft der Fall ist.


Hatte im ersten Moment gar nicht an die steigende Komplexität gedacht. Eventuell sind Intels EUs auch absolut gar nicht für große Karten geignet, da sie halt recht groß sind. Sieht man ja auch daran, dass Sandy mit diesen popeligen 12 EUs schon eine beachtliche Leistung liefert - denke auch die Grafik wäre 20-30% schneller in Games, wenn sie auf GDDR5 rumschreiben könnte (wer mal den ausführlichen Test zu Bobcat gelesen hat, sah ja auch, dass die Spieleleistung exponentiell mit schnellerem DDR3 steigt).


Und die PCIe 3:
Der Sinn mag gar nicht in GPUs liegen. Aber schaut euch doch nur mal die USB3 Karten an: da werden 2 Ports an eine Lane angebunden, die bei Intel P50/60 auch noch in PCIe1.1 laufen. Das limitiert enorm.
Jetzt stelle man sich mal vor, das Ding wäre mit weiterhin nur einer Lane 3 mal so schnell angebunden.
Nun kann Intel weiterhin unterdimensionierte und trotzdem überteuerte Chipsätze bauen, und trotzdem die Lane Anbindung steigern. Für Zusatzkarten ist es sehr interessant. Viele kleine Controller kann man jetzt mit nur einer Lane anbinden. Und große halt mit 4 trotzdem hohe Datenrate.
Leider wird Intel bestimmt wieder nur 16 Lanes - die der CPU - mit PCIe 3 anbinden. Der Rest - also alles für die kleinen Slots - wird wieder nur mit PCIe 2 laufen.

Finde allerdings erschreckend, dass kein Wort mehr von der 3. Generation bei X79 und Sandy E die Rede ist. Gerade der X79 sollte mit USB3/Sata 6gb/s und PCIe 3 Lanes nur so um sich werfen.
 
Zuletzt bearbeitet:
Meh lauter Features die mich nicht interessieren.
Ich haet lieber mehr Kerne und mehr Takt. Was mir Dx 11 in ner IGP die eh kaum ein 3D Spiel fluessig darstellen kann bringen soll, weiss ich auch nicht.
 
Verstehe es ja immer noch nicht so ganz - aber ich bin auch Laie - warum baut Intel nicht mal 1. seine Treiber auf nVidia Quadro FX Qualität aus (kein Problem mit dem Budget), implementiert 2. sätmliche modernen Funktionen (und noch mehr) in seine GPUs und verbaut 3. 128 EUs mit ner TDP von 200 Watt auf einer dedizierten Karte?
So wie ich das sehe, hängt es anders als in GMA950 Zeiten gar nicht mehr an der Technologie, sondern am Engagement.
1. Weil das nicht so einfach geht wie du dir das Vorstellst. Um einen wirklich guten Treiber zu schreiben, muss der Entwickelr(=Programmierer) auch die Hardware im Griff haben, will heissen, er müsste sich mit den zugrundeliegenden Grafikeinheiten direkt auseinandersetzen... Und dann braucht man nicht nur einen solchen Mitarbeiter, sondern gleich mehrere... wird schwierig soviele gute Entwickler aufzutreiben.
2. Auch das ist nicht so einfach, trotz der Manpower und des Geldes, das Intel hat. Im Gegensatz zu ATI/AMD und Nvidia kann Intel nicht auf Jahrelange Entwicklung und Erfahrung in dem Segment zurückgreifen, daher ist z.B. die Integration eines Tesselators nicht so trivial für Intel(ich glaube AMD hat schon nen Tesselator der 5.oder 6. Generation).
und 3. SKALIERUNG... Wenn AMD die Shader verdoppelt, steigt die Leistung ca. um 60% (RV770 zu RV870 als Beispiel). Mit zunehmender Anzahl von Rechenwerken wird es deutlich komplexer, diese optimal zu nutzen(Auslastung, Daten bereitstellen, Datenaustausch zwischen z. Rechenwerk 1 und 127). Zudem noch die physikalishe Komponente(Die-Size, Signalwege, Signallaufzeiten) hineinspielt, was sich direkt auf die Taktbarkeit eines Designs auswirkt...

Du siehst, es ist wesentlcih komplexer als nur ein Design zu schrinken und ein paar 100 mal zusammenzupappen.... Da steckt bei allen Multicore-/Massiv parallelen Designs ein haufen Optimierung und Knowhow drin...

mfg memory_stick
 
DonConto schrieb:
Die gleiche Diskussion (PCIe 2.0 vs PCIe 3.0) gab's doch damals schon bei AGP vs PCIe.
Naja das stimmt nicht so ganz. Zur Einführungsphase von PCIe war AGP schon am Ende. Man konnte aus AGP einfach nicht mehr Leistung rausholen. Dagegen wird nichtmal PCIe 1.1 von aktuellen Grafikkarten komplett ausgereizt.
 
Nehme an, dass Teil wird nicht mehr dieses Jahr herauskommen. Sprich die Ablöse für meinen 775er Rechenknecht diesen Sommer wird wohl noch ein Sandy Bridge sein...
 
Zuletzt bearbeitet:
Znrl schrieb:
Fehlt nur noch Nvidia Optimus oder vergleichbares, um dedizierte Grafikkarten wirklich komplett abzuschalte... (Für Desktop PCs) dann würd ich mich da wirklich drauf freuen :>
/signed! :rolleyes:

mensch183 schrieb:
PCIe 3.0 bezieht sich IMHO nur auf die direkt an der CPU hängenden PEG-Slots. Der Anschlüsse am neuen Chipsatz können laut einer kürzlich veröffentlichten Grafik weiterhin "nur" PCIe 2.0.
WÄre auch egal. Das würde für die Grafik einen so minimalen Unterschied machen, dass es in der Messungenauigkeit liegt. D.h. <3%
Meiner Meinung nach ist die PCIe-Version nicht für die Multi-Lane-Verbindung von Bedeutung, sondern viel mehr für die x1-Steckplätze -und für die Anzahl der Komponenten, die man so mit weniger Lans anbinden kann.

Wenn Ivy mit PCIe 3.0, USB3 und LP kommt, ist das echt der IT-Knüller des Jahres! Das schreit ja schon förmlich "Kauf mich!"... :D

MFG, Thomas
 
Zurück
Oben