News Vier „Ivy-Bridge“-Dies für mehr als 35 Modelle

Tomahawk schrieb:
Interessant wären eher Statistiken von großen Publishern.

Wie Publisher? Gibt doch Statistiken von Game-Publishern.

Aber warum sich Dritter bedienen? nvidia hält im Workstationsegment nahzu 90% Anteil, und das nicht, weil hier nach CB-AMD-Fanboygeblubber die nvidia-karten so beschi****** sind.

Im Profisegment zählt nämlich in erster Linie Funktionalität und Stabilität der Treiber, und da hat nvidia den Nimbus des verläßlichen, stabilen Grafikkartenherstellers.
 
nope NV war nur lange zeit alleine in dem Segment bzw ist es zum teil immer noch

dazu extrem massives ( teilweise schon penetrantes ) marketing mit cuda usw
 
am besten für APU wäre eine CPU Ivy Bridge und eine ATI 7750 GPU ^^ Fusion
Top CPU mit Top GPU ( Watt/ Leistung )
 
Kormuro
Nur wäre das kein Fusion weil Intel beides getrennt hat. Fusion wäre es dann wenn man die gpu als co Prozessor nützen könntest, und das ist nun mal eher mit bulldozers Modul-bauweise möglich.

cornix
Sry, bei deiner erste gerichtete Kritik vor tagen, dachte ich noch du bist ein objektiverer Mensch.
Aber du benützt mir das wort Fanboy zu oft. Bist ja richtig auf Hass unterwegs.

Btw war meine letzte NV-Karte eine 6800gt, die ständig zu heiß wurde, musste den Kühler der Asus Karte ständig reinigen. Seit der 3870 toxic die mich damals gerade mal 150 euro gekostet hat, hab ich eine ATI-Karte, die marke die ich damals überhaupt nicht gemocht habe, weil ich immernur NV und Voodoo(welches von NV augekauft wurde) hatte.
Und Treiber hin oder her, aber ich glaub oft liegt es an unfähige Leute, die sich beschweren...
Und ich hatte weder mit der 4000 noch mit der 5000 noch mit der 6000HD Reihe Probleme ein game flüssig ohne Grafikfehler zu spielen.
Die letzten Probleme/Grafikfehler hatte ich mit besagter 6800gt, wobei die Fehler hitzebedingt waren.
Doch bei vielen Lans vergleiche ich AMD mit NV karte, und die so großen Unterschiede, sind es mir nicht Wert einen Unterschied von den marken auszumachen. Hier entscheidet immer noch das Bauchgefühl ob ich AMD oder NV kaufe. Btw alle NV freunde, es gibt ständig neue Treiber von ATI, also versteh ich nicht was da jz n schlechter Support sein sollte.

Knuddelbearli
NV weiß wie man Werbung macht ^^ Deshalb ist CUDA auch bekannter als ATI Stream, was soviel ich weiß sogar älter ist, und ein offener Standard. Ich erwarte mir von APUs und HD7000 dass das immer mehr öffentlich wird. Den OpenGL kann AMD und NV beschleunigen. Davon hätten wir Gamer und auch solche die Anwendungen machen mehr, als ein geschlossener CUDA Standard.

Was Intel Grafik angeht, kann ich nicht beurteilen, die HD 4000 soll ja um einiges schneller werden, doch glaube ich dass man eher max einen A6 erreichen wird (HD 4650 wäre das ca).
AMD führt hingegen den A10 ein, was einer HD 6670 ca entspricht.
Somit wird man bekanntes Spiel haben, wenn dann Starke CPU oder Starke Grafik, wer von was mehr Nutzen hat, kann jeder nur für sich selbst entscheiden.
 
Zuletzt bearbeitet:
CHB68 schrieb:
Abwarten! Ich persönlich glaube nicht das die Ivy Bridge Modelle so einschlagen werden wie die Sandy Bridge Prozessoren.

Das könnte sich ändern wenn die Ivy Bridge Modelle kommen, aber ich bin skeptisch denn warum sollte ich Geld für einen Ivy Bridge Prozessor ausgehen ?

Ist schon eine leichte Verbesserung, der ganz große Aha-Effekt wird jedoch ausbleiben.

Vom SB auf Ivy aufzurüsten wird Unsinn sein, aber wenn das bei vielen Boards möglich ist werden sich schon einige finden die das machen.

Was für IB spricht: Leicht verbesserter Stromverbrauch, PCIe 3.0. Natives USB3.0 würde auch ein neues Board voraussetzen



@cornix

Diese APUs sind aber der Verkaufsschlager bei AMD, da sehe ich keine Absatzprobleme, Bulldozer ist wieder was anderes
 
pipip schrieb:
Nur wäre das kein Fusion weil Intel beides getrennt hat. Fusion wäre es dann wenn man die gpu als co Prozessor nützen könntest, und das ist nun mal eher mit bulldozers Modul-bauweise möglich.

Ich bin kein Experte was CPU- bzw. APU-Architekturen angeht, aber die Integration von GPU und CPU scheint bei AMD bisher nur auf dem Papier weiter zu gehen, als bei Intel.
Bei der tatsächlichen technischen Umsetzung ist Intel hingegen weiter. Sie hatten nicht nur als erste eine in die CPU integrierte GPU am Markt, sodnern die Integration ist bei den aktuellen Modellen auch tiefgreifender, als bei AMD.

Seit Sandy Bridge ist die iGPU nicht nur einfach neben der CPU auf dem selben Die. Sie hängt, gleichberechtigt neben den CPU-Cores, mit am Ringbus und greift genau wie diese darüber auf den gemeinsamen L3-Cache und den Speichercontroller zu. Die GPU wird praktisch genauso behandelt, wie ein weiterer CPU-Core.
Theoretisch wäre es so sogar möglich, dass Intel einen CPU-Core wegnimmt und durch eine zweite GPU ersetzt usw.

Bei AMDs Llano ist die GPU zwar auch auf dem selben Die, aber vergleichsweise nur lose außen an die CPU angepappt. Selbst die Zugriffe über den Speichercontroller erfolgen seperat von denen der CPU, geschweige denn dass man sich z.B. einen Cache oder andere "Uncore"-Teile der CPU teilen würde. Sie verhält sich von der Funktion genau wie eine alte Chipsatzgrafik.

Von der Vision, dass die Funktionseinheiten der GPU mit denen der CPU komplett verschmelzen, sind allerdings beide noch sehr weit entfernt. Es reicht wenn man sich ein Foto des Dies anschaut. Darauf kann man CPU- von GPU-Teilsowohl bei Intel als auch bei AMD messerschaf voneinander abgrenzen.

Bleibt noch die Umsetzung in der Software. Auch da ist bei AMD das Meiste noch Zukunftsvision. Was die praktische Nutzung von GPUs als Allround-Recheneinheit angeht, ist tatsächlich Nvidia mit Abstand am weitesten.
Intel mag dabei noch etwas hinter AMD zurück liegen, weil sie erst mit Ivy Bridge DirectCompute und OpenCL auch für die GPU einführen, aber immerhin haben sie mit Quick Sync heute schon eine Encodingeinheit, die alle GPU-beschleunigten Lösungen von AMD und Nvidia in den Schatten stellt und Encoding ist bisher mit Abstand die verbreitetste GPGPU-Anwendung.
 
Herdware
Llano selber ist für mich auch keine vollwärtige APU, du wirst sehen dass bei Trinity das spiel aber schon anders aussehen wird, und bei Steamroller vllt sogar 2 decoder geben könnte. 2014 eventuell keine FPU mehr sondern igps.
Btw teilt die llano igp direkt mit der CPU den Ramspeicher.

Die parallele Rechenleistung des integrierten DirectX-11-Grafik-Cores ergänzt die serielle Rechenleistung der Prozessorkerne,[7] neben der Grafik-Beschleunigung, über Programmierschnittstellen wie OpenCL, WebGL, AMD APP (früher ATI Stream SDK)[8] und Microsoft DirectCompute.
Obwohl sich die skalaren x86er-Kerne und SIMD-Engines der APUs einen gemeinsamen Pfad zum Systemspeicher teilen, ist bei der ersten Generation der AMD APUs der Speicher noch in verschiedene Speicherregionen geteilt. Zum einen in einen Speicherbereich, der vom Betriebssystem verwaltet wird, welches auf den x86er-Kernen läuft, zum anderen in Speicherregionen, die von der Software verwaltet werden, welche auf den SIMD-Engines ausgeführt wird. Für den Datentransfer zwischen den beiden Speicherregionen hat AMD High-Speed-Block-Transfer-Engines eingerichtet. Im Gegensatz zu Datentransfers zwischen externen Framebuffern und dem Systemspeicher sollen diese Transfers nie den externen Systembus belegen

https://www.computerbase.de/news/prozessoren/amd-alles-auf-die-verschmelzung-von-cpu-und-gpu.34366/
Gibt es eh eine News darüber.
https://pics.computerbase.de/3/9/3/9/0/2-1080.2756011569.jpg
Das heißt man ist am Weg Konzeption APU, ob Intel ähnliches vor hat wird man beim SB-Nachfolger sehen, doch spricht man hier immer noch von getrennten packages.
Wenn AMD mehr Geld hätte, täten wir die erste APU weit aus früher sein. Gäbe es auch schon weit aus früher den neuen AMD sockel, der scheinbar auf Kostengründen 2014 verschoben wurde und nicht mehr das oder nächstes Jahr kommen wird, was aber auch nachvollziehbar ist.

Somit könnte man bei einem Vergleich von IB und Trinity eventuell den Unterschied deutlicher sehen, wenn es darum geht, was ist eine APU.
Somit ja kann man vllt bei SB eine 2te gpu in form von einem Kern anhängen, wäre aber nicht im core integriert, wie es bei der APU vorgesehen ist.
Zu mindestens hab ich es so verstanden. Somit wird Llano und Excavator kaum noch was gemeinsam haben.
 
Zuletzt bearbeitet:
Warum verbauen die eine starke Grafikeinheit in eine High-End Desktop CPU? Damit ich Powerpoint Folien schneller in PDF's konvertieren kann ohne eine dedizierte GPU aktivieren zu müssen?
 
cHo1zZ
Weil es Leute gibt, die keine Grafikkarte haben ??? Um bei Notebooks ohne dgp eine stärkere igp zu haben und auch Leute anzusprechen die was damit spielen wollen ?
Weiters hat die igp HD 4000 weit aus mehr potential als sein Vorgänger, Direct x11 und gpgpu(?)
Eventuell verbraucht die igp sogar sowenig bringt aber genug Leistung, damit der core quasi im idle ist und die igp nur mit einem Decorder arbeitet, wie es eben auch bei AMD vorgesehen ist(extrem angewachsener decorder)
Nur muss ich auch sagen mit intels igp kenn ich mich nicht aus, wie seine Zusammensetzung usw ist.

immerhin haben sie mit Quick Sync heute schon eine Encodingeinheit, die alle GPU-beschleunigten Lösungen von AMD und Nvidia in den Schatten stellt und Encoding ist bisher mit Abstand die verbreitetste GPGPU-Anwendung.
Ja da hast du recht, man verbraucht 20% weniger und ist auch schneller fertig bei so einer Anwendung.
Wobei es nicht unmöglich wäre, dass man bei AMD schon entgegenwirkt hat, wenn man bedenkt dass der UVD um einiges größer geworden ist.
 
Zuletzt bearbeitet:
@cornix
mir sind einige treiberprobleme von den nv profiprodukten bekannt, gerade bei solidworks oder gerade bei ug nx.
also wieder mal typisches bla bla amd schlecht weil wenig marktanteil.
@topic
der sinn von der hd4000 in highend cpus ist mir noch bisschen schleierhaft.
sooft geht die dedizierte graka nicht flöten bei den zockern. ich denke die sollten ein rundes produkt draus machen wie amd mit dem llano. der hat mich wirklich beeindruckt, gerade auf mini-itx ne bombenangelegenheit.
 
Knuddelbearli schrieb:
Selten so einen totalen Blödsinn gelesen ...
Die repräsentativen Umfragen sehen AMD allgemein gleich auf bis vor NV. Intel kommt dann weeeeeeiiiiiiiitttttttttt dahinter. AMD Treiber werden nur immer von den NV Fanboys runtergemacht obwohl sie in den letzten 10 Jahren keien AMD Karte besessen haben...

Ich würde mich nicht als NVidida Fanboy bezeichnen habe zum Beispiel einen AMD Grafikchip im Netbook. Aber NVidia Treiber sind wirklich besser und es ist auch nichts schlechtest dabei lange Zeit keine von der Konkurrenz mehr bessesen zu haben, da sich bei solchen Treibersachen eh nie viel ändert:freak: ATI Treiber waren nun mal Scheiße okay gut mit AMD hat sich die Situation verbessert aber an NV kommt das immer noch nicht ran:o

Herdware schrieb:
Intel mag dabei noch etwas hinter AMD zurück liegen, weil sie erst mit Ivy Bridge DirectCompute und OpenCL auch für die GPU einführen, aber immerhin haben sie mit Quick Sync heute schon eine Encodingeinheit, die alle GPU-beschleunigten Lösungen von AMD und Nvidia in den Schatten stellt und Encoding ist bisher mit Abstand die verbreitetste GPGPU-Anwendung.

Uhhh was für ein Gigantischer Vorteil beschissenes Encodieren auf der GPU :lol: voll aufs Marketing reingefallen. Welcher ernsthafte Encoder benutzt bitte die GPU? Die paar Profile in schlechter Qualität yeah:freak:
 
Zuletzt bearbeitet:
@pipip
In diesen Thread geht es doch um Intel-Modelle. Was fasziniert dich so sehr an AMD, dass du in jeden einzelnen Post hier darüber schreibst?

Wie Publisher? Gibt doch Statistiken von Game-Publishern.
Dann wäre es ganz nett von dir, wenn du welche verlinken könntest.
 
Mr.Kaijudo schrieb:
Ich würde mich nicht als NVidida Fanboy bezeichnen habe zum Beispiel einen AMD Grafikchip im Netbook. Aber NVidia Treiber sind wirklich besser und es ist auch nichts schlechtest dabei lange Zeit keine von der Konkurrenz mehr bessesen zu haben, da sich bei solchen Treibersachen eh nie viel ändert:freak: ATI Treiber waren nun mal Scheiße okay gut mit AMD hat sich die Situation verbessert aber an NV kommt das immer noch nicht ran:o

Gib uns einen Beispiel für schlechte Treiber bei AMD... Ich habe/hatte beides und hab bis her mit keinen von beiden Probleme. :)

mfg
 
Mir erschließt sich der Sinn von den HD 4000ern auch nicht. Warum sollte man die in einen Highend CPU einbauen??? Da haben die Zocker eh bessere Grakas, zumal die integrierte Grafik nur gleichauf mit völlig veralteten Einstiegsgrakas liegen wird. Interessanter wirds da vielmehr im Midrange Segment und Lowbudget Core Segment, wo die 4000er Sinn machen könnten, weil die Nutzer hier nicht unbedingt eine extra Graka brauchen oder vllt. Gelegenheitszocker sind. Und denen reicht eine HD4000 dann.
 
Vllt. ists einfach zur Gewinnmaximierung

Nach dem Motto: geringerer Verkaufspreis = kleinerer Die

So kann Intel auch bei den schwächeren Chips noch hohe Gewinnmargen fahren
 
Mr.Kaijudo schrieb:
Uhhh was für ein Gigantischer Vorteil beschissenes Encodieren auf der GPU :lol: voll aufs Marketing reingefallen. Welcher ernsthafte Encoder benutzt bitte die GPU? Die paar Profile in schlechter Qualität yeah:freak:

Paar Profile? Man kann doch fast alles einzeln einstellen, kommt auch auf das genutzte Programm an. Bin kein Brillenträger und ich erkenne keinen Unterschied zum x264 auf der CPU. Verbraucht viel weniger, ist deutlich schneller, ich wollte QuickSync nicht mehr missen.
 
@Mr.Seymour Buds

Mir erschließt sich der Sinn von den HD 4000ern auch nicht. Warum sollte man die in einen Highend CPU einbauen??? Da haben die Zocker eh bessere Grakas

Es wurde hier schon gefühlte Tausend mal gesagt und vielleicht wird es eines Tages (aber daran glaube ich nicht) auch noch der letzte verstehen: Mit Computern kann man mehr machen als spielen. Und es gibt genügend Software bei denen CPU-Leistung wichtiger ist als die Leistung der GPU.

Mir ist natürlich klar... aus der Sicht von Menschen, die hauptsächlich mit einem Computer spielen, erscheint die stärkste GPU in den schnellsten CPUs als idiotisch.

@Herdware

Von der Vision, dass die Funktionseinheiten der GPU mit denen der CPU komplett verschmelzen, sind allerdings beide noch sehr weit entfernt. Es reicht wenn man sich ein Foto des Dies anschaut. Darauf kann man CPU- von GPU-Teilsowohl bei Intel als auch bei AMD messerschaf voneinander abgrenzen.

Die Fusion ist doch eigentlich "nichts weiter" als ein Prozessordesign welches einen Kompromiss zwischen Latenz und Durchsatz darstellt... also z.B. eine CPU mit Vektoreinheiten, wie AVX, nur eben wesentlich breiter als 256 bit, mit Gather etc (also AVX2)?

Intels Knights Corner / Ferry ist, finde ich, davon nicht allzu weit entfernt.

Deswegen würde ich auch nicht sagen, das Intel hier hinter AMD liegt, denn diese zwei Unternehmen gehen da verschiedene Wege. Wenn man sich verschiedene Dokumente bei Intel anschaut, ist es viel mehr das Ziel Funktionalitäten von GPUs in die CPU zu integrieren, bzw. CPUs mit Blick auf den Durchsatz zu verbessern.
 
Zuletzt bearbeitet:
@cornix
Und wie sollen damit Aussagen über Probleme mit Treibern möglich sein? Das müsstest du mir nochmals erläutern.
 
Zurück
Oben