News Vier „Ivy-Bridge“-Dies für mehr als 35 Modelle

cornix schrieb:
nvidia hält im Workstationsegment nahzu 90% Anteil, und das nicht, weil hier nach CB-AMD-Fanboygeblubber die nvidia-karten so beschi****** sind.

Im Profisegment zählt nämlich in erster Linie Funktionalität und Stabilität der Treiber, und da hat nvidia den Nimbus des verläßlichen, stabilen Grafikkartenherstellers.
Äpfel und Birnen.
Nach deiner Logik wäre ein Mittelklasse-PKW der Marke A hach so klar besser als einer der Marke B, weil Marke A auch viele LKWs herstellt und Marke B, wenn überhaupt, nur wenige, vielleicht eher spezielle.
 
pipip schrieb:
cHo1zZ
Weil es Leute gibt, die keine Grafikkarte haben ??? Um bei Notebooks ohne dgp eine stärkere igp zu haben und auch Leute anzusprechen die was damit spielen wollen ?
Weiters hat die igp HD 4000 weit aus mehr potential als sein Vorgänger, Direct x11 und gpgpu(?)
Eventuell verbraucht die igp sogar sowenig bringt aber genug Leistung, damit der core quasi im idle ist und die igp nur mit einem Decorder arbeitet, wie es eben auch bei AMD vorgesehen ist(extrem angewachsener decorder)
Nur muss ich auch sagen mit intels igp kenn ich mich nicht aus, wie seine Zusammensetzung usw ist.


Ja da hast du recht, man verbraucht 20% weniger und ist auch schneller fertig bei so einer Anwendung.
Wobei es nicht unmöglich wäre, dass man bei AMD schon entgegenwirkt hat, wenn man bedenkt dass der UVD um einiges größer geworden ist.

Aber nochmal. Warum in einem High-End Desktop PC? Die Entwicklungskosten eines i7 Quadcore amortisieren sich doch zum Großteil durch Enthusiasten die sich die Dinger einbauen. Und die Hauptaufgabe dürfte hier doch das Spielen auf maximalen Details, als auch die Videobearbeitung sein. Ein eher geringerer Teil wird die Geräte zur privaten Forschung nutzen und mit komplexe Algorithmen bzw. hohen Rekursionstiefen arbeiten.
Warum also eine CPU mit einer GPU betreiben, die den Flaschenhals zum Tropf macht.

Im Notebook Segment finde ich es legitim. Man will schnell und effizient seiner Office Tätigkeit nachgehen und nicht zwei Chips mit Strom versorgen. Wobei hier auch irgendwo im i7 Bereich die Frage auftaucht, wofür man soviel CPU Leistung mit sich herumschleppt.

Versteht mich nicht falsch, ich würde gerne den Sinn dahinter verstehen. Schließlich unterstelle ich Intel in dem Bereich pauschal mal eine höhere Kompetenz zu.
Wird die GPU mit ihren vielen Kernen etwa CPU unterstützend verwendet um Simple Rechenoperationen zu übernehmen, wie es auch in Super-Computern auf Tesla Basis betrieben wird?
Oder findet ein stufenloses Umschalten zwischen igp und dgp statt?
 
Zuletzt bearbeitet:
ODST schrieb:
Gib uns einen Beispiel für schlechte Treiber bei AMD... Ich habe/hatte beides und hab bis her mit keinen von beiden Probleme. :)

mfg

Z.b wird die vorhandene leistung der Grafikkarten garnicht richtig ausgenutzt. Ich glaube das wird teilweise auch gemeint, wenn von schlechten Treibern die rede ist. Ist halt alles Nvidia Optimized, da kann man nix machen. ATI Karten haben zwar Rohleistung (GFLOPS) ohne ende, aber das wird halt selten bis garnicht richtig genutzt. Was sich ja mit den neuen 1D Shadern ja noch nicht geändert hat. Weil 2048 1D Shader ATI vs 512 1D Shader Nvidia und so wenig Performance unterschied? Woran liegt das? Das einzige Programm was die Shaderleistung anscheinend voll ausnutzt ist Furmark :D
 
Wozu braucht man so viele? Preisdifferenzen wie bei den Sandys? Fürn 5er gibt es die nächst höhere Version?
Als ob ein I5-2500 / 2600K so viel teurer wäre -.-

Hoffentlich sortieren die ihren CPUs gescheit aus, dass man mit dem 2600K auch nur die Edelproduktion bekommt, der restliche Schrott wird runtergetaktet und gut.
 
Mr.Seymour Buds schrieb:
Mir erschließt sich der Sinn von den HD 4000ern auch nicht. Warum sollte man die in einen Highend CPU einbauen??? Da haben die Zocker eh bessere Grakas, zumal die integrierte Grafik nur gleichauf mit völlig veralteten Einstiegsgrakas liegen wird. Interessanter wirds da vielmehr im Midrange Segment und Lowbudget Core Segment, wo die 4000er Sinn machen könnten, weil die Nutzer hier nicht unbedingt eine extra Graka brauchen oder vllt. Gelegenheitszocker sind. Und denen reicht eine HD4000 dann.

Also was ist das hier ein Nintendo Forum oder was?
Wir Anwender brauchen jedes quäntchen an "CPU-Leistung" und können gerne auf eine extra Karte verzichten da wir sie nicht nutzen,da kommt uns Ivy sehr entgegen!
Ich gebe dir mal ein kleinen Ansatz,bitte etwas über den Tellerrand schauen ;)

http://www.dawbench.com/dawbenchdsp-i7part1.htm
 
pipip schrieb:
Die Intel IGP in Sandy Bridge nuckelt dazu aber im Vergleich schon direkt am Ring-Interconnect und teilt sich sogar den L3-Cache. Die Integration in das Package ist schon ein Stück weiter. Nur an der reinen Rohleistung fehlt es halt einfach.

AMD hat m.E. gar keine andere Chance als so zu verfahren. Es ist nur eine Frage der Zeit, bis Intel soweit ist, größere Teile aus ihrer MIC-Forschung in die normalen Mainstream-CPUs einfließen zu lassen. Mit Haswell wird es noch nichts werden, bei Skylake könnten möglicherweise schon Komponenten aus dem LRB(2)-Projekt bzw. einem abgeleiteten Forschungszweig eingebunden werden.

Bis dahin fließt aber noch ein wenig Wasser die Flüsse herab. Roadmaps konnte AMD nebenbei bemerkt die letzten Jahre immer gut erstellen, eingehalten hat man sie selten...
 
Tomahawk schrieb:
@pipip
In diesen Thread geht es doch um Intel-Modelle. Was fasziniert dich so sehr an AMD, dass du in jeden einzelnen Post hier darüber schreibst?

Naja wenn man AMD immer mit Intel vergleicht, wieso sollt ich dass dann nicht auch dürfen, bash ja nicht wie andere in AMD threads
Was die Igp angeht, erwart ich mir momentan trotzdem weniger von Intel als von AMD.
Was sie aber CPU technisch leisten hut ab. 160 mm^2 und dabei könnte man die igp noch abziehen.
Anderseits sieht man, wenn man AMD mehr unterstützen würde (weniger bashen), dann würden sie auch fettere Prozessoren von Intel sehen.
Man sieht auch das Intel massiv die i3 ausbauen. Das hat nicht nur mit Ultrabooks zu tun, sondern auch mit der kommenden Konkurrenz seitens Ultrathin notebooks. Die mit (angeblich) mehr akkuleistung und Grafik daherkommen.

Btw wieso kauft man sich ein IB wenn man ein SB hat ?? overclocking ?? da würde ich lieber auf haswell warten, leute gibt es.

übrigens ich hab NV karten, ich hab auch Intel Prozessoren. Aber Momentan interessiere ich mich besonders für APUs. Fertigung ist toll und super, aber ich hab hier weniger Interesse.
Aber ja warum ich über AMD Prozessoren bzw eher eigentlich das Konzept APU rede und mit IB als eine Form APU vergleiche
https://www.computerbase.de/forum/t...r-als-35-modelle.1027543/page-2#post-11569826
https://www.computerbase.de/forum/t...r-als-35-modelle.1027543/page-2#post-11570629

Aber würdest du aufmerksam die Kommentare lesen, würdest du diese provokante Frage nicht stellen müssen, schönen abend noch btw

Simon
Die Intel IGP in Sandy Bridge nuckelt dazu aber im Vergleich schon direkt am Ring-Interconnect und teilt sich sogar den L3-Cache. Die Integration in das Package ist schon ein Stück weiter. Nur an der reinen Rohleistung fehlt es halt einfach.
Ja ist mir klar, trotzdem ist der Weg scheinbar ein anderer, das lässt sich aber erst beim IB nachfolger einschätzen.
Besonders wird sich das scheinbar bei AMD erst mit Trinity ändern eine Folie hab ich doch schon verlinkt, wenn ich mich nicht täusche. Intel wird btw gpu eher wie bereits erwähnt als ein core angehängt lassen, anders wo die igp quasi die FPU ersetzten soll.
Wie das dann aussieht keine Ahnung.
Nur hat man etwas weniger geld als Intel, somit sind die Schritte wesentlich kleiner.
AMD wird aber somit wieder die stärkere FPU haben wenn die APU fertig ist.

Oder findet ein stufenloses Umschalten zwischen igp und dgp statt?
das ist das was ich mir am meisten freuen würde, doch glaub ich dass das bei AMD eher zuerst der fall ist als bei Intel.
(APU + dgp zero, eyefinity bla bla, einen speziellen bus oder ähnliches)

calluna
Die Fusion ist doch eigentlich "nichts weiter" als ein Prozessordesign welches einen Kompromiss zwischen Latenz und Durchsatz darstellt... also z.B. eine CPU mit Vektoreinheiten, wie AVX, nur eben wesentlich breiter als 256 bit, mit Gather etc (also AVX2)?
Intels Knights Corner / Ferry ist, finde ich, davon nicht allzu weit entfernt.

Das ist genau die beiden Technologien die eventuell die Zukunft spielen. Nur kann es sein dass wenn es um Verbrauch geht, Knights Corner etwas verschwenderischer ist (reine Vermutung) aber Intel hat ja den Fertigungsvorteil somit könnte man auf einen Gleichstand hoffen.

Ich glaub die GPU wird es nur solange geben bis ein Prozessor geschaffen ist der einen co prozessor hat, der ähnlich operieren kann wie eine gpu. Irwas in der Richtung
Intel will x86 so flexibel wie möglich gestalten.
AMD will flexibility über deren gpu erreichen.

Bis dahin fließt aber noch ein wenig Wasser die Flüsse herab. Roadmaps konnte AMD nebenbei bemerkt die letzten Jahre immer gut erstellen, eingehalten hat man sie selten...
Und bei der Letzten hätte dir auffallen müssen dass man so einiges ändern möchte.
Wenn man aber Roadmaps lesen möchte um zu erfahren was sein könnte, ist man aber sicherlich bei Intel besser aufgehoben.
Skylake kommt 2014 oder 2015 ?
 
Zuletzt bearbeitet:
cornix schrieb:
AMD kullern schon wieder die Tränen! Nun hat man mühsam und eher dilletantisch mit seiner leicht modifizierten und antiquierten Phenom II-Architektur s.g. APU's erschaffen die keiner haben will, weil die ATI-Treiber so verläßlich sind wie die DB, und die CPU-Leistung völlig indiskutabel ist, da kommt intel mit SB und HD-grafik und immer effizienteren Einheiten.

Intel weiß ja schon nicht mehr, wie sie ihre Entwicklung künstlich verlangsamen sollen, um AMD nicht völlig als obsolet hinzustellen.
Mittlerweile glaube ich, dass die Hardwareentwicklung ohne AMD viel schnller vorangekommen wäre als mit. Klingt irrwitzig.

Typisches trashiges Fanboy Gelaber. Die Grafikeinheiten von intel sind der absolute Müll und da kann der Ivy Bridge im CPU Teil meinetwegen doppelt so schnell rechnen es wird trotzdem die Nutzbare Endleistung in den keller gezogen solange keine vernünftige dedizierte Grafiklösung eingesetzt wird....

Lassen wir den AMD/NVidia Fight mal ausser acht, aber die Treiber sind bei beiden Herstellern mehr als in Ordnung, ganz im Gegensatz zu Intels Grafikchips. Diese sind Leistungsmäßig weit hinter AMD/NVidia und die Treiber sind absolut nicht zu gebrauchen.

Die CPU Sparte von AMD ist vielleicht Leistungsmäßig nicht ganz auf Linie, aber wer nicht umbedingt auf den Verbrauch gucken muss bekommt bei AMD einfach das rundere und billigere Gesamtpaket. Ein Phenom II 955 ist für fast alle heutigen Aufgaben mehr als ausreichend, und mein 965 hat mich auch nur knapp 100€ gekostet. Die 125 Watt TDP sind dabei zu vernachlässigen da man den Phenom II meistens ohne weitere probleme von 1.4 VCore auf 1.2 undervolten kann. Ausserdem arbeitet die CPU eh meistens unter 1 Volt im CnQ Modus. (0.8 in CnQ bei UV auf 1.2)

Wenn ich mir überlege das Intel für nen Core I5 2500K noch 150€ haben will, mit dem kann mein 965 in etwa mithalten und kostet dabei deutlich weniger. Auf 4.0 GHz overcklocked habe ich ein mehr als ausreichendes System, wo ich bei Intel das doppelte gezahlt hätte. Ne, Danke...
 
Naja, laut dem SB Test: https://www.computerbase.de/artikel...est.1404/seite-46#abschnitt_performancerating ist der 2500k bei normaler Auflösung etwa 35-40% schneller als ein P2 970, nimmt man die GraKa als limitierenden Faktor raus sind es fast 50%. Zumal der 2500K ein idR noch bessers OC Potenzial hat (wie bei Sandy üblich). Dein Argument dass der Phenom undervoltet auch sparsam ist will ich nicht leugnen - bedenke aber dass man Sandies auch noch undervolten kann.

Ich will nicht leugnen dass dein 965 eine ausreichend schnelle CPU ist und für dich wäre ein wechsel auf Sandy- oder Ivybridge auch nicht wirklich sinnvoll, aber du musst schon zugeben dass das P/L bei den i3/5ern wirklich sehr gut ist.

Zur Grafik: Intel wird wohl noch einige Zeit brauchen um mit APUs konkurrieren zu können, der Grafikpart ist dafür einfach zu unterentwickelt. Mit den Treibern habe ich bei meinem NB bisher keine Probleme gehabt, aber da ist die CPU auch nur für Windows da.
Sollten die Gerüchte/Ankündigungen bezüglich der Entwicklung der Grafikleistung stimmen (ich betone das sollte), wird es erst mit Haswell eng, wobei da natürlich vorraussetzung sein sollte dass Intel die Spieletauglichkeit (Treiberseitig) auf ein ordentliches Niveau hieft. Ob es so wird, wird sich aber frühestens mit Haswell zeigen. Ivy scheint für mich ein CPU-Monster zu werden (wie Sandy auch), dass Grafisch auch mal für ältere Games was taugt. Für moderne, hardwarehungrige, Games bei spielbaren fps ist Liano/Trinity für mich derzeit dass non-plus ultra (wenn auch nur mangels Konkurenz :D )
 
Zurück
Oben