Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Das machen sie sicher nicht aus puren Mitleid. Danke für deine wiki links, doch sie stehen leider nicht zu Sache. Wen man es Nüchtern betrachtet, bringt der Monopolstatus von Intel keinem Etwas. Wie schon öfters angemerkt, man zahlt dann nur mehr und bekommt dafür weniger, dass sollte dir auch Klar sein. Konkurrenz belebt das Geschäft. Immo ist es ja noch so, mal die Enthusiasten und Multithreadanwender mal ausen vor gelassen, das AMD im Spielbereich sich ja noch relativ gut Positionieren kann. Doch weder von der Marktanteilen noch von den Margen sieht es sonderlich toll aus. Mann überlege sich nur einmal was passiert wen AMD garnicht mehr mithalten kann und es mal so geht wie vor Jahren Cyrix. Dann kann Intel vollständig alleine seine Preise Diktieren. Ist doch jetzt schon so, das man deutlich mehr für ein Intelsystem bezahlen muss und die CPUs oft deutlich unter ihrer Herstellungsgüte laufen.
meinst du etwa ich will mich mit meiner kiste brüsten ?
aus dem alter bin ich schon lange draußen & ich pers. kaufe nur nach bedarf u.
nicht nach geltungsdrang.
@ Topic
das ist & bleibt meine meinung ... ich lass mich aber gerne positiv überraschen.
AMD ist auf einem guten Weg zu aktuellen Intel Systemen aufzuschließen. Bleibt zu hoffen, dass sie es schneller machen können, als Intel seine Innovationen raushauen kann, insofern es welche sind ;-).
Nur jeder Hersteller braucht "Prestige-Objekte", die sind wichtig für das PR um sich damit am Markt positionieren zu können, daher ist es wichtig, dass auch AMD Vorzeige-Objekte a la High End-CPUs hat!
Naja, ob Prestige-Objekte im High-End-Desktop-Bereich – in einem Marktbereich mit sinkenden Verkaufszahlen – noch so von Bedeutung sind?
Sicherlich braucht AMD Prestigeobjekte. Aber warum sollte AMD im Bereich Desktop punkten wollen wenn man als Hersteller nur eine begrenzte Anzahl an CPUs fertigen kann u. CPUs für Server mit höherer Gewinnmarge verkaufen kann?
Da ist es doch logisch erstmal die Nachfrage auf Seiten der Serverhersteller zu bedienen.
CHAOSMAYHEMSOAP schrieb:
Andererseits zeigt Llano, daß AMD beim 32nm Prozess eine höhere Spannung braucht/brauchen könnte (da steigt der Verbrauch dann im Quadrat) und SB hat die Latte in puncto Sparsamkeit schon recht hoch gelegt.
Warum AMD den Llano standardmäßig für so viel Volt Betriebsspannung spezifiziert hat ist mir ein Rätsel. Die meisten Undervolter berichten dass die meisten Llano auch mit 0,2 Volt weniger stabil laufen, u. dann deutlich weniger "heizen".
Llano wird aber in einem Jahr bereits wieder Geschichte sein und von Trinity abgelöst werden.
Llano war von AMD ohnehin hauptsächlich als Notebook-CPU mit Taktfrequenzen unterhalb 3 GHz geplant.
CHAOSMAYHEMSOAP schrieb:
Und genau im Serversegment schwächelt AMD schon seit einiger Zeit.
Mit dem Bulldozer offenbar nicht mehr. Die CPU-Architektur des Bulldozer ist komplett auf multithreaded Software ausgerichtet, deshalb eignet sie sich besser für Server als für gewöhnliche Desktop-Rechner. Anwendungen mit vielen Threads skalieren auf den Bulldozern besser als auf den Sandy-Bridge-CPUs.
Und Serveranwendungen sind fast immer Anwendungen mit vielen Threads.
Intels Hyperthreading bringt bei realen Anwendungen im besten Fall 30% mehr Rechenpower.
Der Bulldozer schafft weniger Leistung pro Thread, mit multithreaded Software allerdings eine höhere Gesamtleistung.
Bei dem Bulldozer steht und fällt die Leistungsfähigkeit mit der verwendeten Software.
AMD hat allerdings einen "Enhanced Bulldozer" in der Entwicklung.
CHAOSMAYHEMSOAP schrieb:
Nur auf AMD will sich selbst Cray nicht mehr verlassen und bietet die XE6/XK6 mit Tesla Karten an.
Das ist ein weiterer Trend im Bereich der Supercomputer – GPUs als Koprozessoren zu nutzen wo möglich, da die Rechenleistung pro Watt für best. Rechenoperationen deutlich höher ist.
Die Kombination CPU + GPU wird hier weiterhin bleiben. CPUs werden aufgrund der GPU-Rechenpower nicht überflüssig.
Selbst Intel sagte einmal, dass AMD für sie auf dem Markt wichtig ist/sie kein Interesse an deren Untergang hätten/das AMD verschwindet (wenn ich dieses Zitat nur finden würde, aber ich habe jetzt lange genug gesucht).
PS:
Ansonsten ist es doch seit Jahrzehnten schon immer die gleiche Leier: "AMD geht unter/wird demnächst untergehen" etc.
Die gehen nicht unter!
EDIT:
@WinnieW2, der (PR-)Markt besteht zum größten Teil aus Emotionen und Sympathien, bzw. wird so gezielt gesteuert, weniger aus Vernunft!
Aussage: "Hersteller xy hat sehr schnelle/die schnellsten CPUs, also muss von denen alles gut sein".
Und mit diesem eingepflanzten Bewusstsein wird dann eingekauft, und das oft selbst bis in hohe Chefetagen hinein.
[...]
Warum AMD den Llano standardmäßig für so viel Volt Betriebsspannung spezifiziert hat ist mir ein Rätsel. Die meisten Undervolter berichten dass die meisten Llano auch mit 0,2 Volt weniger stabil laufen, u. dann deutlich weniger "heizen".
Llano wird aber in einem Jahr bereits wieder Geschichte sein und von Trinity abgelöst werden.
Llano war von AMD ohnehin hauptsächlich als Notebook-CPU mit Taktfrequenzen unterhalb 3 GHz geplant.
Ist "Undervolter" eine neue Berufsbezeichnung, aus den USA kommend? Wenn es die Fertigung zulassen würde, hätte AMD den Llano ganz gewiß mit niedrigeren Spannungen eingeführt, um sich das negative Image zu ersparen. Es mag statistisch bei einigen Modellen klappen, eine niedrigere Spannung anzulegen, ich wette aber, daß damit aber die Ausschußrate viel zu hoch liegen würde. Und handverlesene Prozessoren kosten eine Stange Geld! Wenn Llano noch mehr kosten würde als jetzt - bei dessen aktueller CPU-Leistung, würde ich ihn nicht mal mehr in die äußere Wahl nehmen ...
Mit dem Bulldozer offenbar nicht mehr. Die CPU-Architektur des Bulldozer ist komplett auf multithreaded Software ausgerichtet, deshalb eignet sie sich besser für Server als für gewöhnliche Desktop-Rechner. Anwendungen mit vielen Threads skalieren auf den Bulldozern besser als auf den Sandy-Bridge-CPUs.
Und Serveranwendungen sind fast immer Anwendungen mit vielen Threads.
Intels Hyperthreading bringt bei realen Anwendungen im besten Fall 30% mehr Rechenpower.
Der Bulldozer schafft weniger Leistung pro Thread, mit multithreaded Software allerdings eine höhere Gesamtleistung.
Bei dem Bulldozer steht und fällt die Leistungsfähigkeit mit der verwendeten Software.
Das ist ausgemachter Schwachfunk! Das Bulldozer-Design zielt eindeutig durch seine stärkere Gewichtung der Integer ALUs auf den Konsummarkt. Gerade dort, wo Server hochkarätiger Hard- und Software zum Einsatz kommen, sind aber auch die Fließkommaeigenschaften von großer Bedeutung und in diesem Falle hat AMD deutlich weniger zu bieten als Intel. Diskussionen diesbezüglich gibt es in vielen HPC Foren. Einfach mal das Netz durchstöbern.
Das ist ein weiterer Trend im Bereich der Supercomputer – GPUs als Koprozessoren zu nutzen wo möglich, da die Rechenleistung pro Watt für best. Rechenoperationen deutlich höher ist.
Die Kombination CPU + GPU wird hier weiterhin bleiben. CPUs werden aufgrund der GPU-Rechenpower nicht überflüssig.
Die letzte Supercomputer Konferenz hat aber ein anderes Bild gezeigt und die Installation von GPGPU-Clustern ist rückläufig. Die erste Euphoriewelle, echte Eurphoriewelle (getragen von Wissenschaftlern, die sich durch die PR-Maschinerie der GPU Hersteller wenig beeindrucken lassen), ist vorüber. Es macht sich eine gewisse Ernüchterung breit. Ich sage damit nicht, daß sich das Konzept als untragbar oder gar nichtig erwiesen hat, im gegenteil, ich stetze beim Programmieren nun auch mehr und mehr die GPU ein wo ich kann. Die Ernüchterung ergab und ergiebt sich aus der großen Diskrepanz zwischen PR Versprechen und der Realität. Der CUDA Compiler hat einige schwerwiegende Fehler, die man von einem kommerziellen Produkt nicht erwarten sollte. Zwar bemüht sich nVidia um Behebung, dennoch ist der Einsatz von CUDA etwas umständlich, Initialisierungen sind codeintensiv und ein bißchen Umständlich, das Debugging nicht gerade erfreulich. OpenCL auf nVidia GPUs ist möglich, birgt allerdings noch mehr Tücken als CUDA. Für viele Anwender ist die Uneinigkeit ob des Standards ein Hindernis, denn wir versuchen Code zu produzieren, der möglichst plattformübergreifend einsetzbar sein soll. CUDA ist sehr viel reifer als OpenCL, OpenCL mangelt es an wichtigen Standrads wie "doubles" und andere Datentypen und irgendwie gehen viele Entwickler nur zögerlich vor. Das schreckt ab. Im Moment ist für viele die GPU nicht so universell einsetzbar, wie es die PR-Maschinerie verspricht. Das realisieren wir in den Evaluierungsschritten und wägen deshalb genauestens ab, wofür wir Geld ausgeben. Lieber in CPU-lastige Hardware mit der ein oder anderen TESLA-Erweiterung als in eine TESLA-Erweiterung, die nur arbitrative CPUs benötigt. Das mag im kommenden jahr oder in zwei Jahren anders aussehen, im Moment ist es aber einfach noch zu früh, um sich mit voller Wucht auf diese Technik zu stürzen. Die Lernkurve ist noch zu steil und durch die mangelhafte Vereinheitlichung kann das frisch erworbene Wissen ganz schnell wertlos werden, sollte sich ein anderer Standard etablieren.
Zum Thema CPU+GPU: mitlerweile pfeiffen es die Spatzen von den Dächern, daß es mit zunehmender Verkleinerung der Strukturen auf einem Chip möglich ist, einzelne Ausführungsstufen durch ganze Matrizen einfacher Exekutiveinheiten zu ersetzen, die durch eine komplexe Arbiterlogik, aber einfacheren Rechenwerken in erster Näherung die Leistung insgesamt erhöhen. Diese Entwicklung wurde schon einmal vollzogen. Mit der Zeit wird man sowohl ALUs als auch die Fließkomma- und SIMD Einheiten mehr und mehr durch das Konzept ersetzen, das sich heutzutage bei den GPUs ergibt. Umgekehrt wird man zunehmend bei den GPUs vom Kurs der sehr primitiven Rechenwerke abweichen und sie komplexer gestalten. Eine Shadereinheit kann nicht viel, das, was sie kann, aber sehr schnell. Das klassische CPU-Design wird sich mehr und mehr dem GPU-Design anschmiegen, genauso wird der Entwicklungsverlauf der GPU asymptotisch in Richtung CPU laufen. Ist man irgendwann mal bei 10nm Strukturbreiten angekommen, wird man hochkomplexe Hybrid-Prozessoren haben, die alles erledigen. Es wird allerdings noch eine Weile dauern, schätze ich. Fünf Jahre mindestens, bis wir die ersten Prozessoren sehen werden, deren FPUs durch die GPU ersetzt worden sind.
Ergänzung ()
xrayde schrieb:
Selbst Intel sagte einmal, dass AMD für sie auf dem Markt wichtig ist/sie kein Interesse an deren Untergang hätten/das AMD verschwindet (wenn ich dieses Zitat nur finden würde, aber ich habe jetzt lange genug gesucht).
Das glaube ich gut und gerne. Vn dem Tage an, an dem AMD untergeht und disch damit die Monopolstellung Intels manifestieren würde, wird das Unternehmen Intel nach amerikanischem Kartellrecht "zerschlagen", muß also aufgespalten werden. Nicht viele Firmen haben in der Vergangenheit eine solche Zwangstrennung langfristig überlebt. De facto dominiert Intel schon jetzt den Markt und diktiert, was wann und wie gemacht wird. AMD ist letztlich der politische Garant, nicht zerschlagen zu werden. Und ich würde meinen Hintern verwetten, daß, falls es zu einem Niedergang AMDs kommen würde, Intel der Geldgeber wäre, um diesen Fall abzuwenden. Es ist schon Ironie des Schicksals, daß einst AMD Intel finanziell aus der Patsche half und sich das Unternehmen damit seinen größten Widersacher in Sachen x86-Technik (kann man bei diesem Altertumsschrott überhaupt noch von Technik sprechen?) Geburtshilfe geleistet hat.
Es gibt nicht nur Desktop Llanos sondern auch Mobile Llanos. Da die yields bei GF anscheinend nicht so prickelnd sind, hat AMD die VID für Desktop extrem hoch angesetzt um nichts wegschmeißen zu müssen.
Die Dies mit niedriger VID werden zu Mobile Llanos, Dies mit schlechter VID werden zu Desktop Llanos.
Genau das gleiche passiert auch bei Intel, nur haben die deutlich bessere yields und auch einen den Kinderkrankheiten entwachsenen Fertigungsprozess und darüber hinaus müssen sie auch keine GPU in 32nm+SOI fertigen.
Nein. Genau so wie es "Overclocker" gibt gibt es auch "Undervolter". Die einen wollen soviel GHz wie möglich aus der CPU herauskitzeln, die anderen wollen eine CPU mit Standardtakt betreiben aber mit möglichst wenig Wärmentwicklung und Stromfluss.
Eisenfaust schrieb:
Und handverlesene Prozessoren kosten eine Stange Geld!
AMD hat die Fertigung geschickterweise aus dem Hauptunternehmen ausgegliedert und bezahlt nur die funktionierenden Chips zu einem vorher vereinbarten Stückpreis.
Eisenfaust schrieb:
Das ist ausgemachter Schwachfunk! Das Bulldozer-Design zielt eindeutig durch seine stärkere Gewichtung der Integer ALUs auf den Konsummarkt.
Weshalb bitte Gewichtung auf Integer ALU?
AMD hat zwar die Anzahl der FPUs beim Bulldozer nicht erhöht, allerdings deren Leistungsfähigkeit gegenüber dem K10 Vorgänger verdoppelt.
Der Bulldozer hat jetzt FMA4-Befehle, was für mache Rechenaufgaben einen deutlichen Leistungszuwachs bedeutet, falls die Software entsprechend angepasst wird.
...Es ist schon Ironie des Schicksals, daß einst AMD Intel finanziell aus der Patsche half und sich das Unternehmen damit seinen größten Widersacher in Sachen x86-Technik (kann man bei diesem Altertumsschrott überhaupt noch von Technik sprechen?) Geburtshilfe geleistet hat...
Doch, denn der Verbrauch steigt linear mit dem höheren Takt (im Quadrat, wenn man die Spannung erhöht).
D.h.: bei gleichem Fertigungsverfahren (sprich dem 32nm von Intel) und gleicher Spannung sollte der mit 3,6GHz höher getaktete FX-8150 als der i7 2600k (3,4GHz).
Dabei unterschlagen wir einfach die unterschiedlichen architekturen und anzahl an elementen um dann recht zu kriegen bei einer aussage die eben im endeffekt so falsch ist.
D.H. das trotz höherem takt geringerer verbrauch möglich wäre.
edit:
WinnieW2 schrieb:
AMD hat die Fertigung geschickterweise aus dem Hauptunternehmen ausgegliedert und bezahlt nur die funktionierenden Chips zu einem vorher vereinbarten Stückpreis.
und du meinst nicht der Preis würde im endeffekt steigen wenn AMD derart hohe ansprüche stellen würde? jemand muss das bezhalen, die Araber stecken da kein Geld rein weil sie so sozial sind, das würden sie vielleicht dieses mal noch mitmachen, aber die nächste produktion wäre dann schon mit angepasstem preis verhandelt womit sich eine negativspirale dreht ...
Bei einem so komplexen Befehlssatz wie x86 ist es nahezu unmöglich die Anzahl der Elemente gering zu halten und dabei gleichzeitig die Leistung zu steigern.
AMD hat mit dem Zacate zwar ein sehr gutes ausgewogenes CPU-Design entwickelt welches mit relativ einfacher Architektur eine gute Leistung bringt, allerdings ist das Design nicht auf hohen Takt ausgelegt. Der Bulldozer ist ein Design welches laut AMD Entwicklern auf min. 5 GHz ausgelegt wurde.
5 GHz mit Luftkühlung dürften allerdings erst mit noch kleineren Fertigungs-Strukturen wirklich machbar sein.
Vn dem Tage an, an dem AMD untergeht und disch damit die Monopolstellung Intels manifestieren würde, wird das Unternehmen Intel nach amerikanischem Kartellrecht "zerschlagen", muß also aufgespalten werden. Nicht viele Firmen haben in der Vergangenheit eine solche Zwangstrennung langfristig überlebt. De facto dominiert Intel schon jetzt den Markt und diktiert, was wann und wie gemacht wird. AMD ist letztlich der politische Garant, nicht zerschlagen zu werden. Und ich würde meinen Hintern verwetten, daß, falls es zu einem Niedergang AMDs kommen würde, Intel der Geldgeber wäre, um diesen Fall abzuwenden. Es ist schon Ironie des Schicksals, daß einst AMD Intel finanziell aus der Patsche half und sich das Unternehmen damit seinen größten Widersacher in Sachen x86-Technik (kann man bei diesem Altertumsschrott überhaupt noch von Technik sprechen?) Geburtshilfe geleistet hat.
mich würde es nicht wundern wenn intel u. amd ein abkommen haben, so nach dem motto: amd pinkelt intel nicht ans bein (mit schnellen cpu's) dafür lässt intel amd am leben.
wenn intel das wollte das amd verschwindet, hätten sie amd längst den hahn abgedreht.
man könnte amd sogar die behinderung des des fortschritts in der computertechnik vorwerfen, das sie mit intel nicht schritthalten können kann intel, mangels druck schön langsam machen.
wäre da mehr druck seitens amd müsste intel auch einen zahn zulegen u. wir wären heute vermutlich schon 1-2 generationen weiter.
Ich würde sagen dass das Kartellamt in den USA bislang AMD ziemlich in Schutz genommen hat; u. Intel kann mit ca. 80% Marktanteil bei x86-CPUs sehr gut leben.
Und mit mehr als 25% Marktanteil würden die Produktionskapazitäten von AMD an ihre Grenzen gelangen... AMD hat derzeit allerdings nicht genügend Geld um seine Produktionskapazitäten zu erweitern und die Auftragsfertigung von x86 CPU durch andere Hersteller darf AMD aufgrund von Verträgen mit Intel für die Nutzung der x86-Befehlssätze nicht weiter ausbauen.
Dieser "Reinfall" hat mich lediglich 150€ gekostet, ich konnte mein AM2+ Board und den DDR2-Speicher behalten und musste lediglich schnell eine CPU wechseln um 6 Kerne bei 3.2GHz zu bekommen. Und ich würde keinen Unterschied merken, hätte ich nun einen i7-2600K im Rechner.
Als was hier bei AMD vs. Intel immer abgeht lässt mich schon leicht an der Menschheit zweifeln. Man könnte echt meinen, die Veröffentlichung irgendwelcher Benchmarks würde den Leuten des anderes Lagers die Luft zum Atmen nehmen...
In vielen Beiträgen hört man zumindest die Schnappatmung raus. Kauft doch einfach die CPUs, die im gewünschten Einsatzgebiet das beste Preis-Leistungsverhältnis bieten.
Dieser oberflächliche Streit um Prestigeobjekte ist einfach nur lächerlich.
AMD ist auf einem guten Weg zu aktuellen Intel Systemen aufzuschließen. Bleibt zu hoffen, dass sie es schneller machen können, als Intel seine Innovationen raushauen kann, insofern es welche sind ;-).
Ich würde sagen dass das Kartellamt in den USA bislang AMD ziemlich in Schutz genommen hat; u. Intel kann mit ca. 80% Marktanteil bei x86-CPUs sehr gut leben.
Und mit mehr als 25% Marktanteil würden die Produktionskapazitäten von AMD an ihre Grenzen gelangen... AMD hat derzeit allerdings nicht genügend Geld um seine Produktionskapazitäten zu erweitern und die Auftragsfertigung von x86 CPU durch andere Hersteller darf AMD aufgrund von Verträgen mit Intel für die Nutzung der x86-Befehlssätze nicht weiter ausbauen.
Ich würde einmal behaupten, es ist genau andersherum. Als die Amis Wildwest in der Straße von Hormus spielten, um sich die Ölreserven im Vorfeld ihres Irak-Überfalles zu sichern, trieb für Stunden ein Zerstörer hilflos im Persischen Golf. Warum? Weil das Borsystem, ein auf Wintel-basiertes NT System abgestürzt war und sich nicht mehr booten ließ - so die halboffizielle Verlautbarung damals.
Wer mal in einem dieser Besatzerbunker gewesen ist, weiß, wieviele Systeme des US-amerikanischen Militärs auf Microsoft-Intel-Systemen laufen. NASA, JPL (in Passadena, dort ist das Hauptquartier der meisten Weltraummissionen, auch unserer europäischen Explorationsmissionen im Sonnensystem), das gleiche Bild. Fast in allen wichtigen Nervenzentren der USA werden in der überwiegenden Mehrheit Intel- oder Intel-kompatible Prozessoren verwendet. Und Intel produziert nicht nur das, was wir Otto-Normalverbraucher zu sehen bekommen! Da sind Zulieferer, die in Lizenz Intels (Intel hat eine Unmenge Patente zusammengerafft!) "gehärtete" Bausteine herstellen. Fast alle Satelliten und Sonden haben solche Spezialprozessoren - niedriger Takt, sehr grobe Struktur (nix 22nm!), meist noch i386 Technik. Warum? Weil die harte Gammastrahlung im All sehr oft dafür sorgt, daß es zu Bitflips und anderen Effekten im Reich der Quantenmechanik kommt, die man sich gar nicht in Steuersystemen wünscht.
Kurzum, Intel sitzt im Militär, in der Wirtschaft, einfach überall! Wenn dieser Chipgigant nun zerschlagen würde, hieße das, daß die US Regierung auch schwieriger Kontrolle über die Splitter, die entstünden, ausüben könnte. Es wäre zu befürchten, daß verteidigungswichtige Designs, Informationen oder Hardware legal oder illegal in die falschen Hände geriete. Früher hat man das einfacher gelöst: man hatte kleine elitäre nationale Chipschmieden, die im Auftrage der Regierung Spezialbauteile herstellte. Ging das Unternehmen unter, wechselten die Köpfe und Patente oder das Wissen in andere Staatsbetriebe. Im Zeitalter der Globalisierung und Iodtie-Optimierungen geht das nicht mehr so einfach, man hat sich mit den Justizsystemen zu viele Fallstricke gebaut, über die man noch empfindlicher stolpern könnte. Es ist kompliziert, denke ich. Ich würde sogar annehmen wollen, daß genau aus diesem Grunde AMD die letzte Katastrophe überlebt hat und nicht geschluckt wurde! Das Unternehmen ist eine wichtige strategische Figur im Spiele Chipzillas.
aber den durchschnittlichen anti-amerikanisch eingestellten deutschen AMD-Fanboy-Gamer-"Rebellen" wird das in seiner Haltung noch mehr bestärken, wenn er das liest.
...Fast alle Satelliten und Sonden haben solche Spezialprozessoren - niedriger Takt, sehr grobe Struktur (nix 22nm!), meist noch i386 Technik. Warum? Weil die harte Gammastrahlung im All sehr oft dafür sorgt, daß es zu Bitflips und anderen Effekten im Reich der Quantenmechanik kommt, die man sich gar nicht in Steuersystemen wünscht...
Das stimmt sogar, hat mich gleich an eine 10 Jahre alte Meldung erinnert :
...Die NASA sucht noch immer regelmäßig den Restbestände-Markt nach einer bestimmten, heute nicht mehr hergestellten Spezialversion des 8086 ab, um das Shuttleprogramm wie geplant bis 2012 durchführen zu können.
Diese Version des 8086 ist besonders unempfindlich gegen elektromagnetische Strahlung und wurde nicht nur vom Militär, sondern auch von Herstellern von medizinischen Geräten verwendet...
Ich verstehe immer nicht warum so viele über "das arme AMD" heulen, letztendlich starteten beide Firmen zur selben Zeit (1 Jahr Versatz), mit ziemlich gleichen Voraussetzungen:
man könnte amd sogar die behinderung des des fortschritts in der computertechnik vorwerfen, das sie mit intel nicht schritthalten können kann intel, mangels druck schön langsam machen.
wäre da mehr druck seitens amd müsste intel auch einen zahn zulegen u. wir wären heute vermutlich schon 1-2 generationen weiter.
Weil die Zielgruppe von Llano auch viel eher CPU Leistung braucht als Grafikleistung.
Deswegen ist die Intel Grafikkarte auch der Beste Kompromiss.
Kann der Sohnemann nicht auch noch anfangen, dass Teufelswerkzeug für was anderes als um nen 2D Bild anzuzeigen benutzen...
ich denke AMD orientiert sich am 2500K bzw. 2600k bzw. wird nicht (wenn überhaupt) minimal über dem 2600K liegen bei bestimmten Fällen, deshalb legt auch Intel minimal mit dem 2700K nach. Sie werden Intel nicht herausfordern weil sie ja das Potential der Sandys kennen, andernfalls wären vielleicht ein paar aussagekräftigere Benchmarks ans Tageslicht gekommen.
Bin echt gespannt wo sie bei der Gamingleistung liegen... Ich denke weit hinter den Sandys, sonst würden sie nicht so ein Scheiß verzapfen.