News AMD gibt Details zu 32-nm-CPUs preis

Zum Punkt, wer hatte die Idee mit dem integriertem Grafikkern zuerst:
http://www.heise.de/ct/meldung/AMD-entwickelt-integrierten-CPU-GPU-Chip-118827.html
( Jahr 2006 )

Zum Punkt: AMD nutzt Intels 45 nm Technik, dies ist falsch AMD hat mit IBM zusammengearbeitet.

Und zum Punkt, ich brauche keinen Grafikkern im Prozessor da ich eh eine extra Grafikkarte habe: Mit dem Grafikchip im Prozessor ist theoeretisch z.B. Hybrid Crossfire möglich. Man könnte also im 2D Betrieb den onboard Chip werkeln lassen und bei 3D Anwendungen schaltet man die extra Karte ab. => 0 Watt Idleverbrauch der separaten Grafikkarte.

AMD wird mit Ihrer neuen Fabrik wieder etwas reißen, bleibt zu hoffen, dass sie dann mal einen Atom Gegner auf die Leute loslassen.
 
Schaffe89 schrieb:
Du hast doch selbst angemerkt, dass der Vergleich mit Intel nicht möglich ist.?
Ja, deswegen kann der "sweet spot" bei beiden Herstellern auch an Unterschiedlichen Stellen liegen. Wo ist das Problem?

milamber! schrieb:
Brauchst du wirklich Esel und Hühner um dir Zusammenhänge selbst zu erläutern?

Was soll die Frage? Ich erkläre es nicht mir sondern dir und ob ich Esel und Huhn oder Hensel und Gretel oder Kuh und Vogel als Variable einsetze ist völlig wurscht. Jetzt erklärt man es einem und dann kriegt man auch noch so eine Frage an den Kopf geworfen. Wenn ihr sonnst nichts zu tun habt, als mich mit unnötigen Fragen zu löchern, kann ich auf die Diskussion verzichten. Deswegen gehe ich auch sonnst nicht auf dein Kommentar ein, zumal ich auf all die Fragen schon geantwortet habe....
 
Zuletzt bearbeitet:
silent-efficiency schrieb:
Ja, deswegen kann der "sweet spot" auch ganz wo anders liegen. Wo ist das Problem?
Du erzählst hier mehr wilde Spekulationen über "sweet spots" von AMD ohne jegliche Informationen und kritisierst im selben Atemzug dass jemand, völlig logisch, von 2 zusätzlichen Layern auf einen kleineren Die schließt als ohne diese 2 zusätzlichen Layer. :rolleyes:
 
@ Suxxess Jaja, lass sie nur, manche wollens eben nicht kapieren*fg*

Na klar war es AMDs Idee, einen GPU Kern in die CPU zu integrieren. Genauso las man in den ersten K8 Tests, das der Athlon64 für Mehrkernsysteme entwickelt und vorbereitet wurde..Der Speichercontroller wurde integriert.. Das ist wie die Geschichte von Hase und Igel..Leider.

Auch interessant:

"Mit Hilfe von Power-Gating-Transistoren lässt sich jeder der vier Kerne separat von der Energieversorgung trennen, um Leckströme zu unterbinden. Ein Power-Gate-Ring umgibt Core und dazugehörigen L2-Cache. Dabei nutzen die AMD-Entwickler spezifische Vorteile der SOI-Technik: Sie können die Prozessorkerne masseseitig mit kompakteren N-FETs abschalten und verweisen darauf, dass "andere Firmen", die herkömmliche (aber billigere) "Bulk-Silicon"-Wafer einsetzen, P-FETs verwenden müssen – gemeint ist selbstverständlich Intel."

oder:

"Das Taktverteilnetz (Clock-Grid) von Llano wurde neu konstruiert und layoutet. Das Clock-Grid allein beansprucht laut AMD oft bis zu 30 Prozent des gesamten Energiebudgets. Mit 50 Prozent weniger Taktpuffern und mehrstufigem Clock-Gating drückt Llano den Verbrauchsanteil des Clock-Grids auf 8 Prozent. Die meisten Hochleistungsprozessoren überwachen die Betriebstemperatur durch ein Netz von Wärmesensoren und regeln bei Erhitzung Takt und Spannung ab. Je nach Umgebungstemperatur können diese analogen Methoden aber Testprofile verfälschen und potenziell den Chip abbremsen, bevor er ins Schwitzen gerät, argwöhnt man bei AMD. Der Llano hingegen überwacht schweißtreibende Aktivitäten "digital", nämlich anhand von Signalen, die statistisch besonders häufig zu erhöhtem Energieverbrauch führen. "


Vielleicht ist Intel wieder schneller? Das Einzige was Intel besitzt ist Geld und damit eine ungeheure Macht, neuste Fertigungstechnoligie etc.. Zum Glück ist Larabee gescheitert!
 
Zuletzt bearbeitet:
Complication schrieb:
Du erzählst hier mehr wilde Spekulationen über "sweet spots" von AMD ohne jegliche Informationen und kritisierst im selben Atemzug dass jemand, völlig logisch, von 2 zusätzlichen Layern auf einen kleineren Die schließt als ohne diese 2 zusätzlichen Layer. :rolleyes:

Der Die wird nicht kleiner, der Die bleibt gleich bei gestiegener Komplexität. Wo der Unterschied ist?

DIE bleibt gleich bei gestiegener Komplexität=> Frontend bleibt gleich (Backend wird Komplexer)

DIE wird kleiner => Frontend wird kleiner

Kleinerer Frontend = kleinere Packungsdichte. Wo hat AMD gesagt, dass sie eine höhere Packungsdichte als Intel erreichen? Bisher hat nur Intel mit der größten Packungdichte angegeben.

Es ist sowohl Fertigungstechnisch, als auch was die anderen Auswirkungen angehen, ein großer Unterschied ob Frontend kleiner wird oder gleich bleibt. Was der Backend macht ist eher zweitrangig wie "Abolis" hier auch ausgeführt hat.

Siehe meinen ersten Post in diesem Thread, wo ich Volker zitiert habe und gesagt habe, dass die Zusatzleitungen wegen der Komplexität entstehen und nicht weil man kleinere Dies fertigen will um kosten zu sparen.

@milamber!
Ich beantworte deine Fragen nicht, weil ich die erstns beantwortet habe und zweitens du keine Ahnung hast, du hast vor kurzem noch nicht mal gewusst, das in den anderen Lagen keine Transistoren untergebracht werden, sonder nur Zuleitungen. Dementsprechend schwierig ist es, dir alles zu erklären und das mehrmals. Was du als mit deinem "mutig" hast, ist mir auch schleierhaft. Mutig ist hier im Sinne von "Risikobereiter" gemeint gewesen und auch das kann man so nicht pauschal sagen, weil keiner den Fertigungsprozess von AMD kennt. Vielleicht wäre man bei dem Design mit 10 Lagen gar noch "mutiger" gewesen. Es ist nicht möglich zu sagen, dass man mutiger/Risikobereiter ist, wenn man mehr oder weniger Lagen verwendet ohne den ganzen Fertigungsprozess zu kennen. Denn man kennt den sweet spot nicht. Siehe dazu auch:

Abolis schrieb:
Ob nun mehr oder weniger Cu-Lagen besser ist, liegt einzig alleine am Routing das eingesetzt wird, und kann pauschal nicht beantwortet werden. Feineres Routing birgt immer das Risiko von Defekten. Ergo koennen mehr Lagen diese Situation entschaerfen. Gleichzeitig steigt aber das Defekt-Risiko multiplikativ mit den Bearbeitungsschritten. Je nach Beherrschung des Prozesses kann dies Vorteile oder Nachteile haben.
 
Zuletzt bearbeitet:
milamber! schrieb:
Volker hat auch gar nicht geschrieben, das AMD kleinere Dies fertigen will. Sondern das die zwei zusätzlichen Leitungen zu einem kleineren Die führen(, gegenüber einem Die der die gleiche Anzahl an Schaltungen und Transistoren mit 9 Lagen erreichen müsste.)
Das ist eine pauschale Aussage, die in der Form nicht immer zutrifft und damit so nicht in einer News stehen darf. Wenn der Frontend bereits sehr klein ist und nicht weiter sinnvoll verkleinert werden kann, bringen auch mehr Lagen rein gar nichts bei gleicher Komplexität.
Die Chipfläche hängt nicht direkt von der Anzahl der Kupferlagen ab. Wenn dem so wäre, würde jeder Hersteller sofort aufhören kleinere Transistoren zu bauen und stattdessen sich daran machen die Kupferlagen dichter zu packen. Es macht nämlich keinen Sinn Transisoten zu miniaturisieren um sie dann "Kilometerweit" von einander entfernt zu platzieren, weil man bei Intel beschlossen hat, dass 9 Kupferlagen reichen. Intel erreicht mit 9 Kupferlagen gute Packungsdichten. AMD dann hoffentlich mit 11 beim Liano.
milamber! schrieb:
Damit verdrehst du wieder die Aussage von Abolis, aber das weisst du ja eh selbst.
Du unterstellt mir mal wieder irgend etwas, was nicht stimmt. Und das auch noch ohne jede Begründung. Daumen hoch.

milamber! schrieb:
Du machst es mit jedem Post schlimmer, es geht dir nur noch darum Recht zu behalten, obwohl der Zug schon längst abgefahren ist.

Was für ein Zug? Du solltest weniger zitieren und versuchen deine Gedanken mal zu sammeln. Sonnst wird dein Beitrag zum reinen Flamebeitrag.
 
Ach, ich bin es leid :rolleyes:

silent-efficiency schrieb:
Das ist eine pauschale Aussage, die in der Form nicht immer zutrifft und damit so nicht in einer News stehen darf. Wenn der Frontend bereits sehr klein ist und nicht weiter sinnvoll verkleinert werden kann, bringen auch mehr Lagen rein gar nichts bei gleicher Komplexität.

Komisch, dabei hat doch Abolis genau das Gegenteil geschrieben:
Im einfachen Backend mehr Komplexität (hier entstehen deutlich weniger Kosten), um eine höhere Die-Dichte zu erreichen.​
Zumal du mit dieser Aussage wieder eine nicht belegbare Behauptung aufstellst;
du stellst in den Raum, das Frontend wäre auf ein Maximum gepackt, und ebenso wäre das Backend auf einem Optimalen Zustand, bei dem weitere Lagen keinen Vorteil mehr ergeben würden.
Wie kommst du da drauf? Wie soll ein solcher Zustand erreicht werden, und warum sollte AMD gerade diesen Zustand erreicht haben?
Wie schon geschrieben, wird die Fertigungsstruktur verkleinert, um auf gleicher Fläche mehr Transistoren und Leiterbahnen unterbringen zu können; da eine Metalllage nicht ausreicht, weil dies der Komplexität der Schaltung bei der Gatebreite und Breite der Leiterbahnen nicht gerecht würde, werden mehrere Lagen übereinander gelegt.
Und genau hier ist das der Fall, weil die Komplexität mit 9 Lagen nicht mehr zustande gebracht werden würde, wie sie es mit 11 werden wird.

silent-efficiency schrieb:
Die Chipfläche hängt nicht direkt von der Anzahl der Kupferlagen ab. Wenn dem so wäre, würde jeder Hersteller sofort aufhören kleinere Transistoren zu bauen und stattdessen sich daran machen die Kupferlagen dichter zu packen. Es macht nämlich keinen Sinn Transisoten zu miniaturisieren um sie dann "Kilometerweit" von einander entfernt zu platzieren, weil man bei Intel beschlossen hat, dass 9 Kupferlagen reichen. Intel erreicht mit 9 Kupferlagen gute Packungsdichten. AMD dann hoffentlich mit 11 beim Llano.

Es hat doch auch niemand behauptet, das die Anzahl der Kupferlagen verantwortlich ist für die größe der Chipfläche. Jedoch wird eine geringer Chipfläche ermöglicht, wenn die Transistoren dichter gepackt werden, und über mehrere Lagen mit Leiterbahnen verbunden werden können. Nach 'oben' hin ist da auch keine Kilometerweite Strecke von nöten. Als Extremfall dargestellt, mit einer einzigen Lage wären die Schaltungen Kilometerweit.
Ja, bei Intel hat man 9 Kupferlagen als "sweet spot" erkannt, vielleicht wäre ein kleinerer Die mit mehr Lagen möglich, würde aber die Fehleranfälligkeit erhöhen. Vielleicht ist die Die Größe hier auch einfach optimal, das weitere Lagen nicht nötig waren.
Beim Llano haben jedoch die 9 Leitungen nicht (mehr) ausgereicht um zusätzlich noch die GPU anzubinden, ohne den Die größer werden zu lassen, als sie es gerne hätten.


silent-efficiency schrieb:
Du unterstellt mir mal wieder irgend etwas, was nicht stimmt. Und das auch noch ohne jede Begründung. Daumen hoch.

Obwohl ich ganz genau weiß, das wenn ich dies jetzt belege, du in den nächsten Post das wieder vollkommen übergehst, aber bitte:

Es ist nicht möglich zu sagen, dass man mutiger/Risikobereiter ist, wenn man mehr oder weniger Lagen verwendet ohne den ganzen Fertigungsprozess zu kennen. Denn man kennt den sweet spot nicht. Siehe dazu auch:​
Zitat von Abolis
Ob nun mehr oder weniger Cu-Lagen besser ist, liegt einzig alleine am Routing das eingesetzt wird, und kann pauschal nicht beantwortet werden. Feineres Routing birgt immer das Risiko von Defekten. Ergo koennen mehr Lagen diese Situation entschaerfen. Gleichzeitig steigt aber das Defekt-Risiko multiplikativ mit den Bearbeitungsschritten. Je nach Beherrschung des Prozesses kann dies Vorteile oder Nachteile haben.

Ja, man kennt den Sweet Spot nicht, und ja, man weiß nicht unbedingt was ein höheres Risiko bedeuten würde, aber beides lässt sich NICHT mit einem DENN verbinden, und schon gar nicht hat Abolis da in irgend einer Form deine Aussagen bestätigt, noch Volkers Formulierung als Falsch bezeichnet;
  • Feineres Routing birgt das Risiko von defekten, was bedeutet das irgendwo eine Grenze gesetzt ist, und die Leiterbahnen nicht näher aneinander geführt werden können.
  • Um mehr Leiterbahnen unterzubringen, die komplexere Frondends, also mehr Transistoren und anderen Einheiten, verbinden stehen also zwei Möglichkeiten zur Auswahl; ein größerer Die oder weitere Metalllagen.
  • (2)weitere Cu-Lagen bedeuten weitere Fertigungsschritte welche das Defekt-Risiko multiplikativ erhöhen, was somit Volkers Aussage bestätigt, das "die Anfälligkeit für Fehler steigt". Volker nennt diesen Schritt Mutig, weil
  • die Alternative, den Die zu vergrößern, pro Chip die sichere Alternative gewesen wäre, welche aber mit mehr Fertigungsschritten pro Chip und weniger Chips pro Wafer erkauft worden wäre

Du hast also hier, wie auch bei einigen anderen Passagen, die eigentliche Aussage zu deinen Gunsten Verdreht, wie auch bei der Aussage, das Backend wäre Zweitrangig.

Das verdrehen von Aussagen beginnt ja schon dadurch, das du in Volkers Formulierungen ein "zwangsweise" rein deuten mußt, um deine Behauptungen glaubwürdiger erscheinen zu lassen.

silent-efficiency schrieb:
Was für ein Zug? Du solltest weniger zitieren und versuchen deine Gedanken mal zu sammeln. Sonnst wird dein Beitrag zum reinen Flamebeitrag.

Meine Gedanken sind geordnet, deswegen fällt es mir gearde auch so leicht, dein Vorgehen hier problemlos nachzuvollziehen.
Bezüglich des 'Flamebeitrags' weise ich den Vorwurf mal gekonnt zurück, denn im Gegensatz zu mir, hast du von meinen Letzten Posts immer nur den Unwichtigen Teil zitiert und Kommentiert, was nur dazu diente am Thema vorbei zu diskutieren.
Auf die Technischen Dinge, und vor allem auf die Bitte deine Behauptungen zu belegen, bist du hingegen nicht mehr eingegangen.

Warum wissen wir beide.

Dafür das ich erst heute einige Dinge über den Aufbau so eines Microprozessors in Erfahrung bringen durfte, scheine ich das doch deutlich besser zu verstehen als du.
 
Zuletzt bearbeitet:
Also langsam wird das traurig, ihr seid euch doch schon einig gewesen das es Äpfel und Birnen sind letztlich.

Und es ist euch doch auch beiden Klar das a) die 11 lagen aus irgendeinem Grund sein müssen und b) man das mit den 9 Intel Lagen eh nicht zu vergleichen ist.

Die Frage wäre vielleicht was es an Kosten ausmacht und das scheint weniger zu sein als mehr DIE-Fläche bei 9 Lagen (wenn ich das jetzt richtig verstanden habe)

Zumindest sollten wir AMD zutrauen das aus einem sinnvollen Grund gemacht zu haben und nicht nur weil sie mal 11 Cu-Lagen zeigen wollten.
 
Drei Dinge:
1. AMD setzt natürlich auch schon lange gestrecktes Silizium ein, nicht erst mit 32nm.
2. Wenn die Kerne selbst wirklich nur 35 Mio. Transistoren schwer sind, ist das ziemlich wenig. Vergleich: K10 (Deneb) hat 750 Mio. Transistoren. Etwa 40% der Fläche sind Kerne (mit L2-Cache), macht 300 Mio. Transistoren. Ein Kern wiegt also 75 Mio., ohne L2 somit etwa 50-60 Mio. Transistoren. Der neue Kern wäre also über ein Drittel kleiner.
3. Es kann sein, dass der L3-Cache beim Llano wegfällt, muss aber nicht. Es ist ebensogut denkbar, dsas der größere (1 MiB) L2-Cache Standard wird, da AMD mit Bulldozer ja Zwillingskerne einführt. Und die profitieren evtl. von mehr L2-Cache, also anders als bei Intel.
 
MacroWelle schrieb:
3. Es kann sein, dass der L3-Cache beim Llano wegfällt, muss aber nicht. Es ist ebensogut denkbar, dsas der größere (1 MiB) L2-Cache Standard wird, da AMD mit Bulldozer ja Zwillingskerne einführt. Und die profitieren evtl. von mehr L2-Cache, also anders als bei Intel.
Ich denke da liegt ein falscher Schluß vor bei vielen der Seiten die berichten.
Der Llano wird ja nicht nur die GPU onDie haben. Es wird ebenso der Memorycontroller und die Northbridge OnDie sein.
http://phx.corporate-ir.net/phoenix.zhtml?p=irol-eventDetails&c=74093&eventID=2457769
- Llano has CPU and GPU sharing the same memory controller(s) slide 6, 28:20, also 29:30 to 30:35
Daher ist es durchaus möglich dass der L3 Cache im Zuge der CPU nicht erwähnt wird, weil er auch von CPU und GPU geteilt wird - das wäre für GPGPU Anwendungen und Direct2D eine Hammer Sache, wenn Daten zwischen CPU und GPU sogar direkt über den L3 Cache austauschbar wären

Weitere dort zu findende Fakten:

  • Llano
  • Llano will use currently existing (OpenCL & DirectCompute) programming model slide 6, 27:20
  • Llano will have the video processing & display subsystem and integrated PCIe bus slide 6, 33:30, also 35:30

    Bobcat
  • Bobcat core(s) can be integrated with GPU and/or other peripheral functions in the computer slide 8, 39:30
  • Future generations of Bobcat will continue to have even lower power slide 8, 42:20

    Bulldozer
  • Each Bulldozer module is an optimized dual core slide 9, 45:50
  • Each Bulldozer "core" is capable of 2 loads/cycle; each is a 4-way out-of-order machine 46:30
  • Bulldozer module is not bigger in area than Intel's hyperthreading design 47:40
  • Bulldozer module can achieve ~80% speedup when running 2 threads (versus ~25% from hyperthreading) 48:00
  • Multiple Bulldozer modules can share the L2 cache; and multiple of those (module? L2?) can share the L3 and NB 48:20
  • Each INT scheduler can issue 4 inst./cycle; the FP scheduler can issue 4 inst./cycle 48:50 to 49:50
  • "Over time" a Bulldozer "core" (INT only?) can be deployed in APU to work with GPGPU (for FP?) 50:10
 
nich schon wieder ne igp im cpu ^^
für nicht igp user führt das letztendlich nur zu erhöhtem stromverbrauch und erhöhtem kaufpreis
wer ne igp will, soll sich halt eben nen mobo mit igp kaufen
aber mit der taktik zwingt man leute ja zu ner igp
und was dieses "hybrid" zeug angeht, des braucht eh keiner, weil moderne karten (im moment meine ich HD5xxx) eh fast kein saft ziehen
 
plus das es auch wer wird werden immer bessere CPUs zu bauen plus die onbard GPUs (in Zukunft noch chipsatz) mit zukühlen bei 60 Grad rum. Das geht ja auch auf die Leistung von CPU.
 
Complication schrieb:
Daher ist es durchaus möglich dass der L3 Cache im Zuge der CPU nicht erwähnt wird, weil er auch von CPU und GPU geteilt wird - das wäre für GPGPU Anwendungen und Direct2D eine Hammer Sache, wenn Daten zwischen CPU und GPU sogar direkt über den L3 Cache austauschbar wären
Wie ich vorher schon mal geschrieben habe wäre sowas durch aus möglich, wobei ich allerdings glaube das hier auf den L3 Cache aufgrund der Kosten verzichtet wird.


@CockyBocky
wenn du die IGP der CPU nicht benötigst, deaktivierst du sie einfach im BIOS und zack, hast keinen Mehrverbrauch mehr.
Is doch nich so schwer oder?;)

EDIT:
@Tekpoint
Deswegen gibt es für den Performancebereich ja auch den Bulldozer ohne IGP!
 
2. Wenn die Kerne selbst wirklich nur 35 Mio. Transistoren schwer sind, ist das ziemlich wenig. Vergleich: K10 (Deneb) hat 750 Mio. Transistoren. Etwa 40% der Fläche sind Kerne (mit L2-Cache), macht 300 Mio. Transistoren. Ein Kern wiegt also 75 Mio., ohne L2 somit etwa 50-60 Mio. Transistoren. Der neue Kern wäre also über ein Drittel kleiner.

Ich verstehe deine Rechnung irgendwie nicht. Ein großteil von CPUs (bzw. der Transistor-Anzahl) sind Cache...
Der Deneb mit 6MB L3 Cache hat deshalb einen so hohen Transistor-Count. Sollte nun die neue CPU aehnlich grossen L3 Cache bekommen, wird der Transistor-Count mindestens genauso gross werden.
Dabei muss aber beachtet werden, dass Cache sehr eng gestacked werden kann, und deshalb relativ gesehen zur Transistoranzahl relativ kleine Flaeche benoetigt.

Ansonsten muss ich sagen, ist das einzige was mir tatsaechlich etwas sauer aufgestossen ist an den News der direkte Vergleich mit Intel was das Backend betrifft. Besonders finde ich den Satz:
Demnach greift man bei „Llano“ auf elf Lagen Kupfer zurück, zur Verfeinerung kommt dann Germanium zum Einsatz. Germanium wird auch vom großen Konkurrenten Intel bereits seit Jahren eingesetzt. Intel setzt bei den aktuellen „Westmere“ aber nur auf neun Lagen Kupfer. AMD ist in der Kategorie also mutiger, denn eine höhere Anzahl an Kupferlagen wirkt sich direkt auf die Die-Fläche des Prozessors aus, die dadurch geringer wird.
Mehr als nur schwammig. Backend-Lagen zu Vergleichen ist ungefaehr eine so solide Aussage wie zu behaupten, Mercedes benoetigt 127Schrauben weniger als BMW... BMW ist also deutlich mutiger... bla bla...

Die Anzahl der Lagen hat quasi ueberhaupt keine Aussage zur Komplexität, denn im Gegensatz zu PCBs ist ein Multilayerdesign im Chip-Bereich eigentlich ueberhaupt kein Problem. Hinzu kommt, dass schätzungsweise die Layer fuer IGP und CPU getrennt sind (macht auch Sinn bezueglich der Anschlusspins). Dies wuerde sogar erlauben sehr einfach eine CPU mit IGP und ohne IGP herzustellen, ohne grossen Aufwand.
Ob nun dies sich auf die Die-Flaeche auswirkt, sei mal dahin gestellt. Anhaltspunkte dazu kann ich rigendwie niergends finden.
Ansonsten ist die "verfeinerung" mit Germanium nichts was Intel erfunden hat, sondern einfach Halbleiter 08/15 Standard. Cu ist nunmal stark korrodierend, und ohne Diffusionsbarriere frisst es sich durch den ganzen Halbleiter... daher Germanium als Diffusionsbarriere. Nix neues, nix interessantes... laesst es aber klingen, als ob Intel hier was cleveres erfunden hat. Aber hm, sowas wird seit 30 Jahren gemacht. Also eher ein alter Schuh.
 
@Fonce: Geh ja auch davon vorauf die hinarbeiten wollen, finde das schon noch gut das man CPUs heraus bringen ohne diesen ganzen Zeug auf ein Chip drauf.
 
noskill schrieb:
Schonmal auf die Idee gekommen, dass die GPU dann direkt auf den Cache zugreifen könnte?
Aber du siehst ja keinen Vorteil...:rolleyes:

lieber noskill, was weißt du eigentlich davon, was und wie genau mit der gpu und der cpu gerechnet wird? denn welchen vorteil siehst du denn bitte darin?

edit: wie wärs wenn du einfach mal erklärst, statt einfach nur zu behaupten und dann ein arrogantes rolleyes hinterherzuschieben?

du stellst hier vollkommen ohne begründung die behauptung auf, dass es leistungsmäßig profitabel ist die gpu in den cpu kern zu integrieren.

ich habe ansich für ein forum recht ausführlich mittlerweile 2-3 mal erlärt, warum das absolut keinen nennenswerten vorteil bringt. und in dieser erklärung wird eigentlich auch ersichtlich, warum eine zugriffsmöglichkeit der gpu auf den cpu cache überflüssig ist. wobei, das gilt unter den derzeitigen bedingungen (inklusive derzeitiger verwendung von gpu-computing und parallelalgorithmen).

also, welchen vorteil siehst du da drinn? mir fällt nämlich absolut keine anwendung ein, die sinn macht auf der gpu große berechnungslasten auszulagern aber auf den cpu cache oft genug zugreifen sollte, damit diese möglichkeit einen relevanten anteil an der gesamtrechenkomplexität hat, um einen performancevorteil auszumachen.

deine rolleyes, geben deinem quatsch auch nicht mehr sinn. abwegige behauptungen ohne offenscihtlich ach nur die geringste ahnung davon zu haben, was eigentlich wie darauf berechnet wird bezeichne ich nun mal quatsch.

edit: ganz im gegenteil, bei derzeitigen speicher-cpu-anbindung könnte es eher ein performance nachteil sein gegenüber der art, wie auf modernen grakas der speicher an die recheneinheiten angebunden ist.
 
Zuletzt bearbeitet:
Was ich positiv sehe: die Größe des Rechners und Bessere Kühlungsmöglichkeit...

Auf der anderen Seite stelle ich mir direkt neue Fragen:

- Wie siehts mit dem Upgrade des Systems?

- Wie siehts es aus mit der Leistung? (So ein kleiner PC wäre schön für die LAN, auch vllcht Vorteile bei der Bau der Laptops)

Zum Ersten und zweitem: Wenn in einem Jahr die Leistung nicht mehr für ein Spiel z.B. reicht, braucht man in erster Linie dann neue Grafikkarte. Wenn man die Karte mit in der CPU hat, dann muss man auch den Prozessor tauschen - wenn man die CPU tauscht, braucht man dann wieder neues Mainboard und evtl. neue Speicher?
Ein Slot zum Nachrüsten einer GraKa wäre schön, kostet dann aber Platz - dann schlägt das auf die Größe... Ich sehe für mich da ein Dilemma.
 
N43 schrieb:
Wenn man die Karte mit in der CPU hat, dann muss man auch den Prozessor tauschen - wenn man die CPU tauscht, braucht man dann wieder neues Mainboard und evtl. neue Speicher?
Warum sollte das der Fall sein? Es ist doch auch jetzt nicht anderes wenn man eine IGP auf dem Board hat und später eine grössere Grafikkarte einbaut - niemand hat geschrieben dass nun keine PCIe Slots mehr verbaut werden.
 
Complication schrieb:
Warum sollte das der Fall sein? Es ist doch auch jetzt nicht anderes wenn man eine IGP auf dem Board hat und später eine grössere Grafikkarte einbaut - niemand hat geschrieben dass nun keine PCIe Slots mehr verbaut werden.

Achso... Dann sehe ich keine Vorteile eigentlich. Für einen LAN-PC wäre schon interessant, wenn man die Slots einspart dann... Ist dann letzendlich für den Verbraucher kostspielig, wenn man alles aktuell haben will.

Integrierter Speichercontroller in der CPU ist ja gut. Aber dann ergibt die GPU keinen Sinn.
Cpu hat höhere Abwärme und dazu noch eine GPU im PCIe. Hmmm.. Ein bisschen unsinnig.
Ich dachte die neuen 32nm wären endlich die Ablösung der larmarschigen Onboardlösungen für Mini-PCs ohne Erweiterungsslots...
 
Zurück
Oben