News Extrem sparsame Prozessoren und viele Kerne

Wenn ich mir ansehe, wie bescheiden die Entwicklung in den letzten 10 Jahren war, warum sollten dann die nächsten 10 Jahre gleich einen Faktor 300 an Energieeffizienz bringen? Tatsächlich stösst man technologisch auf immer mehr Schwierigkeiten. Die Takte lassen sich nicht mehr so aggressiv steigern, die Spannungen kaum noch weiter senken, die Fertigung wird immer komplizierter, die x86 Architektur ist überlebt... gleichzeitig gerät Intel durch ARM immer stärker unter Druck.

Und dann lasst Ihr Euch von so Power-Point Präsentationen derart beeindrucken.. ? :lol:
 
Hey, leute, das ist Forschung xD was stellt ihr euch vor. Jedes Jahr setzt sich wer hin und sagt, gut was forschen wir nächstes Jahr xD nein man forscht Jahrzente.
Finde es einfach nur kindisch wie manche hier sind und AMD wieder ins spiel bringen. Die werden übrigens genauso forschen...

Ameisenmann
Solltest dich besser informieren was Forschung allg angeht. Klar sind Gelder wichtig aber eine Idee entwickelt sich nicht aus Geld, sondern aus Irrtürmer. Intel kann somit sich mehr Fehler leisten.
Aber da man sieht dass AMD so einiges vor Intel hatte, zeigt es, dass es nicht nur ums Geld geht.
Außerdem lernen Firmen untereinander genauso, und AMD wird ähnliches forschen. Nur werden sie nicht versuchen Grafikberechnungen mit cores zu berechnen sondern weiterhin auf gpus setzen, die eventuell sogar effizienter sein könnten.
Wie man auf den niedrigen Verbrauch gekommen ist bei der Berechnung. Wow niedrigsten theoretische Schwellenspannung nehmen und einfach superpositionieren. Dass Theorie nie 1 zu 1 Realität ist, sollte man schon wissen.
 
Mag sein das X86 Cpus irgendwann Geschichte sind aber das wird noch dauern. Man kann nicht von jetzt auf heute sagen, wir produzieren nur noch für diese ARM CPUs. Da hängt zu viel Wirtschaft dran. Was sollen die Banken machen? Die gesamten Firmen die Ihre IT auf diese CPUs laufen hat wenn von heute auf morgen keiner mehr Updates für die Programme schreibt, neue Software auf den Markt bringen muss und die ganzen Firmen dann die IT über den haufen werden müssen.

Wie stellt Ihr euch das vor? Die X86 wurden schon vor langer Zeit für tod erklärt aber leben tun sie dafür schon sehr lange. Die ARM Cpus sind auch nicht der Stein der Weisen. Die sind sicher toll für Handys oder Router usw aber auch diese CPUs haben Ihre Grenzen und das meistens schon in einem teuren Handy. Dort laufen die Dinger auf max aber wirklich arbeiten oder was mit bewegen geht auch nicht. Schön, ich kann einen Film in HD gucken auf einem 7 Zoll Display aber das ist jetzt nicht der große Wurf womit man mal eben einen PC auf diesen CPUs aufbauen kann.

Ich finde den Schritt von Intel gut und wenn sie es umsetzten können ein weiter Schritt in die green IT. Damit könnte man den X86 Cpus wieder neues Leben einhauchen und wir würden wieder über viele Jahre mit dieser Architektur versorgt.
 
Zuletzt bearbeitet:
HighTech-Freak schrieb:
Wow! Das is beeindruckend! Da geht dann ja zumindest im Idle Passiv@Boxed Kühler!

Wird aber wohl noch etwas dauern, bis das so am Markt verfügbar ist...

MfG, Thomas

Idle kannste schon heute fast den Kühler komplett abnehmen, mit dem Boxed wär das gar kein Problem. Wir sind idle bei 0,5-5W was die CPU aufnimmt, dennoch sind 10 mW ein ganz anderes Kaliber.

Ich finde es auch hochinteressant. In der Forschung möchte ich arbeiten... sicher funny alte Pentium CPU auf 22nm zu shrinken, die DIE size ist auch erstaunlich und dabei ist er auf 2 Ghz sicher schneller als ein ATOM xD

@Athlonscout.

ja, beeindruckend wie das angebliche Trinity Notebook eine Videosequenz aus Deus Ex wiedergeben kann. Die Frage ist wie viel Inhalt man in eine News stopfen kann mittels eines Youtube Videos, zumal wohl jeder Redakteur mittlerweile im Hinterkopf hat, dass man von AMD direkt vor Ort auch nicht mehr erfahren wird.

Ich für meinen Teil finde Trinity schön und gut, ich verspreche mir vor allem eine Art Llano mit vor allem auch höherer CPU Leistung. Trinity wird wohl in 32nm kommen, genau wie Llano. Die Entwicklung hin zu Trinity dürfte wenig aufwendig sein und ich denke auch nicht, dass sich bei den Bulldozer Kernen viel ändern wird (wenn überhaupt).

Man hat die Kerne, man hat die GPU, man hat 32nm schon seit Längerem in der Testfertigung. Deswegen kann man Trinity sicher auch zeitnah 2012 bringen.

Interessanter wäre ein 28nm Chip @ Brazos mit ca ~2-4W TDP der sich sehr gut in Windows 8 Tablets machen würde ;)
 
Zuletzt bearbeitet:
Ach bis das ding kommt gibt es kaum noch sonne vo rlauter umweltvermutzung :D was bringt er uns dann mit der solarzelle?^^

interessant, endlich mal wieder was neues. mal schauen was sie aus der tech mit aktueller architekrut rausholen können :D
 
reiner marketinggag,
genau so wie die ganzen elektroautos die wir "schon lange, nächstes jahr" auf den straßen haben.

embebbed atom gibts mit 2,5 watt bei geizhals.
 
Zum Thema Energieeffizienz: Ich weiß nicht, ob sich die Angabe von 89% Energieeffizienz darauf bezieht, aber es gibt eine theoretische Untergrenze für die Leistungsaufnahme eines konventionellen Computers. Diese wird durch das so genannte Laundauer-Prinzip gegeben, das besagt, dass man für die Manipulation eines Bits mindestens kB T ln2 an Energie aufwenden muss.
Sollte sich die Angabe auf diese untere Grenze beziehen, wäre es eine fantastiche Leistung dieses Level, also 89% der theoretisch möglichen Energieeffizienz, 2018 oder auch 2021 zu erreichen...
 
In 7 Jahren die Energieeffizienz von Supercomputer-CPUs verhundertfachen? Bescheiden ist das ja nicht gerade; da wird vllt. darauf spekuliert, dass sich 2018 niemand mehr an diese IDF erinnern kann ;)
 
Ach da ist die Welt eh schon unter gegangen, xD. In sieben Jahren da kann sich viel verändern.^^ :freaky:
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Athlonscout.

ja, beeindruckend wie das angebliche Trinity Notebook eine Videosequenz aus Deus Ex wiedergeben kann. Die Frage ist wie viel Inhalt man in eine News stopfen kann mittels eines Youtube Videos, zumal wohl jeder Redakteur mittlerweile im Hinterkopf hat, dass man von AMD direkt vor Ort auch nicht mehr erfahren wird.

Das System hätte CB auch selbst in Augenschein nehmen können, hätte also gar nicht erst auf das Video basieren müssen.;)
Wobei da eher etwas Exklusives in einem 4-Augengespräch (setzt natürlich gute Redakteure vorraus;)) zu erfahren sein sollte als in einer Massenveranstaltung, in der die Leute wie Lemminge in einem Hörsaal die großspurigen Reden ihrer Idole lauschen und ab und an artig Beifall klatschen.:evillol:
Klar dass sich so CB in der Qualität ihrer News leider nicht von ihren Konkurrenten positiv abheben können.
 
Nicht so viel vorstellen Intel produzieren und für ordentliche auf den Markt bringen^^

Ist eine schöne Entwicklung die uns bevor steht, hoffe AMD und co. halten da mit :)
 
Kann mir einer sagen, welcher Pentium das ist, wie er damals gefertigt wurde und vor allem, was er damals verbraucht hat?

Ist das etwa der aller aller erste Pentium?!
Die News würde ich gern mal per Fax an meinen Bruder in die Vergangenheit schicken (der hat sich etwas seit damals damit befasst) der würde an de größten Witz aller Zeiten denken! Haha... 22nm Fertigung. Ja ne ist klar. Und morgen erfinden die Wissenschaftler die Zauberei :lol:

Was haben so alte CPUs denn immer so verbraucht? Ich weiß, dass die aufgrund der Fertigung eine abartige Spannung anliegen hatten. Aber die Kühler waren ja eher klein bis nicht vorhanden. Also kann es nicht so wie Leistungsaufnahme sein.
 
@Flash
Die Pentiums hatten eine TDP von 5-18W bei 0,8 bis 0,25µm.

Quelle
 
Schöne News, bin echt gespannt wie sich das ganze weiterentwickeln wird.
Eine 10 Milliwatt CPU ist ja schon ziemlich genial.
Poati schrieb:
was wohl leider daran liegt, dass die nicht die Gelder haben um so für die Zukunft zu forschen, was ihnen früher oder später echt Probleme bereiten könnte. Schade eigentlich.
Ja leider.
 
r4yn3 schrieb:
Wieviel Watt braucht eigentlich zum Vergleich ein A4, oder aktuelle ARM Pendante?
Rund 2W, aber in den ARM SoCs sind i.d.R. mehr Komponenten (Southbridge, DSP & Grafikchip) integriert.

SmooTwo schrieb:
Wenn AMD stirbt, dann stirbt die stärkste Konkurrenz auf dem Markt für Intel und faire Preise sehen wir dann nicht mehr so schnell.
Hm, dann gibt es noch immer die Konsolen in denen IBMs PowerPCs werkeln und die ARMs die den Smartphone- und Tabletmarkt in der Hand haben.
Intel kann also die Preise nicht mehr nach Belieben hochschrauben, weil sich dann noch weniger Leute noch für einen x86 PC interessieren werden (das Wachstum nimmt schon jetzt ab).

Falls AMD also wirklich sterben sollte, ist das dann nur noch so interessant wie der Sack Reis, der in China umfällt. ;)
[F]L4SH schrieb:
Ist das etwa der aller aller erste Pentium?!
Wahrscheinlich nicht, da Intel beim Larrabee einen aufgebohrten (mit x86-64 und 512bit Vektorerweiterung) P54C, also die 2. Pentium Generation, einsetzt.
 
"bei der der Transistor sich einschaltet."

Transistoren die sich einschalten ... ist wohl wenigstens unglücklich formuliert, vielen fällts wohl nicht auf respektive will CB doch einheitlich in bar zahlen ähm scheinschlau formulierte artikel schreiben ...


Die Technik selbst ist durchaus interessanter als vieles andere ...
 
antigavur schrieb:
genau aus dem grund gebe ich mein geld lieber für intel aus als für amd ;) die einen bringen technologischen fortschritt und die anderen billigen und aufgewärmten schrott ;)

Das ist doch ausgemachter Un-, wenn nicht gar Schwachsinn! Darüberhinaus kann man Deine Aussage auch ganz leicht widerlegen. Es ist im Gegensatz genau andersherum! Einmal davon abgesehen, daß es AMD war, welche die AMD64 Erweiterung eingeführt haben: Intel hat bis zur Übernahme der DEC Alpha Entwickler es nichteinmal fertig gebracht, den Itanium ordentlich gegen seine RISC-Konkurrenten aussehen zu lassen! Erst als der überwiegende Teil der Entwickler DECs über Compaq zu Intel kamen, waren plötzlich SMT (auch HTT genannt) möglich - Entwicklungen, die nicht auf Intels Mist gewachsen sind. Dazu gesellen sich einige andere Aspekte der Architektur. 1993 hatte man schon leistungsstarke 64Bit Architekturen, die über Register-Files etc. verfügten. Heute kann Intel dies in Ermangelung an ausreichendem Grundwissen in der selten dämlichen Anhangerschaft als Novum verkaufen. Leichtgläubiges Viehzeugs ... sowas braucht man, um Geld zu verdienen.

Auch mus man sich bei einem Urteil vor Augen halten, daß AMD ein winziges Unternehmen ist, wenn es zum vergleich mit Intel kommt. Bei AMD stehen schätzungsweise jetzt, nach der Krise, insgesamt soviel Ingenieure zur Verfügung wie Intel alleine nur zur Produktevaluierung einsetzt. Und trotzdem schafft es AMD immer wieder, mit Innovationen aufzutrumpfen.

Leider kann es sich ein Unternehmen heutzutage in der Position als zweitgrößter Spielzeugprozessorhersteller wie AMD nicht leisten, zugunsten der Innovation mal eine Auszeit zu nehmen. Das kann selbst Intel nicht. Bei AMD ist dann schneller die Luft 'raus, wenn man Interimprodukte anbieten muß, um die Lücke zwischen Althergebrachtem und Neuem zu füllen. Ich glaube mitlerweile, daß der Bulldozer, nur als Beispiel, viel zu früh nach all den Katastrophen auf den Markt geworfen werden mußte. AMD hat als erstes Unternehmen im Bereich der x86-Prozessoren die Verschmelzung von CPU und GPU proklamiert. Mit der Verschmezlung AMDs mit ATi ergaben sich neue Möglichkeiten. Auf ATis Karten konnte man zu Anfang wesentlich besser "rechnen", während die Konkurrenz noch mit 24 Bit Registern kalkulierte. Daß nun Intel schneller war mit der Markteinführung einer Fusuion zwischen CPU und GPU auf einem Träger ist auch nur oberflächlich, denn Intel hat, wie schon so oft, einfach nur der PR wegen etwas zusammengenagelt und unter eine Metallkappe gesteckt. Auch Intels 4-Kern Prozessoren waren billige 2-Kerner, die suammengenagelt waren. AMD hatte seinerzeit seine große Chance verpaßt, denn der CPU Bus HyperTransport hätte beim Zusammennageln zweier AMD 2-Kern CPUs deutlich leistungsstärkere und gar innovativere Prozessorformen ermöglicht. und in Sachen Many-Core war AMD Dank HT und flexiblem Design führend - man überlege sich nur, wie früh AMD die HTX-Busse als Erweiterungsstecker für Inifini-Band Karten anbieten konnte. Zu früh, weil das tumbe Schimpasenvolk sowas nicht zum Spielen gebrauchen kann ...

AMDs BD-Design sieht aus heutiger Sicht eher bescheiden aus, wenn man aber in die Ferne blicken mag, erkennt man auch, daß die Architektur eine der breitesten Möglichkeiten zur direkten Einbindung einer GPU-artigen FPU anstelle der klassischen FPU bietet. Ich kann hier keinen "Schrott" erkennen.

Wenn die Frage nach der Investition gestellt wird - Investition != Innovation - so ist derzeit eher Intel Favorit. Man bekommt, wenn man Hoch- oder Höchstleistung fordert, nur von Intel etwas geboten. Allerdings darf man noch hoffen, daß sich das noch relativieren wird, sobald AMD mit BD wieder Geld verdient.

Und, es gibt auch noch andere CPUs, die seit über 20 Jahren fast unverändert dargeboten werden. Man nehme nur mal die "Acorn RISC Machine", heute als ARM bekannt. 1989 als "Archimedes" auf den Markt gebracht, schoß dieser 8MHz RISC jeden 25 MHz i386/i387 Müll auf den Mond! Das Embeded System Design wurde dann kaum weiterentwickelt, noch heute ist der Kernaufbau des ARM derselbe 32 Bit Prozessor mit MMU/IO etc. wie damals. Und jetzt darf man die Frage stellen: wer baut Schrott? Wo ist die ARM überall zu finden? Seit wie lange? Die Ära der RISC CPUs wird meiner Meinung wieder kommen, es ist nur vom Betriebssystem abhangig. Solange der Müll Windows die Welt dominiert, wird hier recht wenig passieren. Aber mit "Android" für Mobilgeräte ist von einer Seite Luft aus dem Wintel Imperium gelassen worden, wo sich diese trägen Giganten es schwertun und ich hoffe, daß noch mehr Fett abfließt. Das belebt den Markt und schickt die Innovativen wieder an die Front. Vielleicht sollte man auch dieses ekelhafte US-amerikanische Patenteklausystem einfach torpedieren ...
 
Zurück
Oben