Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD zeigt Llano-Wafer und Die-Shot von Bulldozer
- Ersteller MichaG
- Erstellt am
- Zur News: AMD zeigt Llano-Wafer und Die-Shot von Bulldozer
@Floletni
Die Frage ist, ob eine 5650 Leistung wirklich erreicht wird. Da ist es doch völlig uninteressant darüber zu sinniere, wie dies möglich sein kann. Es funktioniert oder eben nicht.
Du schreibst es macht keinen Sinn so viele Ausführungseinheiten zu nutzen, da die Speicheranbindung nicht gut genug sei laut Spekulationen.
Nochmals, es ist völlig egal, denn es soll eine 5650 Leistung entstehen laut Spekulation.
Die Frage ist, ob eine 5650 Leistung wirklich erreicht wird. Da ist es doch völlig uninteressant darüber zu sinniere, wie dies möglich sein kann. Es funktioniert oder eben nicht.
Du schreibst es macht keinen Sinn so viele Ausführungseinheiten zu nutzen, da die Speicheranbindung nicht gut genug sei laut Spekulationen.
Nochmals, es ist völlig egal, denn es soll eine 5650 Leistung entstehen laut Spekulation.
B
BPhoenix
Gast
Einige hier verstehen auch nicht, dass GPUs in nächster Zeit nicht nur reine Spielegrafikbeschleuniger sind sondern viel mehr zu Co-Prozessoren (=> APU) werden die in Zukunft sicher etliche Dinge übernehmen werden für die CPUs eher unpraktisch / ineffizient sind oder eben auch bei anderen Dinge die Leistung hierdurch erhöht werden kann.
Dinge bei denen ein solcher Einsatz gut denkbar wäre (und auch schon heute teilweise gemacht wird) sind: Verschlüsselung, Kompression, Video Dekodierung (Beschleunigung), Video Kodierung, Beschleunigung der Anzeige von Oberflächen, Bildverarbeitung (zum Beispiel Thumbnails / Bildvorschauen / Icons), das Berechnen der Effekte in Bildverarbeitungssoftware, das parallele Berechnen riesiger Tabellen in einer Tabellenkalkulation, Künstliche Intelligenz (welche auch außerhalb von Computerspielen Verwendung finden kann, zum Beispiel intelligente Hilfestellungen in Office, intelligente Suchen oder intelligente Spamfilter) und vieles vieles mehr.
Bisher wurde das eher kaum behandelt da GPUs oft nicht so frei und einfach programmierbar waren wie dies mit OpenCL oder ComputeShader (DX 11) möglich ist jedoch ist genau das die Zukunft.
Mag ja sein, dass der CPU Part der Intel Prozessoren gut/besser wird jedoch der GPU Part ist immer noch unterweltigend (trotz Verbesserung), wenn aber in Zukunft immer öfter auf OpenCL oder ComputeShader gesetzt wird kann es durchaus dazu führen, dass selbst Mittelklasse AMD CPUs mit vernünftiger GPU in alltäglicher Software schneller arbeiten werden als Highend CPUs und da sollte Intel langsam mal aufpassen. Auch wenn dies noch eine Weile Dauer könnte.
Auf jeden Fall sind wir gerade an dem Punkt angelangt wo dieses strikte Denken von CPU = alle Berechnungen und GPU = 3D Spiele Grafik einfach überholt ist.
Und so ein Llano kann sogar für Spieler mit dedizierter Grafikkarte interessant sein, da es kein Gesetz gibt das festlegt, dass alle Berechnungen nur auf einer GPU ablaufen müssen. Ein Beispiel wäre: CPU = Spiellogik, integrierte GPU = Physik, dedizierte Grafikkarte = 3D Rendering.
Dinge bei denen ein solcher Einsatz gut denkbar wäre (und auch schon heute teilweise gemacht wird) sind: Verschlüsselung, Kompression, Video Dekodierung (Beschleunigung), Video Kodierung, Beschleunigung der Anzeige von Oberflächen, Bildverarbeitung (zum Beispiel Thumbnails / Bildvorschauen / Icons), das Berechnen der Effekte in Bildverarbeitungssoftware, das parallele Berechnen riesiger Tabellen in einer Tabellenkalkulation, Künstliche Intelligenz (welche auch außerhalb von Computerspielen Verwendung finden kann, zum Beispiel intelligente Hilfestellungen in Office, intelligente Suchen oder intelligente Spamfilter) und vieles vieles mehr.
Bisher wurde das eher kaum behandelt da GPUs oft nicht so frei und einfach programmierbar waren wie dies mit OpenCL oder ComputeShader (DX 11) möglich ist jedoch ist genau das die Zukunft.
Mag ja sein, dass der CPU Part der Intel Prozessoren gut/besser wird jedoch der GPU Part ist immer noch unterweltigend (trotz Verbesserung), wenn aber in Zukunft immer öfter auf OpenCL oder ComputeShader gesetzt wird kann es durchaus dazu führen, dass selbst Mittelklasse AMD CPUs mit vernünftiger GPU in alltäglicher Software schneller arbeiten werden als Highend CPUs und da sollte Intel langsam mal aufpassen. Auch wenn dies noch eine Weile Dauer könnte.
Auf jeden Fall sind wir gerade an dem Punkt angelangt wo dieses strikte Denken von CPU = alle Berechnungen und GPU = 3D Spiele Grafik einfach überholt ist.
Und so ein Llano kann sogar für Spieler mit dedizierter Grafikkarte interessant sein, da es kein Gesetz gibt das festlegt, dass alle Berechnungen nur auf einer GPU ablaufen müssen. Ein Beispiel wäre: CPU = Spiellogik, integrierte GPU = Physik, dedizierte Grafikkarte = 3D Rendering.
MacroWelle
Commander
- Registriert
- Apr. 2006
- Beiträge
- 2.239
Naja wenn man den Prozessor im ersten Halbjahr 2011 aufliefern will, steht man kurz vor der Produktion. Wenn man also Probleme mit der Ausbeute hätte, müsste das bereits bekannt sein, weil man dann den Termin bereits hätte verschieben müssen. 95% Ausschuss sind also nicht zu erwartenKrautmaster schrieb:Wafer sind toll, aber genauso gut können darauf 95% teildefekte CPU DIEs liegen. Über den eigentlichen Fortschritt sagen diese so gut wie nichts aus.
Das ist ein Missverständnis. Damit es alle wissen: die Llano-CPU basiert auf dem, was wir K10 nennen, also Deneb&Co.chendal schrieb:Mit dem K8 ist der Prozessor nicht superstark aber dafür spart das Strom für gute Grafikpower. zumal man hier nicht K8 sagen sollte, das ist ja eine stark verbesserte Version...nur die theoretische grundstruktur entspricht dem K8.
Erstens gibt es noch den K10 mit "traditioneller" IGP und zweitens ist ja nicht gesagt, dass nicht Ende 2011 oder 2012 ein Dualcore Llano mit weniger von allem kommt, der die Lücke zu den Bobcat-Modellen schließt.Krautmaster schrieb:Der Anteil der PCs auf denen wirklich 0 und garnicht gezockt wird, sollte jedoch höher sein. Jeder Büro PC in Unternehmen zB. Dort reicht eine minimalistische IGP dicke (zumal wohl 80% der Firmen noch XP nutzen).
Alles was mit Intel zu tun hat wird von Krautmaster gehuldigt und alles was von der Konkurrenz gegen Intel gestellt wird, wird von Krautmaster schlecht gemacht. Nichts anderes konnte ich bis jetzt aus seine Beiträge lesen. Selbst in der Nivida News. Alle Chipsätze von Nvidia sind schlecht nur weil Nvidia vielleicht wieder Chipsätze bringt für die Intel Plattform. Es ist praktisch auch unmöglich irgendwas rationales aus seine Beiträge ableiten zu können. Den ganzen Tag nur Intel ist das beste in jedem Beitrag zu jedem Thema und alles andere ist schlecht.
Complication
Banned
- Registriert
- Okt. 2009
- Beiträge
- 4.277
Kannte ich wirklich nicht - man lernt anschneidend nie ausChris_87 schrieb:Und die Intel 740 AGP bzw PCI Karte von 1998 hat nie existiert oder?
Danke für den Hinweis - für alle andere die sie auch nicht kannten:
http://en.wikipedia.org/wiki/Intel740
Liest sich ja genauso wie der letzte Versuch mit Larabee auch.The AGP Texture concept soon proved to be a tremendous error in design, because the card had to constantly access the textures over a channel that was upwards of eight times slower than RAM placed on the graphics card itself.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Floletni schrieb:Für Büro und Multimediarechner kann die IGP alles. Wenn man spielen will greift man halt zu einer dedizierten Variante.
Die aber mehr kostet, aufwändiger zu kühlen ist und die Laufzeit des Akkus verringert. Beim Desktop alles nicht kriegsentscheidend, aber auch da werden die Leute merken, wieviel mehr ihnen die LLano-GPU bringt. Heute noch banale Casual-Games mit Grotten-Grafik mit INTEL IGP, morgen banale Casual-Games mit zumindest OK-Grafik durch LLano.
Mal abgesehen von den ganzen Möglichkeiten die eine APU bietet hinsichtlich Beschleunigung aller möglichen vorstellbaren Software (und ich meine nicht Word )
--> Sobald das Henne-Ei Problem überwunden ist, werden wir sehen. Aber einer muss halt mal anfangen und dies sind meistens nicht die Programmierer...
Das alles ohne den erhöhten Aufwand (Geld, Strom usw.) einer dedizierten Graka.
Krautmaster schrieb:Über die Rohleistung an eine HD5450 aufzuschließen, ging ja anscheinend recht einfach, wie man sieht.
Rohleistung hin oder her sagt noch gar nichts aus. Die SB-Preview war dahingehend total aussagefrei. Schneller als die alten IGPs, schön und gut. Aber weder die Auflösung, noch die Einstellungen (low details) vermitteln ein brauchbares Bild, nicht mal im Ansatz. Wer sagt denn, das bei medium Details und *wenigstens* 1280x1024 (Auflösungen darunter (wie die von anand verwendete ) nutzen nur 10% lt. Steam) SB immer noch brauchbare fps liefert? Oder wie dann die Bildqualität ausschaut? Ein bekanntes Problem bei INTEL.
Von gescheiten Treibern und aktuellen Features will ich gar nicht erst anfangen. --> Fakt für mich: SB IGP (fast) genauso wertlos wie alle anderen INTEL IGPs vorher (aktueller Stand, kann sein das mich SB später eines besseren belehrt)
Im übrigen hatte schon ne 4350 von vor 2 Jahren auch schon 80Shader-->Wahnsinn, das INTEL da auch schon angekommen ist.
Ehrlich mal, da will al shrimpi die IGP testen und was macht er? Benchen in der geringsten Einstellung, die er finden konnte! OH MANN!!
Krautmaster schrieb:das ist genau das, was mich etwas verdutzt macht. Einen fertigen Wafer zeigen... wenige Monate vor geplantem Launch? Bisschen dürftig.
Ich bin mir 100% sicher man hätte am liebsten gar nichts gezeigt, aber irgendwie muss man ja die AnaLysten/Anleger/Börse beruhigen.
Floletni schrieb:Was bringen mir aber das mehr an Ausführungseinheiten, wenn sie eine schlechtere Verbindung zum RAM haben, im Vergleich zu ihren diskreten Kollegen?
An Speicherverbindung sehe ich da eine Schwachstele in AMDsplanungen. Oder haben sie dahin gehend schon was entwarnendes veröffentlicht?
Das hat mich drüben bei Semiaccurate genervt: Grade die INTEL Fanbois meinen, das sie mehr Ahnung vom GPU Design hätten als die AMD-Ingenieure und reiten auf der angeblich zu schwachen Speicheranbindung rum, als ob diese als einzige die Performance einer GPU bestimmen würde. Bitte mal die Entwicklung von 2900XT zur 5870 anschauen und auch ihr solltet merken, das die Speicheranbindung keine wahnsinnig große Rolle spielt.
Und bei einer APU lässt sich schon gar nicht vorhersagen, wo der Flaschenhals liegt. Aber lass dir gesagt sein, das die AMD-Leute keine vollkommenen Idioten sind, sondern das genaue Gegenteil
Nochmal @Krautmaster: Dein Problem ist, das du ständig davon ausgehst, das der Status Quo für immer erhalten bleibt-->sprich Leute ihre APU genauso nutzen werden wie vorhere ihre unbrauchbare IGP. Aber IMO war es schon immer so, das sich die Dinge verändert haben und die Leute werden sich nach LLano nicht mehr mit den IGPs abgeben, mit denen sie sich abgeben MUSSTEN. Da man jetzt quasi jede Menge Grafikleistung "umsonst" dazu bekommt, brauch sich Otto-Normal keine Gedanken mehr um zusätzliche Hardware machen, was für einen Großteil der Menschheit aus oben genannten Gründen einfach nicht in Frage kommt.
Viele haben ja auch keine Ahnung und fragen sich erst hinterher, warum Spiel xyz nicht läuft und nehmen das dann als gegeben hin.
EDIT: Mal angenommen, eine 5870 Mobility liefert die exakte gleiche Performance wie eine 5770 Desktop (gleicher CPU vorausgesetzt).
Nehmen wir weiter an, LLano liefert 80% der Performance einer Desktop 5670.
Das wären dann ca. genau 50% der Performance einer 5870 Mobility. So um die 6000 3Dmarks06 also.
Das finde ich mehr als ordentlich, WENN sich diese Performance in ein Notebook stecken lässt. Aber warum auch nicht, ne 5870+Corei7 bekommt man auch unter. Allerdings sollte LLano deutlich effizienter sein, da 32nm+HKMG+SoI. Zudem KANN der Idle-mode extrem sparsam werden.
EDIT2: Die Flaschenhälse beim Notebook liegen IMO kaum bei der CPU. Sogar der ATOM kann die Ansprüche eines Word-Users erfüllen. Aber bei der Grafik und vor allem der Festplatte herschen die größten Defizite, von dem eines mit LLano (hoffentlich) ausgemerzt wird. Für das gesparte Geld bei der dedizierten Graka kann man sich dann ne SSD reinschrauben und ist auch den zweiten Flaschenhals los. Meine Meinung.
Zuletzt bearbeitet:
KAOZNAKE schrieb:Ehrlich mal, da will al shrimpi die IGP testen und was macht er? Benchen in der geringsten Einstellung, die er finden konnte! OH MANN!!
Es macht keinen Sinn Einstellungen zu testen, die dann in unspielbare FPS Werte enden würde. Das wäre erst recht sinnfrei.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Wer redet von unspielbar? Ich schrieb doch: 1280x1024, eine Auflösung die auch mal jemand verwendet außer den Netbook-Usern. Dazu mittlere Details, weil so sehen moderne Spiele schon durchaus brauchbar aus. Außerdem ist das nicht der Sinn eines Graka-Tests? Wer benutzt bitte noch solche Einstellungen? Bevor ich so spielen würde, spiel ich lieber gar nix oder wie ichs jetzt mache mit meiner geilen INTEL IGP: X-COM: UFO, Diablo2...
KAOZNAKE schrieb:Wer redet von unspielbar? Ich schrieb doch: 1280x1024, eine Auflösung die auch mal jemand verwendet außer den Netbook-Usern. Dazu mittlere Details, weil so sehen moderne Spiele schon durchaus brauchbar aus. Außerdem ist das nicht der Sinn eines Graka-Tests? Wer benutzt bitte noch solche Einstellungen? Bevor ich so spielen würde, spiel ich lieber gar nix oder wie ichs jetzt mache mit meiner geilen INTEL IGP: X-COM: UFO, Diablo2...
1280 in mittleren Details würde in einigen der getesteten Spiele fast zur Unspielbarkeit verkommen. Ich sehe 3 oder 4 Spiele mit Potenzial auf größere Auflösung und mehr Details im Test. Ein Dawn of War 2 mit 34 fps AVG oder Call of Duty mit 44 fps hat keine Reserven mehr. Schon bei 34 fps AVG will ich nicht wissen wie das im Verlauf aussieht oder bei größeren Schlachten. Sind aber alles relativ neuere Spiele im Test. Ein bisschen älter und schon sollte es möglich sein. Aber pauschal in größerer Auflösung und Details bringt es nicht. Dann hat die eine GPU vielleicht 4 fps und die andere 8 fps- wow doppelt so schnell. Leider beides unspielbar.
F
Fuzi0n
Gast
Leider muss man wieder zusehen wie ein Fanboy (Krautmaster) ein Thread zerstört. Seine Beiträge sind voll mit Bullshit, weil er keine Ahnung hat bzw. Intel-Jünger ist.
In jedem AMD-Thread hat man immer mindestens einen Intel- oder Nvidiatroll - und es nervt.
In jedem AMD-Thread hat man immer mindestens einen Intel- oder Nvidiatroll - und es nervt.
JokerGermany
Banned
- Registriert
- März 2009
- Beiträge
- 1.546
Krautmaster schrieb:kannst du mir dann erklären, warum das nicht bereits seit 10 Jahren praktisch umgesetzt wird, dieses APU? Liegts an der Monopolstellung Intels, der Faulheit der Programmierer, dem trägen Markt?
Wohl am meisten an der Monopolstellung Intels, da AMD das schon lange vorhatte.
Aber mal Gegenfragen:
Kannst du mir sagen warum es OpenCL noch nicht vor 10 Jahren gab?
Kannst du mir sagen warum es die Radeon HD 5870 noch nicht vor 10 Jahren gab?
Kannst du mir sagen warum es die [input a modern technic here!] noch nicht vor 10 Jahren gab?
[F]L4SH
Rear Admiral
- Registriert
- Aug. 2008
- Beiträge
- 5.332
Boa Leute? Was habt ihr denn geraucht? Vorallem Krautmaster, dessen Name das ja schon sagt.
Vielleicht so eine Art "Herba verbivelitadio" (lat. Wortgefechtskraut) oder irgendwas aus Professor Snapes Kräuterküche aus Hogwarts?
Habt ihr Euch mal die Überschrift angesehen und eure Posts?
Krautmaster: Ja Intel CPUs sind toll! Ich glaube das hat direkt noch niemals jemand abgestritten. Sie sind wenn gewünscht sehr schnell, sehr sparsam und mit Atom neuerdings auch sehr billig. Aber gut... wenn ich 2mrd im Jahr einfach mal so als Gewinn hätte und vermutlich eine Kriegskasse von zweistelligen Milliardenbeträgen, könnte ich auch einen ernst zu nehmenden Chiphersteller aufbauen
Mein Traum ist es ja VIA zu kaufen, und die zu einem Konkurrenten auf Augenhöhe zu machen (halt so ein Traum ala "Was würde ich mache, gewänne ich Samstag im Lotto"). Schon allein das Ansehen auf CB
"Flash wird schon wissen was er sagt, immerhin gehört ihm VIA und er hat Insiderwissen aus der CPU Brange."
Aber ich drifte ab. Überleg doch nur mal was AMD leistet: Die schaffen es irgendwie immer wieder CPUs auf Augenhöhe der meisten Intel Modelle zu bauen, ohne dafür wirklich viel Geld zu haben. Sicher als durchlaufender Posten ist das bei denen auch viel. Aber ich denke mal Intel gibt allein im Bereich Netebook mehr Geld für Forschung aus als AMD für Notebook, Desktop und Server zusammen.
Für 95% aller PC Nutzer ist es absolut wayne, ob AMD oder Intel drin steckt! Vorallem in Sachsen hängen die Leute an AMD. In der SZ war mal ein Interview nach dem Intel "Skandal" zu lesen, in dem ein MM Chef nahe Dresden beschrieb, wie es bei denen lief: Die Leute wollten unbedingt AMD kaufen (die Fab war halt nur ein paar km entfernt) und der musste denen immer wieder erklären, dass MM das nicht führe.
Wie gesagt: Intel CPUs sind gut. An den Gulftown kommt leistungs- aber auch preismäßig absolut nichts ran. Aber gut die 1000€ für den 980XE sind sogar gerechtfertigt. Wer meint den zu brauche, der gibt das auch aus. Aber es gibt jenseits vom Tellerrand halt noch deutlich mehr. Im Bereich Midrange und Lowend sind beide absolut gleichauf! AMD sogar bei geringeren Preisen. "Quadcore für 80€" das ist schon ne Hausnummer! (X4 620)
Und Intel krankt nun mal gewaltig an der Grafikleistung. Ein Netbook (ja ich habe mal eins besessen) macht einfach keinen Spaß! Also ich kann es nur damals vom GMA950 sagen. Aber MN10 soll ja auch nicht schneller sein. Youtube ruckelt, jede kleine nervige Flashsache im Netz kostet das Gespann unheimlich viel Mühe und BluRays wöllt ich mir damit auch nicht antun. Okay bei den Desktop CPUs ab i3 bwz C2D egalisiert sich das absolut, da die CPU allein genug Power hat um den Film oder was auch immer zu berechnen.
Aber stell dir doch einfach mal folgendes vor: Ein ultraflaches 13" Notebook mit 2 ganz normalen K10 Kernen, hohem Takt (mutmaßlich) und IGP auf meinetwegen HD5570 Niveau ohne die Akkulaufzeit deutlich zu senken. Da kann Intel ja fast einpacken. K10 32nm dürfte vollkommen mit den CULV Dingern mithalten können, sie vermutlich leistungsmäßig übertrumpfen können und die Grafikleistung (auch 2D und vorallem Qualität) spielen eh in ner anderen Liga.
Ganz ehrlich: würdest du dann nur aus Fanboytum zu der Intel Lösung greifen?! Ontario wird den Atom einfach nur... TÖTEN. Und wir werden eins sehen: auf einmal wird Intel aus irgendwelchen Gründen auch in der Lage sein einen hochmodernen und schnellen Atom zu bauen. (Konkurrenz und so).
Für Notebooks unter 600€ für Llano die CPU! Die Phenom 2 M sind ja jetzt schon ganz gut auf dem Vormarsch und ich denke 32nm wird da anknüpfen.
Llano könnte sogar mal was für Apple sein. Apple findet die IGPs von Intel ja auch nicht gerade so geil (deswegen wird teilweise noch auf C2D+9400 gesetzt oder beim iMac ne 5750 verbaut).
Und wenn Apple AMD im Angebot hat (die ehem. ATi GPUs machen ja schon einen Großteil bei ihnen aus) ist das ja wohl mal eine gute Werbung.
Vielleicht so eine Art "Herba verbivelitadio" (lat. Wortgefechtskraut) oder irgendwas aus Professor Snapes Kräuterküche aus Hogwarts?
Habt ihr Euch mal die Überschrift angesehen und eure Posts?
Krautmaster: Ja Intel CPUs sind toll! Ich glaube das hat direkt noch niemals jemand abgestritten. Sie sind wenn gewünscht sehr schnell, sehr sparsam und mit Atom neuerdings auch sehr billig. Aber gut... wenn ich 2mrd im Jahr einfach mal so als Gewinn hätte und vermutlich eine Kriegskasse von zweistelligen Milliardenbeträgen, könnte ich auch einen ernst zu nehmenden Chiphersteller aufbauen
Mein Traum ist es ja VIA zu kaufen, und die zu einem Konkurrenten auf Augenhöhe zu machen (halt so ein Traum ala "Was würde ich mache, gewänne ich Samstag im Lotto"). Schon allein das Ansehen auf CB
"Flash wird schon wissen was er sagt, immerhin gehört ihm VIA und er hat Insiderwissen aus der CPU Brange."
Aber ich drifte ab. Überleg doch nur mal was AMD leistet: Die schaffen es irgendwie immer wieder CPUs auf Augenhöhe der meisten Intel Modelle zu bauen, ohne dafür wirklich viel Geld zu haben. Sicher als durchlaufender Posten ist das bei denen auch viel. Aber ich denke mal Intel gibt allein im Bereich Netebook mehr Geld für Forschung aus als AMD für Notebook, Desktop und Server zusammen.
Für 95% aller PC Nutzer ist es absolut wayne, ob AMD oder Intel drin steckt! Vorallem in Sachsen hängen die Leute an AMD. In der SZ war mal ein Interview nach dem Intel "Skandal" zu lesen, in dem ein MM Chef nahe Dresden beschrieb, wie es bei denen lief: Die Leute wollten unbedingt AMD kaufen (die Fab war halt nur ein paar km entfernt) und der musste denen immer wieder erklären, dass MM das nicht führe.
Wie gesagt: Intel CPUs sind gut. An den Gulftown kommt leistungs- aber auch preismäßig absolut nichts ran. Aber gut die 1000€ für den 980XE sind sogar gerechtfertigt. Wer meint den zu brauche, der gibt das auch aus. Aber es gibt jenseits vom Tellerrand halt noch deutlich mehr. Im Bereich Midrange und Lowend sind beide absolut gleichauf! AMD sogar bei geringeren Preisen. "Quadcore für 80€" das ist schon ne Hausnummer! (X4 620)
Und Intel krankt nun mal gewaltig an der Grafikleistung. Ein Netbook (ja ich habe mal eins besessen) macht einfach keinen Spaß! Also ich kann es nur damals vom GMA950 sagen. Aber MN10 soll ja auch nicht schneller sein. Youtube ruckelt, jede kleine nervige Flashsache im Netz kostet das Gespann unheimlich viel Mühe und BluRays wöllt ich mir damit auch nicht antun. Okay bei den Desktop CPUs ab i3 bwz C2D egalisiert sich das absolut, da die CPU allein genug Power hat um den Film oder was auch immer zu berechnen.
Aber stell dir doch einfach mal folgendes vor: Ein ultraflaches 13" Notebook mit 2 ganz normalen K10 Kernen, hohem Takt (mutmaßlich) und IGP auf meinetwegen HD5570 Niveau ohne die Akkulaufzeit deutlich zu senken. Da kann Intel ja fast einpacken. K10 32nm dürfte vollkommen mit den CULV Dingern mithalten können, sie vermutlich leistungsmäßig übertrumpfen können und die Grafikleistung (auch 2D und vorallem Qualität) spielen eh in ner anderen Liga.
Ganz ehrlich: würdest du dann nur aus Fanboytum zu der Intel Lösung greifen?! Ontario wird den Atom einfach nur... TÖTEN. Und wir werden eins sehen: auf einmal wird Intel aus irgendwelchen Gründen auch in der Lage sein einen hochmodernen und schnellen Atom zu bauen. (Konkurrenz und so).
Für Notebooks unter 600€ für Llano die CPU! Die Phenom 2 M sind ja jetzt schon ganz gut auf dem Vormarsch und ich denke 32nm wird da anknüpfen.
Llano könnte sogar mal was für Apple sein. Apple findet die IGPs von Intel ja auch nicht gerade so geil (deswegen wird teilweise noch auf C2D+9400 gesetzt oder beim iMac ne 5750 verbaut).
Und wenn Apple AMD im Angebot hat (die ehem. ATi GPUs machen ja schon einen Großteil bei ihnen aus) ist das ja wohl mal eine gute Werbung.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
Krautmaster schrieb:wenn unwichtige Posts einfach ins Aquarium verschwinden ist es natürlich schwer zu diskutieren was?
kleine Korrektur
Krautmaster schrieb:kannst du mir dann erklären, warum das nicht bereits seit 10 Jahren praktisch umgesetzt wird, dieses APU? Liegts an der Monopolstellung Intels, der Faulheit der Programmierer, dem trägen Markt?
Vielleicht weils technisch nicht möglich war?
Warum gibts Autos wie heutzutage nicht schon seit 50Jahren? Und Laptops/Handy nicht schon seit 30? Wasn das für ne Frage, aber die Qualität deiner Postings hat eh schon unterstes Niveau erreicht.
Krautmaster schrieb:X86 ist extrem festgefahren und auch sehr softwareabhängig. Bis aus dem total überzogenen Begriff "APU" mal richtig von vorne bis hinten umgesetzte Praxis wird... hat die Hälfte hier Kinder die zur Schule gehen. Und Desktop PCs haben dann vermutlich praktisch ausgedient.
Sich erst beschweren, dass es die Technologie nicht schon seit 10 Jahren gibt, andererseits drüber beschweren, dass man es nicht in vollem Umfang sofort nutzen kann. Sei froh das mal eine Firma den Anfang macht, obwohl sie es weiß Gott schwer genug hatte.
Krautmaster schrieb:Selbst wenn es nur noch 5 Jahre dauert, so muss man Intels Zug verstehen nicht von Anfang an auf den Zug des kleineren Konkurrenten aufzuspringen. Die Entwicklung hin zur APU mag grundsätzlich richtig sein. Aber JETZT hat der Kunde davon nichts.
Kann man natürlich verstehen wenn INTEL nicht jeden Trend sofort mitmacht. Ist ja schließlich INTEL. Aber beim nächsten Mal wieder was von "AMD ist eh nicht konkurrenzfähig" trollen. (sinngemäß)
Ob der Kunde jetzt was davon hat oder nicht ist total unerheblich, das ist nunmal so. -->Henne/Ei-Problem
Letztendlich wird LLano konkurrenzfähig sein, bei P/$ als auch P/W. Da kommts drauf an, alles andere ist Zugabe.
Krautmaster schrieb:Ich habe doch garnicht behauptet, dass die reine Rohleistung was aussagt! Aber der Vergleich Clarkdale -> SB IGP tut es. Die Leistung ist gestiegen - auf eben ca HD5450 Nivau, ganz unabh. von Bildquali, FPS etc...
Seit wann wird nur auf die fps geschaut? AMDler dürfen sich schon seit Jahren Geweine um die Ach-so-schlechte Bildqualität ihrer Grakas anhören, aber bei INTEL macht es natürlich nix? Is klar, denn es ist ja ....
Im Übrigen wird vermutet, dass INTEL die Benches mit der CPU beschleunigt, deswegen auch nur low quality wos natürlich am meisten Sinn macht. Aber manche lassen sich eben gern bescheißen.
Krautmaster schrieb:Du redest vom Spielen wohingegen ich seit zig Posts sage, dass es nicht um FPS oder ähnlichem geht, oder spielen FPS bei der APU Fähigkeit eine Rolle?
Sicher spielen fps bei der APU-Fähigkeit keine Rolle, sondern die Möglichkeit auf absehbare Zeit deutlich mehr Perforrmance zu erzielen als INTEL mit dem SB-Upgrade. Wenn die Programmierer mal ihren Popo hochbekommen. Ich bin sicher, wer möchte kann von AMD alles notwendige erfahren um die Software auf LLano anzupassen.
Immerhin OpenCL fähig das Teil.
Krautmaster schrieb:Der SB IGP geht es weder um FPS noch um APU, ihr geht es darum Office Krams / 2D / Windows auf den Schirm zu zaubern, dass hier massiv User die schlechte IGP verteufeln ist absolut ungerechtfertigt.
Mag ja sein das das für eine IGP vor LLano ausreichend war, abwarten wie sich das nach der Revolution entwickelt.
Krautmaster schrieb:Ich verteufel auch nicht Llanos IGP, im Gegenteil, wenns um FPS / APU Fähigkeiten geht, dann wird sie da wie ich bereits sagte, zu 99% besser sein. Dort will AMD ja auch hin, zum Spiele Sektor + GPU Beschleunigung.
Da ist AMD im Prinzip schon angekommen, fehlt die Software es gescheit nutzen zu können. Bald wird LLano im Markt erhältlich sein, vielleicht gibts bis dahin auch erste nutzbare Software.
Krautmaster schrieb:Du bezeichnest Dinge als wertlos die du selbst nicht mal besitzt und vermutlich nie bessen hast. In wie fern war die IGP deiner Ansicht nach wertlos? Ich behaupte mal du hast das Produkt zweckentfremdet und versucht damit Spiele zu spielen, was unter mangelnden FPS und mangelnder Optik geschah. Zonk. Dafür war die IGP auch nie gedacht...
Ich koch auch keine Eier in der Microwelle.
Wer lesen kann ist klar im Vorteil:
KAOZNAKE schrieb:Bevor ich so spielen würde, spiel ich lieber gar nix oder wie ichs jetzt mache mit meiner geilen INTEL IGP: X-COM: UFO, Diablo2...
Außerdem seit wann definierst du was ich mit einer IGP mache und was nicht? IGP bedeutet schließlich nicht "total unbrauchbar zum spielen" sondern lediglich integrierte Grafik, völlig aussagefrei über die Möglichkeiten. Ich hab jedenfalls keinen Warnzettel gelesen "bitte kein Spiel starten, es könnte ihre IGP zerstören". Das man damit wenigstens Sims 2 spielen kann, sollte eigentlich schon zu erwarten sein, aber damals gings auch nur darum ein möglichst günstiges NB zu finden. Ich hätte es auch nur als Bonus gesehen wenn bspw. Sims 2 drauf gelaufen wäre, ist im Prinzip nicht weiter tragisch. Aber mit LLano werde ich solche "Probleme" mit Sicherheit nicht haben, da kann ich sicher sein, das alles einwandfrei funktioniert (je nach Modell mit Abstrichen, aber immer noch Welten besser als mit der Drecks INTEL IGP)
Krautmaster schrieb:sehr qualitativ hochwertiges Posting. Ich vergleiche auch keine Messer mit Scheren. Komische IGP die du da verlinkt hast.
Das Kompliment kann ich zurück geben. Es sollte dich lediglich darauf hinweisen, das INTEL mit 2 Jahre alter Grafikhardware "gleichgezogen" hat (alles in allem nicht mal ansatzweise, aber fps-technisch *vermutlich* annähernd)
Das hat nix mit IGPs zu tun, sondern lediglich mit der Freude darüber, dass INTEL endlich mit einer "dedizierten" Graka gleichgezogen hat. Obwohl diese lediglich als IGP Ersatz gedacht ist und schon seit 2 Jahren kein Update mehr erfahren hat.
Also mehr als lächerlich.
Krautmaster schrieb:Noch mehr Sinn macht es natürlich die IGP unter Crysis auf Very High mit AA in FullHD zu testen oder? Die Qualität deiner Aussage erinnert mich irgenwie an die zurvor auch schon.
Wer lesen kann...
KAOZNAKE schrieb:Aber weder die Auflösung, noch die Einstellungen (low details) vermitteln ein brauchbares Bild, nicht mal im Ansatz. Wer sagt denn, das bei medium Details und *wenigstens* 1280x1024 (Auflösungen darunter (wie die von anand verwendete ) nutzen nur 10% lt. Steam) SB immer noch brauchbare fps liefert?
Da steht weder was von Crysis noch FullHD noch AA
Lediglich einige etwas realitätsnähere Settings mit den gleichen Spielen die er sowieso verwendet hat, wenn SB schon die Performance zu Vorgänger verdoppelt.
Krautmaster schrieb:Sieh einer an - da nimmt die Qualität wieder etwas zu. Richtig erkannt, man beruhigt die, die einen finanzieren. Das gelingt natürlich ganz hervorragend mit einem Wafer, dessen Chips man 2 Monate zuvor lauffähig präsentiert hat.
Da kann ich nur sagen erzählen kann man viel wenn der Tag lang ist (sieht man an dir).
Echte Produkte sind halt immer noch was anderes und Bilder sagen mehr als 1000 Worte.
Krautmaster schrieb:da stimm ich dir zu, Speicheranbindnung wird oft überschätzt.
Mir egal.
Krautmaster schrieb:3D technisch zweifel ich garnicht an der Leistung der IGP von Llano.
Hört hört...
Krautmaster schrieb:Diese wird denke ich ganz gut ausfallen für eine SingleChip Lösung.
Was heißt hier single chip?
Krautmaster schrieb:Aber irgendwann werden einige hier feststellen... dass das APU Konzept die GPU Leistung beeinflusst und umgekehrt genauso.
Na da bin ich aber gespannt!
Krautmaster schrieb:Fermi ist nur deswegen so "Langsam" und groß - da er mit Unmengen GPGPU Zeug vollgestopft ist was eigentlich genau dem gleich kommt, was eine CPU als Aufgabe der GPU abgeben soll. Im Sinne des APU Konzeptes.
Fermi hat hauptsächlich Fertigungsprobleme, weil NVIDIA diese nicht verstanden hat. Die Größe entspringt einem zu großen Ego, einem sich unbedingt auf Teufel komm raus an die Spitze setzen zu müssen. An GF104 sieht man, dass es (einigermaßen) funktioniert, trotz GPGPU.
Krautmaster schrieb:Eine auch 3D optimierte GPU eignet sich für weniger Aufgaben als ein auf APU optimierter Chip. Ich bin mir fast sicher, dass der APU Anteil klein vergleichen mit dem 3D Anteil ausfällt wenn es um die Optimierung geht.
??? WAS????
Krautmaster schrieb:richtig, das wissen nur die schlauen AMD Mitarbeiter. Das ist auch richtig so... die werden das schon ausgiebig getestet haben.
Lies bitte das:
Planet3Dnow
oder das
RealWorldTech
als Gute-Nacht-Geschichte. Wenn du davon auch nur die Hälfte verstehst (was ich mit Sicherheit nicht tue) dann kannst du hier vielleicht auch wieder mit diskutieren.
Geht zwar "nur" um BD, aber es sollte dir zeigen, dass die Leute bei AMD keineswegs Idioten sind, die sich den ganzen Tag mit Kuchen backen beschäftigen.
Zeig lieber etwas mehr Respekt für die Leute, die so ein hochkomplexes Produkt entwickeln und verstehen, dass unser aller Leben vereinfacht. (Außer man muss sich mit Foren-Trollen beschäftigen obwohl man besseres zu tun hat )
Krautmaster schrieb:ich glaube kaum dass der Herr am Office PC in Unternehmen XYZ sich fragt ob seine Excel Tabelle nun GPU oder CPU gerendert wird. Geschweige denn dass er sich wundert warum Spiel ABC nicht richtig läuft.
Wer sagt was vom Zocken in der Firma
Krautmaster schrieb:Wie meinst du läuft das ab, wer sagt der GPU dass jetzt eine Verschlüsselungsaufgabe anfällt? Wer sagt ihr dass sie das nun mit der GPU machen muss? Wenn da sso einfach wäre bräuchte es keinen AES Befehlsatz, die CPU (Clarkdale) wüsste das selber und würde das auf die vorgesehene Einheit auslagern.
Die Programmierer? OH MANN!!!
{When APU available} --> go X
{else} --> do y
(Ich kann 0 programmieren offensichtlich, wer mag kann mich gern korrigieren
Krautmaster schrieb:Heißt für mich, dass es für diese ultimative Beschleunigung durch APU erstmal neue Befehlssätze bräuchte, oder gar eine komplett neue Architektur.
Angepasste Software...
Krautmaster schrieb:Zumindest aber neue CPU Treiber die ähnliche Cuda etc ihre aufgaben verteilen.
Jetzt kommt wieder DX11 und OpenCL ... ja das müsste dich flächendeckend durchsetzten. Man Fragt sich warum Truecrypt nicht einfach die DX 11 Schnittstelle anspricht um die verbaute HD5870 mit DX11 die ganze Arbeit machen zu lassen...
Wieviel Leute haben gleich noch ne 5870? Und OpenCL sagt dir was?
Krautmaster schrieb:Joa das wäre richtig erstaunlich. Und gut für AMD, ich würde es begrüßen diese Leistung sehen zu dürfen. Da ich aber gern viel spiele, bzw in hoher Quali, dazu aber gern auch CPU Bums habe, wirds zumindest bei dem nächten PC wohl auf eine CPU + separate GPU rauslaufen, seis SB E oder Bulldozer...
Ach, Bulldozer hat kein DX11... Ist keine APU? Hm der wird ganz schön abstinken gegen Llano. =(
BD ist im Prinzip ein reiner Server Chip und kommt angepasst als Highend Ableger für Clients.
Die Leute die das Teil verbauen sch... auf JEDE IGP und sei sie noch so toll. Dafür wird der Anteil bei den BD-Usern mit einer potenten OpenCL fähigen Graka im hohen 2-stelligen Bereich liegen...
Krautmaster schrieb:naja ATOM ist mir egal ob mit HD5870 oder ohne viel zu langsam... aber jedem das seine.
Du schließt wieder von dir auf andere. Ich habe nicht gesagt mir würde der ATOM reichen, sondern dass es Leute gibt wo das der Fall ist-->Deine Office User. (nicht alle aber viele)
Dies widerspricht deutlich deiner Aussage, das mehr CPU-Leistung heutzutage am wichtigsten wäre, was ganz klar nicht der Fall ist.
Mein Vater rödelt noch mitm Singlecore Pentium M 1,6GHz ohne HT/Turbo/weiß-der-Geier von 2003 rum.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.670
@ [F]L4SH
Ein K10 in 32nm bei höherem Takt als ein CULV und mithalten? Vergiss das mal schnell. AMD liefert die aktuellen Mobile Phenom II nicht umsonst ohne L3 und mit niedrigem Takt aus - nur durch 32 nm machst du das nicht wett, die CULVs sind eine ganz andere Klasse. Ontario dagegen sollte wenig Probleme mit Atom haben, wobei sich das final erst zeigen muss ... ein Atom ist halt ein übler Krüppel und die GMA non-HD indiskutabel. Alleine die Treiber ...
@ KAOZNAKE
Intel co-supportet manche GMAs per CPU, das ist keine Vermutung sondern Fakt.
Ein K10 in 32nm bei höherem Takt als ein CULV und mithalten? Vergiss das mal schnell. AMD liefert die aktuellen Mobile Phenom II nicht umsonst ohne L3 und mit niedrigem Takt aus - nur durch 32 nm machst du das nicht wett, die CULVs sind eine ganz andere Klasse. Ontario dagegen sollte wenig Probleme mit Atom haben, wobei sich das final erst zeigen muss ... ein Atom ist halt ein übler Krüppel und die GMA non-HD indiskutabel. Alleine die Treiber ...
@ KAOZNAKE
Intel co-supportet manche GMAs per CPU, das ist keine Vermutung sondern Fakt.
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
[F]L4SH schrieb:Llano könnte sogar mal was für Apple sein. Apple findet die IGPs von Intel ja auch nicht gerade so geil (deswegen wird teilweise noch auf C2D+9400 gesetzt oder beim iMac ne 5750 verbaut).
Und wenn Apple AMD im Angebot hat (die ehem. ATi GPUs machen ja schon einen Großteil bei ihnen aus) ist das ja wohl mal eine gute Werbung.
Vor allem weil INTEL kein OPENCL unterstützt, das Apple anscheinend auf Teufel komm raus puschen möchte. Mal wieder den Trend erkannt möchte man meinen.
@y33H@: Ja ich weiß. Es ging darum, ob das bei der Anandtech-preview auch so ein Fall von Co-Support war.
Was ja kein Problem *wäre* solange sich das nicht negativ auf die BQ auswirkt und/oder nur im Benchmark der Fall ist und nicht im echten Spiel.
Sag bloß du hast dir den ganzen Mist durchgelesen? Respekt...
Zum Punkt mit den CULVs. Warum sollte das mit 32nm HKMG nicht funktionieren? Das *sollte* schließlich für deutlich verringerte Leckströme sorgen. Man könnte sagen mehr Performance bei geringerer Laufzeit als die CULVs. Kommt halt drauf an, was man als nicht mithalten können definiert. Akkulaufzeit oder Performance
Sieht man ja schon an den 32nm INTEL CoreIs. Die graben den CULVs ziemlich das Wasser ab, weil der Vorteil beim Akku einfach zu klein ist verglichen mit den Performance-Nachteilen
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.670
Vorsicht: Selbst die 45 nm Core i5 sind teils sparsamer als manch ein Low-Voltage Core 2 Quad. 32 nm alleine ist auch mit HKMG nicht alles. Und ja, ich habe mir den "ganzen Mist" durchgelesen - ich lese sehr viel, auch Schwachfug ;-)
Die GMA HDs wurden bisher afaik nicht von der CPU co-supportet, ich bezweifle, dass Intel dies mit SB anders macht.
Die GMA HDs wurden bisher afaik nicht von der CPU co-supportet, ich bezweifle, dass Intel dies mit SB anders macht.
F
Fuzi0n
Gast
KAOZNAKE schrieb:Vor allem weil INTEL kein OPENCL unterstützt, das Apple anscheinend auf Teufel komm raus puschen möchte. Mal wieder den Trend erkannt möchte man meinen.
Mittlerweile unterstützt auch Intel (erzwungenerweise) OpenCL.