News Komplette Details zu AMDs „Trinity“ durchgesickert

Die Leistungen sind doch schon sehr gut für den Anfang.Der A8 hat ne sehr gute Spieleleistung.
Ne CPU x4 mit ner TDP von rund 90Watt,dazu ne gute Graka mit max 35Watt und die muss man lediglich mit Einem Kühler kühlen und hat nicht so nen Lauten 40er Lüfter an der Graka wie die meisten kleine Grakas nun mal haben.
Ich bin mir sicher das wenn der VRam mit in die CPU wander,das bis dahin die Cpu Leistung mit 3,6GHz weit höher als jetzt ist,die Grafikleistung bei ner 6750/70 liegt und das bei ner max TDP von 125Watt.
 
pipip schrieb:
matty2580
Dass die Notebook APUs sich ziemlich gut overclocken lassen. Man könnte also viel schnellere Prozessoren bringen, halt nicht mehr mit der TDp von 45 watt. Doch wenn ich mit einen A6 kaufe (also Notebook) würde ich selbst soviel Performance rauskitzeln wie möglich...
Tja..., was soll ich Dir darauf antworten?
AMD macht im Moment recht komische Sachen....^^
Z.B. Server CPUs im Desktop-Markt veröffentlichen.

Da der A6-3400M/A6-3410MX auch bei GF gefertigt wird vermute ich, dass man sich selbst nicht Konkurrenz machen will.
Aber die Strategien von AMD kann ich seit einiger Zeit nur noch schwer nachvollziehen.
So hat AMD nur noch einen geringen Anteil an GF-Aktien, und damit kein Mitspracherecht mehr bei GF.

Sorry pipip, aber ich habe riesige Kopfschmerzen...schnief..., und kann Dir deine Frage nicht beantworten.
 
@Casi030

VRAM in der CPU/APU läuft doch irgendwie der Idee einer APU entgegen.

Einfach nur die GPU mit auf den selben Die wie die CPU wandern zu lassen, macht ja noch keine APU. Das ist nur der erste Schritt in diese Richtung.

Der zweite Schritt ist, die GPU nicht nur als ein eigenständiges Anhängsel an die CPU "anzupappen", sondern den "GPU-Core" technisch gleichberechtigt neben die gewöhnlichen CPU-Cores zu stellen.
Was das angeht, sind die aktuellen Sandy Bridge von Intel schon näher an einer APU dran, als AMDs Llanos. denn bei Intel hängt die GPU gleichberechtigt mit am Ringbus und greift darüber genau wie die CPU-Cores auf den gemeinsamen "Uncore"-Bereich, also auf L3-Cache, Speichercontroller usw. zu

Der endgültige Schritt hin zu einer echten APU, wie er auch schon auf den ersten Präsentationen von AMD auftauchte ist, wenn die Funktionseinheiten der GPU ganz in die CPU-Cores aufgehen. Wenn man also auf dem Die (fast) nicht mehr erkennen kann, was CPU und was GPU ist. So wie beim 486er die bis dahin eigenständige FPU mit der CPU verschmolzen ist.

http://images.anandtech.com/reviews/cpu/amd/roadahead/evolving2.jpg


Die Rechenaufgaben, die heute für eine GPU typisch sind, soll ein APU-Prozessor völlig gleichberechtigt mit den klassischen CPU-Aufgaben ausführen.

Der Vorteil sind vor allem die Synergieeffekte. Das ununterscheidbare CPU+GPU-Gemisch greift als Einheit auf die Caches, Speichercontroller usw. zu.

Wenn man aber der integrierten GPU Extrawürste spendiert, wie eigene Speichercontroller, Caches oder gar integriertes VRAM, dann entfernt man sich wieder vom APU-Konzept. Dann hat man eine miniaturisierte klassische Grafikkarte, die nur "zufällig" mit der CPU auf einem Die sitzt.
 
Zuletzt bearbeitet:
deadohiosky schrieb:
Ach wirklich, nur 15 Watt? Was kannst du mir über die VID beim ht4u Test sagen?
Ne hab mich vertan, waren 16W, bei identischer Spannung. Was du mir jetzt allerdings mit den Tests sagen willst, wo die Spannung nicht angegeben ist, weiß ich nicht. Da halte ich den Test von HT4U mit detaillierter Beschreibung und Messung der CPU "allein" für aussagekräftiger.
http://ht4u.net/reviews/2011/amd_phenom_ii_x4_980/index5.php

Finde 16W auch nicht zwingend wenig für so ein bisschen SRAM. Auch wenn es für THG natürlich enorm viel sein muss, da es ja immerhin 1/3 des ganzen Chips ausmacht. :rolleyes:


Fonce schrieb:
Und du meinst, das es bei Monitoren nur auf die Auflösung ankommt oder was? :rolleyes:
Ja genau. :freak: Was manche Leute alles so rein interpretieren ist schon lustig.
Vielleicht schaust du dir den Post nochmal im Kontext an.
 
Casi030 schrieb:
Siehe Folie aus Beitrag 84.

Es mag ja technisch möglich sein, VRAM mit auf das CPU-Die zu packen oder zumindest mit in das selbe Gehäuse, aber wie gesagt, würde man sich damit vom Konzept einer APU wieder entfernen.

Der Witz der ganzen APU-Geschichte ist ja gerade, dass man CPU und GPU verschmilzt. Da haben interne oder externe schnelle Extra-Speicher für die GPU keinen Platz.
Eine echte APU behandelt Berechnungen, die früher klassische Aufgaben der GPU waren, also z.B. 3D-Grafikdarstellung oder Videobeschleunigung usw., ganz genauso, wie alle anderen CPU-Aufgaben. Alles läuft in den selben Multifunktions-Cores ab, wird in den selben Caches zwischengespeichert und über die selben Speichercontroller in den Arbeitsspeicher geschrieben usw.

Es mag sein, dass AMD sich aus praktischen Erwägungen (Performance) dennoch dazu entschließt, aber es verwässert das APU-Konzept. APU und Fusion wären dann eigentlich nur noch Marketingnamen, während man in Wirklichkeit die funktionale Trennung von GPU und CPU beibehält.
 
Kann doch verschmelzen,nur wird ja 3D Grafikdarstellung,Videobeschleunigung und Co ja dann immer noch vom GPU Teil berechnet und wieso soll dieser dann nicht seinen eigenen(SidPort) Speicher haben?Brachte bei den Onboard Grakas ja auch einiges,nur wird der weg so extrem verkürzt...Es muss nicht auf langsameren Arbeitsspeicher zugegriffen werden mit längerem Weg und Doppelbelegung durch die CPU...
Der Speichercontroller in der CPU brachte ja auch Vorteile.
 
So einfach ist es nun mal nicht das alles auf einem DIE unterzubringen.

Und es erhöht auch die Kosten.
 
Dann muss halt der gute Slot A wieder her.

Da hätte man genug Platz neben der CPU,
da dezidierten Speicher unter zu bringen ;).


Aber mal ganz ehrlich, also wird sich wohl eher lohnen in der
"Übergangszeit" echte 4 Core des Llanos, als diese 2+2 BDII zu kaufen.

Langsfristig glaube ich schon, dass wenn die Architektur besser unterstützt wird,
da noch ein bisschen gesteigert werden könnte.
 
Zuletzt bearbeitet:
Herdware schrieb:
Es mag sein, dass AMD sich aus praktischen Erwägungen (Performance) dennoch dazu entschließt, aber es verwässert das APU-Konzept. APU und Fusion wären dann eigentlich nur noch Marketingnamen, während man in Wirklichkeit die funktionale Trennung von GPU und CPU beibehält.
Hurra! Das sage ich schon seit einiger Zeit, daß APU großteils nichts weiter als Marketinggeschwätz ist, aber dann ist man gleich als Blauer-Riese-Fan verschrien! Denn wenn man sich die Details zu Trinity und Llano anschaut, sieht man, daß man von der "Fusion" von CPU und GPU noch weit entfernt ist, ja Trinity ist dahingehend eher noch ein Rückschritt.
 
Was heißt denn langfristig? Quad-Cores gibt es seit Jahren und werden bis heute von sehr wenigen Anwendungen voll unterstützt.

Wenn AMD die BD-Architektur noch so lange beibehält bis sie unterstützt wird (Gott behüte uns davor)ist Intel bis davon ein paar Lichtjahre weiter was sowohl Geschwindigkeit als auch Energieeffizienz betrifft
 
Ich denke auch, dass wir hier von mindestens 4-5 Jahren reden, bis die Bulldozer-Architektur in der Praxis spührbare Vorteile bringt, gegenüber herkömmlichen CPUs.
Es wäre also Unsinn, sich jetzt einen zu kaufen und darauf zu warten.

Es ist natürlich richtig und wichtig, dass ein Hersteller wie AMD Innvoationen in seine Produkte bringt, die sich in er Zukunft auszahlen können, aber dabei darf der Ist-Zustand nicht leiden.

Intel hat beim Pentium Pro den selben Fehler gemacht, der damals schon voll auf 32-Bit-Software optimiert war, als trotz (oder gerade wegen) Windows 95 aber immer noch 16-Bit-Software dominierte. Der floppte deshalb als Nachfolger des Pentium, dem er in den meisten Anwendungen Takt für Takt unterlegen war.

Man muss eine neue Technologie immer so einführen, dass sie nicht erst in der Zukunft Vorteile bringt, sondern mit den Aufgaben der Gegenwart mindestens genauso gut zurecht kommt, wie die alte Technologie. Nur dann wird sie von den Kunden akzepiert.

Das gilt übrigens auch für das APU-Konzept. Abseits von ein paar Nischen werden es Llano, Trinity und Co. schwer haben, wenn sie nicht auch im direkten Vergleich mit herkömmlichen CPUs und GPUs überzeugen.
 
Herdware schrieb:
Das gilt übrigens auch für das APU-Konzept. Abseits von ein paar Nischen werden es Llano, Trinity und Co. schwer haben, wenn sie nicht auch im direkten Vergleich mit herkömmlichen CPUs und GPUs überzeugen.
Genau da überzeugt doch Liano gegenüber deutlich teurerer Hardware.
Der A8-3850 bietet für wenig Geld viel Leistung.
AMD könnte viel mehr APUs verkaufen, wenn GF mehr produzieren könnte.

Enthusiasten die mit extremen Settings spielen wollen, werden sich bestimmt keinen Liano kaufen.
Die sind aber eher eine Nische für die Industrie.^^
Für die meisten "Gamer" reicht eine APU locker aus, und mit etwas Tuning kommt man in den Bereich guter diskreter Grafikkarten.
http://extreme.pcgameshardware.de/prozessoren/173391-review-amds-a8-3850-fuer-die-lynx-plattform-im-pcghx-overclocking-check.html

Trinity hat eine deutlich verbesserte Grafikeinheit, und setzt auf den Piledriver.
Wenn der Piledriver wirklich Desktop optimiert ist, kann AMD an den Erfolg des Liano anknüpfen.
Ich hoffe nur, dass sich AMD damit nicht selbst Konkurrenz im Bereich Grafikkarten macht.
 
matty2580 schrieb:
Genau da überzeugt doch Liano gegenüber deutlich teurerer Hardware.
Der A8-3850 bietet für wenig Geld viel Leistung.
...

Das ist aber auch wirklich fast nur der Preis, der die APUs so interessant macht. Eine Kombination aus einer kleinen Intel-CPU und einer dedizierten Mittelklassekarte leistet deutlich mehr und verbraucht z.B. mit Tricks wie Optimus, auch nicht wesentlich mehr.

Bzw. müssten die kleinen Bobcat-APUs von der TDP her eigentlich nicht gegen die Atoms antreten, sondern gegen ausgewachsene ULV-CPUs. Das werden sie bald wohl auch müssen, denn die klassischen Atom-Netbooks werden von unten von den Tablets verdrängt und von oben von Subnotebooks (neuintellisch "Ultrabooks"). Intels Atom-verkäufe sind dramatisch zusammengebrochen udn ich dneke nciht,d ass das nur an E-350 und Co. liegt, sondern am besagten Schrumpfen dieser Marktnische.

AMD macht seine Produkte, wie fast immer in den letzten Jahren, über Kampfpreise interessant. Die technisch wirklich bessere Alternative sind die APUs nur selten.

Trinity hat eine deutlich verbesserte Grafikeinheit, und setzt auf den Piledriver.
Wenn der Piledriver wirklich Desktop optimiert ist, kann AMD an den Erfolg des Liano anknüpfen.
Ich hoffe nur, dass sich AMD damit nicht selbst Konkurrenz im Bereich Grafikkarten macht.

Wenn Piledriver wirklich nur ca. 10% gegenüber Bulldozer zulegt, bedeutet das pro Takt und Core Stagnation bei den Llano-APUs. Die 20% Leistungszuwachs darüber hinaus, will AMD wohl einfach über mehr Takt und mehr TDP erreichen.
Ich halte das nicht für eine besonders clevere Idee. Wenn man schon für mehr CPU-Leistung den Takt und damit den Verbrauch hochdrehen muss, hätte ich das an AMDs Stelle dadurch zu kompeniseren versucht, dass man die sowieso für Internet, Desktop usw. überdimensiontere GPU auf dem Niveau lässt, bzw. nur auf Verbrauch optimiert.

Was die Spiele angeht, sehe ich das auch etwas anders als Du. Llano bedient optimal nur eine Nische, zwischen Nichts-Spieler und Spielern. Die Nichtspieler wären auch mit weniger GPU-Leistung zufrieden, wie sie Intels iGPUs bieten. Aber stören tut die etwas stärkere Llano-Grafik natürlich auch nicht. ;)
Die Spieler hingegen werden doch ziemlich bald an Grenzen stoßen und sich eine stärkere dedizierte GPU wünschen (und eine stärkere CPU).

Das soll nicht heißen, dass Llano schlecht ist. Selbst für die, die die GPU-Leistung nicht brauchen, ist Llano allein wegen des geringen Verbrauchs der erste attraktive Notebook-Prozessor von AMD seit Jahren. Deshalb steigen auch AMDs Marktanteile im Mobilsegment.

Bei den Desktops könnte Llano in die typischen Supermarkt-Komplettsysteme Einzug halten, statt der dort üblichen Low-End-Karten mit >2GB lahmen VRAM. Das ist für die Kunden immerhin eine gewisse Verbesserung, aber wie gesagt, Spieler werden damit nicht wirklich glücklich.
 
Zuletzt bearbeitet:
Herdware schrieb:
Das ist aber auch wirklich fast nur der Preis, der die APUs so interessant macht. Eine Kombination aus einer kleinen Intel-CPU und einer dedizierten Mittelklassekarte leistet deutlich mehr und verbraucht z.B. mit Tricks wie Optimus, auch nicht wesentlich mehr.
AMD macht seine Produkte, wie fast immer in den letzten Jahren, über Kampfpreise interessant. Die technisch wirklich bessere Alternative sind die APUs nur selten.
Stimmt alles...
Preis, und Verbrauch sind die Stärken von Liano.

Herdware schrieb:
Ich halte das nicht für eine besonders clevere Idee. Wenn man schon für mehr CPU-Leistung den Takt und damit den Verbrauch hochdrehen muss, hätte ich das an AMDs Stelle dadurch zu kompeniseren versucht, dass man die sowieso für Internet, Desktop usw. überdimensiontere GPU auf dem Niveau lässt, bzw. nur auf Verbrauch optimiert.
Genau das will Liano eben nicht sein. Die GPU ist nicht über- sondern etwas unterdimensioniert. Man soll Liano auch zum spielen nutzen können, und man kann es auch, wenn man die Settings entsprechend anpasst. Die integrierte HD 6550, des A8-3850 ist so schlecht nun auch wieder nicht.

Herdware schrieb:
Die Spieler hingegen werden doch ziemlich bald an Grenzen stoßen und sich eine stärkere dedizierte GPU wünschen (und eine stärkere CPU).
Kommt immer auf die Ansprüche des User an.
Mir persönlich würde die integrierte HD 6550 nicht reichen.
Aber mein Schwager z.B. spielt mit einer 8800, und meine Schwester mit einer 3850.
Den beiden reichen ihre Karten, und sie haben nicht den Wunsch in naher Zukunft aufzurüsten. Als ich mir meine 6950 gekauft hatte, haben mich beide für verrückt erklärt.

Herdware schrieb:
Bei den Desktops könnte Liano in die typischen Supermarkt-Komplettsysteme Einzug halten, statt der dort üblichen Low-End-Karten mit >2GB lahmen VRAM. Das ist für die Kunden immerhin eine gewisse Verbesserung, aber wie gesagt, Spieler werden damit nicht wirklich glücklich.
Genau dafür wurde Liano gemacht.
Die Plattform ist für den Mainstream gedacht, und soll in großer Masse verbaut werden.
Wenn GF endlich AMD mit entsprechender Stückzahl beliefern kann.
 
@Herdware
So ein Quark. "Die kleinen Bobcats", das ist der C-50 bzw. der C-60 und diese treten gegen den N550/N570 an. Der hat eine TDP von 8,5 Watt ist aber auch generell sparsamer das liegt an der verkrüppelten GPU die nicht einmal 720p abspielen kann und sich an die CPU wenden muss um das zu bewerkstelligen. Der C-50 kann sogar 1080p Flash/Yt Videos abspielen, ich denke mehr LA ist da zu verschmerzen.


Der E-350 tritt offensichtlich gegen den D510/525 mit Ion an und kann sich dort auch sehr gut schlagen, ein Intel-ULV ist nicht nur bedeutend teurer (bei gleicher Ausstattung versteht sich), er hat auch dazu noch eine miserable GPU.



Der Nischenmarkt wie du ihn betitelst zwischen Nicht-Spieler und Spieler, das sind mal knapp mehrere hundert Millionen Menschen:rolleyes:::

What is the size of the casual games industry?

More than 200 million people worldwide play casual games via the Internet. In 2007, the world wide connected casual games industry had revenues in excess of $2.25 billion on mobile, PC, Mac and Xbox LIVE Arcade platforms.
http://www.casualgamesassociation.org/faq.php

Dieser Markt wächst übrigens, im Gegensatz zum restlichen PC-Spielemarkt. Und mit Wachstum gehen natürlich auch höhere Anforderungen einher. Farmville und Co. kann man gerade noch im Browser auf einer Intel IGP spielen, gerade noch.

Bei Steam ist dieses Spiel in der Top100
http://store.steampowered.com/app/91600/

Empfohlen:

Betriebssystem: Windows Vista(SP2) oder Windows 7
Prozessor: QuadCore 2.0 GHz
Speicher: 4 GB
Festplatte: 2 GB frei
Grafikkarte: DirectX 9.0c kompatibel, 512 MB VRAM; NVIDIA GeForce 8800 GTS oder vergleichbar
DirectX®: 9.0c oder höher

und wird als Casual Game deklariert. Das Beispiel mag dir sicherlich nicht schmecken und du wirst meckern, aber es zeigt, dass der Markt sich immer weiter diversifiziert und die Anforderungen immer weiter wachsen.


Und ich weiß auch nicht was du unter technisch besserer Alternative verstehst, vllt könntest du das mal erläutern. Denn die Industrie reibt sich geradezu die Hände wenn sie anstatt zwei Komponenten nur noch eine Komponente verbauen muss und dadurch sogar Platz UND Zeit spart bzw. ein OEM-Mainboard einkaufen können, das keinen weiteren PCIe-Slot benötigt, sie auf eine Komponente weniger achten müssen, die gekühlt werden muss und ausfallen kann und dann reklamiert wird.

Aber ich bin gespannt auf deine Ausführungen, warum es für den Hersteller besser ist ein System mit gleichwertiger oder gar leistungsfähiger CPU und dazu eine dedizierte Grafikkarte zu verbauen.
 
deadohiosky schrieb:
...
Der E-350 tritt offensichtlich gegen den D510/525 mit Ion an und kann sich dort auch sehr gut schlagen, ein Intel-ULV ist nicht nur bedeutend teurer (bei gleicher Ausstattung versteht sich), er hat auch dazu noch eine miserable GPU.

Dafür ist der ULV in Sachen CPU-Leistung um Welten vorraus. Man muss halt abwägen, aber für mich hat Intel da (abgesehen vom Preis) eindeutig das rundere Paket.
Llano mag ja für anspruchloses Spielen noch zu gebrauchen sein, aber der E-350 definitiv nicht. Was hat man also von der etwas stärkeren GPU?
Für Internet, Videobeschleunigung und Co. reicht aber auch die "miserable" Intel-GPU locker aus.

Und "zur Not" kann man den ULV ja noch mit einer dedizierten GPU kombinieren. Ich habe sowas in meinem M11x R2. Wenn sie gebraucht wird, liefert die GT335M mehr Spiele-Leistung als eine Llano-GPU und ansonsten ist das kleine Subnotebook so sparsam wie ein Netbook mit E-350.

Das einzige was da für AMD spricht, ist der Preis.


...
Und ich weiß auch nicht was du unter technisch besserer Alternative verstehst, vllt könntest du das mal erläutern. Denn die Industrie reibt sich geradezu die Hände wenn sie anstatt zwei Komponenten nur noch eine Komponente verbauen muss und dadurch sogar Platz UND Zeit spart bzw. ein OEM-Mainboard einkaufen können, das keinen weiteren PCIe-Slot benötigt, sie auf eine Komponente weniger achten müssen, die gekühlt werden muss und ausfallen kann und dann reklamiert wird.

Aber ich bin gespannt auf deine Ausführungen, warum es für den Hersteller besser ist ein System mit gleichwertiger oder gar leistungsfähiger CPU und dazu eine dedizierte Grafikkarte zu verbauen.

Mein Beispiel ist mein eigener M11x für (Gelegenheits-)Spieler oder ein beliebiges Subnotebook mit ULV-CPU ohne dedizierte GPU für Nichtsspieler (z.B. ein MBA).

Die rennen Kreise um ähnliche AMD-Notebooks bzw. gibt es da gar nichts Vergleichbares, was wohl leider auch die hohen Preise erklärt, die Intel für die ULV-CPUs verlangen kann.

Ich bleibe dabei. Systeme auf Basis von Intels Mobil-CPUs, je nach Bedarf mit einer passenden GPU ergänzt, sind die technisch überlegenen Alternativen. Was für AMD spricht ist der Kampfpreis.
Aber hätte AMD technisch gleichweritge oder bessere Produkte wie Intel, würde deren Preis auch hochgehen oder die beiden würden sich per Preiskampf gegenseitig runterdrücken.

Aber so kann sich Intel bequem zurücklehnen und weiter maximale Profite absahnen. Sie müssen sich nicht darum sorgen, dass AMD ihnen größere Marktanteile abnehmen und das Geschäft vermiesen könnte. Sollte das aber doch passieren, drehen sie etwas die Preisschraube runter und sind wieder im Geschäft.
Das werden sie aber nur sehr dezent tun, denn daran, dass AMD pleite geht, hat Intel kein Interesse.
 
Zuletzt bearbeitet:
Hi, deadohiosky! Du hast sowohl Recht als auch Unrecht mit dem, was Du sagst. Bei dem "Nebenbeispieler" liegst du richtig. Was die weltweite "Spieledurchschnittskonfig" angeht, die ist weit unter dem Schnitt unseres Forums!
Ich selbst würde mich zwar auch als Nebenherspieler bezeichen, wie schon erwähnt vlt. 10-15% meiner PC-Nutzung, aber mit Ausnahme meiner IGP, falle ich zumindest auf den Durchschnitt gesehen, mit meinem Zwofünf K System wohl eher unter Enthusiast.

Was die Leistung der SB-IGP angeht, hatten wir hinsichtlich der besseren HD3000 ja schon die Diskussion. Ich behaupte nicht, die HD3000 wäre ultragut, aber sie VIEL besser und zu mehr tauglich, als sie gerade von AMD-Fans dargestellt wird! Und deswegen bleibe ich bei meiner Einschätzung: Wenn die IGPs für die gewünschten Spiele ausreichen, entscheidet die Nutzung über den Chip. Mehr Recherpower generell benötigt = Intel SB mit HD3000
Mehr Spielepower = AMD Llano
 
Na dann habe ich ja "nur" recht. Denn ich habe mich mitnichten auf die Forumsweite Systemkonfiguration bezogen, keine Ahnung wie du darauf kommst.

Die weltweite System-Konfiguration wird wohl max. bei einem Pentium IV mit Geforce 3 und 256 MB Speicher liegen. Wohlgemerkt verteilt auf die jetzt offiziell 7 Millarden Menschen und über 1 Milliarde PCs.;)


Und ja die HD 3000 ist eine ordentliche IGP, Problem ist nur dass diese nur in den K-Modellen und Spezialversionen der i-Series zu finden ist( und im Mobilbereich, was aber nichts über die Leistungsfähigkeit aussagt) und alle anderen Modelle eine HD 2000 haben, die dann nicht mehr sooo gut abschneidet. Dass die HD Graphics einen guten Sprung im Vergleich zur Vorgängerversion gemacht haben, ist doch unbestritten, sie aber spielfähig zu beschreiben, besonders bei diesen Treibern (die sich immer weiter verbessern aber nicht auf AMD Niveau, geschweige denn Nvidia Nivea sind) und dann wird auch noch bei der Darstellung geschummelt, ist zuviel der Lobhudelei.

@ Herdware

Ich hoffe doch mal ganz stark, dass der Vergleich Brazos mit dem Alienware M11x R2 ein Scherz sein sollte, denn ich habe mich sehr, sehr gut amüsiert. Ich weiß auch nicht was du dafür bezahlt hast, aber du wirst sicherlich mehr als 600-700 Euro (ich schätze mal 800- 900, oder?) dafür bezahlt haben, ein S205 mit E-450 4 GB und 500 GB Festplatte kostet 300 Euro, der Vergleich ist also einfach nur noch lächerlich, lächerlich, lächerlich und eine Beleidigung meiner Intelligenz.

Das M11x ist übrigens keine Gelegenheitsspieler-Notebook du betreibst hier ein "distortion field" erster Güte, weder die Mittelklasse CPU noch die Mittelklasse GPU können darüber hinweg täuschen.


Aber schön, dass du überhaupt mit keiner einzigen Silbe meine Fragen beantwortest und anstattdessen von deinem M11x erzählst. Technisch bessere Lösung.

Erläutere mir doch endlich was eine "technisch bessere Lösung" ist?


Und deine Marktanalyse interessiert hier erst einmal nicht, es geht nicht darum wer was wann zu welchem Preis verkauft und sich zurücklehnt.

Erläutere mir die technisch bessere Lösung eines Zwei-Komponenten-Systems gegenüber einem Ein-Komponenten System. Und es geht hier nicht um die Leistungsfähigkeit, sondern um die Wirtschaftlichkeit.


edit: Sag mal, meinst du wirklich das "M11x R2"? Das kostete seinerzeit 1633 Euro (laut notebookjournal/notebookcheck) und das wäre dann einfach nur noch eine absolute Frechheit, den Vergleich mit einem 300 Euro Sub-Notebook anzustellen.

edit: Nun gut, du wirst sicherlich nicht die SSD-Variante gekauft haben, dennoch ist der Vergleich lächerlich.
 
Zuletzt bearbeitet:
Zurück
Oben