hmm so sehr ich schade finde das AMD den Marketingerfolg wieder die schnellste CPU zu haben wohl nicht gelingen wird, und so sehr ich ein paar Leuten hier die immer die schnellste CPU für >200,- Euro kaufen wollen auch eine highend cpu von amd gönnen würde, freue ich mich darüber das die cpus wohl billiger werden. Ich kauf eh nur ne cpu für 50-120,- Euro oder so meine letzte hat auch nur 50,- gekostet (athlon x2) Ich hoffe daher das non-fx Bulldozer (sowas gibts doch auch oder?) dann preislich richtig interessant sind, ein sagen wir 2,5 -3 ghz quadcore würde mir zur not schon reichen, mit neuem effektiven kern, da die spiele ja eh fast alle auf Konsolen optimiert werden, und die sich seit 4 jahren nicht verbessert haben, dürfte das bis auf weiteres für jedes spiel reichen.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD FX-CPUs: Neuer Termin und günstigere Preise?
- Ersteller MichaG
- Erstellt am
- Zur News: AMD FX-CPUs: Neuer Termin und günstigere Preise?
akuji13
Rear Admiral
- Registriert
- Juni 2005
- Beiträge
- 5.880
sacridex schrieb:Ist ja auch nur ein 4 Moduler, wobei ein Modul nicht 2 vollwertigen Kernen entspricht.
Mir ist es völlig Wurst, ob eine CPU 4 Module, Kerne, Threads oder was auch immer hat.
Ich nehme die CPU, die für den gewünschten Betrag die meiste Leistung für mich bringt.
vitel09 schrieb:Morgen, also mir würde ein AMD mit der Leistung von einem I5 2500k reichen!
Mir auch. 99% aller Nutzer auch.
Aber es ist halt ein AMD, da ist die Leistung dann gleich zu wenig.
tick-tock schrieb:Ich finde die Erwartungen überzogen. AMD ist ne kleine Kellerklitsche gg. Intel. Die machen als Konzern so viel Umsatz wie Intel allein in die Forschung investiert. Nur weil Intel vor Jahren mal richtig marketingkonform in die falsche Technik investiert hat (10 GHz wir kommen!), passiert das nicht alle Jubeljahre wieder. Für AMD heisst es im Mittelfeld dranbleiben - das ist die Pflicht. Alles da drüber bleibt die Kür.
100% Zustimmung.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.418
$ifo-Dyas schrieb:Du muss aber auch mal bedenken das Intel locker mal das 100er Fache an Kohle in Forschung investieren kann.
Sarkasmus on//
Geht es doch gar nicht um die kohle in die man in eine Entwicklung steckt, mehr um den Faktor der Fans die ein Produkt kaufen. Und hier hat Intel 1000x mehr fans, denn alle kennen Intel, aber nicht alle AMD
//Sarkasmus off
Aber es ändert sich viel am markt. Immer mehr AMD Rechner. Mittlerweile gibt es jz einnen Llano-Pc Beim Hofer um 399 Euro zu kaufen. Der wird wohl die meisten families mit Kinder mehr befriedigen als der corei3 davor.
Floletni
Nur ist das nicht nur ein Phenom II 32nm + igp.
Der Phenom II in 32nm ist aber nicht so optimiert worden wie ein damaliger Phenom II in 45 nm. Also ist hier nicht wirklich ein vergleich zu ziehen. sonst würde der locker über 4ghz gehen beim overclocking (wenn die igp deaktiviert ist)
Bleys
Kannst dir gar nicht vorstellen wie oft ich schon gesagt habe bis 150 euro muss die Performance passen. Habe aber fürs Forum sogar schon auf 200 euro erhöht, da der 2500k sehr interessant ist. Somit wenn man bis 200 Euro ebenwürdig ist, passt alles bist zur nächsten Generation, die aber hoffentlich spätestens im Sommer kommen sollte.
Zuletzt bearbeitet:
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
"Bulldozer" und "Sandy Bridge" bringen beide neue Eigenschaften mit, die ein Compiler ersteinmal "richtig" optimieren lernen muß. Es ist nicht damit getan, daß der Compiler nun in der Lage ist, über "CODEGEN" den entsprechenden Zielcode zu erzeugen. Vielmehr muß der Optimierer auch "verstehen", welche Qualitäten der neuen CPU nutzbar gemacht werden können und wie man sie statt Althergebrachtem in neuem Code einbettet.
Die Situation am Markt ist weder Sandy-Bridge- noch Bulldozer-freundlich! C/C++ Compiler aus dem hause PathScale, M$, PGI und Intel können zwar bereits auf SB und BD optimierten Code generieren, Tests haben aber gezeigt, daß automatische Optimierungen zumindest auf der Intel-SB Plattform lediglich für einen Leistungszuwachs von ca. 3 - 5% sorgen. Erst handoptimierter Code bringt einen über die 20%-Marke reichenden Geschwindigkeitsschub.
Andere Skriptsprachen wie Python, die im UNIX und Linux Umfeld beliebt sind und auch compiliert werden können, nutzen ebenfalls keine BD- oder SB-Eigenschaften und die Liste der "Ich-kenne-weder-SB-noch-BD"-Compiler ließe sich weiter fortführen.
Auf der sogenannten x86-komaptiblen Methusalem-Plattform kommt dann auch zum Tragen, daß man Software auch "kompatibel" compilieren kann! "Generisches" compilieren heißt, daß auf der AMD64-Plattform lediglich SSE3 sozusagen als "ggT" angenommen werden kann. Als Entwickler werde ich dann auch tunlichst BLOBs in Umlauf bringen, die auf allen CPUs laufen, die diese Kriterien erfüllen.
Eine Möglichkeit ist dann aber, Funktionen in dynamisch ladbare Bibliotheken auszulagern, die mit entsprechenden Architektur-Optionen compiliert wurden und entsprechend der CPUID vom Zentralprogramm geladen werden. Soweit ich weiß, macht Windoof 7 dies mit Kernbibliotheken zur Behandlung mathematischer Operationen, sobald eine AVX-fähige CPU im System entdeckt wird.
Jeder Entwickler weiß aber, daß man oftmals nicht alle Fälle im Vorfeld beachten und abfangen kann und zudem erfordert es etwas Erfahrung mit der entsprechenden Architektur, bis man Code erzeugt, der optimal die architektonischen Eigenschaften einer neuen Generation berücksichtigen kann.
Ein Beispiel für einen solchen Vorgang war die Einführung der P4 von Intel, die gegenüber der bisherigen Architektur und die darauf optimierte Software das Nachsehen hatte. Es hat ca. 6 Monate gedasuert, bis Software am Markt war, die neue Eigenschaften und Design-Fallstricke optimal meistern konnte. Bis dahin waren in fast allen Computer-Boulevard Gazetten bereits die Tests/benchmarks durch.
Aus diesen Gründen sehe ich den Windows-Benchmarks gelassen entgegen, sie messen effektiv nur einen Bruchteil des durch die neue Architektur möglichen Verbesserungen, das meiste kommt durch Turbo, hohen Takt und generischen IPC-Verbesserungen zustande.
Aussagekräft ist meiner Meinung eh nur Opensource-Software, bei der man den Compiler mitsamt seinen Optimierungen kennt. oder SPEC, bei welchen diese Vermessung schon akademische Züge annimmt - und das ist so ziemlich genau. Alles andere ist besserer Kindergeburtstag und man darf stets davon ausgehen, daß "offizielle" Vermessungspakete, ob der Krempel nun 3DMark oder anders genannt wird, lediglich marktpolitischen, also PR-Zwecken dient.
Bulldozer bringt für Naturwissenschaftler und Leute, welche wirklich mit dem Prozessor rechnen, einige Eigenschaften zurück, die durch Intels x86-Durchseuchung der Szene verloren gegangen schienen. "Fused-Multiply-Add", eine die Genauigkeit erhöhende Berechnungsmodalität der FPU, bei der die Rundungsfehler der Berechnung von y = a +(b*c) stark reduziert werden, kennt der BD schon. Auf Intelplattformen muß man diese Operation umständlich durch numerische Bibliotheken "emulieren", was natürlich viel Taktzyklen kostet. Zudem kann die AMD CPU jetzt bei Operationen das Ergebnis der Operation auf ein von den Quellen unabhängiges Ziel schreiben. Das konnten nahezu alle 64Bit RISC Prozessoren, selbst der MC68k von Motorola war dessen schon in der Lage. Wenn man auf einem Intel-x86-komnpatiblen Dinosaurier, auch Sandy-Bridge, den Wert im Zielregister noch benötigt - weil dies zwingend einer der bdien Operanden gewesen ist, muß das namlich erst auf den Stack gerettet werden. Das sind wieder umständlich verlorene Taktzyklen. Wenn der Compiler nicht auf diese Instruktionen optimieren kann oder der Programmierer nicht Code erzeugt, der genau einen solchen Fall wie im Bulldozer bereitgestellt präferiert, liegt diese schnelle und schicke Eigenschaft brach.
Leider entscheiden heute Kinder, Anwälte und PR-Profis", was gebaut und vermarktet wird. Die Zeiten, als Ingenieure noch für alles zustandig waren und auch ihre Produkte entsprechend offen darlegten, sind vorbei. es steht zu befürchten, daß die neuen Eigenschaften des Bulldozer dann erst voll zur Geltung kommen werden, wenn Intel diese Eigenschaften ebenfalls implementiert haben wird und die Intel-hörigen Compiler aus dem Hause Intel selbst und Microsoft diese eigenschaften auch explizit nutzen werden. Dann aber ist Intel vermutlich schon in der zweiten Post-Bulldozer-Generation.
Mein dringlicher Vorschlag wäre, unbedingt die Testmodalitaten in Richtung Objektivität zu verschieben. Das, was heute und hier, vor allem auf den Spielzeug-Gazetten zelebriert wird, kann man llenthalben belächeln.
Die Situation am Markt ist weder Sandy-Bridge- noch Bulldozer-freundlich! C/C++ Compiler aus dem hause PathScale, M$, PGI und Intel können zwar bereits auf SB und BD optimierten Code generieren, Tests haben aber gezeigt, daß automatische Optimierungen zumindest auf der Intel-SB Plattform lediglich für einen Leistungszuwachs von ca. 3 - 5% sorgen. Erst handoptimierter Code bringt einen über die 20%-Marke reichenden Geschwindigkeitsschub.
Andere Skriptsprachen wie Python, die im UNIX und Linux Umfeld beliebt sind und auch compiliert werden können, nutzen ebenfalls keine BD- oder SB-Eigenschaften und die Liste der "Ich-kenne-weder-SB-noch-BD"-Compiler ließe sich weiter fortführen.
Auf der sogenannten x86-komaptiblen Methusalem-Plattform kommt dann auch zum Tragen, daß man Software auch "kompatibel" compilieren kann! "Generisches" compilieren heißt, daß auf der AMD64-Plattform lediglich SSE3 sozusagen als "ggT" angenommen werden kann. Als Entwickler werde ich dann auch tunlichst BLOBs in Umlauf bringen, die auf allen CPUs laufen, die diese Kriterien erfüllen.
Eine Möglichkeit ist dann aber, Funktionen in dynamisch ladbare Bibliotheken auszulagern, die mit entsprechenden Architektur-Optionen compiliert wurden und entsprechend der CPUID vom Zentralprogramm geladen werden. Soweit ich weiß, macht Windoof 7 dies mit Kernbibliotheken zur Behandlung mathematischer Operationen, sobald eine AVX-fähige CPU im System entdeckt wird.
Jeder Entwickler weiß aber, daß man oftmals nicht alle Fälle im Vorfeld beachten und abfangen kann und zudem erfordert es etwas Erfahrung mit der entsprechenden Architektur, bis man Code erzeugt, der optimal die architektonischen Eigenschaften einer neuen Generation berücksichtigen kann.
Ein Beispiel für einen solchen Vorgang war die Einführung der P4 von Intel, die gegenüber der bisherigen Architektur und die darauf optimierte Software das Nachsehen hatte. Es hat ca. 6 Monate gedasuert, bis Software am Markt war, die neue Eigenschaften und Design-Fallstricke optimal meistern konnte. Bis dahin waren in fast allen Computer-Boulevard Gazetten bereits die Tests/benchmarks durch.
Aus diesen Gründen sehe ich den Windows-Benchmarks gelassen entgegen, sie messen effektiv nur einen Bruchteil des durch die neue Architektur möglichen Verbesserungen, das meiste kommt durch Turbo, hohen Takt und generischen IPC-Verbesserungen zustande.
Aussagekräft ist meiner Meinung eh nur Opensource-Software, bei der man den Compiler mitsamt seinen Optimierungen kennt. oder SPEC, bei welchen diese Vermessung schon akademische Züge annimmt - und das ist so ziemlich genau. Alles andere ist besserer Kindergeburtstag und man darf stets davon ausgehen, daß "offizielle" Vermessungspakete, ob der Krempel nun 3DMark oder anders genannt wird, lediglich marktpolitischen, also PR-Zwecken dient.
Bulldozer bringt für Naturwissenschaftler und Leute, welche wirklich mit dem Prozessor rechnen, einige Eigenschaften zurück, die durch Intels x86-Durchseuchung der Szene verloren gegangen schienen. "Fused-Multiply-Add", eine die Genauigkeit erhöhende Berechnungsmodalität der FPU, bei der die Rundungsfehler der Berechnung von y = a +(b*c) stark reduziert werden, kennt der BD schon. Auf Intelplattformen muß man diese Operation umständlich durch numerische Bibliotheken "emulieren", was natürlich viel Taktzyklen kostet. Zudem kann die AMD CPU jetzt bei Operationen das Ergebnis der Operation auf ein von den Quellen unabhängiges Ziel schreiben. Das konnten nahezu alle 64Bit RISC Prozessoren, selbst der MC68k von Motorola war dessen schon in der Lage. Wenn man auf einem Intel-x86-komnpatiblen Dinosaurier, auch Sandy-Bridge, den Wert im Zielregister noch benötigt - weil dies zwingend einer der bdien Operanden gewesen ist, muß das namlich erst auf den Stack gerettet werden. Das sind wieder umständlich verlorene Taktzyklen. Wenn der Compiler nicht auf diese Instruktionen optimieren kann oder der Programmierer nicht Code erzeugt, der genau einen solchen Fall wie im Bulldozer bereitgestellt präferiert, liegt diese schnelle und schicke Eigenschaft brach.
Leider entscheiden heute Kinder, Anwälte und PR-Profis", was gebaut und vermarktet wird. Die Zeiten, als Ingenieure noch für alles zustandig waren und auch ihre Produkte entsprechend offen darlegten, sind vorbei. es steht zu befürchten, daß die neuen Eigenschaften des Bulldozer dann erst voll zur Geltung kommen werden, wenn Intel diese Eigenschaften ebenfalls implementiert haben wird und die Intel-hörigen Compiler aus dem Hause Intel selbst und Microsoft diese eigenschaften auch explizit nutzen werden. Dann aber ist Intel vermutlich schon in der zweiten Post-Bulldozer-Generation.
Mein dringlicher Vorschlag wäre, unbedingt die Testmodalitaten in Richtung Objektivität zu verschieben. Das, was heute und hier, vor allem auf den Spielzeug-Gazetten zelebriert wird, kann man llenthalben belächeln.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
OldboyX schrieb:...
Die allermeisten Menschen die einen Computer zum Arbeiten nutzen, reizen den niemals auch nur im entferntesten so stark aus, wie das aktuelle Spiele tun. Auch ein X6 oder i3 sind da rein vom Arbeiten her völlig überdimensioniert. Da ist es nur logisch, dass man die gewünschte Leistung nach dem "most demanding task" kauft. Übrigens kaufen sich wohl die wenigstens Kinder einen i7 2600k für 250€...
das ist wohl wahr, eine Dauer Vollast wird man als Ottonormalverbraucher kaum haben.
Spiele gehören zwar zu den Anwendungen die aktuell oft viel Performance fressen, aber dennoch sollte man hier anstelle eines 200€ BDs oder 2600K einen kleinen PII 955 oder i5 2500K kaufen, da diese hauptsächlcih von Takt und Leistung / Thread profitieren, gleichzeitig es kaum ein spiel gibt wleches durch die genannten CPU limitieren würde.
Die Investiotion sollte mit Schwerpunkt GPu ausfallen wenn man zockt.
Alle Leistung darüber wie SB-E oder wie eigentlichauch bei BD angedacht sind mehr Ableger aus der Server Welt die in diversen Szenarien ausgereizt werden, hier dann aber deutliche Vorteile bieten. In meinem Fall ist es ab und an VideoKomprimierung über CPU (GPU taugt da nichts), zu Studium Zeiten noch Raytracing und Kompilierung.
Oder eben man setzt viel Virtualisierung ein, zu hause aber wohl weniger
Popey900 schrieb:Achso, aber für was anderes nicht ?
Was kann man den mit einer x6 nicht machen, was aber mit einem i7 geht ?
Naaa klar, das Video und Bildbearbeiten, welches 0,01% der User machen.
Und auch da, reicht ein X6, denn ob ein Video in 10 oder 12 Minuten dekodiert ist, interessiert keinen Menschen. Was anderes wäre wenn der unterschied extrem wäre, und das ist selbst beim alten x6 nicht so.
oben genanntes, und ja, deswegen sind Plattformen i7 (4-6, bald 8 Kerne) und BD etwas genau für diese 0,1% der Befülkerung die diese in diesen seltenen Situationen auch ausreizen.
Nutzt du die oben genannten Anwendungen nicht, kannst du genauso gut einen X6 nehmen... oder einen i5 2500. Glaub mir, Battlefield 3 wird nicht schneller laufen nur weil du nen "8-Kern" BD oder SB-E hast
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
pipip schrieb:[...]
Aber es ändert sich viel am markt. Immer mehr AMD Rechner. Mittlerweile gibt es jz einnen Llano-Pc Beim Hofer um 399 Euro zu kaufen. Der wird wohl die meisten families mit Kinder mehr befriedigen als der corei3 davor.
Das sind ALIBI-Angebote! Und nebenbei, was wollen die Kinder mit einem Llano? Als Flaschenwärmer verwenden?
Floletni
Nur ist das nicht nur ein Phenom II 32nm + igp.
Der Phenom II in 32nm ist aber nicht so optimiert worden wie ein damaliger Phenom II in 45 nm. Also ist hier nicht wirklich ein vergleich zu ziehen. sonst würde der locker über 4ghz gehen beim overclocking (wenn die igp deaktiviert ist)
Man darf getrost von Resteverwertung ausgehen ...
Xedos99
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.111
Wie es scheint wird BD nur in Multithreading gewaltig zulegen,soll Intels SMT da wohl Paroli bieten können.An sonsten wird ein Modul wohl nur 80 % eines gleich getakteten Phenom II Dualcore erreichen.Das ist einfach nur schade und nutzt wohl mit der MT-Optimierung mehr den Opterons bzw. treibt im Consumer Markt so die Preise der Phenom X6 hoch...
Somit ist dann AMDs Price-downsizing auch zu verstehen.
Somit ist dann AMDs Price-downsizing auch zu verstehen.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.418
Krautmaster
Naja kiddies und games
Gibt genügend leute 30+ oder 40+ die zocken. Und die jzige Generation die damit aufwächst, werden die meisten nicht aufhören zu spielen wenn sie älter werden.
Du sagtest ein i3 oder x4 reichen aus, ja dann geh durch die Straßen und erzähle das.
Am Desktopmarkt sind es aber trotzdem die Gamer die den größten Markt darstellen. Oder irre ich mich ?
Eisenfaust
Ganz einfach, überlege dir mal was die meisten jugendliche spielen, falls du keine Antwort findest, bist du hier gar nicht mal qualifiziert meine Meinung zu hinterfragen.
Weiteres, wie lang gab es diese Zeit wo ein Ingenieur ohne Geldmittel Erfindungen vorzeigen konnte ?
Zuse fällt mir ein, der alles selbst investierte, aber auch einen Erfolg brauchte um nicht auf der Straße zu landen.
Klasse Bsp für damals, 1 Wk, zwar gab es noch keine Computer, das Motorgeschütz aus dem Jahre 1911, das vom Patent her das erste Panzerfahrzeug war, und den Krieg entscheidend für Österreich und Deutschland gewesen wäre. Stattdessen hat man aus Tradition auf herkömmliche Mittel gesetzt.
Somit auch in der Vergangenheit, hörte man nicht immer auf die Ingenieure. Auf die wird doch selten gehört. Meist verlangt man von ihnen was, man gibt ihnen ein Problem, das wird gelöst. Nur Leute die privat etwas forschen, bsp Grundlagenforschung, sind in dem Sinnen einem Verpflichtet, der Forschung, was ich persönlich aber auch mehr schätze.
Aber es ist Leider so, dass es die Masse ausmacht, die eine Erfindung nützen, und nicht der Erfinder alleine.
Naja kiddies und games
Gibt genügend leute 30+ oder 40+ die zocken. Und die jzige Generation die damit aufwächst, werden die meisten nicht aufhören zu spielen wenn sie älter werden.
Du sagtest ein i3 oder x4 reichen aus, ja dann geh durch die Straßen und erzähle das.
Am Desktopmarkt sind es aber trotzdem die Gamer die den größten Markt darstellen. Oder irre ich mich ?
Eisenfaust
Ganz einfach, überlege dir mal was die meisten jugendliche spielen, falls du keine Antwort findest, bist du hier gar nicht mal qualifiziert meine Meinung zu hinterfragen.
Weiteres, wie lang gab es diese Zeit wo ein Ingenieur ohne Geldmittel Erfindungen vorzeigen konnte ?
Zuse fällt mir ein, der alles selbst investierte, aber auch einen Erfolg brauchte um nicht auf der Straße zu landen.
Klasse Bsp für damals, 1 Wk, zwar gab es noch keine Computer, das Motorgeschütz aus dem Jahre 1911, das vom Patent her das erste Panzerfahrzeug war, und den Krieg entscheidend für Österreich und Deutschland gewesen wäre. Stattdessen hat man aus Tradition auf herkömmliche Mittel gesetzt.
Somit auch in der Vergangenheit, hörte man nicht immer auf die Ingenieure. Auf die wird doch selten gehört. Meist verlangt man von ihnen was, man gibt ihnen ein Problem, das wird gelöst. Nur Leute die privat etwas forschen, bsp Grundlagenforschung, sind in dem Sinnen einem Verpflichtet, der Forschung, was ich persönlich aber auch mehr schätze.
Aber es ist Leider so, dass es die Masse ausmacht, die eine Erfindung nützen, und nicht der Erfinder alleine.
Zuletzt bearbeitet:
Ich freue mich immer mehr, dass ich damals den 2600k für 200€ bei der cyberport Aktion ergattern konnte. 245USD entsprechen ja dann häufig auch 245€, das finde ich sogar recht übertrieben, wenn man bedenkt, dass die CPU wahrscheinlich a) langsamer und b) soviel später erhältlich ist.
TheSlider
Lt. Commander
- Registriert
- Juni 2009
- Beiträge
- 1.120
$ifo-Dyas schrieb:Du muss aber auch mal bedenken das Intel locker mal das 100er Fache an Kohle in Forschung investieren kann. Dafür, dass AMD im vergleich so wenig hat sind die Produkte doch mehr als Ordentlich. Und ich frage mich derzeit eigentlich wirklich wozu alle zu hause diese Leitung unbedingt brauchen?
Mein PII auf 3,8 GHZ reicht nach wie vor Locker zum Spielen, Arbeiten und diverse andere Sachen. Ob ich nun zum Rippen einer BD Disk eine Stunde oder eine Stunde und 10 Minuten Brauche macht eh keinen großen Unterschied. Nur mal alb Bsp.
Und diese immer wieder Aufkommenden Kommentare.
Öhh AMD braucht 8 KErne um 4 von Intel einzu holen. Letztendlich zählt die Leitung bei einem Bestimmten Preis und Verbrauch. Der Rest in uninteressant
C0rd0n schrieb:Immer dieses rumgeflame das die AMD CPUs so scheiße sind.
Ich bin froh wenn AMD nach Jahren mal wieder konkurrenzfähige CPUs auf den Markt bringen kann...
EBEN GENAU DAS MEINE ICH.
jeder AMD-fänboy meinte zu jahresbeginn sachen wie: "der bulldozer wird alles platt machen" oder "der bully wischt mit intel-cpu`s den boden" usw.
da darf mir doch dieser komentar erlaubt sein, weil ich damals ganz brav meine klappe gehalten habe und mir dachte, wartet erstmal ab bis der bulldozer da ist............naja den rest vom lied kennen wir ja
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
??? Ganz sicher nicht!245USD entsprechen ja dann häufig auch 245€
Wieso geflame? AMD-CPUs sind nicht konkurrenzfähig! Das wird dir jede vernünftige Fachzeitschrift oder Internetseite bestätigen. Das steht doch nicht im Widerspruch dazu, dass es für den Endkunden vom Vorteil wäre, wenn AMD konkurrenzfähig wäre.Immer dieses rumgeflame das die AMD CPUs so scheiße sind.
Ich bin froh wenn AMD nach Jahren mal wieder konkurrenzfähige CPUs auf den Markt bringen kann...
Spike93
Commander
- Registriert
- März 2009
- Beiträge
- 2.184
Wieso geflame? AMD-CPUs sind nicht konkurrenzfähig!
Ehh nein nicht ganz ! Es kommt auf die Sparte an von der wir reden Zb tretten die bobcats den Atoms ja ganz schön inden Hintern, da hat Intel ja das nachsehen !
Klar, AMD sollte im highend Bereich mal wieder ne Wucht auf den Markt bringen, schaden würde das uns Käufer ja nicht.
Zuletzt bearbeitet:
If u said so...TheSlider schrieb:jeder AMD-fänboy meinte zu jahresbeginn sachen wie: "der bulldozer wird alles platt machen" oder "der bully wischt mit intel-cpu`s den boden" usw.
Es reicht ein einziges Beispiel, um deine ohnehin haltlose Behauptung zu wiederlegen. Diese findest du sogar hier auf CB. Also mal Ball flach halten.
Wärst du mal bloß dabei geblieben und hättest dich weiterhin mit dem völlig korrekten GedankenTheSlider schrieb:da darf mir doch dieser komentar erlaubt sein, weil ich damals ganz brav meine klappe gehalten habe
beschäftigt. Denn BD is noch nicht da; also sind auch sämtliche Wertungen derzeit völlig aus der Luft gegriffen!TheSlider schrieb:und mir dachte, wartet erstmal ab bis der bulldozer da ist.
Ja, es endet wie immer. Der eine wirft dem anderen vor, ein noch größerer Fanboy zu sein und sowieso keinen Plan und völlig überzogene Erwartungen zu haben...TheSlider schrieb:naja den rest vom lied kennen wir ja
Edit:
Du meinst sicher Bobcat.Spike93 schrieb:Ehh nein nicht ganz ! Es kommt auf die Sparte an von der wir reden Zb trettet Llano den Atoms ja ganz schön inden Hintern, da hat Intel ja das nachsehen !
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.306
@pipip
naja der größte Markt an sich werden wohl die Familienkisten mit LowEnd GPU und die ganzen PCs in Unternehmen sein, die sicher auch nicht damit zocken
Wirkliche Gaming PCs... man sollte sich nicht von dem Anteil hier im Forum trügen lassen. Lauf mal rum und schau wie hoch der Anteil an Fertigsystemen wohl ist, die einen i3 2100 CPU technisch übers Gaming auslasten könnten. Ich schätze <2% haben eine GPU <HD6850 verbaut
Edit: ich kenne wenig über 30-40 die wirklich so am PC zocken, dass es mitbestimmend für die CPU Leistung wäre. Da sind es meist ältere Titel und vielleicht 5 h / Monat. Außerdem legen normale Menschen in dem Alter das Geld eher in Windeln an
naja der größte Markt an sich werden wohl die Familienkisten mit LowEnd GPU und die ganzen PCs in Unternehmen sein, die sicher auch nicht damit zocken
Wirkliche Gaming PCs... man sollte sich nicht von dem Anteil hier im Forum trügen lassen. Lauf mal rum und schau wie hoch der Anteil an Fertigsystemen wohl ist, die einen i3 2100 CPU technisch übers Gaming auslasten könnten. Ich schätze <2% haben eine GPU <HD6850 verbaut
Edit: ich kenne wenig über 30-40 die wirklich so am PC zocken, dass es mitbestimmend für die CPU Leistung wäre. Da sind es meist ältere Titel und vielleicht 5 h / Monat. Außerdem legen normale Menschen in dem Alter das Geld eher in Windeln an
Zuletzt bearbeitet:
Spike93
Commander
- Registriert
- März 2009
- Beiträge
- 2.184
Edit:
Zitat:
Zitat von Spike93 Beitrag anzeigen
Ehh nein nicht ganz ! Es kommt auf die Sparte an von der wir reden Zb trettet Llano den Atoms ja ganz schön inden Hintern, da hat Intel ja das nachsehen !
Du meinst sicher Bobcat.
Ehh ja sorry
Edit: ich kenne wenig über 30-40 die wirklich so am PC zocken, dass es mitbestimmend für die CPU Leistung wäre. Da sind es meist ältere Titel und vielleicht 5 h / Monat. Außerdem legen normale Menschen in dem Alter das Geld eher in Windeln an
Ich selber persönlich finde es von Bedeutung, dass AMD mit Bulldozer erfolgreich sein werden muss, damit die Konkurrenz im highEnd bereich bestärkt wird und Intel daraufhin sich mit AMD hoffentlich einen Preiskampf liefert, ganz egal ob jemmand vor hat Bulldozer zu kaufen oder nicht. Aufjedenfall ist es doch von Vorteil, dass wenn man aus X Gründen HighEnd Hardware brauch, man diese günstiger bekommen könnte, als wenn es nur Intel gebe, die den Preis dann ja quasi vordiktieren würden. Man wäre dann ja auf die angewiesen.
Tomahawk
Commander
- Registriert
- Feb. 2002
- Beiträge
- 2.976
Spike93 schrieb:Ehh nein nicht ganz ! Es kommt auf die Sparte an von der wir reden Zb trettet Llano den Atoms ja ganz schön inden Hintern, da hat Intel ja das nachsehen !
Klar, AMD sollte im highend Bereich mal wieder ne Wucht auf den Markt bringen, schaden würde das uns Käufer ja nicht.
Sparte? Server, Mobile und Desktop? Anteil in Mobile bei 11%, Server 7%-8% und Desktop 25% (soweit ich das im Kopf habe). Llano mit nem Atom zu vergleichen ist Schmarrn, das Gegenstück ist Zacate. Falls du auf die bessere Grafikeinheit anspielst: Stimmt, da liegt AMD recht weit vorne. Nur sind integrierte Grafikeinheiten meistens zweitrangig, im Desktop sogar relativ uninteressant. Natürlich kann man hoffen, dass AMD es schafft den Vorteil bei der integrierten Grafikeinheit entsprechend zu vermarkten.
Intels Problem ist weniger AMD als der (fast) gesättigte Markt. Intel muss Anreize schaffen, dass Benutzer ihre alten System überhaupt erneuern. Das geht nur durch große Leistungssteigerungen und nicht zu hohe Preise.Aufjedenfall ist es doch von Vorteil, dass wenn man aus X Gründen HighEnd Hardware brauch, man diese günstiger bekommen könnte, als wenn es nur Intel gebe, die den Preis dann ja quasi vordiktieren würden. Man wäre dann ja auf die angewiesen.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.418
Krautmaster
Mir ging es nur darum dass es auch 40-50 Jährige gibt die zocken. WOW zum Bsp, aber das bessere Bsp ist EVE. Hier kann man sogar mit US-Offizieren spielen, die momentan in Afghanistan sind. Das Game Portal wird ebenso gerne von älteren Leute gespielt was zum bsp sehr CPU-Lastig ist (wobei ein i3 ausreicht stimmt ^^) Oder Garrys Mod der bei Physikern sehr beliebt ist.
Aber ja, die meisten die ich kenne, sind aus EVE, Wow hab ich selber nicht gespielt, aber ich kenne Leute, die in ihrem CLAN mit Familienvätern spielen und auch paar geschiedene Leute die in wow versinkt sind.
Und dass alle Jahre, mehr 40+ jährige Gamer geben wird, muss ich glaub ich nicht erklären
Btw Familien bestehen oft aus Eltern + Kinder. Letztere spielen nicht nur gern auf konsole sondern auch auf PCs.
Besonders Strategie-spiele oder online-rollenspiele. Oder Valve-Games die es meist nicht auf Konsolen gibt.
Mir ging es nur darum dass es auch 40-50 Jährige gibt die zocken. WOW zum Bsp, aber das bessere Bsp ist EVE. Hier kann man sogar mit US-Offizieren spielen, die momentan in Afghanistan sind. Das Game Portal wird ebenso gerne von älteren Leute gespielt was zum bsp sehr CPU-Lastig ist (wobei ein i3 ausreicht stimmt ^^) Oder Garrys Mod der bei Physikern sehr beliebt ist.
Aber ja, die meisten die ich kenne, sind aus EVE, Wow hab ich selber nicht gespielt, aber ich kenne Leute, die in ihrem CLAN mit Familienvätern spielen und auch paar geschiedene Leute die in wow versinkt sind.
Und dass alle Jahre, mehr 40+ jährige Gamer geben wird, muss ich glaub ich nicht erklären
Btw Familien bestehen oft aus Eltern + Kinder. Letztere spielen nicht nur gern auf konsole sondern auch auf PCs.
Besonders Strategie-spiele oder online-rollenspiele. Oder Valve-Games die es meist nicht auf Konsolen gibt.
Ähnliche Themen
- Antworten
- 143
- Aufrufe
- 20.791