Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
OldDirtyBastard schrieb:hmmm.......... das die bulldozer so schlecht sind denke ich nichtmal. warten wir mal windows 8 ab.
[...]
intel ist für mich erloschen seit diese verkaufsmaschen mit der media markt saturn gruppe über die bühne gelaufen sind. wer eigentlich marktführer ist und sowas nötig hat bekommt von mir keinen groschen. deshalb für mich intel no go!!!
Wozu willst Du auf Windoof 8 warten? Weil es das einzige Betriebssystem ist, dessen Wischi-Waschi-Leistungsindizes Du verstehen kannst? Oder weil es das klassische Nichtskönner-OS ist? Wozu bis zur kommenden Revision warten, wenn richtige Betriebssysteme den Scheduler problemlos patchen können, um die Bulldozer-kruden Thread-Affinitäten zu verdauen? Die *BSD UNIXe sowie Linux haben mit BD keine(!) Probleme. FreeBSD, nur als Beispiel, erkennt die Topologie der CPU, Kerne sowie HTT-Pseudokerne bzw. BD-Kerne/Module. Und Linux nutzt eine ähnliche Technik zur topologischen Beschreibung und Wichtung. Zudem kann man unter Linux problemlos den Scheduler austauschen, um eventuelle Seiteneffekte stärker herauszuarbeiten oder aber um eine Leistungsoptimierung zu eruieren. Diese Möglichkeiten hat Windoof nicht, da muß man 6 Monate warten, bis das Betriebssystem dann einen Patch erhält, der angeblich die Architektur unterstützt - und dann vollends versagt.
Da sich dieses Leistungsdefizit des Bulldozer und seiner neuen Architektur durch alle Betriebssystemwelten hindurch schlecht zieht, kann es nicht am bösen Betriebsystem liegen, daß, gemessen an der sehr langen Entwicklungsdauer, Chipgröße und effektiven Leistungsaufnahme pro MIPS/FLOPS, unterm Strich die pro kern Leistung sogar schlechter ist als beim schon betagten Vorgänger.
Ein Ähnliches Bild zeichnet sich bei den APUs ab. Es macht Spaß sich alte Meldungen vom Januar 2011 durchzulesen, wo noch über die Leistungsdaten der Chips spekuliert wurde. Da sind wohl einige Zahlen, wohl mit Absicht, aus der GPU-Sparte sowie BD-Entwicklerabteilung durcheinandergeraten. Das Bild, das AMD hinsichtlich einer grausigen Leistungsaufnahme heute zeichnet (in Relation zur effektiven Leistung des Chips, wie er nach Spezifikation betrieben wird), ist schlichtweg zum Lachen.
Picard87 schrieb:Wahnsinn AMD, wir erhöhen die TDP um satte 30W, packen 500Mhz rauf und verkaufen das dann als super tolle CPU.../ironie off
mal ehrlich, da entwickelt man sol lange an nem CPU Design wie dem Bulldozer und dann kommt sowas bei raus, mit dem Stromverbrauch... da hat Intel schon zu P4 Zeiten gemerkt, dass das nix werden kann... ne TDP von 125W ist für ne Desktop CPU nicht mehr zeitgemäß, Ivy Bridge kommt auf 77 W bei 10-15% Mehrleistung zu SB, welche den Bulldozer schon heute in die Tasche steckt.
Eine TDP von 125 oder 130 Watt ist meiner Ansicht nach noch immer zeitgemäß für einen sogenannten Desktop. Darunter versteht man heute auch eine potente Workstation, wobei die Grenze zum Server fließend ist. Aber was ist denn ein Server? mein Rechner steht schon ewig nicht mehr auf dem Schreibtisch, sondern in einem sehr großen Gehäuse neben diesem. Für Spielezeug-PCs sind solche Wärmeumsatzangaben nicht mehr zeitgemäß, für die billige Zockerkiste oder eine Heimkino-Schachtel, die nur fü¶ HiFi oder Fernsehen brauchbar ist. Da sind 65 Watt Obergrenze. Router, ebenfalls von der Größe eines Desktops mit Sonderaufgaben, sollten tunlichst 35 Watt nicht überschreiten - Vollast, versteht sich.
Sicher gebe ich Dir Recht, 125 Watt TDP für eine CPU, die bereits um fast das Doppelete durch eine 95 Watt TDP CPU aus dem Hause Intel ausgestochen wird und gegen eine Riege von 65 Watt Prozessoren im gleichen Marktsegment antreten wird, ist eher anachronistisch. Aber das ist AMDs Verzweiflung! Und hier kann das Unternehmen auf die tumbe dumme Käufermasse setzen, die den Chip auch so kaufen wird, weil AMD drauf steht. Es gibt immer noch dumme Deutsche, die aus "Protest" (wie auch immer diese Leute Dummheit euphemistisch bezeichnen mögen) nicht zu Intel greifen - obwohl sie, auf ein Jahr gerechnet, mit 30 Euro mehr, die sie Chipzilla in den Rachen werfen (AMD und Intel sind beide keine deutschen Unternehmen und machen ihre Läden zuerst einmal hier dicht, wenns ihnen schlecht geht), besser dastehen würden, weil die Relation Energiekosten/Rechenleistung zugunsten Intel stünde.