Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Fünf AMD-„Trinity“-Desktop-APUs ab 1. Oktober?
- Ersteller Volker
- Erstellt am
- Zur News: Fünf AMD-„Trinity“-Desktop-APUs ab 1. Oktober?
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
Wie wärs mit nem Mittelding. Der 25W 2 Moduler dürfte genau richtig werden
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
Der HP hat ja einen 25W 1 Moduler, aber mit mehr Takt als der 17W. Aber mal abwarten HP will das Notebook ja auch noch mit nem A8 und A10 bringen. Und ich hoff mal das auch noch andere Hersteller kommen und was bringen, bisher gibts wohl nur das HP und das Samsung...
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
aylano schrieb:Den Vorwurf bekomme ich immer Technik Noobs, die halt nur den Wortschaft "besser", "Schache" "unbrauchbar" kennen.
Sorry, aber "Schache" sagt mir nix
Ich finds derweil wie du immer wieder gern vom Thema abdriftest und dann fallen Begriffe wie Westmere im Trinity Thread, irgendwelche Wirtschaftszahlen "200-400Mio" die irgendwie aus dem Zusammenhang gerissen eingeworfen werden.
Meistens rundest du das damit ab wie unfair Intel am Markt agiert hat und entwickelst einen AMD Beschützer-Instinkt sondergleichen ... nüchtern betrachtet hats aber seltenst wirklich mim Thema zu tun.
Da versteh ich manch andere die auf so Posts dann nicht mehr eingehen. Nicht aus Desinteresse, sondern einfach weil ne normale Argumentation nicht möglich scheint.
Sorry fürs OT...
@Jesterfox
ich müsste jetzt nach der Tabelle zu den Trinitys suchen, ich meine es war auch ein interessantes 25W mit 2 Modulen bei.
Interessant vor allem auch, weil bei 2 Modulen ein hoher CPU Turbo denkbar ist.
Krautmaster schrieb:Dennoch, GPU-Beschl. in Mainstream Apps ist Stand heute selten... Wer massiv Bildbearbeitung mit GPU gestützten Tools betreibt, setzt meist die gleich größere GPU ein (>50€)...
Zudem, was wird bei Bildbearbeitung denn GPU beschleunigt? Man muss es im Detail ansehen, 99% aller Filter sind nach wie vor CPU limitiert, wenn eine Profianwendung wie Photoshop von GPU Support redet beschränkt sich das auf wenige Filter die für den DAU ohnehin uninteressant sind.
Bei Photoshop CS6 wird von der Darstellung (rein-raus zoomen, drehen bei grossen Bildern)bis hin zu den meisten Filtern eigentlich inzwischen fast alles OpenCL beschleunigt.
Also hier hat man durchaus Vorteile, aber auch schon eine HD4000 dürfte da so schlecht nicht sein.
Weiterhin ist die dedizierte Grafikkarte bei GPGPU Aufgaben nicht automatisch im Vorteil.
Bisher müssen die Workloads von der CPU in den Ram und von da zur dGPU kopiert werden.
Die Resultate dann wieder den umgekehrten Weg.
Bis das mit dem langsamen Ram passiert ist, ist eine APU je nach Software längst fertig.
Krautmaster schrieb:Das Llano Topmodell ist ~ 30% langsamer als eine HD6570.
Diese geht ab 44€ los und bringt 1 GB Ram mit.
Vorsicht. Die HD 6570 läuft bei Hardtecs4you mit einer Speicheranbindung mit deutlich mehr Bandbreite. ( GDDR5), nicht DDR3.
Genauso bei deinem anderen Beispiel. Ergo stimmen deine Preise nicht, man muss durchaus mehr als 50 Euro zahlen.
Die ist sage und schreibe 96% schneller als Llano (HD5550 = Llano TopModell als Referenzwert)
Falsch, in etwa 40 bis 50%.
Trinity wird in etwa 25 bis 35% schneller als die Llano IGP, mit DDR3 2133 oder noch schnellerem Ram geht noch mehr.
Eventuell wird "stacked memory" AMD bei dem Bandbreitenproblem aus der Patsche helfen, oder Anfang 2014 DDR4.
Krautmaster; schrieb:Ich finds derweil wie du immer wieder gern vom Thema abdriftest und dann fallen Begriffe wie Westmere im Trinity Thread, irgendwelche Wirtschaftszahlen "200-400Mio" die irgendwie aus dem Zusammenhang gerissen eingeworfen werden.
Also ich persönlich verstehe ihn sehr gut.
Es wird teilweise in den Threads wirklich nurnoch auf "gut" "schlecht" reduziert.
Differenzierte Btrachtungsweisen fallen völlig flach.
MickelMolto schrieb:Mal davon abgesehen, dass dieser Satz grammatisch eine Katastrophe ist, muss man doch festhalten, dass im Desktop Bereich selbst der AMD nicht ausreicht um damit gescheit zu zocken.
Zuletzt bearbeitet:
oldmanhunting
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 9.457
Hab ich mich schlecht ausgedrückt. Sorry.
Was ich mit dem Satz sagen wollte war, das die Grafikleistung vom AMD für gescheites Zocken nicht ausreicht.
Wobei man natürlich gescheites Zocken weit interpretieren kann. Dem einen reicht es und dem anderen nicht. Wem es nicht reicht, der setzt sich dann eine Grafikkarte dazu.
Das ist aber beim Intel nicht anders, wie man an mir selbst sehen kann.
Was ich mit dem Satz sagen wollte war, das die Grafikleistung vom AMD für gescheites Zocken nicht ausreicht.
Wobei man natürlich gescheites Zocken weit interpretieren kann. Dem einen reicht es und dem anderen nicht. Wem es nicht reicht, der setzt sich dann eine Grafikkarte dazu.
Das ist aber beim Intel nicht anders, wie man an mir selbst sehen kann.
1. Bin ich nicht abgedriftet, sondern er, weil ich auf Topic eingegangen bin und er nicht. (siehe Unten bzw. die Postings in diesem Thread)Krautmaster schrieb:Ich finds derweil wie du immer wieder gern vom Thema abdriftest und dann fallen Begriffe wie Westmere im Trinity Thread, irgendwelche Wirtschaftszahlen "200-400Mio" die irgendwie aus dem Zusammenhang gerissen eingeworfen werden.
2. Schön dass du es so findest. Tja, nur ist deine Aussage keine Beweis, aber du glaubtst du bist die Wahrheitsquelle der Welt und musst andere von außen Beleheren.
Steigende Operative Gewinne und das zu Wirtschaftliche Zeiten (2Q 2012 war in Europa übrigends Rezession) werte ich schon als Fortschritte in der Chiptechnik von AMD, die in den letzten Jahren erreicht wurde. Wie sollte denn AMD Gewinne statt Verluste machen, wenn die neuen Modellen (in Bezug zur Konkurrenz) schlechter als die Vorgänger sind?
Ein Performance-Balken zeigt doch nicht das Kaufverhalten (=Bedarf von Performance) von Menschen vieler Märkte
Und warum bist du nicht der Intel Beschützer sondersgleichen, der gleich mit CPU-Performance-Abständen abdriftet?Meistens rundest du das damit ab wie unfair Intel am Markt agiert hat und entwickelst einen AMD Beschützer-Instinkt sondergleichen
Bist du der Beweis, dass Intels unfaire Handlungen (noch heute) keine Auswirkungen hatte?
Bist du der Beweis, dass CPU-Only-Performance die richtige Vergleichsbasis ist, um Architekturen & Co zu bewerten?
Was hast du als ersten Absatz dieses Threads zum Thema geschrieben... nüchtern betrachtet hats aber seltenst wirklich mim Thema zu tun.
hm ... ein schneller 20-35W Trinity für FM2 + passende ITX Boards wäre schön, oder eben ein Board mit festverlötetem 17W Model.
Und was haben deine vielen Kommentare vom 17W-TDP-Trinity im Trinty-Desktop-Retail-Thread zu tun?
Ich dagegen
Nein, ich verstehe nicht, warum ich mir einen Trinity in Retail kaufen sollten, wenn man mit Bulldozer im Hause AMD eine echte Game-Performance-CPU bekommt.
Also, ich habe mich zuerst auf das Topic bezogen (weil diese Aussage auf das im Postinge Zitierte eben auf das Topic bezog. Bei dir war es nicht so.
Dies ist ein deutlicher Hinweis, dass du mir falsches anlasten willst.
Die Bewertung der realen Performance einer Architektur oder CPU ist es eben sehr kompliziert, weil vorallem im Konsumer-Markt der Faktor Mensch (Verhalten) dazukommt. Und genau diese Komplexität empfindest du als abdriften.
Kompliziert ist es dashalb, weil der Mensch grundsätzlich logarithmisch empfindet und daher sind fast alle Test-Ergebnisse eben falsch, weil sie eine Lineare Bewertung haben.
Off-Topic wurde ich übrigends, als mich einer so begann anzusprechen.
@aylano und @modena.ch leben auf einem anderen Planeten.
Die reden sich die Computer Welt so schön, wie die es brauchen.
Warum du diesen Diskussions-Stile verteidigst und mich belehrst, ist mir ein Rätsel
Dazu ist seine Bemerkung in einem späteren Posting auf meine Argumente mit Zahlen & Fakten interessant.
Wo Du Vorhersagen über Intels 14nm (Generelle Fertigungsproblem) und über das Erscheinungsdatum vom Haswell Nachfolger philosophierst.
Also, Argumente ohne Gegenargemente als Falsch und Verrückt oder Abdriftung zu bewerten, hat eben nichts mit Diskussion zu tun, sondern übliches durchgwetschen von eigenen Meinungen. Und wenn man so agiriert, sind diese "Meinungen" meistens falsch, weil man sie ja nicht mit Gegenargumenten & Co verteidigen kann.
Tja, diese Aussage ist eben ein stärkes Indiz, dass du noch nie eine echte Diskussion auf hohem Niveau geführt hast. Weil sonst wüsstest du, dass es die "Fakten" & "Zahlen" bei weiten nicht keine Fakten & Beweise sind und normale Argumentationen eben bei weitem nicht reichen.Da versteh ich manch andere die auf so Posts dann nicht mehr eingehen. Nicht aus Desinteresse, sondern einfach weil ne normale Argumentation nicht möglich scheint.
Aber das ist halt das Problem mit der Meinungsfreiheit im Internet.
Nur weil man im Internet anonym seine Meinung schreiben darf, glauben gleich viele dass, ihre Meinung gleich der Realität entspricht, die andere annehmen "müssen".
Ich habe ja nicht dagegen, wenn manche nicht mit mir reden wollen.
Aber ich habe was gegen Leute, die mich belehren, aber selber keine Diskussion führen können/wollen. Wobei das in diesem Thread kein diskutieren war, sondern eine Attake gegen meine Aussage. Und da wehre ich mehr sehrwohl.
PS: Sorry für vieles Offtopic
PS2: Etwas Anmerkung zu Topic
Genau aus oben angedeutete Argumenten sehe ich die späte Einführung von AMD @ Desktop-Retail Markt logisch und für AMDs Geschäftsbericht sinnvoll.
Denn die wenigsten Vorteile von Llano vs Trinity sind eben im Desktop-Retail, weil ein geringerer idle-Stromverbrauch von vielleicht 1-2 Watt (wenn überhaupt) im Desktop völlig uninteressant sind und sonst kaum neue Multimedia-Features dazugekommen sind.
Wobei ich von realen Bedarfs-Erfüllungen rede, die Trinity im Desktop-Retail erheblich wertvoller machen. Denn Verkäufer können gerade mit Noobs-Wörter die Kunden zu einem Produkt leiten, obwohl sie es real nicht brauchen.
Zuletzt bearbeitet:
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.560
Was AMD's Plattform gut tun würde wäre ein Standard für externe Grafikkarten.
Man hat jetzt beispielsweise den A10-4600M und kann damit jedes Spiel zumindest auf Low gut spielen...
(Ohne zusätzliche GPU für 'Dual-Sonstwas' und mit einem Kühler der auch vielleicht 65W TDP packt.)
Jetzt kommt man nach Hause und möchte ordentlich spielen. Zack... 'RadeonBox' dran geklemmt und beides an die Steckdose. GPU-Part wird deaktiviert CPU-Part taktet sich bis 65W TDP hoch... das sollte für die CPU-Leistung des A10-5800K ausreichen?! Eine 'RadeonBox' könnte vielleicht 50€ mehr kosten als die normale Karte.
Machbar!
Man hat jetzt beispielsweise den A10-4600M und kann damit jedes Spiel zumindest auf Low gut spielen...
(Ohne zusätzliche GPU für 'Dual-Sonstwas' und mit einem Kühler der auch vielleicht 65W TDP packt.)
Jetzt kommt man nach Hause und möchte ordentlich spielen. Zack... 'RadeonBox' dran geklemmt und beides an die Steckdose. GPU-Part wird deaktiviert CPU-Part taktet sich bis 65W TDP hoch... das sollte für die CPU-Leistung des A10-5800K ausreichen?! Eine 'RadeonBox' könnte vielleicht 50€ mehr kosten als die normale Karte.
Machbar!
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
Freddy72 schrieb:Vorsicht. Die HD 6570 läuft bei Hardtecs4you mit einer Speicheranbindung mit deutlich mehr Bandbreite. ( GDDR5), nicht DDR3.
Genauso bei deinem anderen Beispiel. Ergo stimmen deine Preise nicht, man muss durchaus mehr als 50 Euro zahlen.
es ging ja auch um die HD6670 für unter 50€, die hat zwar auch "nur" 1 GB DDR3 aber mit DDR3 dürfte die Leistung ne Ecke höher ausfallen als beim Trinity Topmodell:
Ein Llano Topmodell mit 1866er Speicher kommt auf HD5550 Niveau bzw 15% hinter der HD5570.
http://ht4u.net/reviews/2011/amd_a8_3870k_llano_apu/index38.php
Die HD6670 (GDDR5) liegt die besagten 90% vor der HD5550 und ca 59% vor der HD5570.
http://ht4u.net/reviews/2011/amd_radeon_hd_6570_hd_6670_turks_im_test/index30.php
Zum Llano beträgt der Vorsprung locker um 75-90%.
Das DDR3 Model ist aber wie richtig angemerkt ne gute Ecke langsamer:
Dazu gibts leider wenig Tests:
http://tech2.in.com/reviews/graphics-cards/his-hd-6670-1gb-ddr3-graphics-card/231692
Im Schnitt dürften es 10-25% sein.
Es wird sicher den Fall geben, dass Trinitys Topmodell die HD6670 überholt, aber darum geht es auch nicht.
Es ging darum, dass der, der auf GPU Leistung angewiesen ist, für wenig € mehr auf eine praktisch lineare Skalierung seiner GPU Performance erhält. Wenn GPU Besch. so wichtig ist, dann baut er sich doch lieber ne 3 mal so schnelle HD6950 ein.
Wenn man es über den € brechen will müsste man auch den fehlenden GB Ram vom Hauptspeicher mit einkalkulieren als auch den Aufpreis für hochtaktende Speicher.
Fakt ist einfach dass ich im Dekstopumfeld mit dez GPU meist weit flexibler bin (nicht unbedingt billiger oder sparsamer), ich kann meine GPU Leistung skalieren, mir eine kleine HD6450 einbauen oder auf eine noch schwächere IntelLösung setzen, oder ich mach eben GPU Transcoding, Bildbearbeitung ... dann kann ich auch 80€ für ne GPU ausgeben die nochmals ne gute Ecke schneller ist.
Trinity als auch Llano, APUs generell, macht nur dort wirklich Sinn wo der Einbau einer dez. Karte entweder zu aufwendig ist (da ein Arbeitsschritt mehr) oder räumlich der Platz gespart werden kann / muss.
In Notebooks greift dieser Vorteil weit mehr.
Ohne Frage, Trinitys GPU Part wird stark, selbst Llanos ist stark. An einem reinen ArbeitsPC würde ich die GPU Leitung nicht im Ansatz abgreifen, und falls doch, wär ich mit ner 50€ GPU doch besser dran, die ich bei Bedarf, wenn ich sehe "wow, GPU Leistung rockt" noch nach einem Jahr gegen was Stärkeres tauschen kann.
Gemäß der Bedeutung der GPU Leistung abseits von Gaming müsste meine Workstation mit HD6950 ja ne Rakete gegen mein Zenbook Prime mit HD4000 sein. Dem ist aber nicht so. Arbeiten ist bei beiden vergleichbar.
@gut vs schlecht
Wenn es um eine Reduzierung auf "Gut" / "Schlecht" ging würde ich das auch so schreiben. Für das eine ist Trinity gut, für das andere weniger gut. In meinen Augen gibt es ein Gut und weniger gut, und das dann auf den Einzelfall bezogen.
Für Casual Gaming, Multimedia PCs und hohe Spielleleistung auf kleinem Raum ist er doch genial. Dennoch würde ich ihn nicht als perfekte Office CPU abstempeln. Der Großteil der Anforderungen über den Markt gesehen wird vermutlich durch Intels Vertreter besser bedient & realisiert, die eben genannten Nischen sind aber wichtig, und genau hier trumpft AMDs APU auf.
Edit:
ich frage mich noch etwas wo das hinführen soll. Imho limitiert die Speicherbandbreite jetzt schon ganz ordentlich bei den APU. Naja, man darf gespannt sein.
@aylano
vllt les ich mir deinen OT-Post später zur Erheiterung durch
Zuletzt bearbeitet:
oldmanhunting
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 9.457
Das wird der Grund sein, warum bei Haswell die iGPU Ihren eigenen Speicher auf dem MB bekommt, den wir dann auch noch bezahlen dürfen, obwohl eine Grafikkarte gesteckt wird.ich frage mich noch etwas wo das hinführen soll. Imho limitiert die Speicherbandbreite jetzt schon ganz ordentlich bei den APU. Naja, man darf gespannt sein.
Ich fände es wichtig, wenn so langsam APU/iGPU und GPU sinnvoll zusammen arbeiten können und die GPU wirklich abschaltet, wenn man die Leistung gerade nicht braucht. Das kann doch nicht so schwer sein eine GPU wirklich auf kleiner 1W Standby zu bringen, weil die APU/iGPU jetzt den Monitor versorgt.
Lösungen wie Lucidvirtu sind da noch sehr weit von weg. Gibt es da eigentlich von AMD schon etwas besseres?
allel
Lt. Commander
- Registriert
- Okt. 2004
- Beiträge
- 1.357
Kommt leider wie häufig bei AMD zu spät, diesmal durch Designfehler im FM2 Board.
Da werd ich wohl noch 3 weitere Quartale warten und gleich das Nachfolgemodel mit GCN ,28 nm und ohne Handbremsen vom Bulldoer mit Steamrollerkernen nehmen.
Da werd ich wohl noch 3 weitere Quartale warten und gleich das Nachfolgemodel mit GCN ,28 nm und ohne Handbremsen vom Bulldoer mit Steamrollerkernen nehmen.
LoRDxRaVeN
Lt. Commander
- Registriert
- Nov. 2009
- Beiträge
- 1.311
Krautmaster schrieb:Der Großteil der Anforderungen über den Markt gesehen wird vermutlich durch Intels Vertreter besser bedient & realisiert...
Das sehe ich nicht so. Denn der Großteil der Anforderungen wird eben von beiden völlig ausreichend bedient. Wie schon gesagt: Man wird es bei vergleichbaren Produkten so gut wie nie merken, ob da jetzt eine Intel oder AMD CPU im Rechner steckt. Und auch die Leistungsaufnahme ist für den Großteil der Anwendungsfälle viel weniger relevant, als es meistens hingestellt wird, weil es eben im Teillastbereich bzw. im Alltag ganz anderes aussieht, wie unter Volllast bzw. hoher Last (wo AMD ohne Zweifel Nachteile hat).
Es ist einfach nicht richtig dass Intel die Anforderungen besser bedient, weil diese eben so niedrig sind, dass beide CPU-Archtiekturen keinerlei Probleme damit haben.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Den letzten Satz halte ich für höchst fraglich und so aus dem Stand kenne ich keine Messungen, die genau das belegen - hast du welche zur Hand?modena.ch schrieb:Weiterhin ist die dedizierte Grafikkarte bei GPGPU Aufgaben nicht automatisch im Vorteil. Bisher müssen die Workloads von der CPU in den Ram und von da zur dGPU kopiert werden. Die Resultate dann wieder den umgekehrten Weg. Bis das mit dem langsamen Ram passiert ist, ist eine APU je nach Software längst fertig.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
@LoRDxRaVeN
sicher, wenn man einen i7 3770K gegen einen FX8150 stellt trifft das eventuell zu, bei den kleinen CPUs um 35-50€ merkt man den Unterschied schon eher an, oder eben im Bereich 17W bei den ULVs oder kleinen Trinitys.
sicher, wenn man einen i7 3770K gegen einen FX8150 stellt trifft das eventuell zu, bei den kleinen CPUs um 35-50€ merkt man den Unterschied schon eher an, oder eben im Bereich 17W bei den ULVs oder kleinen Trinitys.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
Unter Voll-Last wie Teil-Last hat AMD leider CPU-seitig deutlich das Nachsehen, dafür sind die Radeon-iGPUs um Welten effizienter (wer viel im iNet surft, der merkt das recht schnell - Flash lässt grüßen).LoRDxRaVeN schrieb:Und auch die Leistungsaufnahme ist für den Großteil der Anwendungsfälle viel weniger relevant, als es meistens hingestellt wird, weil es eben im Teillastbereich bzw. im Alltag ganz anderes aussieht, wie unter Volllast bzw. hoher Last (wo AMD ohne Zweifel Nachteile hat).
y33H@ schrieb:dafür sind die Radeon-iGPUs um Welten effizienter (wer viel im iNet surft, der merkt das recht schnell - Flash lässt grüßen).
Woran merke ich das schnell? Warum ist die 17W Version dann nicht um Welten schneller? Mal davon abgesehen, dass ich GPU Browser Beschleunigung auf einer Sandy/Ivy CPU beim reinen Surfen für sinnlos halte, wo gibt es Messungen? Laut PCGH verbraucht Intel weniger Strom beim Webbrowsing.
i5-3570k HD4000 59 Watt
A6-3650 HD6530D 65 Watt
A8-3870K HD6550D 67 Watt
Den Vorteil, den AMD hat, sind die größeren GPU Einheiten mit mäßigen Takt. Generell ist das effizienter als eine dünnere Architektur mit weniger Einheiten, die dafür einen sehr hohen Takt braucht. Das aber ist eher in Spielen bemerkbar wo es auf maximale Leistungsfähigkeit ankommt, aber beim Surfen? Beim Surfen wird die GPU wohl eher selten mit Maximaltakt laufen. Bei der Filmwiedergabe und Surfen gilt ein Sandy/Ivy Bridge System mit iGPU als sehr sehr sparsam, keine Ahnung wo ich die angeblich um Welten schlechtere Effizienz beim Surfen bemerken soll.
Ähnliche Themen
- Antworten
- 91
- Aufrufe
- 15.067