und wieder was Neues gelernt. Die Leute lassen also den ganzen Tag Prime Laufen und da muß CB das natürlich als Maßgabe nehmen. Wenn ich es nicht hier gelesen hätte, wäre mir immer verborgen gebllieben, daß die meisten Leute den ganzen Tag Prime daddeln. Ich sag echt nichts mehr.
Die FlareX lohnen sich m.M. im Moment immer, da sie auch zu Mehrleistung führen, wenn man später eine Grafikkarte dazu steckt.
Im CPU Limit teilweise bis 20% plus.
Im Moment ist der Unterschied ~ 40€
Die sind auch bekannt dafür ihre Leistung zu bringen. Weil zuvor jedoch ein besonders günstiges Set angeführt wurde, bleiben nach bisherigen Erfahrungen (leider) Zweifel ob das wirklich wie erwartet läuft. Der Preisunterschied ist halt so beträchtlich, daß es AMD bei einigen Kaufentscheidungen zum Nachteil gereichen könnte.
Schade, daß AMD nicht die kapitalistische Kaltschnäuzigkeit und den finanziellen Background wie Intel hat. Als man in Santa Clara damals noch mit der Netburst-Architektur rumgekrebste und AMD die moderneren Prozessoren baute, haben sie durch Investitionen (in Elpida und Micron) einfach für ein so massenhaft und billig verfügbares Angebot an DDR2-Speicher gesorgt, daß sie ihr Zeug doch wieder verkauft haben. Und als AMD dann endlich auch auf DDR2 ging, war auch schon die Core2-Architektur da.
Warum gibt es bei Tests mit Integrierter Grafik nie vergleichwerte mit Einsteigergrafikkarten?
Ich habe es einfach satt dass Anfänger basierend auf solchen Tests meinen dass eine integrierte Grafik auch nur entfernt an eine dedizierte Grafik rankommt.
Man muss ja nicht gleich mit einer Titan X vergleichen aber zumindestens eine Geforce 1030, 1050 und Radeon 570 sollten schon dabei sein.
--- next ---
Nächster Punkt, wenn Heat-Spreader so ein Problem sind warum verkaufen die Hersteller dann nicht gleich CPUs ohne Heat-Spreader?
Das hat man schliesslich jahrelang beim Athlon praktiziert ohne grosse Probleme - im Gegenteil, durch den direkten Kontakt zwischen Die und Kühlkörper war die Kühlung extrem effizient. Bei Notebooks und anderen All-in-One-Geräten kann ein Endkunde ohnehin nichts kaputt machen weil er eine fertige Einheit aus Board, CPU und Kühlsystem erwirbt. Ich gehe sogar noch weiter, selbst unerfahrene Endkunden können so ein System aus Einzelkomponenten erwerben wenn der Kistenschieber einen Zusammenbau von Board, CPU, Kühler und RAM anbietet, Mindfactory will dafür 20 Euro und in der Münchner Schillerstrasse kostet das kaum mehr.
Weil zuvor jedoch ein besonders günstiges Set angeführt wurde, bleiben nach bisherigen Erfahrungen (leider) Zweifel ob das wirklich wie erwartet läuft. Der Preisunterschied ist halt so beträchtlich, daß es AMD bei einigen Kaufentscheidungen zum Nachteil gereichen könnte.
Also wenn man die Reviews zu RR im Netz sieht, läuft jeder popelige Ram mit seinen Spezifikationen (bis 3600). Allerdings schreiben viele das 3200 der Sweetspot ist, dieser ist auch kaum teurer als 2400er bzw. gibt es ja auch genügend Riegel im Netz bei denen man weiß das sie sich in der Regel gut übertakten lassen. Also der Speichercontroller ist auf jedenfall deutlich weniger zickig, daher sehe ich nicht wo das ein Problem sein könnte. Man kann natürlich auch eins aus dem nichts herbeidiskutieren.
Da RR schon so sauber mit dem Ram umgeht, und bei Zen+ im April sogar noch mehr Änderungen an Latenzen, Cache und Speichercontroller wohl drin sind, mach ich mir um Ram eigentlich überhaupt keine Sorgen mehr.
Ich hoffe die Verlöten bei den Neuen 8 Kernern... aber auch so finde ich dies nicht inordnung, wegen den vielleicht 1€ pro CPU, den bezahle ich auch noch gerne wenn dabei die CPU 20-30° Kühler ist bei Volllast und mir dabei auch nicht die Ohren dröhnen!
In erster Linie schützt der Heatspreader das empfindliche Die. Zusätzlich ist auch das Auftragen von Wärmeleitpaste auf einen Heatspreader wesentlich unproblematischer. Zur Not passiert auch nichts wenn man keine Paste aufträgt.
Die heutigen Dies sind dazu noch dünner als die von damals und die Kühler meistens auch zig mal dicker, was die Montage oftmals stark erschwert.
wegen den vielleicht 1€ pro CPU, den bezahle ich auch noch gerne wenn dabei die CPU 20-30° Kühler ist bei Volllast und mir dabei auch nicht die Ohren dröhnen!
So rechnest vielleicht du. AMD bzw. die Hersteller Rechnen da aber ganz anders bzw. in ganz anderen Größenordnungen. Da wird z. b. mit 1 Million CPU`s gerechnet. Und dann kannst du schon Erkennen, was die sich Einsparen. Intel genauso natürlich. Das ist jetzt nur ein Beispiel, um die Größenordnung wiederzugeben, in welchen so ein Hersteller rechnet. Bei den Autos genauso.
Opel hatte bei einem Modell mal eine Schraube eingespart, waren Centkosten dafür, aber durch die Masse eine Irre Summe eingespart. Opel hatte deshalb ganz schön Ärger und am Ende war die Ersparnis dahin im Grunde, weil die Marke gelitten hatte aufgrund des Ärgers den die Fahrer deswegen hatten. Schau auch Aktuell mal VW, was die sich einhandelten, weil sie bei der Diesel-Abgasreinigung Einsparungen vornahmen obwohl es mit vertretbarem Finanziellem Technischen Mehraufwand machbar gewesen wäre bzw. sogar ist.
Ich hoffe die Verlöten bei den Neuen 8 Kernern... aber auch so finde ich dies nicht inordnung, wegen den vielleicht 1€ pro CPU, den bezahle ich auch noch gerne wenn dabei die CPU 20-30° Kühler ist bei Volllast und mir dabei auch nicht die Ohren dröhnen!
Ohne genaue Zahlen zu kennen, kann man die Kosten nicht als Argument anführen. Ich vermute allerdings auch, dass sie relativ gering sind. Im Netz kursieren auch weitere Gründe für die "Sparversion" die aber auch nicht nachvollziehbar sind, weil AMD die großen CPU trotz Die Dichte verlötet.
Unterm Strich sollte man sich aber schon die Frage stellen, warum Intel eine bilige WLP nutzt und welche WLP AMD nutzt und wie man das Problem entschärfen könnte bzw. wo Probleme möglich und wahrscheinlich sind.
Dann lege ich die Kosten um zum Endkunden, mir ist das völlig schnuppe bei 1 Million CPU's die 1 Million Kosten wo dann jeder CPU 1€ mehr Kostet, somit hat am ende AMD keine einbußen vorallem das Image sollte davon Profitieren!
Dann trinke ich 1 Bier weniger meine CPU bleibt Kühl & Leise und ich bin Glücklich und freue mich das Hersteller X das nicht so macht wie Y, aber nun machen es Z erstmal alle irgendwie/wo.
Das ist eine APU die vor allem in OEM Systemen verbaut werden wird. Dort spielt jeder Cent eine Rolle und kann über Erfolg oder Misserfolg entscheiden, ob der OEM z. B. eine große Menge nimmt oder eben nur eine geringe Stückzahl. Diese Systeme sind genau kalkuliert, eine Umstellung der Produktion + die Materialkosten = zu teuer für eine Einsteiger-CPU in OEM Systemen.
Zudem wird keiner Prime 95 damit spielen wollen. Denn lediglich dort wurde die CPU warm.
Da hast du natürlich recht, irgendwann werden günstigere B300 Boards erscheinen. Allerdings müssten die Boards dann 0€ kosten damit i3 8100 + GT 1030 für 170€ irgendwie gegen den 2200G für 160€ (95€+65€) antreten könnte.
Aber immerhin dürfte das Board des Intel-Sys 60€ kosten (+CPU 100€ + GPU 70€) beim Vergleich gegen den 2400G (+Board ca. 230€). Aufgrund der 4c/8t + OC + Vega würde ich aber auch hier eindeutig zu AMD greifen.
Wobei es letztlich wohl darauf hinausläuft, daß der 2200G gegen den Pentium G4560 (+ GT1030) bestehen muß und der Gegenspieler für den i3 8100 ist dann der 2400G. Wenn man darüber so nachdenkt, wird man sich früher oder später die Frage stellen wie viel vom Kuchen da überhaupt noch zu holen ist.
Wem ist die Grafikleistung eines i3 8100 zu wenig, aber die des 2400G genug. Laut des Anwendungsratings im Artikel beträgt der CPU-Vorteil des 2400G nur 13 Prozent und dafür allein würde wohl niemand 60 Prozent Aufschlag bezahlen wollen. Der 2200G ist ca. so viel langsamer wie er billiger sein wird und hat die leistungsfähigere Grafik - das ist so ok.
Ich wäre prinzipiell ein Kandidat für diese CPUs. Ich befürchte nur, nicht so besonders repräsentativ für den IT-Markt zu sein. Ich komme kaum noch zum spielen, meine neusten Spiele sind ca. 5 Jahre alt (und teils noch ungespielt ) sollen aber flüssig laufen (was unter Linux meist noch mal ein bißchen mehr Leistung benötigt). Mit der GTX 750 Ti (meist ~10 % schneller als GT1030) geht das gerade noch so. Mit der nächsten Generation könnte es also klappen.
Mir wäre allerdings auch wichtig, daß AMD die Effizienz verbessert (momentan liegt man ja leider noch deutlich hinter einem Intel-System selbst mit dedizierter Grafik), dann würde ich auf jeden Fall auf AMD setzen - gegebenenfalls zumindest auf eine AMD-Grafikkarte. Die Verschlossenheit von Nvidia gegenüber Linux geht mir schon lange auf den Keks und AMD hat da in letzter Zeit wirklich hervorragend agiert. Das soll sich für sie auch lohnen.
Dann lege ich die Kosten um zum Endkunden, mir ist das völlig schnuppe bei 1 Million CPU's die 1 Million Kosten wo dann jeder CPU 1€ mehr Kostet, somit hat am ende AMD keine einbußen vorallem das Image sollte davon Profitieren!
Genau da liegt der Hase im Pfeffer begraben. Wenn die APU 99 € kosten soll, dann kann man eben die Kosten nicht um 1 € erhöhen, ohne die psychologisch sehr wichtige Grenze von 100 € zu erreichen.
Ich verstehe es, wenn man Intel dafür kritisiert, selbst bei High-End-Hardware WLP als TIM einzusetzen. Bei APUs für kaum mehr als 100 € ist es hingegen absolut lächerlich, anstatt WLP Lot zu erwarten als TIM. Wer Qualität will, muss auch etwas dafür bezahlen; AMD bietet schon ein sehr gutes Paket.
Also der Speichercontroller ist auf jedenfall deutlich weniger zickig, daher sehe ich nicht wo das ein Problem sein könnte. Man kann natürlich auch eins aus dem nichts herbeidiskutieren.
Wenn der Sweetspot eh schon früher erreicht wird, ist das natürlich kein Drama. Bei Golem war halt zum Thema Speichercontroller zu lesen:
Offenbar verträgt der Speichercontroller auch keine sehr hohen Taktraten: Mit zwei Speicherkits mit Samsungs B-Dies (G.Skill Flare X), die auf einem Intel-System locker DDR4-4000 schaffen, war bei Ryzen mit Vega früher Schluss. Wir erreichen DDR4-3466 mit CL19 bei hohen 1,45V und das auch nur ziemlich instabil.
Wenn DDR4-4000 ohnehin nichts bringt (was wir jetzt mal annehmen müssen, weil diese Werte ja gar nicht erreicht werden konnten), kann man sicher damit leben. Aber - um es ganz neutral zu formulieren - das las sich ad-hoc erst einmal nicht ganz so optimal, zumindest für einen unbedarften Nutzer wie mich. Daraus resultierte auch eher eine Besorgnis meinerseits (die Erinnerung an den Ryzen-Start ist halt noch nicht ganz verblaßt - man verzeihe meinem Gedächtnis) und keineswegs der Wunsch etwas - wie Du schriebst - aus dem Nichts herbeizudiskutieren.
Anscheinend laufen sämtliche RAM-Module jedoch problemlos entsprechend ihren Spezifikationen, insofern bin ich beruhigt und danke Dir für die Information.
Mir wäre allerdings auch wichtig, daß AMD die Effizienz verbessert (momentan liegt man ja leider noch deutlich hinter einem Intel-System selbst mit dedizierter Grafik), dann würde ich auf jeden Fall auf AMD setzen
Ist das nun Intel zugewandt und larmoyant oder nur schlecht informiert?
Eine GT 1030 ist wesentlich sparsamer, als Deine GTX 750TI. Setzt Du die 1030 zu Deinem Liebling i3-8100 zieht die nach ComputerBase-Test im Idle 5 Watt. Addiere diese 5 Watt zum Idleverbrauch des i3-Systems, schluckt Intel/Nvidia beim Nichtstun, dem häufigsten Betriebszustand, ständig 4 Watt mehr als ein Rig mit Ryzen 2200G oder 2400G. Ob die GT 1030 bei dem hier getesteten Starwars Battlefront 2 auf einen Verbrauch von nur 26 Watt kommt (wie sie ihn bei Overwatch erreicht), erscheint mir fraglich. Addiere aber diese 26 Watt zum ermittelten Spielelastwert des i3 von 68 Watt und wundere Dich bitte nicht, wenn die Summe höher ist, als das für den 2200G ermittelte Ergebnis.
Ja das ist immer wieder lesenswert. Man kann es auch so sagen: Wann immer es nötig ist um die Temperaturen in den Griff zu bekommen ohne zu viel Leistung zu verlieren, wird verlötet. Andernfalls wird WLP verwendet und so gab es von Intel wie von AMD auch in der Vergangenheit immer wieder beide Varianten und wie es eben auch schon im Review steht:
Das Ergebnis von Raven Ridge dürfte abermals unterstreichen, dass AMD bei der regulären Ryzen-CPU quasi gezwungen war zu verlöten, da die Temperaturen sonst bei hohen Taktraten nicht im Zaum zu halten gewesen wären.
Auch wenn es bei den kleinen RYZEN 3 nicht nötig gewesen wäre, so wird da bei der Fertigung nicht unterschieden und nur die Anforderungen der Spitzenmodelle entscheiden. Wenn bei Zen+ die Verlötung nicht mehr nötig ist, dann wird der sicher auch mit WLP kommen.
berkeley schrieb:
damit i3 8100 + GT 1030 für 170€ irgendwie gegen den 2200G für 160€ (95€+65€) antreten könnte.
Was für einen Sinn soll eine GT 1030 für eiine Coffee Lake CPU machen? Zum Gamen ist die zu lahm, da sollst es wenigstens die GTX 1050 sein, besser noch eine Nummer größer und dann kann die APU einpacken. Wer nicht spielt, dem reicht dann aber die iGPU des Coffee Lake für den Desktop und Multimedia, also welche Sinn macht die GT 1030 zusammen mit einer CPU mit iGPU? Eine GT 1030 kauft man für den Skylake-X oder Threadripper wenn man damit nicht spielen will, also eigentlich nur überhaupt eine Bildschirmausgabe braucht. Wenn es auch für Gaming sein soll und so eine Kombination dann zu teuer ist, dann kommt eine Raven Ridge APU in Betracht.
Ich wüßte wirklich, wieviele Cent diese Verlötung ausmacht. Alternativ kann man ja auch beide Varianten deployen und schauen, zu welchem Aufpreis der Kunde willig ist. Mich freut es, ist eben auch ein wenig Bastelarbeit zu tun.
Die AES-Werte finde ich übrigens super, auch wenn die wohl kaum jmd. interessieren. Neben VeraCrypt, wird AES nicht auch von Monero benutzt?
Kowa, es wäre wirklich interessant wenn Intel und AMD beide Varianten anbieten würden, zumindest bei den Spitzenmodellen, aber scheinbar wird bei einer Familie nur immer eine Technologie angewendet, sonst wären die kleinen RYZEN ja wohl auch nicht verlötet, denn auch wenn die großen RYZEN 7 die Verlötung wohl brauchen um die Temperaturen um Rahmen zu halten, so dürfte es bei den 4 Kernern sicher unnötig sein.
Diese Art von APU-Power mag etwas neues sein, aber genaugenommen interessiert es 80% der CB-Leser nicht, wenn auf 720p ein R5 1500X mit GT1030 gepwnet wird. Auf 1080p+ ist das Teil im 3d nur rudimentär zu gebrauchen.