S
Schugy
Gast
Mein über 5 Jahre alter Beema (A6-6310) bekommt damit bald endlich einen Nachfolger.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Qarrr³ schrieb:Das Problem der AMD Chips ist nicht deren maximale Leistung, sondern deren Idle Verbrauch. Bei leichter Belastung hält Intel noch immer gut 30% Prozent länger durch und auch wenn Leistung gelegentlich gebraucht wird, ist vor allem Akkulaufzeit wichtig. Und wenn ich die Wahl habe, ob 30% mehr Laufzeit oder doppelte gpu Leistung, nehme ich die Akkulaufzeit.
Naja, es geht sicher nicht um die untere Performance Klasse mit 15W, sondern eher um die Oberste mit 45W als Ryzen 9. Und 8 Kerne sind ja jetzt quasi auch schon bestätigt. Und wenn ein 4 Kerner mit 15W hinkommt, dann könnte es vll ein niedrig taktender 12 Kerner vll in die 45W Klasse schaffen. Könnte ja eine Überraschung geben...auch wenn sie weniger wahrscheinlich ist.guggi4 schrieb:Bevor hier noch mehr Leute wieder komplett überzogene Erwartungen schüren:
B12 bedeutet sicher NICHT 12 Kerne, was erwartet ihr denn bitte bei 15w? Das ist einfach nur komplett unrealistisch.
Gib es doch zu... Angela Merkel herself ruft jeden Morgen bei euch an, diktiert die News, FAXT die Benchmark Tabellen durch, bringt euch Abends eure Lohntüten (abgezwackt aus GEZ und Steuer Mitteln) vorbei...SV3N schrieb:Ob CB, meine Person insbesondere, in eine AMD-Verschwörung verwickelt ist?
...
Oder eine Neuentwicklung des I/O Chiplets, evtl mit integrierter GPU. Wüsste nicht warum eine Vollintegration als Monolith sparsamer sein sollte. Aber es wird die Kosten erhöhen, also glaube ich nicht dran.Holt schrieb:Wenn es Modelle mit nur 15W TDP geben wird, ist ein monolithisches Design eigentlich Pflicht, da ja schon alleine der I/O Chip eine derartige Leistungsaufnahme hat.
Wenn sowieso ein neuer Chip entwickelt werden muss, dann kann man auch gleichen einen mit GPU, CPU und den I/O Funktionen entwickeln und hinterher die APUs günstiger und Energiesparender bauen, die zwei Dies auf einer Platine zu verbauen kostet mehr und braucht für die Kommunikation mehr Strom. Ein Chiplet Design macht nur Sinn, wenn man dies mit den aktuellen Dies bauen kann, ohne ein neues Design entwickeln zu müssen. Der aktuelle I/O Chip dürfte aber weder die Videoausgabe erlauben noch von der Leistungsaufnahme eher zu solchen APUs passen.ghecko schrieb:Oder eine Neuentwicklung des I/O Chiplets, evtl mit integrierter GPU.
Nur wie Tetris Lvl 9000. Das gute an Chiplets ist, dass man bei allen Komponenten nicht an ein einziges Rechteck gebunden ist. So kann man den Platz effizienter ausnutzen und kritische Kommunikationswege innerhalb des Chips so kurz wie möglich halten. Das Seitenverhältnis jedes Chiplets kann so gewählt werden, wie es für die interne Struktur der Logik am günstigsten ist. Das relativiert das Argument der längeren Kommunikation über den Interposer.Holt schrieb:So viel Aufwand ist die Entwicklung nicht
???ghecko schrieb:Das relativiert das Argument der längeren Kommunikation über den Interposer.