Test Tiger Lake im Test: Intel Core i7-1185G & i7-1165G7 treffen Ryzen 4000U

guggi4 schrieb:
Zumindest bei Zen2 ist das definitiv nicht so, der elektrisch beste Kern wird beispielsweise für den Singlecore Boost verwendet. Deswegen bekommt man auch kaum einen Chip allcore auf den singlecore boost übertaktet.
Das stimmt und es ist auch eine Strategie die ich nicht befürworten möchte.
 
borizb schrieb:
Das sind im Wesentlichen Vermutungen. Lässt auch außer Acht, dass in 10nm auf die gleiche Fläche
wesentlich mehr Transistoren passen als bei 14. Yield ist sicher ein Thema, aber Intel hat ja nicht nur eine Fab.
Ich bin innerlich vom Backport auf 14nm ausgegangen, habe aber nicht daran gedacht dies zu erwähnen. Mea Culpa.
 
guggi4 schrieb:
Wo siehst du hier große IPC Verbesserungen? Je nach Benchmark liegt Willow cove bei +- der IPC von Sunny Cove
Die IPC Verbesserung bezogen auch Skylake, im Desktop ist ja noch die Skylake Architektur aktuell. Der neue 10nmSF Prozess ist aber auf jeden Fall der großere Schritt als der Architektursprung von Sunny auf Willow Cove:
 
KCX schrieb:
Das würde mich auch interessieren.
Ich finde es seltsam, dass viele Webseiten/Blogers/YouTubers diesen Test-Prototyp bekommen haben, aber niemand hat AV1 Decoding getestet, obwohl Intel es in der Präsentation als ein besonderes Feature bezeichnete.

eu7gtddcdsg51.jpg
 
  • Gefällt mir
Reaktionen: PhilAd und KCX
Buggi85 schrieb:
Das stimmt und es ist auch eine Strategie die ich nicht befürworten möchte.
Warum nicht? Man bekommt out of box bereits ein schnelleres Produkt, die erreichbare Frequenz für Übertakter ändert sich dadurch ja nicht.
Holt schrieb:
Die IPC Verbesserung bezogen auch Skylake, im Desktop ist ja noch die Skylake Architektur aktuell. Der neue 10nmSF Prozess ist aber auf jeden Fall der großere Schritt als der Architektursprung von Sunny auf Willow Cove:
Da es hier aber um Notebook CPUs geht, ist ein IPC Sprung immer noch auf den Vorgänger zu beziehen.
Ja der Prozess ist sicher größere Schritt, Tigerlake wirkt ein wenig wie das, was Icelake hätte sein sollen + Xe.
 
Ned Flanders schrieb:
Die Tigerlake-H mit 8c sind ja schon angekündigt. Die Frage ist, warum die überhaupt Rocket Lake bringen und nicht Tiger Lake H für den desktop auskoppeln.
Das frage ich mich schon länger, aber noch wissen wir ja gar nicht ob Rocket Lake wirklich kommen wird.
Oberst08 schrieb:
Entsprechend liegt so etwas wie Kühler nahe. Tiger Lake ist ja so klein, dass man auch in so flachen Gehäusen relativ viel Platz hat.
Wieso sollte die Größe des Chips mehr Platz im Gehäuse schaffen? Die Größe wird immer in mm² angegeben, weil die Höhe praktisch kaum eine Rolle spielt und selbst ein mm mehr oder wenig würde kaum Platz für den Kühler schaffen. Im Gegenteil ist ein kleiner Chip problematisch wenn es um die Kühlung geht, weil die Wärme auf weniger Fläche anfällt.
Oberst08 schrieb:
Insgesamt ist TigerLake glaube ich vor allem als H Modell interessant. Bei 45W dürften sich vor allem die Gaming Laptops freuen und die SC Leistung bekommt mit 8 Kernen dann auch MC Dampf.
Für MC Dampf braucht man immer eine höhere Leistungsaufnahme. Bei den U Modellen, gerade wenn sie nur die früher in der Klasse üblichen 15W verbrauchen dürfen, ist dafür einfach nicht genug Spielraum vorhanden. Aber solche Notebooks sind auch nicht für diese Art von Last gedacht, sondern für leichte Workloads wie Surfen und Office.
flaphoschi schrieb:
Leichte Anwendung sollte ein Multicoreprozessor nebenzu ausführen und nicht als Paradedisziplin anführen und da ist es auch kein Argument, indem man den Kern kurz Übertaktet um einen Webbrowser schneller öffnen zu können.
Doch, genau das kurze Hochtakten um eine kurze Last schnell abarbeiten zu können, ist das was die Reaktionszeit senkt und damit die gefühlte Geschwindigkeit ausmacht. Die sind nicht für Dauerlasten, wer solche Anforderungen hat, der sollte bei den größeren und schwereren Modellen mit einer H CPU zugreifen, die sind viel besser für längere MC Lasten geeignet. Aber es scheint wirklich vielen Leuten schwer zu fallen die passende Hardware für ihre Anforderungen zu erkennen.
flaphoschi schrieb:
• Syntethische Benchmarks machen eigentlich nur Sinn, wenn dabei länger als 60 Sekunde gemessen wird. Um die ganzen Turbotricks und TDP Anhebungen auszuhebeln. Niemand spielt nur ein paar Sekunden.
Das hat Anandtech doch gemacht:

TigerLake_vs_Renoir_Power - 15W Comp yCr_575px.png


(Quelle)
flaphoschi schrieb:
Liefert Intel jetzt wirklich keine acht Kerne?
Doch, Tiger Lake-H wurde doch schon angekündigt.
Ratterkiste schrieb:
Und 20% mehr Performance gegenüber sehr viel stärker gestiegenen Produktionskosten, verbunden mit einer dementsprechend niedrigeren Ausbeute bei eh schon an der Kapazitätsgrenze laufenden Produktion ist wirtschaftlich schlichtweg unsinnig.
Wie weit die 10nm Produktion an der Kapazitätsgrenze läuft, wissen wir doch gar nicht, bei der 14nm Fertigung war Intel lange an der Kapazitätsgrenze, aber die 10nm kommen aus anderen Fabs oder wenigstens von anderen Fertigungslienen.
 
  • Gefällt mir
Reaktionen: gaelic
Holt schrieb:
Doch, genau das kurze Hochtakten um eine kurze Last schnell abarbeiten zu können, ist das was die Reaktionszeit senkt und damit die gefühlte Geschwindigkeit ausmacht.

Sorry, aber das sind doch wirklich theoretische Betrachtungen. Ob mein Browser jetzt in 50ms oder 60ms öffnet macht doch allenfalls bei den Balken im Benchmark einen Unterschied. Diese ganzen Office Benchmarks sind daher doch völlig für die Katz. Irgendwann muss man einfach anerkennen, dass CPUs für sowas schnell genug sind auch wenn sie 3x langsamer sind als der Spitzenplatz.

Performance ist immer dann wichtig wenn der User auf die CPU warten muss. Das tut er aber in Word, Excel, Outlook, fast nie. Bei Excel beispielsweise lasse ich noch gelten dass das öffnen von sehr großen Tabellen CPU abhängig Zeit in Anspruch nimmt weil xlsx komprimiert ist, aber genau solche Aufgaben sind dann wieder gethreaded und Single Core Performance ist dabei wertlos.

Eine wirklich performancekritische Arbeitslast im Sinne von 'ich muss als User auf sie warten' die SingleThread ist, habe ich schon lange nicht mehr gesehen.
 
  • Gefällt mir
Reaktionen: v_ossi, Starkstrom und bad_sign
Das läuft dann wie mit den Browserbenches ab.
Yeah 0.5 vs 0.7 Sek. wir sind 30% schneller
In Wirklichkeit limitiert der Server mit 1-2Sek Antwortzeit :)
Für Browser, Video und das ganze Lowpower Zeug, da reicht mir mein 4300U noch dicke und das sind 2 Kerne HT als Haswell.
 
  • Gefällt mir
Reaktionen: Ned Flanders und andi_sco
@Volker wieso wird nicht darauf eingegangen, dass in dem CPUID-Screenshot von LPDDR4-5333 die Rede ist? Ist das ein Fehler des Programms oder hat dieses Beta Sample tatsächlich schnelleren RAM verbaut als offiziell spezifiziert?
 
@Ned Flanders

Das Heunterskalieren von "4k Bildern" in einen umfangreichen PDF Dokument für den Druck ist im Acrobat Reader SC Last.
In den Fall waren es nicht Sekunden.

Das Hashen von Dateien ist oft als ST umgesetzt und in der heutigen Zeit wirken SSDs nicht mehr begrenzend.
 
Holt schrieb:
Wieso sollte die Größe des Chips mehr Platz im Gehäuse schaffen? Die Größe wird immer in mm² angegeben, weil die Höhe praktisch kaum eine Rolle spielt und selbst ein mm mehr oder wenig würde kaum Platz für den Kühler schaffen. Im Gegenteil ist ein kleiner Chip problematisch wenn es um die Kühlung geht, weil die Wärme auf weniger Fläche anfällt.
Es geht nicht um die Größe oder Höhe des Chips, sondern um die hohe Integration und das daraus sehr kleine Board, auf dem TigerLake ist. Intel hat hier schon öfter Bilder gezeigt, auf dem das Mainboard vielleicht 3x so groß als die CPU ist. Dadurch bleibt Platz für Kühlkörper und einen größeren Lüfter.
 
Ned Flanders schrieb:
Sorry, aber das sind doch wirklich theoretische Betrachtungen.
Dann sind die Hersteller ja alle auf dem Holzweg, wenn sie sich bei CPU und übrigens auch GPUs so viel Mühe gemacht haben die Taktraten schneller der Last anzupassen und dies, seit es die Turbotakte gibt. Bei AMD war dies schon beim Wechsel von AM3 auf AM3+ ein ganz großes Thema:

AMD_AM3+_VID_Takt.jpg


Zuletzt gibt AMD nun mit Zen2 sogar an die Taktraten innerhalb einer ms verändern zu können. Dagegen ist Intels Speedshift 2 richtig lahm:

Kaby Lake Speedshift.png


Zu dem Effekt schrieb Computerbase damals:
So ganz theoretisch scheint die Betrachtung also nicht zu sein!
Ned Flanders schrieb:
Ob mein Browser jetzt in 50ms oder 60ms öffnet macht doch allenfalls bei den Balken im Benchmark einen Unterschied.
50ms oder 60ms ist ja ein unrealistisch geringer Unterschied, wenn der Takt schon nach so 10ms deutlich höher oder gar auf dem maximalen Turbotakt ist, Intel wird auch da sicher weiter dran gearbeitet haben, dann reden wir bei den bei Intel bisher üblichen 800MHz Idle Takt zu den maximal 4,8GHz Turbo von dem 6 fachen Takt, der Effekt ist also weit größer als 20% die du hier unterstellst!
Oberst08 schrieb:
Intel hat hier schon öfter Bilder gezeigt, auf dem das Mainboard vielleicht 3x so groß als die CPU ist.
Meinst Du das Board welches hier ganz oben zu sehen ist? Das ist mindestens 10x so groß wie der SoC und wenn ich mir die Anschlüsse anschauen, eher ein Testboards als ein Notebookmainboard. Aber auch wenn in den Notebooks für die Reviewer steckt, wissen wir nicht wie die Kühlung darin aussieht und wie viele der OEMs überhaupt das Referenzdesign übernehmen werden.

Aber die Leistung hängt gerade bei den geringen TDP Klassen sehr davon ab wie gut die Kühlung ist, denn die TDP ist ja allenfalls noch ein gewisser Anhaltspunkt in welchem Bereich die tatsächliche Leistungsaufnahme liegen könnte, aber schon bei den Tiger Lake U sind 12W bis 28W, beim 4800Uwie schon geschrieben laut AMD 10 bis 25W, aber im Yoga 7 kann man auch 38,4W einstellen. Damit ist man im Bereich den eigentlich die H Serien bei beiden Herstellern abdecken und landet auch bei deren Leistung und weit vor einem der sich auf längere Sicht nur 10, 15 oder sogar 25W gönnen darf. Genauso ist es ja auch mit dem i7-1185G, ob der in dem konkretem Notebook 15W oder 28W dauerhaft ziehen darf, wird auch da einen gewaltigen Unterschied in der Performance ausmachen.

Die Zeiten wo die Notebooks mit der gleichen CPU auch ungefähr gleicht schnell waren, sind eben lange vorbei und daher nutzt es nichts nur auf die verbaute CPU zu schauen, sondern man muss sich schon Reviews der konkreten Modelle raussuchen die einen interessieren und da auch die CPU Performance vergleichen.
 
  • Gefällt mir
Reaktionen: Suteki und gaelic
Hier nochmal ein schöner Rückblick in die Zukunft, wie sie sich intel zu Beginn der 14nm Fertigung vorstellte.
7nm war da halbwegs 2017/2018 geplant

Angesichts deren kommerzieller Nutzung frühestens bei 7-nm-Chips ab 2017/2018 ist die Kombination mit 450-mm-Wafern in den nächsten fünf Jahren faktisch vom Tisch

Der Artikel ist vom 11.08.2014, also knapp 6 Jahre alt

Dann hoffen wir mal, das intel mit Tiger Lake jetzt wieder durchstarten kann. Obwohl AMD noch ein/zwei Jahre Zeit gut tun würden!
 
Krautmaster schrieb:
...
Also um 50g Kupfer (geschätzt über der CPU) von 40 auf 90° zu erwärmen kann man 500W 1.9 Sekunden reinballern.
Da sind also 120W für ne Sekunde oder auch 2 nicht so das Problem. Da sind es bei 50g von 40 -> 90° 8 Sekunden.

Und wie sieht es von 60 auf 90 aus? Und wie lange braucht der Lüfter, um den Kühler wieder auf 60 Grad runterzufahren?
Zweiteres wird schwerer, weiß ich.
 
Hallo32 schrieb:
Das Heunterskalieren von "4k Bildern" in einen umfangreichen PDF Dokument für den Druck ist im Acrobat Reader SC Last.
In den Fall waren es nicht Sekunden.

Und wie oft passiert das auf einem Notebook?
Ergänzung ()

Holt schrieb:
Dann sind die Hersteller ja alle auf dem Holzweg

Ne, denn die verkaufen über Balkendiagramme. Für den User ist das aber belanglos.
 
  • Gefällt mir
Reaktionen: v_ossi
Ned Flanders schrieb:
Eine wirklich performancekritische Arbeitslast im Sinne von 'ich muss als User auf sie warten' die SingleThread ist, habe ich schon lange nicht mehr gesehen.

Die gibts beispielsweise in den meisten CRMs und ERPs an allen Ecken. Daten Filtern, über Formulare ausgeben etc. Oft gibts dann noch Office Add ins, ERP/CRM Erweiterungen von Drittanbietern, kleine Tools und eigene, gewachsene Scripts. Selbst wenn die Software im Kern halbwegs multithreaded ist limitiert bei vielen Workflows am Ende die ST Performance. Daran wird sich auf absehbare Zeit auch nichts ändern.
Zum einen werden die Datenmengen immer noch größer und zum anderen ist Abhilfe (Software, Neuentwicklung) oft nicht bezahlbar bzw. bei vielen Operationen auch nicht möglich.

Deshalb ist halt auch eine 0815 Server CPU für Terminal Server ziemlicher Mist. Praktisch liegt kaum mehr an als die Hälfte der Turbo Frequenz aktueller Client CPUs.
 
Zuletzt bearbeitet:
Ned Flanders schrieb:
Für den User ist das aber belanglos.
Daran habe ich massive Zweifel, aber die Sensibilität ist ja individuell verschieden, von "Prinzessin auf der Erbse" bis "Amboss im Gleitflug" soll ja alles dabei sein und das muss daher nicht auf jeden Zutrffen:

YforU schrieb:
Selbst wenn die Software im Kern halbwegs multithreaded ist limitiert bei vielen Workflows am Ende die ST Performance. Daran wird sich auf absehbare Zeit auch nichts ändern.
So ist es, aber weil der Task Scheduler bei Windows die Threads meistens so schnell zwischen den (logischen) Kernen der CPU verschiebt und zugleich der Task Manager nur 100% anzeigt wenn alle (logischen) Kerne voll ausgelastet sind, erkennen es viele User einfach nicht, wenn die Singlethreadperformance der Flaschenhals ist. Je mehr logische Kerne eine CPU, umso geringer ist dann die Last auf jedem einzelnen, selbst wenn ein Thread also 100% der Zeit auf einem Kern fordert, scheint die CPU kaum beschäftigt zu sein.
 
Also wenn ihr meint ihr fühlt einen Unterschied beim öffnen von Outlook zwischen einem 10900k und einem 3300x dann glaube ich euch das einfach mal. Ich kann nur von mir selbst reden und ich fühle das ganz definitiv nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
Hallo32 schrieb:
Oft genug, damit es sich bei mir negativ ins Gedächtnis eingebrannt hat.

Und 10% schneller hättest du bemerkt oder einen benefit von gehabt? Hand aufs Herz?

Sagen wir das Ding ist exclusively st limited und nichts läuft im Hintergrund. Sagen wir der Task dauert 1min auf Renoir und ist 15% schneller auf TL. Dann wäre er auf TL nach 52 sek. fertig. Ohne Stoppuhr?

Und morgen kommt das Update für den Acrobat raus, das Ding wird gethreaded und ist auf 8 Kernen 50% schneller als auf 4. Wohlwollend gerechnet.
 
Zuletzt bearbeitet:
Zurück
Oben