Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Tiger Lake-H: CPU-Kerne auf 8 verdoppelt, GPU auf 1/3 reduziert
- Ersteller MichaG
- Erstellt am
- Zur News: Tiger Lake-H: CPU-Kerne auf 8 verdoppelt, GPU auf 1/3 reduziert
Icelake wird ja deutlich geschlagenLocuza schrieb:Wenn mal Zeit übrig ist, schaue ich mir Intel GPUs mal genauer an.
Aber bei dem Chipfoto und der geringen Auflösung hatte ich jetzt keine Lust das genauer aufzuschlüsseln.
Tiger Lake selber ist ~20% scheller pro Takt, als Zen2.
Intel hat eine Perf/Watt-Verbesserung von ~18% für 10nm SuperFin angegeben.
Glaubt man Nuvia's Geekbench5-Daten ist die Perf/Watt von Renoir(Zen2) und Ice Lake(Sunny Cove) praktisch gleich.
https://medium.com/silicon-reimagined/performance-delivered-a-new-way-8f0f5ed283d5
Gefühlt sieht es eher nach einem knappen Sieg für den einen oder anderen aus.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Und bitte mehr von deinen Layman Videos, die sind seeehr interessant
Ergänzung ()
Was heißt dicke GPU? Die braucht doch kaum Die Platz. Vega ist halt einfach effizienz, wenn man sie mit Intels Lösung vergleicht.bensen schrieb:Aber ansonsten verstehe ich nicht was hier unglaubwürdig ist. Bei 45 W TDP Geräten findet oft eine dGPU seinen Platz. Wie viele Renoir-H Notebooks gibt es, die keine dedizierte GPU haben? Kannst du an einer Hand abzählen. Die dicke IGP ist komplett überflüssig. Bei AMD eben Resultat dessen, dass man nur ein mobile Die hat.
https://www.3dcenter.org/abbildung/amd-renoir-die-shot-mit-markierten-einheiten
Zuletzt bearbeitet:
Das was da markiert ist, ist nicht die komplette GPU. Und klein finde ich das definitiv nicht.bad_sign schrieb:Was heißt dicke GPU? Die braucht doch kaum Die Platz. Vega ist halt einfach effizienz, wenn man sie mit Intels Lösung vergleicht.
https://www.3dcenter.org/abbildung/amd-renoir-die-shot-mit-markierten-einheiten
Genaue Zahlen wurden mich aber schon mal interessieren.
Nach Anandtech sieht das so aus (kompletter Die)
Intel Tiger Lake 4C 146.10 mm2
AMD Renoir 8C 149.22 mm2
Intel zeichnet ein größeres Bild der GPU, als es bei AMD aussieht, bekommt aber nur die hälfte an Cores unter.
Intel baut ne fette GPU rein, bei AMD ist es eher ein, wieviele Platz haben wir noch übrig neben 8 Cores.
Intel kommt dafür mit TB4 + PCIe4.0 rüber.
Intel Tiger Lake 4C 146.10 mm2
AMD Renoir 8C 149.22 mm2
Intel zeichnet ein größeres Bild der GPU, als es bei AMD aussieht, bekommt aber nur die hälfte an Cores unter.
Intel baut ne fette GPU rein, bei AMD ist es eher ein, wieviele Platz haben wir noch übrig neben 8 Cores.
Intel kommt dafür mit TB4 + PCIe4.0 rüber.
Zuletzt bearbeitet:
- Registriert
- Aug. 2004
- Beiträge
- 11.699
Versteht eigentlich noch jemand wo da jetzt Platz für Rocket Lake im Desktop ist? Warum nicht einfach ein TL-H Derivat mit 8 Kernen in den Desktop übernehmen? Zu wenig Fertigungskapazität in 10nm?
@bensen
sieh einer an Locuza hat da einen schönen Vergleich gemacht
https://twitter.com/Locuza_/status/1301218099090411520
sieh einer an Locuza hat da einen schönen Vergleich gemacht
https://twitter.com/Locuza_/status/1301218099090411520
Danke. Sehr schöne Zusammenstellung.bad_sign schrieb:@bensen
sieh einer an Locuza hat da einen schönen Vergleich gemacht
https://twitter.com/Locuza_/status/1301218099090411520
Ergänzung ()
Genau das. Server und mobile hat Vorrang.Ned Flanders schrieb:Versteht eigentlich noch jemand wo da jetzt Platz für Rocket Lake im Desktop ist? Warum nicht einfach ein TL-H Derivat mit 8 Kernen in den Desktop übernehmen? Zu wenig Fertigungskapazität in 10nm?
Ergänzung ()
Die ist deutlich langsamer als eine GTX1050.Mr.Scott schrieb:Mit welcher Nvidia GTX kann man die Tiegerlake GPU vergleichen?
Evtl eine GTX 680?
Nach ersten Tests zu urteilen auf MX350 Niveau.
Zuletzt bearbeitet:
Hauptsache, der PR Satz von intel wird hier wieder transportiert und plaziert. Schönes Framing und soll Interessierte vom AMD Kauf abhalten.Numrollen schrieb:Ist das so? Stromverbrauch, Preis schon bekannt?
Salutos schrieb:Ist diese Info nun "offiziell" oder aus einer "treffsicheren Quelle" ?
Siehe oben. Die intel PR Abteilung lanciert hier was und daher halb off.
Was anderes ist das nicht.
Im übrigen... der Konkurrent hat nun wie lange 8 Kerner mit voller iGPU am Start? Und hier wird die iGPU kastriert und bestimmte Intel Schreiber kommentieren dann auch noch das in der Spitzenklasse ja eh keiner die iGPU nutzt. Ja warum bietet intel diese dann überhaupt an? Sollen sie die doch ganz weg lassen und gleich ne MX450 verbauen.
Als AMD mogelte bei Phenom & Co. gab es zu Recht Haue. Nun darf intel hier PR ablassen und wird gefeiert. Ganz toll...
Das es hier um verlötete Notebook CPUs geht, stellt das jeder Hersteller selbst ein und bestimmt auch selbst den Preis des Notebooks, der nicht nur von dem Preis der CPU abhängt.Numrollen schrieb:Stromverbrauch, Preis schon bekannt?
Wieso sollte es keine 6/8 Kerne geben? Die 35W TDP Klassen sind die H Serie um die es in dieser News geht und in der es schon länger 6 und 8 Kerner gibt, von AMD wie auch von Intel.qappVI schrieb:Schade, dass es bei den 35W Prozessoren keine 6/8 Kerne gibt.
So ein Quatsch, die Tiger Lake sind bisher alles verlötete Notebook CPUs und die erscheinen erst im Laden, wenn die OEMs die Endprodukte (also vor allem Notebooks) damit auf den Markt gebracht haben. Dies erfolgt immer erst mit einiger Verzögerung nach Intel die CPUs offiziell vorgestellt hat und es ist bei AMD nicht anders.Über die Yield sagt dies also überhaupt nichts aus und wenn die Yield immer noch grottig wäre, wieso hat Intel dann mit Jasper Lake auch die kleinen "Atoms" auf 10nm um? Bei so billigen CPUs macht es doch keinen Sinn eine Fertigung mit schlechter Yield und damit hohen Kosten zu nutzen.stevefrogs schrieb:Die Yield dürfte ja immer noch grottig sein, ausgehend davon, was man bisher von Tiger Lake (eben nicht) sieht.
Eben, bei Notebooks mit Intel CPUs der aktuellen 10. Generation und AMD Renoir verteilt sich dies wie folgt:calluna schrieb:schau dir einfach die bisherigen Notebooks an, die entweder ein U- oder H-Modell haben: die U-Modelle haben überwiegend nur die iGPU, die H-Modelle eine extra GPU.
Renoir U: "Radeon (8) GeForce (5) (IGP) (199)" 93,9% nur iGPU: und 6,1% eine dGPU
Renoir H: "dedizierte Grafik (104) integrierte Grafik (IGP) (3)" 2,8% nur iGPU und 97,2% eine dPGU
Intel U: "dedizierte Grafik (227) integrierte Grafik (IGP) (619)" 73,2% nur iGPU und 26.8% eine dGPU.
Bei denen mit 6 Kerne sind es "dedizierte Grafik (9) integrierte Grafik (IGP) (5)" besonders viele mit dGPU.
Ice Lake U: "dedizierte Grafik (118) integrierte Grafik (IGP) (727)" 14% nur iGPU und 86% eine dGPU
Intel H(K) : "dedizierte Grafik (663) integrierte Grafik (IGP) (13)" 1,9% nur iGPU und 98,1% eine dPGU
Nicht die TDP, die ist nur eine Angabe im Datenblatt die inzwischen kaum noch eine Bedeutung hat, sondern das Power Limit. Dies stellt man im Desktop im BIOS ein oder es wird über über Tools eingestellt, s.u.!gunmarine schrieb:noch halbwegs gut im Verbrauch da steht wenn man beide per TDP limitiert
Gibt es ja, aber die scheinen nicht der Renner zu sein, sonst gäbe es mehr Versionen mit unterschiedlichen Konfigurationen von RAM, SSD und oft sogar Display von denen.Fritzler schrieb:Ein Arbeitslaptop mit 35W CPU (H), aber ohne Gaming wär schon was feines.
Die iGPUs werden schon alleine wegen der geringen RAM Bandbreite aber nie an die Leistung einer besseren dGPU herankommen und daher macht diese Forderung einfach wenig Sinn. Wenn man eine gute GPU Performance will, kommt man um eine dGPU nicht herum.Piktogramm schrieb:Ich will keine dGPU im Notebook aber eine CPU die etwas kann. Entsprechend ist die Anforderung an die iGPU
NguyenV3 schrieb:Installier das Programm "Lenovo Vantage" und du kannst ihn mit dem Performance-Profil auf 37,5W betreiben. Damit ist der tatsächlich sehr schnell, laut und heiß.
Eben und das mit einem 4800U, der von AMD mit "cTDP: 10-25W" angegeben wird! Dies zeigt wie sinnfrei die TDP Angaben sind und jegliche Performancevergleiche bei denen eben nicht die tatsächlich von der CPU während des Benchmarks aufgenommene Leistung angegeben wird, sondern die TDP unterstellt wird oder die Leistungsaufnahme bei anderen Benchmarks wie z.B. Prime.NguyenV3 schrieb:Beim Yoga Slim 7 sind es laut diesem Erfahrungsbericht kurz 49W und langfristig 38W im Performance Modus.
Wie kommst Du da drauf? Die U Serie geht bei Intel bis 6 Kerne und die H Serie mit 8 Kerne gibt es seit Coffee-Lake-Refresh, also seit Q2/2019.JaKno schrieb:Wieso jetzt plötzlich 8 Kerne? Bisher waren mehr als 4 Hochfrequenzkerne doch total unnötig.
Welche Sinn Rocket Lake noch haben soll, frage ich mich auch. Wenn man bis 4,8GHz kommt und gegenüber Skylake um die 25% mehr IPC hat, dann würde dies reichen um die aktuellen Desktop CPUs klar zu schlagen, zumindest in der Singlethreadperformance und damit der Spieleperformance und bei genug Kernen oder entsprechendem Takt auch der Multithreadperformance. Daher würde es mich auch nicht wundern wenn Tiger Lake anstelle von Rocket Lake im Desktop kommt. Ob die Fertigungskapazitäten reichen, ist natürlich eine gute Frage, wären sie so gering, hätte man aber kaum jetzt schon Jasper Lake präsentiert. Wobei natürlich die Desktop CPUs einiges an Volumen bedeuten, aber Intel könnte ja wie aktuell bei den U Modellen parallel 10nm und 14nm Modelle bringen, letzere für die kleineren Modelle. Außerdem dürfte die Verzögerung beim 7nm Prozess dazu führen, dass die Kapazitäten für die 10nm Fertigung stärker als ursprünglich geplant ausgebaut werden, da es nun länger der aktuelle Prozess bleiben wird als zu der Zeit als man Rocket Lake geplant hatte.Ned Flanders schrieb:Versteht eigentlich noch jemand wo da jetzt Platz für Rocket Lake im Desktop ist? Warum nicht einfach ein TL-H Derivat mit 8 Kernen in den Desktop übernehmen? Zu wenig Fertigungskapazität in 10nm?
So eine Faktenverdrehung! Es hat niemand behauptet das keiner die iGPU nutzt, die wird sogar zusammen mit der dGPU genutzt wenn man deren Leistung gar nicht braucht. Fakt ist aber, dies kann ja jeder im Preisvergleich selbst nachvollziehen, dass die allermeisten Notebooks mit einer H CPU eben auch eine dGPU haben, 98,1% bei Intel und 97,2% bei AMD! Für die weniger als 2% der angebotenen Notebooks die mit einer Intel H CPU keine dGPU haben nun noch eine besonders leistungsstarke iGPU zu bauen oder dies zu fordern, ist reichlich an der Realität vorbei. Außerdem macht eine leistungsstarke iGPU bei denen wenig Sinn, da sie eine besseren dGPU sowieso immer unterlegen ist, schon wegen der RAM Bandbreite und weil sie sich wegen das Power Budget mit der CPU teilen muss.Sam Miles schrieb:bestimmte Intel Schreiber kommentieren dann auch noch das in der Spitzenklasse ja eh keiner die iGPU nutzt. Ja warum bietet intel diese dann überhaupt an?
andi_sco schrieb:Ach, deswegen war Anfangs der GPU Teil deaktiviert (Ironie)
Anhand einer News die Leistung herauslesen ist schon Kunst (Ironie?)
wieso es ist icelake +10% oder so..und icelake ist taktbereinigt 20% schneller als skylake/comet lake, jetzt gibts endlich den takt dazu + ipc verbesserungen, perfekt. und schneller als AMD dann halt auch noch.
24601
Lt. Junior Grade
- Registriert
- Aug. 2020
- Beiträge
- 448
Steini1990 schrieb:Klingt interessant. Die große iGPU braucht in den mobilen Workstations und Gaming-Notebooks eh keiner. Gut das Intel da auch auf 8-Kerne setzt.
Danke AMD, dass ihr Intel die Sporen gegeben habt. Sonst könnten wir auf solche Notebook-Chips noch ewig warten.
Finde ich nicht, zum Strom sparen ist eine iGPU schon sinnvoll.
Piktogramm schrieb:automatisierte Fahren mehr als eine Kamera.
Eventuell auch Plattformen für Industrieroboter oder Massenproduktions/Sortieranlagen.
gaelic schrieb:AV1/h265 Unterstuetzung
AV1 und H.265 (HEVC) sind 2 verschiedene Codecs unterschiedlicher "Generationen".
Für H.265 gibt es schon länger Hardwarebeschleunigung siehe wikipedia - da er seit ~2013 "fertig" ist.
ss5 schrieb:Gibt es die Bestätigung für AV1 Hardwarebeschleunigung oder ich habe was übersehen?
Ja, quasi direkt von Intel.
Für Linux gibt es Treiber, die direkt von Intel entwickelt werden
Github: https://github.com/intel/media-driver
Dort steht:
"AV1 hardware decoding is supported from Gen12+ platforms."
Gen12 = TGL = Tiger Lake
Edit: Der Vergleich von einer verfügbaren Plattform und einer nicht-verfügbaren Plattform hinkt etwas.
Da die Grafikbeschleunigung für Encoding/Decoding eine extra Funktionseinheit ist - bei AMD VCN genannt, kann diese auch unabhängiger geupdated werden. Theoretisch.
Siehe VCN auf wikipedia - für neue Codecs muss aber die Hardware verändert werden.
Einfaches "Umprogrammieren" wie bei Shadern funktioniert nicht.
Zuletzt bearbeitet:
Danke, mein NUC wartet auf die Ablösunglokon schrieb:Ja, quasi direkt von Intel.
Für Linux gibt es Treiber, die direkt von Intel entwickelt werden
Github: https://github.com/intel/media-driver
Dort steht:
"AV1 hardware decoding is supported from Gen12+ platforms."
Gen12 = TGL = Tiger Lake
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- Beiträge
- 1.530
@Piktogramm ok, der leistet auch was. Dennoch käme ich mir da irgendwie verarscht vor wenn da Platz für einen weiteren Kern für ein Feature vergeudet wird das man genausogut in die Kamera einbauen könnte. Für jeden der keine hochauflösende Kamera mit hardware offloading haben will ist das verschwendete Chipfläche auf den ersten und zweiten Blick.
Oder kommt das nur mir so vor? Vielleicht weil ich immer noch nur 4 Kerne habe.
Oder kommt das nur mir so vor? Vielleicht weil ich immer noch nur 4 Kerne habe.
Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.252
Zitier doch bitte vollständig. Die Forderung war, dass die iGPU für ~5Jahre ausreicht ohne die Anforderung nach 3D-Leistung. Also Desktopdarstellung in Office, Browsern, Videowiedergabe. Da steigen die Anforderungen zwar nicht so extrem, aber dennoch stetig.Holt schrieb:Die iGPUs werden schon alleine wegen der geringen RAM Bandbreite aber nie an die Leistung einer besseren dGPU herankommen und daher macht diese Forderung einfach wenig Sinn. Wenn man eine gute GPU Performance will, kommt man um eine dGPU nicht herum.
Ergänzung ()
@Bigeagle
Jain,
eine dedizierte IPU benötigt Platz auf der Platine, Speicher und Energie und Verursacht Zusatzkosten. Zudem ist man mit IPUs von einem Drittanbieter oftmals an deren Softwarestack[1] und dessen Fähigkeiten gebunden und ebenso an die Fähigkeiten vom Systemintegrator das alles ordentlich zu implementieren[2]. Für viele Anwendungen ist das eher ungünstig.
- Andauernd laufende Gesichtserkennung zum Freischalten des Rechners? Geht wahrscheinlich energieffizienter mit einer integrierten IPU und die Erkennungsrate steigt tendenziell auch, wenn die Mustererkennung direkt mit der IPU zusammenarbeiten kann bzw. gar dort integriert ist. An der Stelle wird so eine IPU auch zum Sicherheitsfeature der Plattform.
- Objekterkennung beim selbstfahrendem Auto -> dito
[1] Es gibt soooo viel Gammelsoftware
[2] Das wird bei den meisten Anbieter so lang kostenoptimiert, bis die Nutzbarkeit fast beseitigt wurde.
Zuletzt bearbeitet:
Und bei welcher 5 Jahre alten iGPU hast Du da welchen konkreten Probleme? Das können eigentlich nur neue Codecs sein, die dann ohne HW Unterstützung in SW von der CPU abgearbeitet werden muss, da sind dann aber mehr CPU Kerne besser als eine stärkere iGPU.Piktogramm schrieb:Zitier doch bitte vollständig. Die Forderung war, dass die iGPU für ~5Jahre ausreicht ohne die Anforderung nach 3D-Leistung. Also Desktopdarstellung in Office, Browsern, Videowiedergabe.
Piktogramm schrieb:Desktopdarstellung in Office [...] Videowiedergabe
Dazu vielleicht eine relevante Ergänzung - Tiger Lake unterstütz HEVC-SCC [Intel-Changelog via phoronix] Decoding - und encoding.
HEVC-SCC ist eine Erweiterung von ~2016 : screen content compression - also als Übertragung von Desktop-Inhalten / Desktop-Streaming oder unkomplizierteren Inhalten wie Schriften, gleichfarbigen Flächen (Feature: Farbpalette) ....
Also die Verwendung in "Kiosk" / Börsenticker und ähnlicher embedded Anzeige-Hardware.
siehe auch: x264 Hardwarebeschleunigung bei Remote-Desktop : quelle
Bigeagle
Lt. Commander
- Registriert
- Nov. 2008
- Beiträge
- 1.530
@Piktogramm ok, das sind durchaus ganz gute Argumente. Falls man die Features auch genug nutzt. Vermutlich falle ich da auch einfach aus dem Normaloraster. Webcam ... Jahre her dass ich sowas benutzt hab.
Theoretisch könnte es sogar insgesamt wirtschaftlicher sein wenn mehr Webcams getauscht werden als CPUs, was bei Laptops üblich sein dürfte.
Doch für unsoziale nischenbewohnende Nerds wie mich die keine Kamera am PC haben, die integrierte Webcam im Laptop auch eher abdecken und sowieso nicht mit der Verwandschaft skypen wären ein, zwei Kerne (je nachdem wie das skaliert) trotzdem interessanter.
Theoretisch könnte es sogar insgesamt wirtschaftlicher sein wenn mehr Webcams getauscht werden als CPUs, was bei Laptops üblich sein dürfte.
Doch für unsoziale nischenbewohnende Nerds wie mich die keine Kamera am PC haben, die integrierte Webcam im Laptop auch eher abdecken und sowieso nicht mit der Verwandschaft skypen wären ein, zwei Kerne (je nachdem wie das skaliert) trotzdem interessanter.
Piktogramm
Admiral
- Registriert
- Okt. 2008
- Beiträge
- 9.252
@Holt
Hasell Desktop wie auch Notebook[1], die iGPU an 3 Bildschirmen, ein paar offenen Fenstern und einem Videooverlay ist an der Grenze (Linux mit Gnome auf Wayland). Vor allem beim Rendern von Browserinhalten. Wobei mit dem Aufkommen von Webassembly und WebGL zukünftig nicht besser werden wird.
[1] Ok sind 7 Jahre, wie die Zeit vergeht. Beim Notebook will nur Keiner ein Gerät bauen welches einen Neukauf rechtfertigt :/
Hasell Desktop wie auch Notebook[1], die iGPU an 3 Bildschirmen, ein paar offenen Fenstern und einem Videooverlay ist an der Grenze (Linux mit Gnome auf Wayland). Vor allem beim Rendern von Browserinhalten. Wobei mit dem Aufkommen von Webassembly und WebGL zukünftig nicht besser werden wird.
[1] Ok sind 7 Jahre, wie die Zeit vergeht. Beim Notebook will nur Keiner ein Gerät bauen welches einen Neukauf rechtfertigt :/
Ähnliche Themen
- Antworten
- 103
- Aufrufe
- 27.906
T
- Antworten
- 117
- Aufrufe
- 16.202
- Antworten
- 65
- Aufrufe
- 8.358