News Gen11: Intel bohrt die iGPU mit Ice Lake deutlich auf

IceLake wird sicherlich nicht 2019 im Desktop ankommen. Davor braucht es noch das 1000ste Skylake Refresh...
 
  • Gefällt mir
Reaktionen: Iapetos
Hmm ist ja noch immer nicht das Wahre mit der igpu. Die Vega M GH, welche in Intels I8809G integriert ist kommt auf 3.7 Tflops.
 
PhysoX512 schrieb:
Wobei ich selbst die Hoffnung habe, dass es mal endlich wieder ernsthafte Konkurrenz für $$$vidia gibt :D
Strikerking schrieb:
Bei der ersten Ankündigung war doch ganz klar Data Center first, heißt also Gamer kriegen dann das was noch übrig bleibt.;)

Nicht nur das Intel's Ankündigungen bisher klar "Data Center first" kommuniziert haben, es sind ja vor allem Intel's Investitionen, die Bände sprechen.

Letztes Jahr war Intel schon bei mehr als 30 Mrd. Dollar, dieses Jahr hat Intel afaik die 40 Mrd. Dollar überschritten, die sie ausschließlich in AI investiert haben. Sie haben ja unter anderem Nervana gekauft, Movidius, Mobil Eye, u.v.m.

Alles ausschließlich AI.

Wohingegen, wenn ich mich jetzt nicht täusche, sie ihr Portfolio im Bereich GPU-Gaming gar nicht vergrößert haben. Da sind afaik gar keine Anstrengungen erkennbar.

Und verständlich ist das ja durchaus auch: AI wächst um Großördnungen schneller als Gaming und AI ist auch noch nicht auf zwei Platzhirsche aufgeteilt, so wie bei Gaming (AMD/NVIDIA).
 
Matthew Sobol schrieb:
vor knapp 20 jahren konnte das meine damalige hercules mit kyro ^^
Im Endeffekt können das heute so gut wie alle Grafikkarten, egal welcher Hersteller. PowerVR - auf dem Desktop damals mit Kyro - nVidia seit Maxwell und AMD/ATI setzt seit Vega auf ein "ähnliches" Verfahren, aber ATI hat mit Adreno auch bereits entsprechende Renderer gehabt.

Redirion schrieb:
Tile-Based-Rendering kommt aber jetzt sehr überraschend. Das ist doch technologisch inkompatibel mit DXR oder nicht? Klingt als würde Intel noch lange keine DXR-kompatible Grafik bieten können.
Nein, schließt es nicht. Genauso wenig, wie sich Rasterization und Raytracing zur gleichen Zeit ausschließen.

Tiled-Based-Rendering beschreibt - und das ist jetzt stark vereinfacht - nur wie das Bild intern verarbeitet wird. Statt ein Bild als Ganzes zu berechnen, wird es in Kacheln aufgeteilt und die Kacheln anschließend berechnet. Dabei ist es egal ob nun Rasterisation oder Ray-Tracing zum Einsatz kommt.

Fast alle modernen Renderer - seit es Cinema4D, RenderMan - setzte auf ein Tiled-Based-Rendering, da sie so deutlich besser mit der Hardware skalieren können.
 
  • Gefällt mir
Reaktionen: Redirion
anexX schrieb:
Naja für bisherige Intel iGPU Verhältnisse ist das ja schon ne kleine Leistungsexplosion - allerdings denke ich Keller hätte mindestens 1.5 - 2 Tflops draus gemacht. ^^


Naja wenn man Jahre lang nichts macht, dann ist das auch kein großes Wunder. Bei Release ist der letzte echte Schritt ja auch schon über 4 Jahre her.
 
Pokerfail schrieb:
...
Aber ich denke trotzdem, dass DXR problemlos mit Tile-Based-Rendering funktioniert. ...

Ja, zu Kyro Zeiten konnte man TBR wohl nicht mit Shader kombinieren...
 
Weiß eigentlich irgendwer wann Intel es auf die Reihe bringen wird einen neuen Grafiktreiber zu veröffentlichen bei dem Quicksync nicht kaputt ist? Soweit ich bisher informiert bin und auch selber getestet habe funktioniert das mit dem neuen 25.20.100 Treiber hinten und vorne nicht. Mit dem alten 15er Legacy Treiber läuft es ohne Probleme (z.B.: in OBS Studio).

Nachdem mit Windows 10 1809 auf ein neues Treibermodell umgestellt wird, wäre es ja bald an der Zeit einen Treiber zu bringen der auch wirklich das kann was der Hersteller verspricht. Von den wenigen Treiberupdates über das Jahr hinweg ganz zu schweigen.
Wenn Intel bei den dedizierten GPUs auch so miese Treiber bietet, dann wird ihnen die beste GPU Hardware nicht helfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: itm
Minutourus schrieb:
Na dann zeige mir mal eine 2er Serie mit HDMI 2.1 Standard der Adaptive Sync seitens NV unterstützt oder eine Info das NV es als offenen Standard unterstützen wird..

Bin gespannt...

Du willst das ich dir etwas mit HDMI 2.1 zeige?
Hab ich gesagt das aktuelle HDMI sei veraltet oder du?! Wenn du sagst das was Nvidia verbaut sei alt oder sogar veraltet wie du geschrieben hast dann solltest DU zeigen das es überhaupt etwas , nein IRGENDETWAS (!) mit HDMI 2.1 gibt!

Und bevor du nun suchst. Du wirst NICHTS finden! Weil es bisher noch gar keine Hardware ( Chips die HDMI 2.1 technisch bereitstellen können) für diesen Standard gibt. Ohne die kann bisher kein Hersteller der eine HDMI Buchse verbaut diesen Standard unterstützen! Daher wiederhole ich es nochmal, du weißt nicht wovon du redest.
 
Rock Lee schrieb:
Problem ist, dass AMD laut Leaks die iGPU auch aufbohren wird. Von daher sollte man erst abwarten, was Intel mit ihren miesen Gaming Treibern wirklich auf die Straße bringt.

Nur das AMD in viel weniger Produkten überhaupt eine GPU hat. Bei Intel hat alles vom 4,5 Watt Chip bis hin zum 9900k eine iGPU. AMD hat hingegen nur bis zur Einstiegsklasse APUs im Angebot.

Davon ab bringt eine Leistungssteigerung nicht beliebig viel, da die meisten iGPUs jetzt schon stark vom Speicher limitiert sind. Ohne flotten Speicher bringt die Mehrleistung auch wenig und kau einer wird so eine APU mit Speicher kombinieren, der ein vielfaches des Chips kostet.

Daher mal abwarten, was bei Intel und AMD am Ende wirklich bei rumkommt. Bei Ravenridge bringt die größere GPU schon nicht so wirklich viel mehrleistung
 
  • Gefällt mir
Reaktionen: andi_sco
Ich finds witzig, da baut AMD jahrelang ranzige APUs ohne Luft im Sack und Intel hat die CPU Krone auf.
Dann kommt Intel auf die Idee man muss die iGPU pushen während AMD Ryzen ohne iGPU bringt und sich fett Marktanteile zurück holt.
 
Den kannst du schon seit einiger Zeit in Laptops und im NUC kaufen. Ist natürlich nicht ganz billig.
 
  • Gefällt mir
Reaktionen: DerKonfigurator
Welche Programme nutzen den die iGPU für Computing Aufgaben? Microsoft Fotos hat letztens meine stark ausgelastet, aber keine Ahnung, was das Programm da abgezogen hat.
 
Zurück
Oben