Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gen11: Intel bohrt die iGPU mit Ice Lake deutlich auf
- Ersteller Volker
- Erstellt am
- Zur News: Gen11: Intel bohrt die iGPU mit Ice Lake deutlich auf
Terrordrome
Lieutenant
- Registriert
- Okt. 2008
- Beiträge
- 891
Hmm ist ja noch immer nicht das Wahre mit der igpu. Die Vega M GH, welche in Intels I8809G integriert ist kommt auf 3.7 Tflops.
PhysoX512 schrieb:Wobei ich selbst die Hoffnung habe, dass es mal endlich wieder ernsthafte Konkurrenz für $$$vidia gibt
Strikerking schrieb:Bei der ersten Ankündigung war doch ganz klar Data Center first, heißt also Gamer kriegen dann das was noch übrig bleibt.
Nicht nur das Intel's Ankündigungen bisher klar "Data Center first" kommuniziert haben, es sind ja vor allem Intel's Investitionen, die Bände sprechen.
Letztes Jahr war Intel schon bei mehr als 30 Mrd. Dollar, dieses Jahr hat Intel afaik die 40 Mrd. Dollar überschritten, die sie ausschließlich in AI investiert haben. Sie haben ja unter anderem Nervana gekauft, Movidius, Mobil Eye, u.v.m.
Alles ausschließlich AI.
Wohingegen, wenn ich mich jetzt nicht täusche, sie ihr Portfolio im Bereich GPU-Gaming gar nicht vergrößert haben. Da sind afaik gar keine Anstrengungen erkennbar.
Und verständlich ist das ja durchaus auch: AI wächst um Großördnungen schneller als Gaming und AI ist auch noch nicht auf zwei Platzhirsche aufgeteilt, so wie bei Gaming (AMD/NVIDIA).
T
Teralios
Gast
Im Endeffekt können das heute so gut wie alle Grafikkarten, egal welcher Hersteller. PowerVR - auf dem Desktop damals mit Kyro - nVidia seit Maxwell und AMD/ATI setzt seit Vega auf ein "ähnliches" Verfahren, aber ATI hat mit Adreno auch bereits entsprechende Renderer gehabt.Matthew Sobol schrieb:vor knapp 20 jahren konnte das meine damalige hercules mit kyro ^^
Nein, schließt es nicht. Genauso wenig, wie sich Rasterization und Raytracing zur gleichen Zeit ausschließen.Redirion schrieb:Tile-Based-Rendering kommt aber jetzt sehr überraschend. Das ist doch technologisch inkompatibel mit DXR oder nicht? Klingt als würde Intel noch lange keine DXR-kompatible Grafik bieten können.
Tiled-Based-Rendering beschreibt - und das ist jetzt stark vereinfacht - nur wie das Bild intern verarbeitet wird. Statt ein Bild als Ganzes zu berechnen, wird es in Kacheln aufgeteilt und die Kacheln anschließend berechnet. Dabei ist es egal ob nun Rasterisation oder Ray-Tracing zum Einsatz kommt.
Fast alle modernen Renderer - seit es Cinema4D, RenderMan - setzte auf ein Tiled-Based-Rendering, da sie so deutlich besser mit der Hardware skalieren können.
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.088
Minutourus schrieb:Ja also die Version von HDMI halt.. ^^
Du weißt nicht wovon du redest. Die aktuell verbaute HDMI Version ist weder alt noch veraltet.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.861
anexX schrieb:Naja für bisherige Intel iGPU Verhältnisse ist das ja schon ne kleine Leistungsexplosion - allerdings denke ich Keller hätte mindestens 1.5 - 2 Tflops draus gemacht. ^^
Naja wenn man Jahre lang nichts macht, dann ist das auch kein großes Wunder. Bei Release ist der letzte echte Schritt ja auch schon über 4 Jahre her.
- Registriert
- Jan. 2018
- Beiträge
- 19.038
Pokerfail schrieb:...
Aber ich denke trotzdem, dass DXR problemlos mit Tile-Based-Rendering funktioniert. ...
Ja, zu Kyro Zeiten konnte man TBR wohl nicht mit Shader kombinieren...
Minutourus
Lt. Commander
- Registriert
- Feb. 2003
- Beiträge
- 1.174
Gamefaq schrieb:Du weißt nicht wovon du redest. Die aktuell verbaute HDMI Version ist weder alt noch veraltet.
Na dann zeige mir mal eine 2er Serie mit HDMI 2.1 Standard der Adaptive Sync seitens NV unterstützt oder eine Info das NV es als offenen Standard unterstützen wird..
Bin gespannt...
Steini1990
Commodore
- Registriert
- Okt. 2011
- Beiträge
- 4.614
Weiß eigentlich irgendwer wann Intel es auf die Reihe bringen wird einen neuen Grafiktreiber zu veröffentlichen bei dem Quicksync nicht kaputt ist? Soweit ich bisher informiert bin und auch selber getestet habe funktioniert das mit dem neuen 25.20.100 Treiber hinten und vorne nicht. Mit dem alten 15er Legacy Treiber läuft es ohne Probleme (z.B.: in OBS Studio).
Nachdem mit Windows 10 1809 auf ein neues Treibermodell umgestellt wird, wäre es ja bald an der Zeit einen Treiber zu bringen der auch wirklich das kann was der Hersteller verspricht. Von den wenigen Treiberupdates über das Jahr hinweg ganz zu schweigen.
Wenn Intel bei den dedizierten GPUs auch so miese Treiber bietet, dann wird ihnen die beste GPU Hardware nicht helfen.
Nachdem mit Windows 10 1809 auf ein neues Treibermodell umgestellt wird, wäre es ja bald an der Zeit einen Treiber zu bringen der auch wirklich das kann was der Hersteller verspricht. Von den wenigen Treiberupdates über das Jahr hinweg ganz zu schweigen.
Wenn Intel bei den dedizierten GPUs auch so miese Treiber bietet, dann wird ihnen die beste GPU Hardware nicht helfen.
Zuletzt bearbeitet:
Minutourus
Lt. Commander
- Registriert
- Feb. 2003
- Beiträge
- 1.174
@Steini1990
Mit dem ärgere ich mich auch gerade herum da ich doch QS brauchen könnte in Verbindung mit OBS... Intel soll mal in die pushen kommen...
Mit dem ärgere ich mich auch gerade herum da ich doch QS brauchen könnte in Verbindung mit OBS... Intel soll mal in die pushen kommen...
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.088
Minutourus schrieb:Na dann zeige mir mal eine 2er Serie mit HDMI 2.1 Standard der Adaptive Sync seitens NV unterstützt oder eine Info das NV es als offenen Standard unterstützen wird..
Bin gespannt...
Du willst das ich dir etwas mit HDMI 2.1 zeige?
Hab ich gesagt das aktuelle HDMI sei veraltet oder du?! Wenn du sagst das was Nvidia verbaut sei alt oder sogar veraltet wie du geschrieben hast dann solltest DU zeigen das es überhaupt etwas , nein IRGENDETWAS (!) mit HDMI 2.1 gibt!
Und bevor du nun suchst. Du wirst NICHTS finden! Weil es bisher noch gar keine Hardware ( Chips die HDMI 2.1 technisch bereitstellen können) für diesen Standard gibt. Ohne die kann bisher kein Hersteller der eine HDMI Buchse verbaut diesen Standard unterstützen! Daher wiederhole ich es nochmal, du weißt nicht wovon du redest.
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.811
Jim Keller schwerpunkt liegt wohl eher im CPU Teil.anexX schrieb:Hm, steckt in diesen Produkten schon die Arbeit von Jim Keller mit drin ?
https://en.wikipedia.org/wiki/Jim_Keller_(engineer)
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.861
Rock Lee schrieb:Problem ist, dass AMD laut Leaks die iGPU auch aufbohren wird. Von daher sollte man erst abwarten, was Intel mit ihren miesen Gaming Treibern wirklich auf die Straße bringt.
Nur das AMD in viel weniger Produkten überhaupt eine GPU hat. Bei Intel hat alles vom 4,5 Watt Chip bis hin zum 9900k eine iGPU. AMD hat hingegen nur bis zur Einstiegsklasse APUs im Angebot.
Davon ab bringt eine Leistungssteigerung nicht beliebig viel, da die meisten iGPUs jetzt schon stark vom Speicher limitiert sind. Ohne flotten Speicher bringt die Mehrleistung auch wenig und kau einer wird so eine APU mit Speicher kombinieren, der ein vielfaches des Chips kostet.
Daher mal abwarten, was bei Intel und AMD am Ende wirklich bei rumkommt. Bei Ravenridge bringt die größere GPU schon nicht so wirklich viel mehrleistung
DerKonfigurator
Commodore
- Registriert
- Jan. 2015
- Beiträge
- 4.461
1,7 TFLOPS ohne OC.NEO83 schrieb:
D
delicious+
Gast
Und wann kommt jetzt der Intel Chip mit AMD GPU?
D
delicious+
Gast
@lapetos Zweifel!
Ähnliche Themen
- Antworten
- 238
- Aufrufe
- 37.387
- Antworten
- 55
- Aufrufe
- 9.426
- Antworten
- 81
- Aufrufe
- 19.364