Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizXe HPG: Intels Gaming-Grafikkarte läuft im Labor
@Chesterfield, kann mich noch gut an die ganzen Vorschusslorbeeren für Larrabee erinnern, die sich dann doch als deutlich überzogen herausgestellt hatten. Ebenso Raja's letztes AMD Kind (Vega), das dann doch deutlich den Erwartungen und der PR hinterherhinkte. Auch oder grade weil ich selber eine Vega64 hatte.
Zumal AMD auch wieder Finanzpolster aufbauen muss, um Ihr eigenes Tempo in den nächsten Jahren zu halten.
Uns ist ja auch nicht damit gedient, wenn die nächste Zen x Version ein zweites Netburst oder Bulldozer wird und intel sich "wieder" zurück lehnen kann.
Jaein, war der Datacenter Part nicht sehr stark?
Und über die Vega 8 in den Ryzen der U Serie kann ich nicht meckern, bin hochzufrieden.
Trotzdem bin ich sehr gespannt, auf unabhängige Tests zu den neuen Intel Karten.
Bitte den Aluhut absetzen. Ich arbeite selber in der Halbleiterindustrie. Da wird nichts runtergeschraubt um teurer verkaufen zu können. Es gibt einfach nicht genug Material oder Fertigungskapazitäten um den Bedarf zu decken.
Ja. Und diese DG1 konnte ja noch nicht mal an den eigenen Ports eine Bildschirm ordentlich betreiben, sodass das nur durchgeschliffen über die integrierte GPU in der CPU ging. Und das natürlich auch nur auf einem speziellen Mainboard.
Das Teil konnte praktisch gar nichts, außer dass es nicht heiß lief und einigermaßen leise war.
Also wenn DAS das Ergebnis einer Karte ist, die seit einem Jahr Entwicklern zur Verfügung steht, dann hat Intel noch einen sehr langen Weg vor sich, bis GPU und v. a. Treiber laufen und auch für Spieler interessant werden.
Der Markt ist momentan weit davon entfernt gesättigt zu sein und jeder Hersteller wäre dämlich Kapazitäten zurück zu halten. Solange die Nachfrage nicht annähernd gedeckt ist, können sie den Preis eh fast beliebig rauf drehen.
Nur wie will man ein aktuell fast totes Geschäft denn groß beleben? Intel müsste ja in sehr großen Stückzahlen liefern können und neben der passenden Leistung auch funktionierende Treiber bieten. Und fürs Cryptomining sollte sie wenn möglich auch nicht geeignet sein.
Ich hoffe, dass Intel den HPG auch mit dedizierten KI Einheiten herausbringt und diese nicht zugunsten von Shadern entfernt werden.
KI lässt sich in Spielen für so viele Dinge einsetzen und ich will endlich, dass das mal ein wenig vorangetrieben wird. Wenn zwei der drei GPU Anbieter dedizierte KI Einheiten hätten, dann wäre das sicherlich ein deutlicher Anreiz für Entwickler sich etwas mehr darauf zu konzentrieren.
Ob die wohl auch ein "hochexklusives Feature" im Zusammenspiel mit einer (dann) aktuellen Intel CPU und einem (dann) aktuellen Intel Chipsatz haben wird, welches seit Ewigkeiten Teil der PCIe Spezifikation ist?
Ich hoffe, dass Intel den HPG auch mit dedizierten KI Einheiten herausbringt und diese nicht zugunsten von Shadern entfernt werden.
KI lässt sich in Spielen für so viele Dinge einsetzen und ich will endlich, dass das mal ein wenig vorangetrieben wird. Wenn zwei der drei GPU Anbieter dedizierte KI Einheiten hätten, dann wäre das sicherlich ein deutlicher Anreiz für Entwickler sich etwas mehr darauf zu konzentrieren.
Aktuell würde es schon reichen die Verfügbarkeit von Grafikkarten im Preisbereich 150-400€ zu realisieren. Die Karten würde man Intel aus der Hand reißen. Aber bis die Karten kommen hat sich die aktuelle Lage vermutlich schon beruhigt.
Hoffentlich sind die Intel Karten gut in Games und untauglich für Kryptomining.
Gibt es schon eine Info ob Xe-HPG SR-IOV unterstützt?
Intel täte jetzt gut daran eine Mining Sperre in die Hardware einzubauen. Die Karte auf dem Markt bringen und ordentlich Werbung machen, das ihnen Gamer wichtiger als Meiner sind.
Intel täte jetzt gut daran eine Mining Sperre in die Hardware einzubauen. Die Karte auf dem Markt bringen und ordentlich Werbung machen, das ihnen Gamer wichtiger als Meiner sind.
Ich kann dir mal den YouTube Channel Two Minute Papers empfehlen.
Da werden sehr viele KI Techniken vorgestellt anhand derer du auch sehr leicht das Potenzial für Spiele erkennen kannst.
Ein Beispiel woran Ubisoft gerade arbeitet:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
KI kann dir aber auch Materialien und Oberflächen generieren
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Es ist quasi egal was du dir ausdenkst. Von der Physiksimulation bishin zum Gameplay kann KI für alles eingesetzt werden. Und nicht nur irgendwelche Physiksimulationen. Sondern endlich mal stabile Physiksimulationen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
man braucht sich da keinen Illusionen hingeben: intel mag zwar in der cpu welt eine feste größe sein, aber beim gpu geschäft sind sie noch sehr "blau" hinter den ohren.
es wird locker 2-3 generationen dauern bis intel mit nv und amd halbwegs mithalten kann, und das auch nur wenn sie so richtig ranklotzen und vor allem bei den treibern richtig entwicklungsressourcen reinbuttern.
oder erwartet jemand dass intel hier in den letzten 2-3 jahren intern das aufholt was amd und nvidia seit über 20 jahren aufgebaut haben?
man braucht sich da keinen Illusionen hingeben: intel mag zwar in der cpu welt eine feste größe sein, aber beim gpu geschäft sind sie noch sehr "blau" hinter den ohren.
es wird locker 2-3 generationen dauern bis intel mit nv und amd halbwegs mithalten kann, und das auch nur wenn sie so richtig ranklotzen und vor allem bei den treibern richtig entwicklungsressourcen reinbuttern.
oder erwartet jemand dass intel hier in den letzten 2-3 jahren intern das aufholt was amd und nvidia seit über 20 jahren aufgebaut haben?
Ganz klassisch die Gegener KI und ein lernen dieser. Gehst du immer wieder Weg x, werden Soldaten y dir irgendwann den Weg versperren.
Dann, durch KI/Machine Learning eine dynamische Anpassung der Texturen - bei schneller Bewegung kann ich die Texturen auf ein Bruchteil senken, weil Details dadurch untergehen.
Dann KI Upscaling alter Texturen, also nicht nur Pixelanzahl erhöhen, sondern auch Details - das muss aber nicht in Echtzeit passieren, sondern kann Software und Hardware im Vorfeld bearbeiten.
Man braucht ja nur mal Babylon 5 anschauen, was HBO rausgeholt hat und was Fan Projekte geschafft haben
Also wenn DAS das Ergebnis einer Karte ist, die seit einem Jahr Entwicklern zur Verfügung steht, dann hat Intel noch einen sehr langen Weg vor sich, bis GPU und v. a. Treiber laufen und auch für Spieler interessant werden.