Notiz Guerilla-Marketing: Intel zeigt Xe-HPG-Grafikchip DG2-512

Che-Tah schrieb:
Intel muss sich aber nicht nur um die Spiele in Entwicklung kümmern sondern auch um jene Games die schon am Markt sind.
Kein Spielstudio wird noch bestehende Spiele für Intel GPUs anpassen und bei der Stellenausschreibung geht es um einen Betreuer der Spielstudios Hilfestellung bei zukünftigen Titeln geben wird.
 
They are all a little excited...and a little scared
Jau das wär ich auch, wenn Cheffe mit dem Prototypen Gott weiß wo in der Pampa für ein Selfie steht, das Teil jede Sekunde aus seinen Wurstfingern fallen kann, mit denen er fleißig drauf rumgepatscht hat und Notizen draufkritzelt, weil er grad keinen Zettel hatte. :D
 
matty2580 schrieb:
Das Koduri-Bashing hier ist schon wieder der Hammer.....
Das Raja ein Schwätzer ist, willst Du doch wohl hoffentlich nicht abstreiten?

matty2580 schrieb:
Zu dem Zeitpunkt als Koduri AMD verlassen hat, waren die ersten Navi-Produkte schon fertig.
D.h. wenn ihr hier Navi feiert, dann direkt auch R. Koduri, und RDNA.
Er war Leiter der RTG, und alles was heute Navi ausmacht hat mit ihm begonnen.....
Begonnen ja.
Fertig waren die noch lange nicht. Der ist immerhin >1/12 Jahre vor der Präsentation gegangen. (worden?)
Da ist noch ein gutes halbes Jahr Zeit um noch ein paar Änderungen rein zu bringen. Nebenbei, war es ja auch nur NAVI1, wo die Grundlagen gelegt wurden. Die tollen Sachen kommen / kamen ja erst noch.

Klar, das grundsätzliche Konzept, mit dem Ziel >GPU-Chiplet, war damals schon klar definiert.
Daher konnte er ja kurz nach seinem Antreten bei Intel schon mit relativ klaren Zeitplänen davon schwärmen. Er hat also Geistiges Eigentum mitgenommen. Ob nur im Kopf oder auch anders. Wer weiß das schon?

Für mich ist es aber durchaus denkbar, das er bei AMD schon vor dem Abgang in der Kritik stand, so Sang und Klanglos, wie der gegangen ist.
Wenn das der Fall war, ist es nicht unüblich, die Person ihr Projekt noch abschließen zu lassen -und Tschüss. So wie es ja auch gekommen ist.
Da wird dann auch möglichst viel vor solchen Leuten verheimlicht und zurück gehalten.
Es kommt möglicherweise wohl auch nicht von ungefähr, das die RTG die mobile VEGA-Einheit dann ziemlich schnell auf Strom sparen getrimmt hat. Hätte Raja ja vorher auch schon in Angriff nehmen oder in die Richtung designen können. Hat er aber nicht.

Der David Chang scheint auch kein Holzkopf zu sein. Nur hört man von dem viel weniger. Der scheint einfach nur seine Arbeit (recht erfolgreich) zu machen.
Gefällt mir durchaus besser, als wenn der Abteilungs- oder Projektleiter ständig den neuesten (Firmen)Tratsch zum besten gibt.
 
Robert. schrieb:
Sollte der Chip wirklich 3070 Niveau erreichen, dann haben uns AMD/ATI und Nvidia jahrzehntelang verarscht.

Hmmm da Intel auch nur mit Wasser kocht und aktuelle Technologien verwendet ist es doch eigentlich nicht verwunderlich das die Leistung irgendwo in der aktuellen Gen sich einordnet. Und ob die Karte 3070 Level erreichen wird, werden wir dann sehen.

Und nun ja, ich gehe auch davon aus das hier Wissen von AMD umgesetzt worden ist, halt was Koduri in seinem Kopf mitgebracht hat. Warum sollte er auch das Rad erneut erfinden?
 
markox schrieb:
Mit Larrabee ist die aktuelle Situation überhaupt nicht zu vergleichen.
Ja und Nein zu gleich. Man kann es schon ein wenig miteinander Vergleichen, gleichzeitig aber auch nicht. Es gibt durchaus Gemeinsamkeiten zwischen Xe und XeonPhi, aber auch gewaltige Unterschiede.
markox schrieb:
Larrabee war ein völlig neuer Ansatz, sehr experimentell, in einem viel früheren Stadium und ganz andere Leute.
Nein, Larrabee war kein vollkommen neuer Ansatz und der Ansatz hinter Larrabee ist sogar, wenn man ihn genau betrachtet, sogar der Ansatz, den man seit Jahren bei fast jeder GPU fährt, nur dass Intel sich damals eine eigene ISA für eine CPU sparen wollte und die ISA x86 nutzen wollte.

Larrabee setzte auf schlanke x86-Kerne mit zwei dicke Vec-ALUs nach AVX-Standard und später auch AVX-512. Sowohl bei AMD als auch bei NVIDIA stecken pro SM/CU auch heute 2 dicke "Vec-ALUs" - ich vereinfache gerade stark, weil es sonst zu kompliziert wird. Diese SIMD-ALUs hatten bisher alle Ansätze gemeinsam.

Der Vorteil und gleichzeitig auch der Beinbruch für Larrrabee war immer, dass man jeden einzelnen Kern auch wie eine richtige CPU ansprechen musste und damit ein sehr komplexes Threadheandling hatte, nur dafür das man rechnen wollte.
calluna schrieb:
Ja, aber auch Befürchtungen sollten begründet sein... wie er schon schrieb, gibt es zu Xe bereits Produkte und jetzt geht es "nur" um die Skalierung, was bei GPUs aber weniger das Problem als bei CPUs ist.
Zum Glück hast du das Nur in Anführungszeichen gepackt, denn ansonsten ist der Rest deines Beitrages eigentlich grob falsch.

Das die Skalierung bei GPUs auch nicht ohne ist, sieht man aktuell an Ampere sehr gut - bekommt seine schiere Rechenkraft eigentlich erst ab 4K langsam auf die Straße - und man sah es an GCN und Vega ebenso sehr gut.

Die relativ einfache Skalierbarkeit von GPUs war früher gegeben, als die GPUs noch nicht programmierbar waren, weil der Aufbau entsprechend einfach war. Seit dem Shader-Zeitalter ist die Skalierbarkeit aber auch auf GPUs nicht mehr so trivial zu lösen, wie man denkt.

Auch wenn man bei NVIDIA und AMD mit vielen ALUs werben, ist es oft entscheidender, wie diese ALUs organisiert werden. Die großen GCN-Karten hatten immer ein Problem ihre Shader auszulasten, weil die Einteilung in der Hardware zu fein war, während der Treiber zu breite Vektoren genutzt hat. Zu wenig Shader in der Engine, und schon lag ein Teil der ALUs brach.

Ampere hat jetzt hat ein ähnliches Problem, hier sind einfach die "Vektoren" in Hardware quasi zu breit, man bekommt zwar genug Threads, in denen zu wenig Werte.

Egal ob nun CPUs oder GPUs, beide stellen einen vor ganz andere Herausforderungen, was die Skalierung angeht und bei beiden ist auch entscheidend, welches Problem überhaupt anliegt.

Ein "Single-Shader" der einfach einem Bild einen Farbstich verpasst, in dem man einfach den RGB-Wert für Rot um 32 nach oben verschiebt, kann man simpelst sowohl auf GPUs als auch CPUs skalieren, ohne dass man wirklich ein Problem hat.

Anders sieht es aus, wenn man mehre, Shader hat, die alle etwas Unterschiedliches im Bild machen, aber solang die Unabhängig sind, kann man selbst diese simpelst zumindest parallel ablaufen lassen, nur ob man dann für jeden Kern auch genug Werte bekommt, steht auf einem anderen Blatt und ist dann auch für die Hardware-Entwickler wichtig.

Und genau hier könnte für Intel die Probleme liegen: AMD und NVIDIA benötigen aktuell für die optimale Auslastung ihrer Hardware ca. 160 Threads/Shader, da jede CU/SM zur gleichen Zeit zwei Threads verarbeiten kann. Bei AMD hat jeder Thread im besten Fall 32 Werte, bei NVIDIA 64. Intel hat nun 512 EU und an jeder EU hängen 8 ALUs, also 512 Threads und im besten Fall 8-Werte.

Da fangen nun die Fragezeichen an: Kann Intel - ähnlich z.B. der Scalable Vector Extension 2 von ARM - einen breiteren Vektor auf mehrere EUs effektiv verteilen? (Daran ist GCN/Vega gescheitert, aber da in den CUs selbst: Wave64 lief nur auf einer Vec16, statt auf den 4 ...). Wie gut ist der Shader-Compiler von Intel, wie aggiert der Treiber? Wie flexibel sind die EUs?

Bisher kennt man Xe nur mit maximal 96 EUs und 96 gleichzeitig laufende Shader in heutigen Spielen sind da eher normal - weswegen Vega als APU auch nicht unter den Auslastungsproblemen litt.
calluna schrieb:
Und Larabee war eine x86-64 CPU, bei der das, was bei den GPUs in Hardware realisiert ist, durch Software gelöst werden sollte.
Richtig, das war aber nicht der Knackpunkt.

Es war auch nie ein Geschwindigkeitsproblem, sondern das Problem ist die Komplexität der Treiberentwicklung gewesen. Intel hätte sich hier ein Treibermonster an die Beine gebunden.

Summerbreeze schrieb:
Lass ihn in dem Fall:

In dem Fall kann keine Seite wirklich Fakten präsentieren, weil zwar ein paar Sachen auf Twitter abliefen, aber man da alles nur interpretieren kann.

Es gab ein paar Tweets, die besagten, dass man "hinter" Rajas Rücken an Navi arbeitete und Sony hier durchaus die Entwicklung ins Rollen brachte. Was dann durch andere Tweets verstärkt wurde, in denen behauptet wurde, dass man ja Rajas Team für Vega ausgedünnt hat, einmal für Zen, einmal für Navi.

Klar ist aber auch: Raja war mit Sicherheit zu dem Zeitpunkt, als die Entwicklung von Navi startete noch bei AMD der Leiter der Grafik-Abteilung. Gleichzeitig kann man daraus aber nicht ablesen, ob er wirklich für Navi als Architekt verantwortlich war, oder jemand anderes.

Er kann es gewesen sein, er kann es nicht gewesen sein. Das weiß man aber nur bei AMD sicher, wir hier draußen können nur Räteselraten und es gibt genug Indizien, die eher dagegen sprechen, dass er Navi verantwortet hat als Architekt, aber wer weiß.
 
  • Gefällt mir
Reaktionen: Smartbomb
xexex schrieb:
Kein Spielstudio wird noch bestehende Spiele für Intel GPUs anpassen und bei der Stellenausschreibung geht es um einen Betreuer der Spielstudios Hilfestellung bei zukünftigen Titeln geben wird.
Beim Release von DG2 wird es demnach also keine optimierten Games geben? Und dass es DG1 schon gibt ignorierst du auch.
Und in Entwicklung ist eben nicht Schwarz Weiß. Wie lange Games servicert werden nach Release ist sehr unterschiedlich.
Und wenn Intel am Treiber was optimieren muss heißt es nicht zwingend dass das Game selbst ein Update braucht. Nen Developer der Intel Auskunft gibt brauchen sie dennoch.
 
Che-Tah schrieb:
Beim Release von DG2 wird es demnach also keine optimierten Games geben?
"Keine" ist ein blödes Wort und im besten Fall braucht man tatsächlich keine speziell optimierten Spiele.

Letztendlich sucht Intel aber Mitarbeiter, was nicht bedeutet sie hätten aktuell niemanden, sondern nur das sie in Zukunft stärker in dem Bereich tätig sein wollen.
 
  • Gefällt mir
Reaktionen: Hayda Ministral
Summerbreeze schrieb:
Das Raja ein Schwätzer ist, willst Du doch wohl hoffentlich nicht abstreiten?
Du kennst Raja persönlich? Nein? Und Du willst hier trotzdem ein Urteil über ihn abgeben?

Das steht Dir natürlich frei. Jeder macht sich auf die Art zum Affen die ihm genehm ist.
 
  • Gefällt mir
Reaktionen: Nobbi56
Che-Tah schrieb:
Je nachdem ist im April dafür Mitarbeiter suchen auch spät oder eben nicht.
Kann auch einfach darauf hindeuten, das jemand das team verlassen hat oder es erweitert wird.
 
  • Gefällt mir
Reaktionen: konkretor
Summerbreeze schrieb:
Das Raja ein Schwätzer ist, willst Du doch wohl hoffentlich nicht abstreiten.
Nein er ist KEIN Schwätzer, sondern anders als Huang von Nvidia, hat er kein Talent für Präsentationen.
Das ist aber auch schon seine einzige Schwäche, mehr nicht.....

Er ist nicht nur sehr gut was Chip-Design betrifft, sondern hielt AMDs RTG unter wiedrigsten Umständen zusammen, zu einer Zeit als AMD alle Ressourcen in Zen investiert hatte.

Und nein, wer sich mit Chip-Design etwas auskennt, weiß dass solche Projekte Jahre im voraus geplant werden, bevor es überhaupt ein Produkt gibt.

Navi ist Koduris "Kind", ob es die User wahr haben wollen, oder nicht.
Erst die Gen nach Navi, ohne Einfluss von Koduri, ist ein Produkt ohne ihn.

Intels XE wurde zwar durch Koduri maßgeblich mit beeinflusst, war aber schon in der Entwicklung als Koduri noch nicht bei Intel war. D.h. hier ist Koduri nur anteilig mit drin, da viel von XE ohne Koduri entstanden ist.

Koduri ist von AMD weg gegangen, weil Su die RTG massiv geschrumpft hatte, und zu Vega-Zeiten angeblich 2/3 der RTG für die Entwicklung des PS5 Chip abgestellt wurden. Unter diesen schlechten Arbeitsbedingungen hätte ich selbst auch gekündigt, und kann seine Entscheidung ganz nachvollziehen.....

Bei Intel wird er nicht behandelt wie der letzte Dreck, und kann sich auch selbst verwirklichen, mit recht hohen finanziellen Spielraum.....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Smartbomb
Chesterfield schrieb:
Dieses hinhalten und warten lässt einfach nichts gutes erahnen . Genau diese Taktik sind sie auch bei „Laeabee“ gefahren und wir wissen ja wie das geendet ist.
Hoffe. Wir einfach diese Vorzeichen sind anders zu deuten als damals
Aktuell ist es doch grad egal. Wenn sie kommen und gut sind, kriegst du sie eh nirgends zum fairen Preis :D
 
Ich würde Intel zutrauen dass die auf der Grafikkarte hardcoded irgendwie dann sowas hinterlegen:
"If CPU Vendor "Intel" ; Max Performance"
"If CPU Vendor not "Intel" ; Performance = 75%"
 
Wenn die schlau sind, beeilen die sich, nehmen den boomenden Markt mit.
Komfortabler als jetzt, wird's fuer die Hersteller nicht mehr. - Selbst der letzte Ausschuss kann scheinbar noch gut verklingelt werden.
Die normalen Anwender/Gamer nerven nur und sind meist zu anspruchsvoll.

Und hauen die so ein Miningteil noch in die CPU, gehen auf einmal auch CPUs...

Die Geschaeftsideen lauten heutzutage:
egal welches Produkt - Hauptsache irgendetwas mit Mining!
 
Zuletzt bearbeitet:
BxBender schrieb:
Denkt daran:

Koduri ist der Experte darin, marketingträchtige Sprüche wie z.B. "poor Volta" von sich zu geben.

Der Kerl lebt in einer rosabarbigen Fantasiewelt mit lauter Regenbogen am Himmel.

Kürzlich hatte er ja wieder einen Gag auf Lager, als er von einer 20fachen Performancesteigerung gegenüber einer steinzeitlichen internen Grafikeinheit Lobeshymnen in die Welt herausposaunt hat, wo aber ein realistischer Bezug gefehlt hat.

Dazu möchte ich nur einmal anmerken, dass man auch eine ungenannte 6GB Karte eines grünen Herstellers mit der nur maximal 20% minimal schnelleren 8GB Variante in 4K durch den satten Faktor 3 völlig deklassieren kann, sobald man den Speicher in einem Spielbenchmark absichtlich durch zu hohe Details überlaufen lässt.

Ich denke das reicht, um die Glaubwürdigkeit dieser Person mehr als nur in Frage zu stellen.

Übrigens: seitdem der Kerl bei AMD weg ist, geht es mit AMD deutlich steil bergauf. Zufall oder glückliche Fügung? Macht euch selber eine Meinung dazu. :-)

Also wenn er ankündigen sollte, dass man eine 3080 angreifen wolle und er eine hervorragende Arbeit und breit aufgestellte Spieleunterstützung bei der Treiberoptimierung hervorhebt, dann rechne ich selber erst einmal mit einer knappen 3060 aufgrund von und mit vielen Treiberproblemen. :-))
Besser etwas zu tief stapeln und die Fachwelt dann ins Staunen versetzen, als an zu großen Worten in der Sonne die Flügel schmelzen zu lassen. :-)
Amen! "Talk is cheap" und was der Mann von sich gibt entspricht am Ende leider nicht den hohen (eigenen) Erwartungen.
 
Aus dem Stand heraus die Leistung einer 3070?
Das wäre ein satter Einstieg. Den Rest machen die nächsten 2-3 Generationen.

Ist ja bei AMD auch nicht anders gewesen.
Die CPUs wurden anfangs belächelt, die GPUs wurden anfangs belächelt...

Mit beidem sind sie nun mindestens auf Augenhöhe. Mal hier etwas schneller, mal da etwas langsamer. Mal hier ein Feature mehr, mal da eins weniger.
Unterm Strich absolut Konkurrenzfähig.
Natürlich nur dann, wenn auch lieferbar.
 
Ich freue mich auf die Intel Graka, selbst wenn sie "nur" zwischen einer 3060 und 3070 liegen würde, würde ich sie feiern und wenn der Preis stimmt auch kaufen.

Der Grafikkarten markt braucht unbedingt noch neue GPU Hersteller um alternativen zu haben die sich auch zum Gaming taugen. Ach wie schön war das noch bis Anfang 2000 wo es bis zu 5 Hersteller gab.
 
  • Gefällt mir
Reaktionen: konkretor und conglom-o
DerkleineGrisu schrieb:
Ach wie schön war das noch bis Anfang 2000 wo es bis zu 5 Hersteller gab.
Wenn man das Jahr 2000 ohne rosarote Brille betrachtet gab es damals auch nicht mehr Wahl als heute: NV10/NV15 vorn, Rage bzw R100 irgendwo, VSA-100 technisch abgeschlagen und auf dem Weg ins Grab.

Wen hast Du da als Optionen 4 und 5 auf dem Schirm? Matrox? S3?
 
xdave78 schrieb:
Naja, bei AMD kaufen die Leute ja auch GPUs trotz des "tollen" Treiberpakets ;)
Insofern...
xexex schrieb:
"Keine" ist ein blödes Wort und im besten Fall braucht man tatsächlich keine speziell optimierten Spiele.
Damit meinte ich, das manche Spiele evetuell garnicht starten, mit massiven Grafikfehlern oder im Verhältnis ganz schlechter Performance.

xexex schrieb:
Letztendlich sucht Intel aber Mitarbeiter, was nicht bedeutet sie hätten aktuell niemanden, sondern nur das sie in Zukunft stärker in dem Bereich tätig sein wollen.
Ja, da war natürlich viel Spekulation dabei. Es muss auch garnichts bedeuten.
 
NguyenV3 schrieb:
Selbstverständlich. Das weiss Intel auch.
An "XeSS" wird gearbeitet.

Intel hat bereits bestätigt, dass die Grafikkarte Raytracing unterstützen wird, den neuen Angaben zufolge arbeitet der Konzern aber auch an einer Alternative zu Nvidia DLSS, die Intel XeSS genannt wird.
Quelle: NBC

Ist mir persönlich absolut nicht wichtig, konnte es aber auch noch nicht selbst sehen/testen. Wäre eher für etwas wie Reflex [oder eigentlich einen offenen Standard dazu] zu haben, das kann meine alte Karte schon und das spürt man einfach sofort in jeder Bewegung. Wenn Chipsatz(USB)/GPU und CPU aus einer Hand kommen vermag ich mal zu behaupten kann man das nochmals erheblich verbessern.
 
Zurück
Oben