Notiz Guerilla-Marketing: Intel zeigt Xe-HPG-Grafikchip DG2-512

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.735
Offizielle Details gibt Intel für die kommenden diskreten Xe-Desktop-Grafikkarten nach wie vor nicht preis, doch das Guerilla-Marketing funktioniert: Via Twitter gibt Intels Raja Koduri, der die Grafiksparte leitet, einen Blick auf den Grafikchip DG2-512, den vermutlich vorerst größten Chip. Das Bild untermauert diese Aussagen.

Zur Notiz: Guerilla-Marketing: Intel zeigt Xe-HPG-Grafikchip DG2-512
 
  • Gefällt mir
Reaktionen: Smartbomb, iron-man, DJMadMax und 12 andere
Kaum zum aushalten wann es die zum kaufen gibt
 
  • Gefällt mir
Reaktionen: Mcr-King, Fritzler, kryzs und 2 andere
Wird bestimmt eine Mining GPU der extra Klasse 😁
 
  • Gefällt mir
Reaktionen: iron-man, flo.murr, MP X10L und 4 andere
Dieses hinhalten und warten lässt einfach nichts gutes erahnen . Genau diese Taktik sind sie auch bei „Laeabee“ gefahren und wir wissen ja wie das geendet ist.
Hoffe. Wir einfach diese Vorzeichen sind anders zu deuten als damals
 
  • Gefällt mir
Reaktionen: iron-man, flo.murr, TechFA und 4 andere
Ich mag die Aussagen, die zwischen den Zeilen stehen :D

"They are all very excited..and a little scared:)"

Wenn man jetzt schon sieht, was man hat aber zusätzlich weis, was man in den nächsten Jahren damit bauen will, ist das selbst für die Erbauer manchmal "beänstigent".

mfg
 
  • Gefällt mir
Reaktionen: fullnewb, Oelepoeto, fox40phil und eine weitere Person
@Chesterfield
Das ist die Crux, wenn man etwas seeeehr früh ankündigt.
Die einen empfindes es als schlechtes Zeichen, wenn man ewig nichts vom Produkt hört.
Die anderen haben dunkle Vorahnungen, wenn man immmer mal nur so ein Bröckchen vorgeworfen bekommt.
 
  • Gefällt mir
Reaktionen: DynamaxX und nagus
...und wenn es sie gibt will sie vermutlich kein Gamer haben.

Wird einfach an den Treibern liegen ob es klappt oder nicht.
Wobei das weniger Intels schuld ist, sondern dass die Studios nicht sauber programmieren können was der Grafiktreiber nachher alles ausbügeln muss.
...und das ist definitiv nicht Intels Stärke.
 
  • Gefällt mir
Reaktionen: Smartbomb, Falbor, Aslo und 3 andere
IMHO hat sich bei den Intel-Treibern schon einiges getan, ich glaube, die sind auf einem guten Weg. Ich kann mir gut vorstellen, dass die um den Ruf ihrer Treiber wissen und alles dran setzen, dass es diesbezüglich auch sitzt.

Bei den integrierten GPUs war es bis auf wenige Ausnahmen nicht so wichtig, die auf Spiele zu optimieren, weil sie in der Hauptsache nicht zum Spielen gedacht und auch nicht geeignet waren. Das ist jetzt natürlich vollkommen anders.
Was die Intel-Grafik sonst so machen sollte, hat eigentlich immer funktioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron-man, derSafran, DynamaxX und 2 andere
Bei Intel geht man in den Wald um Fotos von Chips zu machen?! Ist wohl nur ein minimal besseres Hackschnitzel... :king:
 
  • Gefällt mir
Reaktionen: s0UL1
Abwarten und Tee trinken (Darjeeling?). Und auf das Beste (niedrige mining- und hohe gaming-performance) hoffen. Vielleicht gelingt ja der dritte Anlauf.
 
  • Gefällt mir
Reaktionen: Salutos, fox40phil, MilchKuh Trude und eine weitere Person
Ausgehend von den SMDs komme ich auf

35 x 40 mm package
~23 1/4 mm x 15 mm die
~350mm²
 
  • Gefällt mir
Reaktionen: iron-man, s0UL1, derSafran und 2 andere
Ja, die Treiber...
Hoffentlich bekommen sie die ordentlich hin. Ohne gescheiten Treibersupport nutzt die dollste Hardware nix.

Und was ist eigentlich mit AMDs "kleinen" Karten wie RX 6600 usw.?
Noch immer gibts da nix offizielles.
Sollten die nicht gerüchteweise im Juni/Juli erscheinen?
 
  • Gefällt mir
Reaktionen: fox40phil und Strahltriebwerk
@Hayda Ministral Screenshot_2021-06-02-09-35-45-958_com.opera.browser.jpg
 
  • Gefällt mir
Reaktionen: Bert, Onkel Föhn, bad_sign und 2 andere
Jetzt würde dem Team viel Arbeit bei der Treiber- und Spiele-Optimierung bevorstehen.
Ich hoffe doch, dass nicht erst jetzt eine Treiberoptimierung bevorsteht. Intels Grafiktreiber haben ja jetzt schon Jahre an Rückstand.
 
Ist mMn nicht wirklich Guerilla, wenn es von Raja Koduri kommt und auf Twitter steht.

Interessant wird das Teil aber allemal.
 
  • Gefällt mir
Reaktionen: serval, Onkel Föhn, Cruentatus und 4 andere
Danke @konkretor.
Da die Gerüchteküche von ~230W TDP spricht und angesichts von Intels überaus kreativer (fast schon quantenarithmetischer) Berechnungsweise der TDP dürften im Herbst auch die Netzteile mit >2KW Leistungsabgabe Lieferengpass bekommen.
 
  • Gefällt mir
Reaktionen: Smartbomb, iron-man, BlinkBlink und 3 andere
Denke bei den TDP wird nur der Chip gemeint sein. Board RAM etc kommen noch dazu. So das wir irgendwo bei 300 Watt landen
 
  • Gefällt mir
Reaktionen: ZeroStrat
Denkt daran:

Koduri ist der Experte darin, marketingträchtige Sprüche wie z.B. "poor Volta" von sich zu geben.

Der Kerl lebt in einer rosabarbigen Fantasiewelt mit lauter Regenbogen am Himmel.

Kürzlich hatte er ja wieder einen Gag auf Lager, als er von einer 20fachen Performancesteigerung gegenüber einer steinzeitlichen internen Grafikeinheit Lobeshymnen in die Welt herausposaunt hat, wo aber ein realistischer Bezug gefehlt hat.

Dazu möchte ich nur einmal anmerken, dass man auch eine ungenannte 6GB Karte eines grünen Herstellers mit der nur maximal 20% minimal schnelleren 8GB Variante in 4K durch den satten Faktor 3 völlig deklassieren kann, sobald man den Speicher in einem Spielbenchmark absichtlich durch zu hohe Details überlaufen lässt.

Ich denke das reicht, um die Glaubwürdigkeit dieser Person mehr als nur in Frage zu stellen.

Übrigens: seitdem der Kerl bei AMD weg ist, geht es mit AMD deutlich steil bergauf. Zufall oder glückliche Fügung? Macht euch selber eine Meinung dazu. :-)

Also wenn er ankündigen sollte, dass man eine 3080 angreifen wolle und er eine hervorragende Arbeit und breit aufgestellte Spieleunterstützung bei der Treiberoptimierung hervorhebt, dann rechne ich selber erst einmal mit einer knappen 3060 aufgrund von und mit vielen Treiberproblemen. :-))
Besser etwas zu tief stapeln und die Fachwelt dann ins Staunen versetzen, als an zu großen Worten in der Sonne die Flügel schmelzen zu lassen. :-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: da_exe, DonJDM, Mu Wupp und 5 andere
Chesterfield schrieb:
Genau diese Taktik sind sie auch bei „Laeabee“ gefahren und wir wissen ja wie das geendet ist.
Mit Larrabee ist die aktuelle Situation überhaupt nicht zu vergleichen. Larrabee war ein völlig neuer Ansatz, sehr experimentell, in einem viel früheren Stadium und ganz andere Leute. Erste Produkte der Xe Architektur sind ja schon auf dem Markt und im Einsatz, der Verantwortliche versteht sein Handwerk und folgt den klassischen Ansätzen, es geht gerade nur noch um das skalieren und optimieren. Auf den Markt kommt das Teil somit in absehbarer Zeit auf jeden Fall, da gibt es gar kein Zweifel. Das einzige was schief gehen kann ist, dass es dort nicht gut ankommt und sich in Zukunft bei folgenden Generationen wieder nur auf Entry konzentriert. Aber selbst das ist äußerst unwahrscheinlich, da Intel quasi zum Erfolg gezwungen ist, Stichwort Aurora. Im Server und Supercomputer Bereich brauchen die sowas mittlerweile einfach, nach dem der Sonderweg über Xeon Phi gescheitert ist. Und ein High-End Ableger für den Consumer Markt daraus ab zu leiten dürfte nicht all zu schwierig sein.
 
  • Gefällt mir
Reaktionen: derSafran, Strahltriebwerk und incurable
Zurück
Oben