Notiz Guerilla-Marketing: Intel zeigt Xe-HPG-Grafikchip DG2-512

markox schrieb:
Mit Larrabee ist die aktuelle Situation überhaupt nicht zu vergleichen. Larrabee war ein völlig neuer Ansatz, sehr experimentell, in einem viel früheren Stadium und ganz andere Leute...
Mag sein, die Rahmenbedingungen sind anders, der Umgang mit fakten ( die nicht da sind) sehr ähnlich. es ist eine Vermutung, keine Unterstellung dass es Befürchtungen gibt in ein ähnliches Dilemma zu kommen
 
Mal ganz objektiv betrachtet, was gibt es an dem Tweet zu kritisieren?

Foto von die & package? (und Daumen)
Aussage, dass DG2 jetzt weniger ruckelt als vor ein paar Wochen?
Aussage, dass noch viel Arbeit vor dem Team liegt?
Aussage, dass so ein Haufen Arbeit ganz schön respekteinflößend sein kann?
 
  • Gefällt mir
Reaktionen: Smartbomb, TechFunk, v_ossi und 3 andere
Chesterfield schrieb:
es ist eine Vermutung, keine Unterstellung dass es Befürchtungen gibt in ein ähnliches Dilemma zu kommen

Ja, aber auch Befürchtungen sollten begründet sein... wie er schon schrieb, gibt es zu Xe bereits Produkte und jetzt geht es "nur" um die Skalierung, was bei GPUs aber weniger das Problem als bei CPUs ist.

Und Larabee war eine x86-64 CPU, bei der das, was bei den GPUs in Hardware realisiert ist, durch Software gelöst werden sollte.
 
  • Gefällt mir
Reaktionen: derSafran und incurable
BxBender schrieb:
Also wenn er ankündigen sollte, dass man eine 3080 angreifen wolle und er eine hervorragende Arbeit und breit aufgestellte Spieleunterstützung bei der Treiberoptimierung hervorhebt, dann rechne ich selber erst einmal mit einer knappen 3060 aufgrund von und mit vielen Treiberproblemen. :-))

Eigentlich schreibt er jetzt schon, dass sie (noch) Treiberprobleme haben...
lots of game and driver optimization work ahead for @gfxlisa’s software team.

....und sie sind auch spät drann:
Jobangebot Senior Game Developer Relations Engineer 29.04.2021
 
Wann sie rauskommt, weiß wohl niemand. Hauptsache die Entwicklung geht stetig voran, das täte dem Markt unheimlich gut.

Die DG1 ist laut IgorsLab unbenutzbar, da die Software praktisch nicht vorhanden ist. Das wird also der große nächste Schritt.
 
Che-Tah schrieb:
....und sie sind auch spät drann:

Senior Game Developer Relations Engineer 29.04.2021
Wobei sind sie "zu spät"? Das ist eine Stelle für einen Mitarbeiter der sich um die Spielstudios kümmert. Quasi Leute die dann den Entwicklern Unterstützung anbieten um Spiele auf die eigene Hardware zu optimieren. Braucht man logischerweise auch erst, wenn man überhaupt eigene Hardware auf dem Markt hat.
 
  • Gefällt mir
Reaktionen: Smartbomb, konkretor, whynot? und eine weitere Person
xexex schrieb:
Wobei sind sie "zu spät"? Das ist eine Stelle für einen Mitarbeiter der sich um die Spielstudios kümmert. Quasi Leute die dann den Entwicklern Unterstützung anbieten um Spiele auf die eigene Hardware zu optimieren. Braucht man logischerweise auch erst, wenn man überhaupt eigene Hardware auf dem Markt hat.

Wenn die Hardware bereits auf dem Markt ist, ist das reichlich spät. NVidia und AMD betreuen die Spieleentwickler ja auch nicht erst dann, wenn die GPUs für die Kundschaft zu kaufen sind. Das beginnt schon ne ganze Weile früher.
 
  • Gefällt mir
Reaktionen: BlinkBlink, v_ossi und andi_sco
Neodar schrieb:
NVidia und AMD betreuen die Spieleentwickler ja auch nicht erst dann, wenn die GPUs für die Kundschaft zu kaufen sind. Das beginnt schon ne ganze Weile früher.
Weil sie seit zig Jahren eigene GPUs auf dem Markt haben, Intel versucht hingegen erst in den Markt einzusteigen. Welche Aufgaben hätte diese Person bisher übernehmen sollen?

Es ist logisch, dass solche Stellen erst ausgeschrieben werden, wenn man in einem bestimmten Markt expandieren will und entsprechende Hardware in der Pipeline hat. Es ist ja vermutlich nicht so, als hätte man gar keine Mitarbeiter in dem Bereich, man braucht nun jetzt schlichtweg mehr.
https://sudonull.com/post/88530-F1-2015-a-new-level-of-realism-on-the-PC-Intel-Blog
 
  • Gefällt mir
Reaktionen: da_exe und whynot?
Hayda Ministral schrieb:
Da die Gerüchteküche von ~230W TDP spricht und angesichts von Intels überaus kreativer (fast schon quantenarithmetischer) Berechnungsweise der TDP...

Die Verbrauchswerte von Intel sind doch gar nicht so kompliziert. Im Mittel nie mehr als die TDP. Fertig. Er kann lange boosten, wenn er vorher im Idle war.

Mein 5600X verbraucht bei Dauerlast immer mehr als die TDP. Die Berechnung ist rein temperaturabhängig -> CB bzw. TDP (Watt) = (tCase (°C) - tAmbient (°C))/(HSF (°C/W)).

Zurück zum Thema: Da bin ich mal gespannt, ob ich die GTX 1060 bald in Rente schicken kann.
 
Ist so ein Treiber für das mining leichter zu realisieren als für Spiele? Dann könnte man die Karte erstmal fürs mining positionieren.
 
Che-Tah schrieb:
...und wenn es sie gibt will sie vermutlich kein Gamer haben.
so wird es wohl eher auch sein.

Wurde so ein (Vorsereien)Model nicht erst vor 6-8 Wochen von Igors Lab getestet? Das Ergebnis war total verheerend und sein Fazit in etwa: So wie die Dinger sich momentan präsentieren- nicht mal geschenkt.
 
Hoffentlich mit DLSS und Raytracing, sonst kauft das doch keiner ;-)
 
  • Gefällt mir
Reaktionen: Marc53844 und Onkel Föhn
Ach Raja, der alte Schwätzer.

Schaun mer mal was da am Ende wirklich kommt. Ich lass mich überraschen. (Oder auch nicht)
Intel Grafik interessiert mich im Moment einfach nicht so richtig wirklich.

xy_Tux schrieb:
So wie die Dinger sich momentan präsentieren- nicht mal geschenkt.
Kann also nur besser werden. Ist doch auch schon mal was....
 
Ich bin eher mal gespannt auf Effizienz und Treibersupport in Software wie Photoshop & Co.
 
flappes schrieb:
Hoffentlich mit DLSS und Raytracing, sonst kauft das doch keiner ;-)

Selbstverständlich. Das weiss Intel auch.
An "XeSS" wird gearbeitet.

Intel hat bereits bestätigt, dass die Grafikkarte Raytracing unterstützen wird, den neuen Angaben zufolge arbeitet der Konzern aber auch an einer Alternative zu Nvidia DLSS, die Intel XeSS genannt wird.
Quelle: NBC
 
  • Gefällt mir
Reaktionen: flappes
Also Koduri hat Vega designed, richtig?

Also sollte mit XE zumindest Vega Niveau + Intel Budget + 2/3 Jahre Entwicklungszeit rauskommen.

Ich bin gespannt.

Alles was unter 3070 Niveau raus käme wäre in der Tat ein Fail.
 
Zurück
Oben