News Diskrete Intel-Grafik DG1: Iris Xe Max mit 96 EUs und 4 GByte LPDDR4X bei 25 Watt

Gegenüber dem was AMD und Nvidia zu bieten haben in dem Segment, nicht gerade beeindruckend. Man wird das Ding nur durch "Beziehungen" zu den OEMs loswerden. Richtig lustig wird es für Intel und Nvidia wenn AMD anfängt den Infinty Cache in seine APUs reinzuhauen. Weder blau noch grün werden dem irgendetwas entgegen setzen können.
 
  • Gefällt mir
Reaktionen: Mcr-King
Vulture schrieb:
Richtig lustig wird es für Intel und Nvidia wenn AMD anfängt den Infinty Cache in seine APUs reinzuhauen. Weder blau noch grün werden dem irgendetwas entgegen setzen können.

Ist der Infinity-Cache nicht nur ein "spezieller" L3-Cache? Den gibt es doch schon in den APUs. Beim 4800U zum Beispiel 8Mb. Eben jener 4800U hat auch 8 CUs (Vega) was skaliert etwa 80Mb infinity chache einer 80CU GPU wie der 6900XT entspräche.

Natürlich wird sich der L3 Cache auch mit der CPU geteilt - aber prinzipiell existiert sowas imho bereits.
 
Naja, war jetzt mW auch nicht groß angekündigt, dass man gleich alles in Grund und Boden stampfen wird, aber für den Einstieg schon etwas schlapp, andererseits herrscht im Low-End Segment gähnende Leere und es geht erst mit RX 550 und GT 1030 los, darunter haut man wohl gerade die antike GT 710 wieder raus:

Wäre schon recht nice, für sagen wir <75€ diese als dedizierte rauszubringen, evtl. passiv gekühlt, in Spielen reißt sie zwar außer in Minecraft und CS:GO^^ keine Bäume aus, aber HEVC, AV1 und mehrere Bildschirme auf 4K60, evtl. 4K120 durch HDMI 2.1 etc. sind kein Problem, wäre schon interessant, damit ne alte Office-Möhre oder auch ne neue, wenns eine Ryzen-CPU sein soll, das ist ja nach wie vor so ein Knackpunkt, dass man bis Renoir nur 4C/8T bekommen hat, bei Intel aber bis hoch zum 9900(K) ne integrierte Grafik und sei es nur für QuickSync.

Bin aber definitiv eher auf die größeren gespannt, die in der unteren Mittelklasse bis Mittelklasse mitmischen sollen, wo nVidia den Markt mit 1650, 1650 Super, 1660, 1660 Super und 1660 Ti (die sich schon teilweise mit den günstigsten RTX 2060 überschneidet :hammer_alt:) sowie noch weiteren Subvarianten mit anderem Speicher komplett zugespammt hat, um mal Herrn Torvalds zu zitieren:

Vielleicht ist dann Schluss mit diesem Wirrwarr und sie konzentrieren sich auf eine gute Karte, die es mit der entsprechenden Xe/RX 6600(?) aufnehmen kann.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich glaube nicht, dass man die Cachegröße linear mit der Leistung der GPU skaliert. Dieser muss eine gewisse Größe aufweisen, damit das Rendertarget hinein passt. Siehe Hier, wo auf die GPU der Xbox One eingegangen wird.
Eine Untergrenze für eine sinnvolle Größe des Caches wird eher von der angestrebten Renderauflösung als von der eigentlichen Leistung vorgegeben.
 
  • Gefällt mir
Reaktionen: andi_sco
mgutt schrieb:
Nein, nur die einzelne dGPU "besiegt" Nvidia, da die iGPU beim Spielen ja gar nicht verwendet wird.

Schade, dass man iGPU und dGPU nicht so verbinden kann, dass man beide zum Spielen verwenden kann. Oder gibt es heute bereits Spiele, die eine Nvidia dGPU und eine Intel iGPU nutzen? Vielleicht für eine "Nebenaufgabe" wie das Berechnen von Menüs und Karten oder so?!
Soweit ich verstand, war das DeepLink bei dem Benchmark an, aber auch wenn nicht ist es dennoch nur ein sehr kleine Schritt für Intel. Stand ja auch das eine "Cloud" das entscheiden soll ob Latenz etc. ein Problem ist und dann eben abschaltet wenn es nicht sinnig ist.

2 GPUs an einem Spiel / Aufgabe rendern / rechnen lassen ist der Traum und heilige Gral.
AMD und NVIDIA arbeiten da schon seit einigen Jahren dran. Das sagte bsp. schon Raja Koduri vor ein paar Jahren.
Intel arbeitet auch dran und posaunt auch viel mehr wie toll das im Jahr 2021/2022 sein wird. Das sind die sogenannten Tiles über die Intel immer redet. Die sollen, wenn ich nicht irre, noch nicht mal von der Intel Fab, sondern von TSMC gebaut werden.

Bisher hat meines wissens nur AMD es geschafft APU und ded. Grafik zumindest ein wenig zusammenrechnen zu lassen (im Low-End Sektor APU + Radeon ded. im Notebook), das ganze war aber sehr ineffektiv, da fehlte vor einigen Jahren einfach sehr viel Know-How, Geld und Technologie. Erst die nächste Gen 2022 wird vlt. zum ersten mal Bestandteile der GPU vom DIE auslagern um die GPU zu unterstützen. Daher finde ich AMDs SmartCache sehr interessant.
 
@Vulture @Glyphus
Nach meinem Verständnis stellt der Infinity-Cache einen Cache zwischen den Rechnereinheiten und dem Grafikkartenspeicher dar. Ähnlich dem L3-Cache bei der CPU.
Mir erschließt sich bisher nicht, wie und ob Infinity-Cache der Graka die Zusammenarbeit zwischen der Grafikkarte einer APU und einer dedizierten AMD Grafikkarte ermöglichen soll.
 
Erstmal einen Fuß in die Tür bekommen und dann über low Budget Gaming AMD und NVIDIA angreifen. Alles gut finde ich. Da gibts nix dran zu meckern. Nur Geduld muss man mitbringen.
 
  • Gefällt mir
Reaktionen: icetom und Mcr-King
Low Budget Gaming?
Das ist eher gar kein Gaming.
Da kauft man sich für ein paar Euros mehr eine gescheiten Low Budget Gaming Rechner.
Mit dem ist dann evtl. Gaming wirklich möglich.
 
daivdon schrieb:
Wieso? Die meistverbreitetesten Gaming-GPUs haben doch auch Cloudzugriff(Geforce Experience)?

Sogar einen Telemetry Chip damit sie wissen was die User so machen. 😉
 
andi_sco schrieb:
Aber anscheinend nicht im Gaming Bereich
Aber selbst wenn man den Gamingquatsch außen vorlässt, erhält man eine Hardwarekombo, die an den „Prosumer“Bereich adressiert ist, die mit vorhanden 2Jahre alten Lösungen Schritt hält.

Man solle mir einen Prosumerfall nennen in dem so eine Lösung mehr Sinn macht als sich ein Lösung mit einer Quadro zu besorgen.

Entweder man profitiert von der Mehrleistung nativ, und dann kann es nie Zuviel geben, oder es ist ne Clientlösung, da muss es sparsam wie möglich sein.

Also die verbaute Hardware kann für mich kein entscheidendes Kriterium für einen Kauf der Geräte sein.

Im Besten Fall ist das ein Bananenprodukt. Es reift beim Kunden und kann dadurch eventuellen Problemen der Großen Lösung vorbeugen.
 
  • Gefällt mir
Reaktionen: andi_sco
Draco Nobilis schrieb:
2 GPUs an einem Spiel / Aufgabe rendern / rechnen lassen ist der Traum und heilige Gral.

Das meinte ich gar nicht. Ich meinte ob ein Spiel gezielt die iGPU für irgendeine Nebenaufgabe genutzt hat. zB zur Berechnung einer künstlichen Intelligenz von Gegnern oder so. Also irgendwas was nicht so abhängig von einer Latenz ist. Mich wundert, dass diese Ressource einfach ungenutzt bleibt.
 
  • Gefällt mir
Reaktionen: andi_sco
Ich würde mich wirklich sehr freuen wenn es Intel als 3ter Hersteller in den Gamer Markt schafft. Konkurrenz belebt ja bekanntlich das Geschäft und alle Kunden hätten dann bessere Produkte und Preise.

Aber Intel ist ja jetzt sogar mit seinen CPU's 1-2 Fertigungsstufen hinter AMD. Wie zum Teufel wollen die eine halbwegs konkurrenzfähige Karte auf den Markt bringen?
 
Eine Firma die Benchmarks macht wo der Kompressor zu fällig läuft oder einfach Kerne abgeschalten werden kann sich die Benchmarks schenken .
 
Wenn das mit MX350 Leistung stimmt, dann bräuchte Intel meiner Milchmädchen-Rechnung nach, viermal soviele EUs(384) um an eine GTX 1080 ranzukommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Wenn dass so einfach wäre dann wäre Ampere ja vier mal o schnell. 😉 😅

Leider um so mehr du hast um so schlechter lassen die sich befüllen, genau deswegen sind meistens Modelle wie die GTX1660 so efficient, oder die RTX2060
 
An für sich ganz nett.
Gibts die dann auch als PCIe Karte. Die wäre ja optimal um die ganzen Ryzen und Intel F CPUs mit Grafik zu versorgen.
Als Notebookkarte braucht die keiner wenns jetzt Tigerlake oder Renoir als Unterbau gibt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Strahltriebwerk schrieb:
Der Anfang vom Ende, von Nvidias unnützen und überteuerten MX-Gpus. Das Imperium schlägt endlich zurück. :D

Ja mal sehen wie sich das auf Nvidia auswirken wird langfristig.

CPU und GPU aus einer Hand bzw. Hause sollte langfristig besser aufgehen.

Weder AMD noch Intel haben dann bei ausreichend Leistung oder Marktanteil weiterhin Gründe auf mehr Konkurrenz zu setzen.

Aber das wird sich zeigen, man weiß ja nie.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und Mcr-King
Salutos schrieb:
Mir erschließt sich bisher nicht, wie und ob Infinity-Cache der Graka die Zusammenarbeit zwischen der Grafikkarte einer APU und einer dedizierten AMD Grafikkarte ermöglichen soll.
Das erschließt sich dir nicht weil das völliger Quatsch ist. Wer hat hier irgendwas von dedizierten Grafikkarten gesagt? Der Cache kommt direkt in die APU um den Flaschenhals des RAMs zu minimieren. Damit könntest du die Leistung eines dedizierten Grafikchips in eine APU packen ohne vom lahmen Systemspeicher ausgebremst zu werden. Das meinte ich.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Zurück
Oben