News Intel-Arc-Grafikkarten: Intel deutet Q1-2022-Release für Desktop und Notebook an

Intel soll die Karten teils auch selbst fertigen und sie haben auch schon die Zusammenarbeit mit Studios verkündet.
Sorry, keine Lust die News rauszusuchen.
 
  • Gefällt mir
Reaktionen: Mcr-King
rg88 schrieb:
okay, was ist das dann in TFLOPs?

"The Xe-HPG Alchemist 512 EU chip is suggested to feature clocks of around 2.2 - 2.5 GHz though we don't know if these are the average clocks or the maximum boost clocks. Let's assume that it's the max clock speed and in that case, the card would deliver up to 18.5 TFLOPs FP32 compute which is 40% more than the RX 6700 XT but 9% lower than the NVIDIA RTX 3070."

mfg
 
[wege]mini schrieb:
du hast gerade gesagt, dass sich die Leistung einfach ausrechen lässt.
Wie berechnest du die denn jetzt?
Ich seh in deinem letzten Zitat nur Werte wie: 512EU * 2,5GHz = 18,5TFLOPS.
Das ist aber keine valide Berechnung, weil überhaupt nicht klar ist, was eine EU leistet und auch der Takt ist frei aus der Luft gegriffen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Dandy2k5, Mcr-King und eine weitere Person
Warum wundert das nicht? :rolleyes:
Passt ja auch dazu, dass die KS variante vom 12900 angeblich nur für den OEM-Bereich geben soll...
Viel Palavern und dann nix dahinter
 
  • Gefällt mir
Reaktionen: Onkel Föhn und xy_Tux
rg88 schrieb:
was eine EU leistet und auch der Takt ist frei aus der Luft gegriffen.

Die Anzahl der berechnenden Einheiten pro EU ist bekannt. Daher kann man sagen, dass die große XE 4096 von den Dingern hat, die man früher Shader nannte.

Dass, was die Dinger "leisten", hängt von der Software ab. Die TFlop sind ein absoluter Wert. Was man daraus dann an "Leistung" (du nimmst es z.B. in FPS wahr) erzielt, ist Software.

Der Takt ist auch nicht aus der Luft gegriffen. Die Fläche des Chips ist bekannt und der Fertiger auch. Daher kann man in etwa abschätzen, was möglich ist und die Range von 300 Mhz, trägt diesem Rechnung. Die 2.5Ghz empfinde ich persönlich z.B. konservativ geschätzt. Es geht auch mehr, aber sicher nicht mit unter 200 Watt.

Es ist nicht sonderlich schwer, ein wenig Bildung benötigt man aber schon. Das kleine 1 mal 1 fliegt einem auch nicht zu, dass muss man erlernen.

mfg
 
[wege]mini schrieb:
Die Anzahl der berechnenden Einheiten pro EU ist bekannt. Daher kann man sagen, dass die große XE 4096 von den Dingern hat, die man früher Shader nannte.
Welcher Wert ist das denn? mir ist der nicht bekannt
Ergänzung ()

[wege]mini schrieb:
Es ist nicht sonderlich schwer, ein wenig Bildung benötigt man aber schon. Das kleine 1 mal 1 fliegt einem auch nicht zu, dass muss man erlernen.
Sehr überhebliche Aussage für jemanden, der einfach Aussagen trifft, dass alles klar und einfach berechenbar ist, ohne auch nur einen Wert anzugeben, wie diese Berechnung zu Stande kommt
 
  • Gefällt mir
Reaktionen: Bhaal3010, mm19, Onkel Föhn und 3 andere
Intel wartet bis der ETH-Kurs wieder bei 4k liegt. :verwandlung:
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Mcr-King und konkretor
Chipmangel und Lieferschwierigkeiten oder Leistungsdefizite?:confused_alt:
 
  • Gefällt mir
Reaktionen: Mcr-King
Corpus Delicti schrieb:
Wären die Teile halbwegs brauchbar, würde die Propaganda Marketing-Maschinerie schon auf Hochtouren laufen. Gerade bei den Preisen/Verfügbarkeit von GraKas seit über einem Jahr
Sind die halbwegs brauchbar braucht man bei dem aktuellen Markt kein Marketing.
 
  • Gefällt mir
Reaktionen: konkretor, Onkel Föhn und Mcr-King
rg88 schrieb:
Bisher ist mir keine Meldung bekannt, dass auch nur ein Studio mit Intel eine Kooperation eingegangen wäre um ihre Titel auf deren künftige Chips zu optimieren.

Es kommt drauf an, wie die Meldung auf PCGH verstanden werden kann. Zumindest haben Studios angekündigt Intel XeSS in ihren Spielen einzubauen. Ich nehme an, dass dabei auch optimiert wird.

"Die Pressemitteilung offenbart darüber hinaus, welche Entwicklerstudios der Unterstützung von XeSS in ihren Spielen zugesagt haben: 505 Games, Exor Studios, Fishlabs, Codemasters, Hashbane, IO Interactive, Illfonic, Kojima Productions, Massive Work Studio, PUBG Studios, Techland, Ubisoft und Wonder People. Dabei wurde gleichzeitig bekannt, dass Death Stranding Director's Cut aus dem Hause Kojima Productions für den PC erscheinen und ebenfalls XeSS unterstützen wird."
 
  • Gefällt mir
Reaktionen: Nore Ply und Onkel Föhn
rg88 schrieb:
Er ist ja auch maßgeblich beteiligt. Insofern macht er seinen Job exakt genau so wie bei seinem vorherigen Arbeitgeber ;)

Genau darauf hab ich angespielt. ;)

Klar hängt nicht nur alles an einer Person, sondern auch an seinem Umfeld. Aber was er ständig über VEGA gesagt hat und was VEGA dann wurde sind zwei komplett unterschiedliche Dinge.

Edit: Für mich persönlich ist der Name Koduri als Entwickler / Ingenieur Koryphäe verbrannt. Ehrlich gesagt war ich auch froh darüber dass er zu Intel ging.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Duffy Duck und Dandy2k5
rg88 schrieb:
Ich seh in deinem letzten Zitat nur Werte wie: 512EU * 2,5GHz = 18,5TFLOPS.
Falsche Rechnung. Die theoretische Rechenleistung errechnet sich aus Takt * Breite der SIMD * Anzahl der SIMD * Operationen pro Takt. Die theoretische Rechenleistung wird immer mit einem MAD ermittelt: Multiply Add oder eben A * B + C: Macht bei Arc 512 EU * 8 (32 Bit) * 2,5 GHz = 20,48 TFLOp/s.

Jetzt kommen wir aber zu einem wichtigen Punkt: Aus der Anzahl der EU sowie der möglichen maximalen Shader - 4096 - kann man nur bedingt die Spielelleistung ablesen. Es kommt auch darauf an, wie die Shader innerhalb der EU organisiert sind.

Bestes Beispiel ist da GCN - Vega und nun RDNA bei AMD. AMD organisierte die 64 Shader pro CU bisher in 4 * Vec16-ALUS. Um optimal ausgelastet zu werden braucht eine CU damit 4 gleichzeitige Befehle mit 16 Werten pro CU. RDNA hat auch 64 Shader pro CU, aber organisiert in zwei Vec32 und braucht 2 Befehle a 32 Werte um optimal ausgelastet zu werden.

Bei Intel ist jetzt also die Frage: Braucht die Grafikkarte 512 Befehle a 8 Werte, oder 1024 Werte a 4 Werte oder oder oder.

Das wird sich am Ende zeigen! Diese Organistation der Shader ist auch einer der Gründe, warum Ampere von NVIDIA aktuell erst ab 4K quasi die Rechenleistun halbwegs auf den Tisch bringt.
 
  • Gefällt mir
Reaktionen: jemandanders, Skjöll, konkretor und 3 andere
Selbst wenn Intel nen 3090 TI Killer rausbringt wird der sich eher wegen Chipmangels der anderen Hersteller, als wegen der Leistung, verkaufen.
Die Treiber von Intel bringen doch auch heute noch in so einigen Spielen sehr große Probleme. Also im Sinne von Unspielbarkeit, nicht nur etwas wenig Performance oder paar Grafikproblemen - da müssten schon Kampfpreise kommen oder die Treiber müssten in so kurzer Zeit sehr deutlich verbessert werden.
 
rg88 schrieb:
Das sagte Koduri, nachdem er weg war und sich davor 1 Jahr Auszeit gegönnt hatte. Aber während er noch bei AMD war, hat er angekündigt ohne Ende, und absolut nichts brauchbares geliefert.
Wenn ich mir, in so einer schlechten Phase der Firma mal ein Jahr Sabbath leisten kann, dann ist mir entweder mein Job egal oder ich hab längst was anderes.
Wenn er wirklich 1 Jahr Sabbatical gemacht hat, war das zumindest wirklich dumm, gerade zu derzeit an der AMD am meisten zu kämpfen hatte.
Aber dennoch würde ich so nicht einfach urteilen. Ohne Insider Wissen wäre ich vorsichtiger jemanden so schwerwiegende Vorwürfe zu machen.

###

Wegen der TFLOPs, erstmal muss Intel das auf die Straße bringen.
[wege]mini schrieb:
the card would deliver up to 18.5 TFLOPs FP32 compute which is 40% more than the RX 6700 XT but 9% lower than the NVIDIA RTX 3070."
Was soviel heißt das die Karte massiv langsamer als eine 3070 RTX wird.
indizien für diese freche Annahme meinerseits:
  • "bis zu" 18.5 TFLOPs
  • ausgehend das man die Leistung bei identischer TFLOPs zu einer 3070 von NVIDIA auf die Straße bekommt, was einfach nur Traumtänzerei ist.
  • Intels Debüt
  • viele Treiberbaustellen
  • Null Support seitens der Gaming Industrie hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Onkel Föhn
Draco Nobilis schrieb:
Aber dennoch würde ich so nicht einfach urteilen.
Allgemein muss man bei Koduri etwas aufpassen. Ich persönlich halte ihn für einen genialen Visionär, der tolle Technologien erschaffen kann - Tesselation geht ja quasi auf ihn zurück in der Radeon 9x00.

Man kann ein durchaus genialer Visionär sein tolle Techniken erschaffen, gleichzeitig kann man für eine "praktische" Aufgabe ungeeignet sein.

Bisher hat Koduri immer primär an neuen Technologien gearbeitet und konnte sich als Visionär behaupten. Für die Umsetzung dann in realen Produkten waren dann immer andere Verantwortlich.

Wirklich die gesamt Verantwortung bei der RTG hatte er erst mit der Rückkehr 2013.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
sikarr schrieb:
Und wieder verschiebt Intel Grafikkarten, das kenn man ja schon aus der Vergangenheit. Mal den Post für Dezember pinnen, damit ich sagen kann "ich habs euch ja gesagt" :D
Die verpassen noch den GPU-Boom :lol:

Wenn die weiterhin nur verschoben werden, dann will die irgendwann keiner mehr haben.
 
Bezüglich der Verschiebung musste ich sofort an dieses Bild denken.
Alles eine Frage der Korrektur der Erwartungen.
Neue Grafikkarten Q1 2022!
Naja, für Notebooks Q1 2022.
Vorstellung 2022.
Im Handel ab 31.12.2022 vorbestellbar.
Möglicherweise.
 
Auch wenn Koduri vermutlich nicht direkt die Schuld für die Verzögerung hat, so ist er doch als Leiter hauptverantwortlich.

Er hat die Schuld für Vegas schwache Darbietung Lisa Su gegeben, die aus seinem Grafikbereich viele Ressourcen abzog, um die ZEN Architektur stemmen zu können.

Jetzt bei Intel muss er einfach liefern und wieder gelingt es ihm nicht. Koduri - der Thomas Middelhoff der GPU Designer. 😕
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben