News GPUs von Intel: Xe mit ein bis vier „Tiles“ von 75 bis 500 Watt

Erst mal wie immer abwarten, bis die ersten Produkte da sind.

Ansonsten werde ich persönlich unabhängig der möglichen Leistung und Preisen dank Intels Arbeit aus dem CPU Bereich von denen nichts mehr kaufen.
 
gaym0r schrieb:
Aber warum müssen sie dafür Kredite aufnehmen?
Wenn sich das eher rechnet, als Eigenkapital zu nutzen, dann macht man das so. Warum auch nicht, bei den momentanen Zinsen.
 
kann man irgendwo nachlesen, wie viele fabriken intel auf 10nm umstellt oder was die an erforderlichen maschinen bei asml eingekauft haben. ich kann mir einfach nicht vorstellen, dass die im nächsten jahr die ganze produktpalette auf 10nm umstellen und dazu noch großflächige gpus in 10nm fertigen wollen
 
  • Gefällt mir
Reaktionen: Cruentatus
Salutos schrieb:
"Xe in diesem Jahr und „Ponte Vecchio“ 2021 "

Nun es bleibt abzuwarten ob es denn so kommt und noch viel interessanter dürfte dann die Leistung der Produkte sein.
Noch liegt viel Euphorie in der Luft, hauptsächlich geschürt durch Intels Marketingabteilung.
Es gibt auch Stimmen die nicht so rosig klingen.
Something Wrong At Intel Graphics
Empfehle das gesamte Video. Ab 15:30 die Kommentare eines "Intel Insiders" die ich so unterstreichen würde, weil sie Intels generellem Verhalten/Auftreten entsprechen.
Da gab es doch mal die Meldung das ein wichtiger vom Marketing von AMD zu Intel ging, kurz nach Raja Koduris abgang. Auf jeden Fall erinnert mich das Marketing das Intel jetzt betriebt an das von AMD wie z.B. bei Vega.

Lange erwartungen schüren, und wenn die Benchmarks nicht dem Ergebnis entsprechen, bei den Benchmarks selbst die Schuld suchen.
Ergänzung ()

q3fuba schrieb:
Bei gleicher Anzahl an Kernen ist Intel auch im Multithreading (immer noch!) schneller als AMD und von deren Grafikkarten will ich gar nicht erst reden...
Nein, das stimmt nur bis zu 8 Kerne und bald vermutlich bis 10 Kerne. Danach kommt das Mesh zum Einsatz und Intel bringt pro Kern weniger Leistung als AMD.
 
Nagilum99 schrieb:
Abgesehen davon: 500 Watt ist in Standardservern definitiv too much und wird mit an Sicherheit grenzender Wahrscheinlichkeit nur für Flüssigkühlung realisiert. Wäre sinnvoll sowas dazuzuschreiben.

Erzähle keinen Blödsinn!!! Siehe meinen vorherigen Link oder diesen:
1581443603728.png


Solche Systeme existieren schon seit Jahren und Servernetzteile mit 1000W und mehr sind problemlos und bezahlbar erhältlich. Was glaubst du was die professionellen Nvidia Lösungen so verballern?
1581443737403.png



Mit 500W für 4096 Shader, wäre Intels Lösung auf dem Papier aber nicht wirklich effizient. Tesla V100 protz mit 5120 Shadern und einer TDP von 300W.
1581444716526.png

https://www.heise.de/newsticker/mel...120-Kernen-und-16-GByte-HBM2-vor-3710317.html

Muss aber natürlich nicht viel bedeuten, die Anzahl der Shader allein ist nicht entscheidend.
 
Zuletzt bearbeitet:
Nordwind2000 schrieb:
Jetzt aber mal ehrlich... 500W???? Wtf?

Was man da an Kühlung braucht?
Stell dir eine R9 290 Vapor-X vor, und jetzt stell dir einfach vor das der Kühler auf beiden Seiten der Karte angebraucht ist. Tada, 600W problemlos gekühlt. ;-)
 
  • Gefällt mir
Reaktionen: Nordwind2000 und Rangerkiller1
Wadenbeisser schrieb:
Wurde das knowhow für HD4000 nicht eingekauft?
Ich habe nochmal etwas nachgegraben.
Es kann durchaus sein das ich es mit der GMA Grafik verwechselt habe, welche auf einer lizenzierten PowerVR-SGX-Technik basieren soll allerdings bin ich mir fast sicher das man erst bei einem der Lakes auf eine eigene GPU Architektur gewechselt war. Brauchbare Informationen finde ich derzeit aber nicht.
 
ZeXes schrieb:
Jetzt muss Raja Koduri abliefern. Bei AMD hat er sich beschwert, dass ihm die Mittel an NAVI abgezogen wurden sind, bei intel kann er sich nicht mehr über zu geringen Entwicklungs- und Forschungsgeldern aufregen.

Mal sehen was am Ende raus kommt.
Woher wissen sie das, was Koduri bei Intel bekommen hat? Und wieviel das in der Branche ist?
 
Ist Intels "Multi"-GPU nicht = CF/Sli?
 
Das würde dann bedeuten, dass bei zu kleinen GPU´s manche Spiele schlechter laufen würden?
 
Dito schrieb:
Ist Intels "Multi"-GPU nicht = CF/Sli?
Nope, eher ein chiplet Design wie bei AMD.
Intels EMIB Interface für die Vega kommt da sicher zum Tragen. Ich bin sehr gespannt wie man die Organisation der Einheiten machen will. Ein SLI skaliert einfach nicht gut genug
 
Ein Traum, wenn endlich der günstige Consumer-Bereich aufgemischt wird. Für Grafikkarten jenseits der 200€ oder 250€ bin ich einfach zu geizig und dafür sind meine gespielten Spiele auch einfach schon zu alt.

Leider kümmern sich die Grakahersteller nicht mehr wirklich um diese Preisbereiche um 200€.
Gibt halt tatsächlich Leute, denen eine mittelmäßige Graka mit 75 - 130W ausreichen würde, dazu Semipassiv gekühlt. Leider sind die 200€ Karten meist schon recht alte Karten, welche direkt 150W und mehr benötigen.

Soll sich Intel gerne um den günstigen Markt kümmern, wenn sie es richtig anstellen, teilen sich AMD und nVIDIA die High-End-Bereiche und Intel gehört dann "alleine" der normal-Consumer-Bereich^^
 
  • Gefällt mir
Reaktionen: netzgestaltung, Tobi86 und just_fre@kin
Auch als unbelehrbarer Intel-Fanboi denke ich, dass Intel zu Beginn nichts konkurrenzfähiges auf den Markt bringen wird bzw. kann. Es wird Karten im Einsteiger- vielleicht auch im Mittelklassefeld geben. Die AMD- und nVidia-Karten werden in dem Bereich aber trotzdem effizienter sein.
Da muss man realistisch bleiben. Auch wenn die AMD-Fraktion sich das Scheitern schon herbeisehnt und mit solchen Aussagen
ZeXes schrieb:
Jetzt muss Raja Koduri abliefern. Bei AMD hat er sich beschwert, dass ihm die Mittel an NAVI abgezogen wurden sind, bei intel kann er sich nicht mehr über zu geringen Entwicklungs- und Forschungsgeldern aufregen.
noch scheinbar schlimmer erscheinen lassen will. Geld allein baut keine moderne GPU-Architektur. Und ein oder zwei eingekaufte schlaue Köpfe brauchen auch etwas mehr Zeit.
Warten wir ab, wie sich die 2. oder 3. Generation der dedizierten Intel GPUs schlägt.
P.S.: ich rede hier natürlich von den Desktop-Karten, nicht dem Computing-Mumpitz.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben