News GPU-Gerüchte: Intels DG2 mit 6/8 GB GDDR6 oder als 960-EU-Flaggschiff

Ich glaube sie haben den unteren und Mittelklassen Bereich als Ziel + spezielle gpus für Serverfarmen. Desweiteren wäre hier der Bereich Notebook auch sehr lohnend für sie. AMD ist dort als dgpu kaum vertreten und Nvidia wäre momentan der einzige große Gegenspieler. Und mit Intels partnerprogramm könnte hier einiges passieren.
 
Ich bin gespannt, was die so bringen werden. Wird sich sicherlich auch auf die in der CPU integrierte GPU auswirken (dass die auch immer besser wird mit jeder neuen Generation). Die Zukunft wird es zeigen.
 
Also TigerLake H bekommt nur eine Witz iGPU und als dGPU dann die 96 EU Lösung die TigerLakeU direkt verbaut hat? Hammer!
 
Wenn Intel Clever ist, dann bieten sie ihre Karten erstmal richtig günstig an um überhaupt einen Fuß in den Markt zu bekommen. Und zwar keine Highend Karten sondern (untere) Midrange.
"Preis-Leistungs-Wunder" oder "Efficent Gaming" wären z.B. keine schlechten Labels.

Wichtig dabei: Die Karten müssen qualitativ hochwertig sein sowohl was Kühlung, Lautstärke und Ausfallsicherheit angeht. Und die Treiber müssen wirklich gut und zuverlässig sein.
Das schlimmste was denen passieren kann, ist, dass die Leute sagen "Bloß keine Intel Grafikarten, die sind laut, heiss, schmieren dauernd ab und die Treiber sind beschissen."
Die müssen sich zu Anfang einen guten Ruf aufbauen was Grafikkarten angeht.

Und wenn man sich dann einmal im Markt etabliert hat kann man ja nach und nach auch Richtung High End gehen.
 
  • Gefällt mir
Reaktionen: Jurial, Smartbomb und Strahltriebwerk
Wo würde man denn theoretisch liegen mit 960EUs, angenommen die Performance würde 1:1 skalieren? Hat da jemand auf die schnelle Zahlen?
 
  • Gefällt mir
Reaktionen: fox40phil
easy.2ci schrieb:
Ganz große Baustelle bei Intel sind mMn auch die Treiber. So ein Chaos was Versionen angeht, Stabilität, fehlendes Features. Zumindest wo ich zuletzt mit den Treibern für die integrierte Grafikeinheit hantiert hab.

Intel macht zumindest im Linux-Bereich immer noch die mit Abstand besten Treiber... Kann deine Kritik also wenig nachvollziehen.
 
Tiremo schrieb:
Ideal wäre natürlich wenn Intel ein ernster Konkurrent zu Nvidia und amd wird, denn davon profitieren letzten Endes alle.
Wobei das natürlich erstmal nicht in Sicht ist.
Intel ist Marktführer im GPU Bereich und im CPU Bereich.. Das Letzte was wir brauchen ist, dass Intel auch noch Marktführer mit dedizierten GPU Bereich wird. Die Entwicklung, das Processing und die Cost auf Value werden mehr, die Margen sinken in Zukunft, oder es gibt Mondpreise. Nein Danke, aber mir reicht dass Intel knapp 80% des iGPU Marktes hat..
 
i740, die nächste? Die etwas Älteren werden sich an diesen Grafikchip von Intel erinnern.

Erstmal ist mehr Konkurrenz sicherlich nichts schlechtes. Zu große Hoffnungen sollte man aber nicht haben. Erstmal muss man was liefern, vorher sahen schon ganz andere Folien fantastisch aus.

Ergo, vorsichtig optimistisch - ja. Mehr aber nicht.
 
  • Gefällt mir
Reaktionen: LadykillerTHG
Die ALUs pro EU für Xe HP sind noch nicht bekannt und überhaupt sollte man Xe LP und Xe HP in der Tabelle trennen. Xe HP hat mehr Threads pro EU und Raytracing wird auch unterstützt, ich würde da nicht einfach 1:1 von einer Xe LP Kopie ausgehen.
 
  • Gefällt mir
Reaktionen: DynamaxX
D0m1n4t0r schrieb:
... Und die Treiber müssen wirklich gut und zuverlässig sein.
...

Der war gut 😂😆
Ich kann nicht mal mehr den Laptop an denTV anschließen, weil es seit neuesten kein Bild gibt
Ergänzung ()

maximus_hertus schrieb:
i740, die nächste?...

Jupp👍
Ergänzung ()

Rockstar85 schrieb:
Intel ist Marktführer im GPU Bereich und im CPU Bereich...
Ja, aber nur durch das konsequente Einsetzen einer iGPU in zuvielen Chips
 
  • Gefällt mir
Reaktionen: Smartbomb und Teralios
PS828 schrieb:
Sieht nicht schnell aus zumal es wohl auch noch ein Jahr dauert. Mal sehen wie sich das entwickelt
Verwechsel die EU-Zahl der Intel Grafiklösungen nicht mit den Shader-Zahlen bei AMD oder NVIDIA.

NVIDIA und AMD geben für jeden möglichen FP32-Wert einen Shader an. AMD gibt zum Beispiel 64 Shader an, die sind aber in 4 (GCN) bzw. 2 (RDNA) "FPU" (VectorALU) angeordnet. Bei NVIDIA kann ich es nicht zu 100% zagen, da ich unterschiedliche Informationen habe, die mal von skalaren ALUs sprechen, dann wieder von Vec4-ALUs (4 * 32Bit). Bei NVIDIA weiß ich nur, dass 64 Shader jeweils einzeln angesprochen werden.

Bei Gen11 hatte jede EU 2 * 128 Bit FPU oder eben 2 * Vec4. Bei Gen11 kommt man hier theoretisch, bei 512 EUs, auf 4096 Shader.

In wie weit sich Xe nun wirklich von Gen11 absetzt - wirklich "vollständige" Neuentwicklung - oder doch nur eine "weiter" Entwicklung, wird sich zeigen müssen. Man kann aber bei 512 EUs auch davon ausgehen, dass man bei 4096 Shadern landet, und damit würde die mittlere Karte durchaus, je nach Auslastung, der Region bis zur 3070 liegen.

Ein 960 EU Monster könnte es mit der 3080 bis 3090 auch von der Leistung her aufnehmen. Das wird sich aber dann zeigen.

Karre schrieb:
Raja war doch enttäuscht, das Vega etc. auch Gaming machen sollte ..
Nun macht er das selbe bei Intel? 🤔
Raja war in seiner Karriere von vielem enttäuscht und ist in meinen Augen aktuell mehr Maulheld als das Genie, für das er sich ausgibt und leider gibt es viele wie ihn.

Raja hat bei ATi damals als "Hauptarchitekt" die 2900XT verbrochen, wobei man fair sein muss, damals hatte er einen gleichgestellten Kollegen, wer von beiden dafür verantwortlich war, keine Ahnung, aber es war seine Federführung! Als er dann zu Apple ging, hat jemand seinen Mist repariert. (Der andere Kollege, mir fällt der Namke nicht ein.) Bei Apple hat Raja primär am Retina-Display und der dafür zu grundliegende Technik gearbeitet.

Bei AMD hat er dann Polaris als auch Vega verantwortet, wobei Vega "sein" Baby war - was man so ließt in der Küche der Gerüchte. Bei Vega hat Raja wieder sehr viel "feine" Technik abgeliefert, so wie bei der 2900XT damals. Nur ging Raja bei Vega nicht die grundlegende Probleme von GCN an, sondern hat wieder zu viel auf Treiberentwickler und Software-Entwickler gesetzt.

Was als Mesh-Shader bei NVIDIA bei Turing - kommt zum Glück auch in DX12 - gefeiert wurde, hatte Vega als "Primitive-Shader" auch schon.

Raja ist durchaus ein Visionär, dass will ich ihm nicht absprechen, gleichzeitig ist er aber scheinbar nicht dazu in der Lage wirklich bestehende Probleme zu lösen. Raja ist aktuell für mich denoch primär Maulheld, mal sehen, was Xe am Ende auf die Straße bringt. Wobei Intel die Software-Entwickler hat, dass seine Vision umgesetzt wird.

Steini1990 schrieb:
Stimmt irgendwie. Intel will ja mit Xe auch eine Grundarchitektur für alles hernehmen. GCN lässt grüßen.
BIn gespannt ob sie es besser umsetzen.
Was für sich gesehen kein Problem ist. GCN als Grundarchitektur ist für Gaming durchaus geeignet. Das primäre Problem von Vega als auch GCN ist immer das Auslastungsproblem gewesen.

GCN ist, was Berechnungen angeht, ein flexibles Monster, nur muss so ein Monster auch per Software gefüttert werden. Pro CU braucht GCN 4 Threads, damit es optimal ausgelastet wird und das ist eben sehr schwer.

Sollte Xe sich an Gen11 orientieren und es bei 2 FPU pro EU bleiben, dann ist es aber kein wirkliches Auslastungsproblem, denn 2 Threads sind jetzt auch bei NVIDIA Standard um die SM optimal auslasten zu können.

r4yn3 schrieb:
Wo würde man denn theoretisch liegen mit 960EUs, angenommen die Performance würde 1:1 skalieren? Hat da jemand auf die schnelle Zahlen?
Mit 960 EU ist die 3080 bis 3090 in Reichweite.
 
  • Gefällt mir
Reaktionen: Colindo, Jurial, Smartbomb und 4 andere
@Teralios richtig, meine Aussage bezog sich aber eher darauf dass die Recht kleine DG1 bisher nicht erschienen ist und intel gleich das nächste Luftschloss baut. Versteh mich nicht falsch, in der Theorie ist die Leistungsfähigkeit gegeben aber vorzuweisen hat man bisher nichts zumal ich davon ausgehe dass Intel den größten EU Chip evtl anderen Anwendungen vorbehält.

Eine richtig schnelle GPU würde ich auch von Intel gern haben. Aber dafür brauch ich Tests, releases und Fakten. :D
 
PS828 schrieb:
… Versteh mich nicht falsch, in der Theorie ist die Leistungsfähigkeit gegeben aber vorzuweisen hat man bisher nichts zumal ich davon ausgehe dass Intel den größten EU Chip evtl anderen Anwendungen vorbehält.
Wobei man hier auf passen muss. Aktuell gibt es gerüchte, dass Intel Tiles a 512-EU nutzt, ein 960er Monster besteht dann aus 2 solcher Tiles.

Aber am Ende muss man schauen, was nun kommt. Es ist aber klar, dass Intel jetzt versucht die Leute heiß zu machen. AMD ist zum Glück bei Vega damit derart auf die Fresse gefallen, dass sie jetzt lieber "schweigen". Intel wünsche ich ehrlich gesagt, dass sie mit ihrer Xe nun ähnlich mit den Versprechen auf die Fresse fliegen, damit sie mal ihr Marketing etwas überdenken.

Aber das wird vorerst nicht, denn das Großmaul, dass bei AMD die Vega-Versprechen raus haute, ist jetzt bei Intel!
 
  • Gefällt mir
Reaktionen: Benji18, Smartbomb, Land_Kind und 2 andere
andi_sco schrieb:
Ja, aber nur durch das konsequente Einsetzen einer iGPU in zuvielen Chips
Das ist aber Tatsache Irrelevant. Wir haben eine Situation, die so im Markt nicht mehr haltbar ist. Nvidia sieht ja nun was ein Monopol bedeutet und macht sich indirekt selber den Markt kaputt, indem man die Gamer GPUs günstig verkauft (AMD wird eben von 90% nur als Preisdrücker genommen) und somit die RTX20 Gen obsolet macht. Und wenn Intel dann auch hier am Ende AMD aus dem Markt drückt, haben Markt und Kunde verloren.. Ich wäre für ne blutige Nase für Intel und gute 3-5 Milliarden reinbuttert und Xe nur ein Rohkreppierer ist.

Und wie Tera sagte, Intel reißt hier so groß das Maul auf, dass ich insgeheim hoffe, der Sturz auf die Kauleiste tut mal richtig richtig weh.
 
  • Gefällt mir
Reaktionen: andi_sco
Koduri war auch für Navi verantwortlich.
Und Navi 10/14 wurden von der Fachpresse oft gelobt.

Bei Vega gab es das Gerücht, dass für die Entwicklung der Semi-Custom-Chips für die PS5 und nächste X-Box 2/3 der RTG abgezogen wurden von Su, womit nur noch 1/3 der RTG übrig blieb um Vega zu optimieren. Kurz nach diesem Gerücht verließ Koduri auch AMD.

Es ist natürlich auch Quatsch, dass Nvidia die neuen Ampere-GPUs "verschenkt".
Man hat sich für eine deutlich günstigere Fertigung bei Samsung entschieden, in deren 8nm Prozess, weil TSMCs 7nm viel teurer gewesen wäre, was ein Nvidia-Mitarbeiter im Reddit-Interview noch einmal bestätigt hatte.

Nvidia wird also die Margen halten können, und wieder viel Umsatz/Gewinn machen.

Und im Vergleich zur GTX 970, die ~320€ gekostet hatte, ist 499€ für die 3070 schon ein heftiger Aufschlag.
Günstig ist das nicht wirklich.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
Bin mal gespannt ob Apple die Karten für MacOS frei gibt. Wenn ja wissen wir endgültig, dass Nvidia nie mehr auf MacOS zurück kommen wird.

matty2580 schrieb:
Man hat sich für eine deutlich günstigere Fertigung bei Samsung entschieden, in deren 8nm, weil TSMCs 7nm viel teurer gewesen wäre, was ein Nvidia-Mitarbeiter im Reddit-Interview noch einmal bestätigt hatte.

Da würde mich mal der Performance Unterschied interessieren, schade dass es das nicht gibt. Zumindest für die Öffentlichkeit.
 
Rockstar85 schrieb:
Und wie Tera sagte, Intel reißt hier so groß das Maul auf, dass ich insgeheim hoffe, der Sturz auf die Kauleiste tut mal richtig richtig weh.

Intel ist eine Person?

PS: Tera hat in seinem Beitrag den Namen einer Person genannt. Und das, was irgendwelche Leute aus einer Marketing-Abteilung sagen, sollte doch jeder hier nicht allzu ernst nehmen... egal bei welchem Unternehmen. ... Alles was zählt, sind Testergebnisse.

PPS: und an gewisse kulturelle Unterschiede zwischen uns und den USA sollte man auch denken, was die Kommunikation betrifft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Bin echt gespannt was Intel da auf die Beine stellt, wenn sie es halbwegs richtig hinbekommen, könnte das sehr interessant werden. Bin echt gespannt auf das nächste halbe Jahr.
 
  • Gefällt mir
Reaktionen: konkretor
calluna schrieb:
Gut möglich beim Spitzenmodell der DG2, die 10 mal so viele EUs wie die DG1 hat und das Äquivalent im Tiger Lake scheint sich gut zu schlagen. Selbst bei sehr schlechter Skalierung sollte es die 5fache Leistung der DG1 sein.
OK Benchmark von Intel wow. Ich will unabhängige Test sonst nichts. Ich glaube keinen von den 3.
 
  • Gefällt mir
Reaktionen: Dai6oro, Smartbomb und Cool Master
@Makso

In Anbetracht der Steigerung der theoretischen Leistung für die TigerLake iGPU finde ich die bisher bekannten Benchmarks, auch wenn sie nicht unabhängig sind, realistisch. Das bewegt sich halt im Rahmen der bisherigen Entwicklung.

Mich persönlich betrifft das ohnehin nicht mehr, falls es nicht noch eine Update für die Macs vor dem Plattformwechsel gibt.
 
Zurück
Oben