News A350M und A370M: Intel Arc startet im Notebook, Desktop-GPUs ab Sommer

anappleaday schrieb:
Einfach komplett auf 2023 verschieben un500 dann viel zu weit zurückliegen…
Nutzt aber nichts wenn AMD und NV hier neue TOp Karten liefern,diese aber 1500€+ kosten. Von daher wird eher der release der neuen Gen von amd und NV die Grafikkartenverkäufe von Intel nicht beeinflussen. Denn bis die kleinen kommen in Form der RTX 4050 und RX 7500 vergeht dann noch 1 Jahr und ob diese preislich dann noch unter 500 liegen ist auch fraglich.
 
DG2 bzw. das ganze Lineup mit seiner Komplexität ist für mich der klassische Rohrputzer und da klemmt es immer an den unterschiedlichen Stellen. Deswegen legt Intel auch den Fokus auf OEM (Komplettsysteme, Notebooks...) und weniger auf den DIY Markt.
Spät dran für DIY, ja, aber für OEMs weniger ein Problem, die Hardware wird so oder so abgesetzt. Für DIY sind die angesetzten Stückzahlen eh überschaubar.

Ich sehe das immer noch ziemlich entspannt und völlig im Rahmen eines Neueinstiegs.
 
  • Gefällt mir
Reaktionen: BAR86
Draco Nobilis schrieb:
Wie soll man sich so als Foundry einen Ruf aufbauen wollen?
Als unpünktlich und unzuverlässig? Man hat dort keinerlei Vertrauensvorschuss.
Das Foundry Business hat ja wohl überhaupt nichts mit der internen Entwicklung einer GPU zu tun.
Wenn überhaupt kann man wenigstens schon eine GPU aus der eigenen Foundry anbieten (die DG1 basiert auf Intels 10nm SuperFin, die DG2 kommt von TSMC)
Draco Nobilis schrieb:
AMD macht öfters auch mal Sachen nicht pünktlich, das ist klar.
Intel ist dann doch noch viel zu gemütlich unterwegs.
Die Ursprünglichen Pläne für Intels GPUs hatten mal was von 2020 gesagt. Da hätte man wahrscheinlich schon DG1 bringen können, aber das wär wohl eine Bruchlandung geworden was die Performance und Treiber betrifft. Insofern ist es ein gutes Zeichen, dass man nochmal 2 Jahre für den Nachfolger Zeit nimmt und nicht einfach dahinwurstelt.
Das heißt zwar immer noch nicht, dass man ein gutes, rundes Produkt abliefern wird, aber es zeigt dann doch, dass man gewillt ist, dass das was wird insgesamt und nicht einfach mal hinwirft und dann den Markt wieder verlässt. Man will sich offenbar keine komplette Blöße geben
 
Draco Nobilis schrieb:
AMD macht öfters auch mal Sachen nicht pünktlich, das ist klar.
Intel ist dann doch noch viel zu gemütlich unterwegs.
Das trifft es ganz gut 👍🏼

Über eine Verspätung regt sich keiner auf, aber wenn es auf mehrere Monate hinaus läuft schon eher.
Jeder weiß, das ein Plan nur solange funktioniert, bis die erste Unterbrechung kommt... Intel zeigt dann aber immer wieder, wie man es nicht machen sollte.
Ergänzung ()

BAR86 schrieb:
Das Foundry Business hat ja wohl überhaupt nichts mit der internen Entwicklung einer GPU zu tun.
Zeigt aber klar die Richtung des Konzerns!

BAR86 schrieb:
Die Ursprünglichen Pläne für Intels GPUs hatten mal was von 2020 gesagt. Da hätte man wahrscheinlich schon DG1 bringen können, aber das wär wohl eine Bruchlandung geworden was die Performance und Treiber betrifft. Insofern ist es ein gutes Zeichen, dass man nochmal 2 Jahre für den Nachfolger Zeit nimmt und nicht einfach dahinwurstelt.
Und wo hat jetzt ein Jahr DG1 Besserung gebracht?
Da blieb die Treiberentwicklung ja auch nicht stehen.
Und die Performance Bruchlandung haben Sie auch so hingelegt. Das TDP Limit der DG1 scheint zu schnell erreicht zu sein.
 
  • Gefällt mir
Reaktionen: TechFA
Richy1981 schrieb:
Das einfach nur noch lachhaft was Intel da abliefert. Bis diese Generation wirklich mal das laufen lernt, ist dann schon Generation AMD 7000 bzw. nVidia 4000 aufn Markt. Wer soll sich denn den Intelwitz noch holen?
Kommt ganz auf Verfügbarkeit und Preis/Performance an. Selbst wenn die Leistung eher so mittelmaß ist, solange der Preis stimmt wird es Abnehmer finden. Glaube nicht das wir zu Beginn RDNA3 und Lovelace Karten unter 600-700 € sehen werden.
Gerade das Einsteiger Segement unter 200€ will sicher mal wieder bedient werden.
 
Es gibt jetzt ein Produkt in Südkorea auf dem Markt. Das kann man testen und Intel gewinnt Erfahrung.
Das sie die Erwartung so geschraubt haben, ist ihr eigenes Problem. Hätten sie einfach mit einem Niveau AMD 6500XT/6600 Konkurrenz gestartet und gesagt, wird werden besser, wäre es wohl alles kein Problem.
 
andi_sco schrieb:
Zeigt aber klar die Richtung des Konzerns!
Nein, denn das sind völlig unterschiedliche Bereiche.
Bei uns läuft die Softwareentwicklung auch rund, die Hardware braucht dafür manchmal ewig.
Das Hardwaretesting wiederum ist hervorragend usw usf.
Sind verschiedene Abteilungen und Projektpartner. Am ehesten stellt man sichs als verschiedene Firmen vor.
andi_sco schrieb:
Und wo hat jetzt ein Jahr DG1 Besserung gebracht?
Da blieb die Treiberentwicklung ja auch nicht stehen.
Ich kenne die letzten 12 Monate der Treiber für die DG1 nicht, kann ich dir also nicht sagen.
Bis auf Grafikfehler ist die Performance unter DX12 und Vulkan jedoch recht stabil.
Frühere APIs sind (und bleiben wohl auch) ein Problem
andi_sco schrieb:
Und die Performance Bruchlandung haben Sie auch so hingelegt. Das TDP Limit der DG1 scheint zu schnell erreicht zu sein.
Die Performance der DG1 ist völlig in Ordnung angesichts des Verbrauchs
Ergänzung ()

24784ds schrieb:
DG2 bzw. das ganze Lineup mit seiner Komplexität ist für mich der klassische Rohrputzer und da klemmt es immer an den unterschiedlichen Stellen. Deswegen legt Intel auch den Fokus auf OEM (Komplettsysteme, Notebooks...) und weniger auf den DIY Markt.
Spät dran für DIY, ja, aber für OEMs weniger ein Problem, die Hardware wird so oder so abgesetzt. Für DIY sind die angesetzten Stückzahlen eh überschaubar.

Ich sehe das immer noch ziemlich entspannt und völlig im Rahmen eines Neueinstiegs.
Sehe ich auch so, ich rechne ohnedies erst in ein paar Jahren (sofern Intel das Projekt weiter verfolgt) mit einer Konkurrenzfähigkeit (nicht was Performance, sondern overall Quality betrifft)
 
Zuletzt bearbeitet:
"AMD wird Intel nie was antun können, weil sie nie so viel produzieren können wie Intel und rechtzeitig genug Chips auf den Markt bringen können und man ist immer von Dritte abhängig"

Erm, häää was ? Habe ich mich im Jahr vertan ? Falsche News. Da steht ja Intel 🤔
Kleiner Joke, sry, musste sein.
 
  • Gefällt mir
Reaktionen: Richy1981
Bin schon sehr an diesen Grafikkarten interessiert. Nur allein die Encodierung in Hardware von AV1 ist interessant für mich, alles andere eher Randerscheinung. Rasterleistung auch alles zweitrangig.
Wäre für mich nur ein Testballon zum rumexperimentieren.
 
Mal schauen, wie weit sie AMD und NV preislich unterbieten. Müssten sie eigentlich ordentlich drunter liegen, denn warum sollte man sich sonst eine dedizierte Intel Karte kaufen? Ich würde das Risiko, ein unausgegorenes Produkt zu kaufen, so oder so nicht eingehen. Sollen sich erstmal ein paar Jahre im Gaming Umfeld bewähren, dann kann man drüber nachdenken.
 
Man sollte vielleicht auch mal über die geringe Anzahl von Intels verbliebenen Launchpartnern in DE nachdenken, den abgeblitzten Boardpartnern und dem Umstand, dass Intel den wenigen Vertriebspartnern keine Preisgarantie geben wird. Und die SI bleiben anfangs auch außen vor. Ok, ich hab mal wieder nichts gesagt :D

Oder andersherum gefragt: wer hat eigentlich schon ein DGD25KEF1Q BDL KIT bekommen und wo bleibt die Euphorie samt Leaks?
 
  • Gefällt mir
Reaktionen: TechFA, konkretor, Colindo und eine weitere Person
SSD960 schrieb:
Im Desktop erreicht wird ARC sich gegenüber den Playern NVidia und AMD durchsetzen. Das glaube ich jedenfalls...
Wenn du auch an den Weihnachtsmann glaubst dann ja! ;)
Ist nicht Intels erster Versuch sich da etwas vom Kuchen abzuschneiden. Wenn ich da an Ende der 90er zurückblicke sind von Intel alle diskreten GPUS gefloppt. Das einzige was mich da zukünftig interessiert ist der Verbrauch in Hinblick auf die Leistung. Bei AMD und NV geht's ja aktuell immer höher und ich habe da, als nicht mehr so aktiver Gamer, eigentlich keine Lust mir ein Heizkraftwerk ins Zimmer zu stellen. 450W+ gehen mir da echt durch den Strich.
 
projectneo schrieb:
Ich gehe mal davon aus, dass die Karte sich so sehr verspäten, dass diese am Ende gegen die neue Generation von NV und AMD antreten müssen.

Wohl wahr. Aber dasselbe Problem gibts auch umgekehrt, z.B. ist AMDs 680m APU trotz dem kürzlichen Hype so schwer erhältlich, dass es wohl noch 3-4 Monate braucht, bis es in Masse verfügbar ist. Aber genau dann (also im Herbst) soll auch ein großes Intel iGPU Upgrade kommen. Und dann muss sich AMDs APU wahrscheinlich mit Intels neuer iGPU Generation messen.
Es ist einfach nur noch zäh alles derzeit... wie sich alles rauszögert...
 
Zuletzt bearbeitet von einem Moderator:
andi_sco schrieb:
Das passt halt nicht zusammen
Grafikfehler gibts immer wieder mal. Natürlich, bei einem neuen Player gehäuft. Aber auch AMD ist nicht verschont von solchen.
Mangelnde Leistung kann man aber nicht einfach wegpatchen, außer es ist ein Treiberbug. Deshalb ist es zumindest ein gutes Zeichen wenn von Grafikfehlern die Rede ist bei Igors Test (@FormatC ), die Performance und Effizienz bei DG1 aber bereits stimmten (dem Einsatzzweck entsprechend).

Intel muss ja nicht gleich in absolute Performancehöhen aufbrechen, es wird Jahre dauern bis die Architektur optimiert ist und auch die Treiber auf der Höhe der Konkurrenz sind. Aber es ist schon mal ein Anfang.
 
  • Gefällt mir
Reaktionen: stefan92x
TechFA schrieb:
daß es gar nicht an eventuell schlechten Intel-Treibern oder Intel's/Raja's Inkompetenz liegen könnte
Ich will nur anmerken, dass ich Raja nicht für Inkompetent halte. Ich denke nur, dass er nicht die richtige Person ist eine Abteilung zu leiten, die wirklich ein Produkt rundes vollständigs Produkt auf den Markt bringen muss.

Raja hat bis er zu AMD zurück ging - immer nur einzelne Bestandteile verantworten müssen. Bei ATi war er erst mal in der Abteilung für "Advandce Technology", bei AMD wurde er dann einer von zwei Leiter der GPU-Abteilung, aber wieder mit Schwerpunkt Forschung. Bei Apple hat er den Softwarestack für Retina veranwortet. Er kann also durchaus etwas und das hat er auch immer wieder unter Beweis gestellt.

Für mich gehört er aber aber wirklich in die Abteilung Forschung. Ihm fehlt für mich das Händchen für runde Produkte.
TechFA schrieb:
sondern daran, daß sie vielleicht gar nicht anders können. Stichpunkt Patente und so .. Siehe auch mein Beitrag hier.
Das mit den Patenten ist so ein Ding. Ja, AMD hat - auch dank ATi - sehr viele Patente, NVIDIA genau so und auch PowerVR. Aber lassen wir jetzt mal Qualcomm und PowerVR sowie ARM raus - Mali - und befassen uns nur mit AMD, Intel und NVIDIA:

AMD kann aktuell nicht ohne Intel und Intel kann nicht ohne AMD. AMD braucht von Intel die Erlaubnis auch auf moderne Erweiterungen der x86-Welt zurückzugreifen. Intel wiederum braucht von AMD AMD64, weil sie sonst quasi eine neue 64-Bit Erweiterung auflegen müssten und dann geht das Problem los.

Für NVIDIA und AMD sieht es ähnlich aus und Intel NVIDIA auch. Intel hat sich viele wichtige Patente mit einem Patenttausch mit NVIDIA 2004 und auch 2010 gesichert, dass man damit arbeiten kann. AMD, Intel, NVDIA schließen immer wieder entsprechende Patentabkommen, oft im Stillenkämmerlein ohne es Groß an die Glocke zu hängen und keine dieser Firmen hat interesse den roten Knopf "Patentklage" zu drücken, denn am Ende würden sie alle gegenseitig ihre Geschäfte gefährden.

Intel ist hier zum Teil auf das Wohlwollen von AMD und NVIDIA angewiesen, aber das ändert an der Stelle nichts an der Thematik, dass Intel auch in der neusten Xe-Iteration immer noch auf den grundlegenden Aufbau von vor 10 Jahren zurückgreifen.

Ich sehe bei Intel eher ein anders Problem und das Problem nennt sich NICHT Raja Koduri. Das Problem sind auch nicht die fehlenden Patent. Das Problem ist Erfahrung! Ja, Intel hat mit Raja Koduri AMD damals den Leiter der GPU-Sparte weggenommen, aber viele der sehr guten Ingenieure und Entwickler eben nicht.

AMD hat sich 2005/2006 mit ATi ein Team gekauft und dieses Team hat über Jahre bei AMD die nächsten ausgebildet und die haben die nächsten ausgebildet. ATi und später AMD haben, wie NVIDIA, immer an einer GPU gearbeitet und beide Firmen haben verschiedenste Hardware-Architekturen ersonnen um vorne mitzuspielen.

Das wichtigste dabei ist - ähnlich wie NVIDIA - ist dabei, das ATi/AMD - bis auf den Zeitraum 2013 - 2017 - dass sie sich nicht gescheut haben die eigene Architektur zu analysieren und zu verbessern. TeraScale war 2007 als HD2900 eine mittlere Katastrophe. Man hat das Design anlyisert und obwohl RV670 auch ein TeraScale 1 war, hat man entsprechende Anpassungen vorgenommen. Mit der HD4000 hat man dann gemerkt, dass man die TMUs nicht mehr ausgelastet bekommt in der Form, also verändert man was.

Gleiches dann mit TeraScale 2, man merkte bei der HD 5x00 Serie, dass das VLIW-5 nicht so aufgeht, wie bisher, also VLIW-4-Design. GCN war auch in der Mache. Man blieb also stehen, analysierte die Architektur und verbesserte sie an den passenden Stellen.

Das ist AMD seit ca. 2013 - 2017 etwas verloren gegangen - zufälligerweise die Zeit als Raja die Verantwortung hatte. GCN bewegte sich strukturell auf der Stelle, während tolle Ideen hinzukamen und gingen, aber die strukturellen Probleme wurden nicht gelöst. Erst RDNA war wirklich eine strukturelle Änderung, während RDNA2 neue Funktionen brachte und RDNA3 nun wieder eine strukturelle Anpassung.

Und bei NVIDIA verhält es sich ähnlich. Tesla aka G80 kam auf den Markt. Damals 16 Shader in 8 Cluster, statt das aber so bei zu behalten, hat NVIDIA dran gearbeitet, gemerkt es geht besser: 24 Shader in 10 Clustern. Ja ne, ist nicht so das wahre also lieber 512 in 16. NVIDIA merkt dann, dass ihnen den asynchronen Shader um die Ohren fliegen, also kommt Kepler: Mehr Shader, weniger Takt, jede SM hat 192. Sie merken, wir haben ein "Auslastungsproblem" und optimieren es auf 128 Shader. Oh, wir haben eine Async-Schwäche, machen wir doch lieber 64 + 64 INT. Ja, also nur INT, was machen wir? Ach machen wir 64 + 64 in der SM.

AMD und NVIDIA haben also immer und immer wieder an ihren Architekturen gefeilt und die Struktur verbessert und genau das verhilft ihnen zu dieser starken Leistung.

Intel hingegen? Sie fahren seit nun gut 10 Jahren ihre grundlegende Struktur was die GPU angeht - wobei ganz fair ist das nicht, Xe² verändert etwas, aber primär die Namen. Die gesamte Struktur von Xe² findet man in der Form bereits zu SandyBridge-Zeiten: 8 Shader pro EU, 8 EU pro SubSlice, macht 128 Shader pro SubSlice oder wie Intel es jetzt nennt Xe-Core. In dem SubSlice enthalten: Thread-Dispatcher, TMU.

Sieht man sich die Blockdiagramme seit SandyBridge an: Es ist immer die gleiche strukturelle Architektur. Sieht man sich von AMD und NVIDIA nun die Blockdiagramme an und ließt sich alles durch, haben die beiden Firmen in der Zeit ihre Architekturen quasi einmal vollkommen umgekrempelt.

AMD und NVIDIA waren und sind immer noch bereit wirklich auch strukturelle Änderungen in ihren Architekturen unterzurbringen und damit auch den nächsten Schritt zu gehen. Intel hat bei Xe als auch Xe² sich nicht an die Struktur getraut, sie haben XMX-Kerne, RayTracing und Co eingebaut, aber die Struktur ist die gleiche.

Ich denke aber, irgendwo bei Intel wird auch jemand erkannt haben, dass Xe ein strukturelles Problem hat, denn sie haben von AMD jemanden sehr wichtiges abgeworben - gut er war vorher schon mal bei Intel: Rohit Verma. Der ist 2013 zu AMD gekommen - mit Koduri - und konnte sich ab 2017 sehr frei entfalten und ich glaube sogar - ganz ehrlich - das RDNA auf Verma zurück geht. 2 Jahre bis 2019 bis RDNA kam? Passt Zeitlich sehr gut, vor allem wenn man bedenkt, dass er die Architektur nut grundlegend über den Haufen warf, sondern sie angepasst hat.

Mal sehen, vielleicht sehen wir 2024 dann die erste strukturelle Änderung bei Xe, mich würde es nicht wundern.
 
  • Gefällt mir
Reaktionen: yummycandy, TechFA und whynot?
DevPandi schrieb:
mit einem Patenttausch
Da ist halt die Frage, was im Hintergrund abläuft.
Der Standard DirectX muss ja irgendwie erreicht werden.
 
BAR86 schrieb:
Das Foundry Business hat ja wohl überhaupt nichts mit der internen Entwicklung einer GPU zu tun.
Der Ruf der betroffenen Firma aber schon.

BAR86 schrieb:
Die Ursprünglichen Pläne für Intels GPUs hatten mal was von 2020 gesagt. Da hätte man wahrscheinlich schon DG1 bringen können, aber das wär wohl eine Bruchlandung geworden was die Performance und Treiber betrifft.
Und was hat sich jetzt 2 Jahre später daran geändert? Sehe da keine Indizien.
Wir haben hier einen der besten TSMC Prozesse und schafft damit gerade so die Leistung einer AMD APU als dedizierte Karte (nach Intels eigenen Sheets, die AMD Sheets als vgl. sind ein noch fieserer Kinnhaken aber mit Vorsicht zu betrachten).
Von Größeren Lösungen dürfen wir noch mind. 1 Quartal träumen.

Ich sehe also absolut kein Indiz für eine Besserung der Lage bei Intel (abgesehen von Mining Karten und zwangsweise, weil Monopol per OEM, durchgedrückter Iris Lösungen).
 
  • Gefällt mir
Reaktionen: TechFA
anappleaday schrieb:
Einfach komplett auf 2023 verschieben und gut ist, interessieren wird es mit dem Release der neuen GPU Generation von AMD/Nvidia eh niemanden mehr, da sie dann viel zu weit zurückliegen…
Richy1981 schrieb:
Bis diese Generation wirklich mal das laufen lernt, ist dann schon Generation AMD 7000 bzw. nVidia 4000 aufn Markt. Wer soll sich denn den Intelwitz noch holen?

Traditionell bedienen Nvidia und AMD ja erstmal den Enthusiasten-Markt. RDNA2 soll ja wohl das Angebot nach unten abrunden.
Ja, ich weiß, dass es sich um Intels eigene Angaben handelt. Aber nehmen wir an, ARC wird tatsächlich 3070 Leistung abliefern, dann wird das bestimmt noch einige Interessieren.
 
Zurück
Oben