News Arc-Grafikkarten: Intel verspricht A750 und A770 mal wieder für später im Jahr

  • Gefällt mir
Reaktionen: Rockstar85 und Unnu
HAse_ONE schrieb:
(...)


Endlich, jedesmal wenn ich unter den Tisch krabbel und meine IO Blende von meiner Graka anschau, denk ich mir "meine Güte ist die Hässlich". :rolleyes: Und selbst wenn der PC am Tisch steht wie bei vielen, die sooo viel Wert auf das Äußere legen, wann bitte sieht man die IO Blende?
Stimmt schon, sehen tut man es selten. Trotzdem wäre es mir auch lieber, wenn alles konsistent aussieht.
HAse_ONE schrieb:
1990 hat angerufen und will sein Designmerkmal zurück. "For some extra flash" uiiiiiii
Chrome ist mMn das schlimmste und hässlichste Oberflächenfinish das es gibt. Ich HASSE Chrome. Es sieht auch nicht "hochwertig" aus, sondern eher billig. Mir gehen schon die paar kleinen Chromeleisten in meinem Auto sowas von auf den Sack.
(...)
1. Chrom.
2. Über Geschmack kann man nicht streiten. Ich jedenfalls stehe auf Chrom und würde fast alles verchromen oder schwärzen.

Das sind natürlich trotzdem keine Kaufargumente, wenn die primären Eigenschaften wie Leistung und Preis nicht stimmen. Wäre aber alles konkurrenzfähig, würde ich verchromt und konsistente Design schon vorziehen :).
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Waelder schrieb:
das es schwer werden wird hat Intel schon lange gewusst, auch das man erst mal hinterher hinken wird dürfte jedem klar gewesen sein - verstehe nicht was manche hier erwartet haben...
Viele messen Intel an dem, was Intel über Jahre über Koduri und Co an die Außenwelt gegeben hat, nämlich dass sie ganz vorne dabei sein wollen und wie toll Xe doch werden wird.

Es ist sogar so, dass Xe als iGPU in den TigerLake-Prozessoren sogar durchaus überzeugen konnte und man AMD bei der iGPU das erste mal hat sogar altaussehen lassen.

Genauso wurde letztes Jahr sogar noch die GeForce RTX 3080 / Radeon RX 6800 XT als "Ziel" ausgeben.

Auch relevant ist, dass Koduri in den letzten 2 Jahren immer wieder recht auffällig über Xe gesprochen hat, auch via Twitter und wie toll doch alles klappt und wie überrascht sie von der guten Leistung sie im Labor sind.

Und genau an diesen Aussagen wird Intel gemessen. AMD ist damals auch anhand der Aussagen von Koduri zu Vega gemessen worden - "poor Volta" - und AMD musste viel Kritik einstecken, wobei Vega Volta auch wirklich schlagen konnte im HPC-Bereich, aber bei Spielen halt nicht das zeigte, was hätte sein müssen.
Waelder schrieb:
Ein Blogger meinte ja mal die Idee wieder in den GPU Sektor ein zu steigen wurde bereits getroffen als man im CPU Sektor ehr Konkurrenzlos war - auch erste Konzepte aus der Zeit(als man eigentlich Ressourcen "frei" hatte),
Intel hat die Idee in den GPU-Sektor einzusteigen immer wieder mal gehabt, sie haben aber auch jedes mal irgendwie den Arsch versohlt bekommen. Intel bemüht sich um den "GPU"-Markt aber auch zum jetzigen Zeitpunkt deutlich länger als die Ankündigungen um 2017/2018 und dem Wechsel von Koduri.

ATi - die Übernahme durch AMD hat dem etwas geschadet, weil massiv Ressourcne dann fehlten - 2006 mit FireStream und den ersten "HPC"-Berechnungen auf den X1000er-Karten gezeigt, dass für immere komplexere und aufwendigere Berechnungen sich eine In-Order-SIMD-Architektur wie die einer GPU wunderbar eignet. Floding@Home hat da sehr viel Weg bereitet. NVIDIA hat - wie ATi - die Vorzüge erkannt und entsprechen CUDA mit den Tesla (G80 aka GeForce 8000er) hervor gebracht und von dem Moment an eine passende HPC-Schnittstelle gebracht und schnell auch Tesla als Karte für den HPC-Markt. AMD hat ATi übernommen und hatte nicht das Geld da wirklich "mitzumischen", der Markt war damals auch noch vergleichsweise klein.

Intel hat damals aber auch schon erkannt, dass immer dickere CPUs mit immer mehr Kernen zwar "toll" sind, aber sie eine SIMD-Schwäche haben, was auch zu AVX mit 256 Bit - statt 128 Bit bei SSE - führte, gleichzeitig waren die eigentliche Kerne aber viel zu fett und komplex. Intel musste ein SIMD-Monster auf die Beine stellen und das haben sie mit Larrabee dann gemacht und haben auch bereits AVX512 "definiert". Da die P6-Familie als auch die damaligen Kerne aber zu viel "INT"-Leistung hatten, ist man sogar auf die alte "Pentium"-Linie als Ausgangsbasis mit zwei dicken fetten SIMD-ALUs und merkte: Das bringt richtig Leistung. Das ging sogar soweit, dass Intel sogar daran dachte, dass man auf einem "Pentium-MMX-SIMD"-Monster man sogar Grafik berechnen kann, halt in Software, also ohne ROP und TMU und TAU, aber die Shader hatte man ja.

Hat nicht so gut geklappt, aber das SIMD-Monster hat es aber in den HPC-Markt geschafft, nur hat Intel, die eigentlich wussten wie wichtig Software ist, es verpennt wie wichtig gute APIs und Entwicklerwerkzeuge waren, also konnte NVIDIA sich im HPC-Markt breit machen, AMD konnte dank GCN mehr schlecht als recht mithalten, hatte aber immer wieder seine Achtungserfolge auch mit Vega, das "Überleben" im HPC verdankt AMD aber auch zu Teilen Apple und der OpenCL-Initative von Apple.

Intel wollte wieder mal ihre "Marktmacht" nutzen, nur NVIDIA war in dem Fall halt schlauer und hat besser aggiert und angefangen auch Entwickler sehr direkt zu unterstützen, mit Hilfe bei der Entwicklung der Software aber auch, in dem man sogar teure Grafikkarten quasi "verschenkt" hat, wenn man sich über Unis und Co gemeldet hat.

Der Erfolg von NVIDIA hat bei AMD - vor allem weil man seit 2017 wieder die "Ressoucen" hat, weil man wieder Geld bekommen hat - dazu geführt, dass sie eine "Metasprache" für CUDA entwickelt haben - HIP - die sich auch stark an CUDA anlehnt und von der man aus sowohl nach CUDA übersetzten kann oder eben dem Code, der den AMD-GPUs schmeckt.

Intel selbst wusste, dass sie mit Xeon Phi nicht mehr weit kommen und dass sie eine "einfachere" Lösung brauchen um auch weiterhin mit zu halten. Genauso erkannte Intel - wie AMD - das heute oft nicht die Hardware entscheidend ist, sondern es auf die Software drumherum ankommt.

Und da man iGPUs ja schon entwickelt, kann man da auch weiter gehen.
Waelder schrieb:
aber im Lauf der Entwicklung wurden immer mehr Ressourcen wieder zurück in den CPU Sektor geholt...
Was ich an der Stelle auf der einen Seite irgendwie plausibel finden, gleichzeitig: Soll sich bei Intel das gleiche Bild wie bei AMD wiederholt haben für Koduri? Dass man ihm sein Team stark zusammen streicht und die Ressourcen entzieht?
Waelder schrieb:
Vielleicht war ja diese Annahme gar nicht so falsch, wenn man sieht wie sich das GPU Thema immer mehr zieht...
Ich glaube nicht, dass man Koduri die Ressourcne entzogen hat, sondern ich denke viel eher, dass man bei Intel auf zu vielen Hochzeiten im "Xe"-Projekt gleichzeitig tanzen wollte und man zu viele Baustellen parallel geöffnet hat. Auf Hardware-Seite haben wir 3 Xe-Projekte Xe Iris (iGPU), Arc (Xe-HPG) und Xe-HPC. Auf Softwareseite haben wir auch 3 Treiber und dazu die oneAPI. Das ist schon eine Hausnummer, dazu kommt dann noch, dass man mit Xe-HPC ja zeigen will, dass man quasi "AMD" bei ihrer "Chiplett"-Lösung - CDNA2 - überlegen ist und man es ja schafft 47 unterschiedliche Dies zu einer Xe-HPC zu kombinieren.

Die Frage ist viel eher: Wollte man nicht vielleicht zu viel?
 
  • Gefällt mir
Reaktionen: Rockstar85, Unnu, derSafran und 4 andere
incurable schrieb:
Seh ich ehrlich nicht, genau das haben sie auf ihrer Pressetour doch wiederholt gemacht.

Ryan und Tom (und der Rest der GPU Abteilung) wissen ganz genau, was die Karten können und nicht können. Die Chips sind halt bestellt und in Produktion, also müssen sie auch irgendwo hin. Dass die Hoffnung auf sagenhafte Gewinne mit dieser Generation (wenn sie überhaupt jemals vorhanden war) schon länger vom Tisch ist, zeigen auch die Preisbildungsmechanismen, denen sich Intel verschrieben haben will.
du missverstehst - die Frage ist warte ich mit den Karten bis die ich Treiberfortschritte(mal nicht definiert in welchem Ausmasse) habe oder werf ich die Karten auf den Markt eben mit den Treiberbaustellen auf den Markt...
 
Dr.Pawel schrieb:
Naja Arc zeigt halt wie groß die internen Probleme bei Intel sind. Die Karten hätten mit diesen Treiberproblemen nie in die Serienfertigung gehen dürfen.
Das íst Quark. die Entscheidung zur Produktion eines integrierten Schaltkreises liegt teils mehrere Jahre vor dessen Veröffentlichung, also zu einem Zeitpunkt an dem niemand eine haltbare Aussage zur Treiberqualität treffen kann, wenn die fertigen Karten dann mal beim Händler stehen.
Ergänzung ()

Waelder schrieb:
du missverstehst - die Frage ist warte ich mit den Karten bis die ich Treiberfortschritte(mal nicht definiert in welchem Ausmasse) habe oder werf ich die Karten auf den Markt eben mit den Treiberbaustellen auf den Markt...
Das ist in der Realität keine Wahl. Keine Firma legt sich mehrere Millionen ASICs für mehrere Quartale ins Regal während die Treibermannschaft weiter arbeitet.

Also hat Intel die einzige Option ergriffen, die ihnen tatsächlich offensteht: Die vorhandenen Karten im ist-Zustand zu günstigen Preise in den Markt drücken während die Treiberentwicklung weiterläuft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nore Ply
DaysShadow schrieb:
Da muss es m.E. schon etwas größere Anreize geben, damit man nicht zu einem der gewohnten Hersteller greift, vor allem wenn man bzgl. der momentanen (sie arbeiten ja dran) Treibersituation Bescheid weiß.
Warum zitierst du nur einen von Drei Punkten ... Um dann als "Antwort" Punkt 3 quasi nur zu widerholen? Hast du meinen Beitrag nur bis zu der von dir zitierten Stelle gelesen oder wo ist das Problem?
 
@DevPandi
es war definitiv zu viel
Intel7 war zu viel auf einmal
Ponte Veccio war es SPR war es

Die Projekte stammen wohl alle ca aus der selben Zeit, als Intel wohl mega überheblich war.
 
also wenn Intel die Graka wirklich erst gegen ende 2022 in direkter Konkurrenz zu den "Neuen " graka´s bringt wäre das echt sehr schlecht.

Das problem wäre dann auch nocht das sie flächendeckend dann erst mitte Januar 2023 verfügbar wären.

Das wäre ein Fail auf ganzer Linie da es sicher viele Leute gibt die auf die Intel Graka Warten um zu schauen ob sie ne alternative zu einer jetzigen AMD oder Nvidia Graka wären.
So überlege selbst ich nun ob ich länger warten soll auf die Intel Graka oder doch lieber nun jetzt ne " Billige " AMD oder " Nvidia " Graka kaufe.
Ich selber würde ja noch bis Ende Sep. warten aber bis ende 2022 oder Anfang 2023 und dann noch "Veraltete Technik " und da dann Deutlich Langsamer als die Gegner. Da muss man echt schon sehr schmerzfrei sein.
 
Waelder schrieb:
Lauf der Entwicklung wurden immer mehr Ressourcen wieder zurück in den CPU Sektor geholt... vielleicht war ja diese Annahme gar nicht so falsch, wenn man sieht wie sich das GPU Thema immer mehr zieht...
Sozusagen die AMD-Taktik wiederholt - das ist wahre Respektbezeugung. :D

Die Leistungsfähigkeit der Hardware passt für mich für diesen neuen Versuch. Mir ist nur absolut schleierhaft, warum das Treibersystem selbst jetzt noch in einem so erbärmlichen Zustand ist. Als ob nie jemand aus dem verantwortlichen Management auch nur einmal den tatsächlichen Entwicklungsstand wissen wollte.

Und genau, weil es sich um Intel handelt, finde ich das Ganze nur lächerlich und peinlich.
 
kokiman schrieb:
Die Reaktion ist wahrscheinlich das Problem, da wird/wurde gut auf Intel drauf gehauen.

Ja gut aber das ist auch schon AMD und co. passiert ich sage nur mal Phenom oder Fermi :D

Das der Einstieg nicht leicht sein wird sollte klar gewesen sein aber gut das ist halt das Steinalte Boomer-Marketing bei Intel. Ein Produkt MUSS immer die Spitze sein ansonsten taugt es nichts.
 
  • Gefällt mir
Reaktionen: Nore Ply und psYcho-edgE
Cool Master schrieb:
Ja gut aber das ist auch schon AMD und co. passiert ich sage nur mal Phenom oder Fermi :D

Das der Einstieg nicht leicht sein wird sollte klar gewesen sein aber gut das ist halt das Steinalte Boomer-Marketing bei Intel. Ein Produkt MUSS immer die Spitze sein ansonsten taugt es nichts.

Hm ggf. nur meine Wahrnehmung aber bei Ryzen Gen 1 hatte ich schon das Gefühl, dass es von vielen mit Samthandschuhen behandelt wurde.
 
@kokiman

Ja da musste sich AMD noch beweisen. Also eine ähnliche Situation wie Intel mit ARC. Aber die Produkte wurden immer besser und ich denke so wird das auch bei Intel sein. Man kann halt nicht wo einsteigen und direkt mit den Big-Dogs mitspielen die das seit Jahren machen. Ich schrieb ja selber schon öfter wenn ARC einer ~3060 relativ gleich ist wir das ein Erfolg.
 
  • Gefällt mir
Reaktionen: psYcho-edgE
Orok91 schrieb:
Vielleicht möchte man warten bis Rx7000 und rtx4000 da sind? Um sich dann Preislich zu orientieren? Die Karten jetzt zu bringen würde doch eh in kurzer Zeit eine Preisreduzierung herbeirufen mit den neuen Gen‘s der anderen beiden?
Denke eher das sie ihre Treiber in griff bekommen müssen.
Haben jahr einige Jahrzente an spielen nachzuholen.
 
kokiman schrieb:
Hm ggf. nur meine Wahrnehmung aber bei Ryzen Gen 1 hatte ich schon das Gefühl, dass es von vielen mit Samthandschuhen behandelt wurde.
Also das Ryzen/ZEN 1 ein paar Zicken hatte, gerade was RAM betrifft, bestreitet keiner, aber er funktionierte.
Das war auch einhelliger Tenor damals aller Reviews, das es keine Abstürze oder andere Auffälligkeiten gab und die RAM Zicken, wurden nach und nach abgestellt.

Ich glaube gar nicht das es bei ARc so sehr um die Leistung geht, sondern um die Treiber und deren Inkompatibilitäten. Millionen von Menschen spielen z.B. noch alte Spiele mit DX9 und DX 11, wenn das dann jedesmal wie ein Lottogewinn ist, ob das Spiel abstürzt oder läuft, ist das ziemlich kontraproduktiv, nur so als Beispiel.
Intel hat seit Jahrzehnten IGPs, aber sie haben sich damals schon nicht um die Treiber in Sachen DX9 und DX 11 gekümmert und das alles fliegt ihnen jetzt um die Ohren.
Meiner felsenfesten Überzeugung nach, ist nicht das Silizium das wirkliche Problem, sondern der Treiber.
 
  • Gefällt mir
Reaktionen: Unnu
Europa schrieb:
Was ist schon wichtiger als nervende Beleuchtung und eine nutzlose Backplate, die sollen lieber wesentlich mehr Programmierer einstellen die sich um den Treiber kümmern.
Intel hat ich weiß nicht .. 10x so viele Programmierer wie amd? Da helfen auch 1000 mehr Leute nicht.
 
@kokiman @DonL_
Und AMD war kurz vor dem Bankrott, das da kein Geld da ist um ein Produkt 100% fehlerfrei zu bekommen, ist klar.
Intel hat bis auf letztes Quartal Milliarden verdient, und liefert Grafikprozessoren seit 20 Jahren, in verschiedenen Formen, aus.
Der Treiber passt einfach nicht zu dem Markterwartung eines so großen, gesunden und im gewissen Rahmen renommierten Unternehmen
 
  • Gefällt mir
Reaktionen: Nore Ply, Dai6oro, 4lter5ack und 2 andere
Beg1 schrieb:
Der Preis soll auf Stufe 3 basieren, wenn man also dort beispielsweise nur eine RTX 2060 erreicht, würde man den Preis dort ansetzen.
Das Problem ist ja nicht nur die Leistung, sondern die unzähligen Bugs.
 
Damien White schrieb:
Warum zitierst du nur einen von Drei Punkten ... Um dann als "Antwort" Punkt 3 quasi nur zu widerholen? Hast du meinen Beitrag nur bis zu der von dir zitierten Stelle gelesen oder wo ist das Problem?
Ich beziehe mich nicht nur auf den Treiber, das war nur der Zusatz zur jetzigen Situation. Warum sollte irgendjemand von sich aus zu Intel greifen wegen 10-20€, selbst wenn die Treiber i.O. wären? Auch wenn Intel selbst am Markt etabliert ist sind es deren GPUs nun mal nicht und nach den ganzen Verschiebungen, Benchmarkbetrügereien (gabs doch hier schon oder? Falls nicht sorry und streichen) und weiteren PR Desastern muss da m.E. eben deutlich mehr Anreiz geschaffen werden. Ich sehe hier z.B. die Entwicklung von OnePlus, die sind über den Preis in den Markt gedrückt, haben sich etabliert und konnten dann Jahr für Jahr den Preis anziehen.

Zumindest sehe ich so für den freien Markt, OEMs lassen sich bekanntlich auch gern bezahlen, um bestimmte Hardware zu verbauen...
 
incurable schrieb:
Also hat Intel die einzige Option ergriffen, die ihnen tatsächlich offensteht: Die vorhandenen Karten im ist-Zustand zu günstigen Preise in den Markt drücken während die Treiberentwicklung weiterläuft.
ich spreche von den noch ausstehenden Modellen - die Kleinen in China zu bringen war ja klug um Erfahrung zu sammeln bei einer nicht so schwierigen Kundschaft
 
  • Gefällt mir
Reaktionen: incurable
Zurück
Oben