News Intel: Raja Koduri und Foundry-Chef Randhir Thakur gehen

Zynicus schrieb:
Dann habe ich gute Hoffnung für Intels kommende Grafikkarten-Generationen.

Laut Ankündigung will man sich ja mit einer 4090 Ti messen können.
Zumindest waren das die Worte, als Koduri noch am Ruder war.
Zwar hat man nie die 4090 Ti direkt angesprochen, aber wenn man markige Sprüche diesbezüglich losläßt, mus sman sich halt den Gegebenheiten stellen, egal wie hoch die Messlatte dann liegt.
Da ist es dann auch völlig egal, dass man spätestens mit Battlemage schon 1,5 Jahre in Verzug ist udn die damailgen Worte vermutlich wohl eher einer 3090 Ti gegolten haben könnten.
Wer zu spät kommt, den bestraft das Leben.
Den gleichen Fehler hat Koduri mit "poor Volta" gemacht.
Gefühlt 1 Jahr zu spät auf den Markt gebracht, und dann auch noch Probleme mit nicht vollständig erreichter Leistung.
In den 90ern ist Intel ebenfalls daran gescheitert, direkt nach der Veröffentlichung kam die Konkurrenz schon mit neuer Ware auf den Markt und war gleich sofort doppelt so schnell.
Derzeit liegt die ARC um den Faktor 3-4 zurück. Die 4090 Ti kommt aber noch. Vor Battlemage.
Wie will Intel also so einen großen Sprung mit nur einer neuen Generation schaffen?
Das hat noch niemals jemand geschafft, nicht einmal in den besagten 90ern, wo 50-100% durchaus möglich und auch gefühlt normal waren.
Es wäre aber durchaus realistisch, dass man von einer 3060 Ti Leistung mit einer besserern Fertigungstechnik, größeren Chips mit mehr Tarnsistoren und damit Recheneeinheiten, sowie Technikverbesserungen (die bei neuen Produkten noch höher ausfallen können) dann die 3000er Karten komplett hinter sich lassen könnte.
Aber das wäre dann ja nur wieder ein Vorgeschmack auf jetzige Zustände, denn eine 5000er Karte wird bei langer Verzögerung von battlemage auch wieder auftauchen udn alles zunichte machen, was man versuch that aufzuholen.
Also anstatt ihre Fahrpläne imemr weiter zurückzustellen, müsste der Veröffentlichungszeitraum viel schneller stattfinden als bei der Konkurrenz.
Man müsste also eine ganze Generation einholen, ehe man von irgendwelche Fantasien bezüglich Angriff auf die Vormachtstsellung der Platzhirsche überhaupt reden sollte.
Aber das haben Leute wie Koduri nie verstanden.
Im Vorfeld groß rumtönen, aber dann genau das Gegenteil abliefern.
Die groß angekündigten Stückzahlen an Grafikkarten, die den ausgemergelten Grafikmarkt überfluten sollten, um die Hilferufe der Gamer zu befriedigen sidn auch komplett ausgeblieben.
Alles heiße Luft und nichts dahinter.
Und da es immer so gelaufen ist, weiß man auch, an wen es liegt.
Darum ist die Kündigung durchaus nachvollziehbar.
Und NVidia wird sich sicherlich nicht auch noch übers Ohr hauen lassen.
 
BxBender schrieb:
Laut Ankündigung will man sich ja mit einer 4090 Ti messen können.
Zumindest waren das die Worte, als Koduri noch am Ruder war.
Dann wirds real wohl eher eine 1070 werden an denen sie sich messen werden duck und wegrenn
 
In manchen Kommentaren kommt wieder diese typisch deutsche Denkart: "Fehler machen == schlecht" hervor.
Ich habe keine Ahnung was der Kerl im Detail geleistet hat und maße mir nicht an über seine Fähigkeiten zu urteilen, aber aus Fehlern lernt man oftmals mehr, als aus Erfolgen.

Entsprechend kann so jemand einen unheimlichen Erfahrungsschatz mitbringen und dürfte für viele Unternehmen wesentlich wertvoller sein, als so mancher frischer, erfolgreicher Startup CEO, der seine ersten Erfolge primär Glück zu verdanken hat.
(Alles unter der Annahme, dass er auch aus seinen Fehlern gelernt hat und sie nicht uneinsichtig wiederholt.)
 
  • Gefällt mir
Reaktionen: murchad, konkretor, Kommando und 2 andere
Jenergy schrieb:
Genau das war sein Problem. Selbstverständlich redet man als Chefentwickler die eigenen Produkte lieber schön, aber am Ende leidet dann die Glaubwürdigkeit, sofern diese weit hinter den Erwartungen der Kunden zurückbleiben.
Könnte man alles verkraften wenn es bei Intel nicht in nahezu allen Bereichen "sch..ße" laufen würde.
 
Zuletzt bearbeitet:
Ich freue mich schon riesig auf nächstes Jahr wenn wir im Desktop endlich von Intel im 10nm verfahren die neue CPU Generation präsentiert bekommen… man munkelt es wird in super Turbo Gin +++++ 10 nm produziert wir nennen es Intel 7++++ und mit einer TDP von 250W im Turbo sogar bis 320W etwas schwerer zu kühlen sein aber mit den neuen Stickstoff Kühlern und 1500 Watt Netzteilen ist es kein Problem auf Augenhöhe mit AMD 4nm oder Appels 2nm zu bleiben ;-)
 
.Sentinel. schrieb:
Da beisst sich die Katze in den Schwanz.

Im Augenblick stehen die Ampeln bei den großen Tech- Firmen auf "abwarten". Sie sitzen auf vollen Lagern die Preise rutschen in den Keller.
Bin ich bei diesem Punkt absolut bei dir. Gerade aktuell sind die Läger voll und die inflationsinduziert hohen Preise kann Intel nur bedingt mitgehen.

.Sentinel. schrieb:
Wieso sollten sie gegen eine absehbar lang anhaltende Absatzflaute und den Wirtschaftsabschwung verstärkt in Entwicklung und Absatztaktung ihrer CPUs investieren? Das wäre Geldverbrennung pur.
Die aktuellen Produkte sind nunmal "good enough" und die Firmen ersetzen diese im Augenblick erst, wenn sie das Zeitliche segnen.
Die wenigsten unter Ihnen warten sehnsüchtig auf das neue Flagship- Modell mit 32 Kernen....
Kostenoptimierung und Effizienzsteigerungen sind in solchen Zeiten eher gefragt.
Ich hab mal den Aktienkurs von Intel aus den letzten 12 Monaten angehängt. Ich denke die -40% stehen dabei für sich.
Demzufolge bin ich der Meinung, dass die Produkte eben nicht "good enough" sind. Und da die Börse die Zukunft bewertet, wären hier Investitionen - gerade jetzt antizyklisch - angebracht. Um im Aufschwung Produkte parat zu haben. Das sieht bei Intel aber aktuell nicht so aus (speziell auch wenn sie die Roadmap einkürzen).

Du hast sicherlich Recht, dass natürlich jetzt auch Kostenoptimierungen angesagt sind, aber die Investitionen zu massiv zuzurückzufahren, würde ich für einen Fehler halten....


1679502895948.png
 
Ich verstehe die Kritik an Raja Koduri nicht.
Für den ersten Wurf an Highend Grafikkarten sind die nicht schlecht.
Man darf halt nicht erwarten dass man mit dem ersten Wurf Geld verdient.

Foundry ist DIE Problemstelle von Intel.
Die Sache mit Thakur ist mir eher klar.
Er kam 2017 in einer problematischen Zeit und es sieht 2023 auch nicht besser aus.
Die Fertigung ist nicht mehr konkurrenzfähig und der Ausblick bescheiden.
 
Hat sich lange gehalten, diesmal hat schon bei AMD nichts auf die Reihe bekommen, daher wundert mich diese Nachricht nicht. Der Nächste, der bald gehen wird, ist Tom Petersen, ehemalig bei Nvidia.
 
Und es kam, wie es kommen musste.

Die Leistung von Raja Koduri ist seit Jahren (eher seit Jahrzehnten) ziemlich miserabel.

Trumpf schrieb:
Apple wollte Raja Koduri nicht halten. AMD zeigte ihm die Tür und seitdem läuft die GPU-Sparte besser. [...] Ich erwarte eher seinen baldigen Abgang.
Ergänzung ()

edenjung schrieb:
Hoffentlich wechselt er zu Nvidia.
Dann hat er Bingo was Hardware Hersteller angeht 😅
Ein Gewinn für AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und Icke-ffm
engineer123 schrieb:
Wer darin investiert ist schön blöd 🤣 der Typ ist ja nun ausnahmslos überall gescheitert.
Vermutlich wird er wieder einige Dumpfbacken als Investoren rumkriegen und die wundern
sich dann, dass nach ein 2-3 Jahren ihre ganze Kohle weg ist und es keine Wettbewerbs-
fähigen Produkte gibt.

Aber Star Citizen vertröstet die Leute doch auch seit Jahren...

P.S.: ich empfand den schon zu AMD-Zeiten eher als Chancentöter. Endlich sieht Intel das auch ein.
 
  • Gefällt mir
Reaktionen: engineer123 und HaRdWar§FreSseR
Ich hab das gestern bei einen Freund schon auf PCGH gelesen.
Etwas verwundert hat mich der Autor: nämlich Sven. Ist der jetzt weg von hier?
Fände ich sehr schade.
Der dortigen Online Redaktion die ja gefühlt zu 50% nur noch Clickbait produziert hat wird er halt gut tun....

@ Topic.
Das Ende von Raja war eigentlich abzusehen;
Hab sowieso nie kapiert dass Intel ihn damals von AMD geholt hat und quasi auf den GPU-Chefposten gesetzt hat nachdem er seine Projekte in der Radeon Group ja auch so gut wie alle verbockt hat.
Aber gut, bei Intel versteht man in den letzten Jahren ja so manches nicht was die treiben. :rolleyes:
Wundert mich nicht das Keller nach kurzer Zeit dort selber das Handtuch geworfen hat.
Ergänzung ()

IBISXI schrieb:
Für den ersten Wurf an Highend Grafikkarten sind die nicht schlecht.
Intel hat Highend Grafikkarten ?
Hab ich irgendwas nicht mitbekommen, oder lebt einer von uns beiden in einer alternativen Realität?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR und Salutos
Lästern ist immer einfach aber man muss erstmal jemanden finden, der es besser kann.
 
Redirion schrieb:
Quelle? Du meinst doch den Youtuber oder?
Ja.
Er hat kürzlich noch ein Video gebracht, aber ich habe zurzeit kaum Zeit Youtube zu konsumieren, weshalb ich es noch nicht geschaut habe.
Einfach "moore intel arc cancelled" auf Youtube eingeben und du findest 2-3 Stück von ihm. Ich kenne nur die beiden ~6 Monate alten.
 
Winder schrieb:
Bei den seperaten Grafikkarten hätte man vielleicht lieber ein bis zwei Generationen warten sollen, bis die ersten Kinderkrankheiten ausgemerzt sind und sich die Treiber verbessert haben.
Worauf warten? "Kinderkrankheiten" und co. findest du doch wirklich nur dann, wenn sie produktiv im Einsatz sind...
 
Intel hat schlicht konkurenz bekommen - und das mehr als es bisher jeder fall war. in vergangenheit gab es ja einige..ich sage nur ibm und co.
aber amd arbeitet sich stück für stück vor und selbst intel-bastionen die quasi intel-alternativlos dastanden haben inzwischen in amd einen gegner der marktanteile abknabbert.
dazu kommt dass die fertigungstechnologie inzwischen von tsmc und samsung getrieben wird...intel "folgt" hier nur.
bei gpu's gilt dabei noch mehr dass man aus dem stand keine chance hat gegen riesen wie nvidia und amd selbst. wenn intel hier etwas reißen will, müssen sie mindestens 2-3 echte generationen durchlaufen um überhaupt eine chance zu haben sich heranzupirschen...also muss man einen langen finanziellen atem haben...
es wird sich also zeigen ob intel zukünftig im gpu bereich mehr als das "nötigste" in form von basic-igpu's bieten kann..
 
C4rp3di3m schrieb:
Der Mann ist da so ein Kandidat für.
Der Mann hat schon an Grafikkarten gearbeitet, als hier andere noch die Windeln genutzt haben.
Man sollte dann etwas den Ball flach halten
ELSA Winner 1000 S3 Trio (15-2-1).jpg
 
  • Gefällt mir
Reaktionen: konkretor
andi_sco schrieb:
Der Mann hat schon an Grafikkarten gearbeitet, als hier andere noch die Windeln genutzt haben.
Ich frage mich, ob genau das sein Problem ist. Manchmal habe ich den Eindruck, dass er geistig immer noch in den 90ern und 2000ern hängt, als noch riesige Sprünge möglich waren, aber die aktuelle Situation einfach nicht verinnerlicht hat und darum immer wieder überschätzt, wie groß ein Sprung von Generation zu Generation realistisch sein kann.
 
Erst verbaselt Intel den Release der ARC Serie um fast 1 Jahr.
Dann sind die Dinger ein halbes Jahr lang nicht lieferbar oder nur in China erhältlich.
Und dann nochmal ein halbes Jahr Treiberdebakel.

Ja Intels GPU Hardware ist nicht highend, aber das müssen sie gar nicht.
150-350€ (konkurrenzfähige) Grafikkarten für das Mainstream Segment würden den Markt wieder beleben.
Oder wer möchte sich hier eine RTX 4050 mit 6GB VRAM und 64bit Speicher-Interface kaufen?
 
  • Gefällt mir
Reaktionen: C4rp3di3m
andi_sco schrieb:
Der Mann hat schon an Grafikkarten gearbeitet, als hier andere noch die Windeln genutzt haben.
Man sollte dann etwas den Ball flach halten
Anhang anzeigen 1338836
ich bin 46 falls Du mich damit meinst, also kommt dass schon mal nicht hin. Mit so Aussagen wäre ich also nicht vorschnell. Ein Forum ist für Meinungsaustausch, das ist nun mal meine und so gecryptete Beleidigungen von dir werden meine Meinung dazu nicht ändern.

Zu S3 GPU´s, die waren jetzt auch nie so der Hit gewesen, mit dem aufkommen von 3D waren die sofort weg vom Fenster, da ist der Mann sich also auch bei AMD und intel treu geblieben ;)

mfg
 
Zuletzt bearbeitet:
Zurück
Oben