Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Arc („Alchemist“): Engineering Sample mit 6-Pin- und 8-Pin-PCIe abgelichtet
Erstens dauert es lange neue Fertigungsstraßen zu bauen.
Zweitens: selbst wenn es der 6nm Mode ist, den gerade weder amd, noch Apple, noch Nvidia, noch xyz gerade belegen: abgesehen von Intel stehen noch 1337 andere für den Prozess an, die auch dicke Taschen haben
Man kann hoffen, dass zukünftige Intel GPU's selbst von Intel gefertigt werden. Dadurch ist man weniger von TSMC abhängig, die ohnehin bis ins nächste Jahrhundert komplett ausgebucht sind. Ich denke Intel wird die Fertigung wieder richtig gut in den Griff bekommen und mit Samsung und TSMC auf Augenhöhe sein, dann haben wir vielleicht auch bald Intel GPU's aus Arizona.
selbst wenn es der 6nm Mode ist, den gerade weder amd, noch Apple, noch Nvidia, noch xyz gerade belegen: abgesehen von Intel stehen noch 1337 andere für den Prozess an, die auch dicke Taschen haben
Oh, unterschätze das nicht, damit ist schon 3dfx auf die Fre**e geflogen, und ATi tat es damals 100 pro gut, sich für Boardpartner zu öffnen.
Normalerweise kamen immer wieder gute Eigenkreationen zu Tage, was mir zur Zeit aber etwas fehlt...
Ergänzung ()
Wobei ich die alten XFX Kreationen am besten fand:
Solange es keine Tests dazu gibt, sehe ich die News mal wieder nur als hype.
Bis die Karten wirklich kommen, bringt nVidia doch schon die RTX4090 raus und wer will dann noch so eine alte Intel-Karte die gerade mal zwischen 3060ti/3070ti liegt?
Wenn die Screens stimmen sollen, dann haben die sich die Kühlung abgeguckt.
Und was noch schlimmer ist:
wozu brauchen die denn den dicken, überstehenden Kühlkörper überhaupt?
Das Ding scheint ja enorme Wärmeabgaben zu verursachen.
Also nichts für normale Gaming Rechner.
Ergänzung ()
Creeping.Death schrieb:
Ich bin auf jeden Fall gespannt "wie Bolle". Ich habe mich bereits vor RDNA2 verschätzt, was die Leistungsfähigkeit der Hardware betrifft. Deshalb halte ich dieses Mal die Klappe
Die üblichen Kommentare, dass Intel aber keine Treiber programmieren kann, langweilen mich. AMD kann auch keine Treiber (sagt "das Internet") und Nvidia bringen neuerdings auch gefühlt ständig Hotfixes nach jedem neuen Release.
Warten wir es einfach ab. Vielleicht ist Intel wirklich sofort auf RTX3070Ti Niveau. Vielleicht bekommen sie den Anschluss auch erst in 2-3 Jahren oder vielleicht auch nie. So viele "vielleichts", weil es aktuell einfach niemand von uns weiß.
So ist das halt.
Dass AMD keine Treiber kann ist alter Irrglaube, der sich hartnäckig bei einigen Leuten festgesetzt hat.
In Wirklichkeit hat AMD NVidia schon vor Jahren bei der Treiberentwicklung überholt, was jetzt nicht gleichbedeutend mit absoluter Stabilität sein muss, denn das sind zwei paar Schuhe, die mit jeder der Millionen an möglichen Konfigurationen und Softwareinstallationen nunmal auch Ansichtssache sind.
Schaut euch einfach mal das uralte Treiberkonstrukt aus XP Zeiten an, das sollte dringend mal ausgetauscht werden, und wozu zwei Programme parallel verwenden, mich nervt das, euch nicht?
Demnach kann Intel auch keine Prozessoren bauen, weil die den Pentium Bug haben, der sich ständig verrechnet, und deren imemr gleichen Prozessoren legen im jährlichen Aufguss lediglich immer nur runf 7% oben drauf.
Intel hat derzeit aber wohl wirklich Probleme mit der Treibersoftware.
Laut Test bei Igor ist der DG1 schon eine einzige Katastrophe (hat sich das eigentlich danach grundlegend verbessert?).
Vielleicht ist das auch Grund der ständigen Verschiebungen.
Schließlich will man ja nicht nur eine Grafikkarte auf den Markt bringen, was 30 Jahre lang nicht funktioniert hat, sondern gleichzeitig auch noch grundlegend neue Dinge wie KI und Raytracing DLSS etc. implementieren.
Das sind super viele Baustellen, was schon NVidia und AMD Jahre bei der Entwicklung kostet.
Es ist also unvermeidlich, dass da Software und Hardwareprobleme entstehen.
Die erste richtige Karte wird also mit hoher Wahrscheinlichkeit nicht alle Erwartungen erfüllen können, die von Koduri so oder so nicht, dem alten Spinner und Fantaster, lol.
Die brauche ich zwar nicht, aber da kann ich noch jmd. eine Freude machen, der gerade auf eine 3070Ti für unter 800 Euro wartet
Bei Intel kann man auch davon ausgehen, dass sie die Händler ein wenig an die kurze Leine legen werden. Weder AMD noch Nvidia, haben die "Marktmacht" von Intel.
Was auf jeden Fall gilt, jede verkaufte Intel Karte senkt die Nachfrage bei AMD und Nvidia. Das heißt rein zufällig werden deren Preise auf das hohe Intel Niveau fallen.
Wahrscheinlich wollten die Marketingexperten von Intel, dass die erst "echte" GPU zusammen mit Star Citizen erscheint
Aber mal ernsthaft, hier im Forum wird oft so getan, als ginge es bei AMD, Intel und Nvidia um Fußballvereine. Man muss sich also für einen Verein entscheiden und freut sich hämisch, wenn der Erzrivale "eins auf die Mütze" bekommt.
Unterm Strich sind das alles Techgiganten, die einfach nur an unser Erspartes wollen. So einfach ist das.
Für uns Kunden sehe ich viele Vorteile, wenn Intel erfolgreich ist. Einheitliche Grafik-Schnittstellen werden wahrscheinlicher. Kaum ein Entwicklerstudio kann es sich leisten, proprietäre Schnittstellen aller Hersteller zu bedienen.
Vielleicht entscheidet sich auch Einer der Drei für Effizienz statt Rohleistung (ja, die Hoffnung stirbt zuletzt).
Zunächst mal muss Intel aber liefern und dann sollte natürlich auch noch der Preis zur gebotenen Leistung passen. Danach wird es spannend zu beobachten, wie sich das alles weiter entwickelt.
Sowas ist doch auch bei Mittelklasse-Grafikkarten mit GPUs von Nvidia oder AMD üblich. Der Platz ist in den üblichen (µ)ATX-Gehäusen da, also wird er für die Kühlung genutzt, und nebenher sieht die Karte etwas "erwachsener" aus. 🙂
(Daneben gibt es dann kleine/kurze Karten speziell für mITX.)
Bei einem Engineering Sample ist so ein Kühler aber auch darüber hinaus sinnvoll, weil man mit so einer Karte halt experimentieren will und dabei z.B. nicht unnötig in ein Limit der Kühlung laufen.
Praktische Gesichtspunkte, wie Kompatibilität zu besonders kleinen Gehäusen, spielen bei einem Engineering Sample hingegen keine Rolle.
ich würde die ebenfalls nehmen, zwischen 3060ti und 3070 reicht mir die Leistung komplett aus. Schaut man zudem auf die steam stats, interessiert eine Karte der Leistungsklasse 4090 nichtmal 5% der spielerSchaft.
@Piak was meinst du mit „auf hohes Intel Niveau fallen“? Man sieht doch noch gar nichts von Intels Preisen zu den gpus. Und wie „fällt“ man überhaupt auf hohes Niveau?
ich würde die ebenfalls nehmen, zwischen 3060ti und 3070 reicht mir die Leistung komplett aus. Schaut man zudem auf die steam stats, interessiert eine Karte der Leistungsklasse 4090 nichtmal 5% der spielerSchaft.
hab doch extra geschrieben:
Wenn Intel solange braucht das nVidia die RTX4090 raus haut, also vermutlich ende des Jahres/nächstes Jahr dann rennt denen keiner mehr die Tür ein.
Wert zahlt denn noch für eine 3060ti bzw den Intel abklatsch, wenn es zum selben preis eine 4060ti dann gibt
Das aktuelle Preisniveau ist nicht hoch, sondern Wahnsinn oder wie auch immer du es nennen magst. Und von unverschämten Preisen kann man durchaus fallen, um auf hohe Preise zu kommen.
Selbstverständlich sind Intels Preise bekannt. Betriebswirtschaftslehre erstes Semester.
Das wird dann der Preis und die Verfügbarkeit entscheiden.
Es dürfte in jedem Fall auch in einigen Jahren noch eine Nachfrage nach GPUs in dieser Leistungsklasse geben.
Und ich habe auch gewisse Zweifel, wie groß Nvidias Interesse ist, schon so bald eine neue GPU-Generation zu bringen. In der derzeitigen Nachfragesituation bekommen sie alles zu Spitzenpreisen verkauft, sogar neu aufgelegte Modelle aus der Vorgängergeneration. Es drängt also überhaupt nichts, etwas neues zu bringen. Zumal es wohl zwangsweise nur ein Paperlaunch werden würde, der eher zusätzlichen Frust als Begeisterung bei den eigentlich Kaufwilligen auslöst.
Also nach Igors DG1 Video ist mir das mit Intel zu blöd. Klar das ist schon wieder etwas her, aber Treiber sind bei Grafikkarten ein Mammutprojekt, etwas das Intel seit >10 Jahren nicht gebacken bekommt.
Da gibt es kein Vertrauen von mir. Aber Hauptsache TSMC Waferkapazität belegen.
Naja für Mining wird es gehen, den die Miningindustrie schreibt Ihre eigenen Treiber und Karten-BIOS...