News Intel-Arc-Grafikkarten: Intel deutet Q1-2022-Release für Desktop und Notebook an

So weit ist es schon gekommen, dass wir jetzt alle auf Intel hoffen. Die Intel Präsentation könnte ungefähr so anfangen: Ich bin Raja Koduri der Schwarze und ich kehre zurück zu euch, am Wendepunkt der Gezeiten. :D
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Matthauser schrieb:
Ich würde mir nen Ast ablachen, wenn Innsilicon seine "Fantasy One" Grafikkarten noch eher auf den Markt bringt als Intel.

Irgendwie hoffe ich, dass die keine Vapoware sind und wirklich kommen, denn dann wäre zumindest etwas Britische IP Dank der verbauten PowerVR Chips vorhanden - ich bedauere immernoch, das nach dem Kyro 2 nix mehr kam. Gerade in den iPhones haben die PowerVR ja immer sehr gut performed, daher wäre es schön sowas auf Grafikkarten Niveau skaliert zu sehen.

Btt: Bin absolut kein Intel Fan, aber ich wünsche mir schon konkurrenzfähige Produkte.
Die letzten diskreten Karten, die zumindest im Lowend mithalten konnten, kamen von S3. Und da Via aktuell alles verramscht wird da sicher nix mehr kommen 😕

ich weiß noch damals war Matrox noch sehr gut dabei was Performance anging aber dann der Wechsel auf 3D total verschlafen.
matroxm.jpg


Meine Matrox Mystique war aufjedenfall ein geiles Teil ;)
 
  • Gefällt mir
Reaktionen: Hubbe73, rysy, konkretor und eine weitere Person
Aber auch nur solange es nicht um 3D ging ;-)

BTT: Viel interessanter fände ich, was Intel den Karten in Sachen Visualisierung mitgibt. Die iGPUs kann man mittlerweile super an VMs durchreichen, je nach Generation sogar eine iGPU !! gleichzeitig !! in mehreren VMs nutzen...GVT-g... Ohne teure Quadro oder Radeon Pro.
 
  • Gefällt mir
Reaktionen: Nore Ply
Ich denke im Moment eher das Intel etwas vom Crypto Kuchen haben will.. und die Dinger dementsprechend auf hashrate auslegt..

Miner sind soviel anspruchsloser als Gamer..
Kaufen in Massen.. der Treiber hat nur zu funktionieren.. FPS sind völlig egal solange die hashrate hoch genug ist

Wenn sie von der Spielleitung an ne 3070 rankommen ist gut.. aber da hab ich noch meine Zweifel dran.. genauso wie an der Treiberpflege.

Ich denke die Karten werden an die NonLHR Karten von Nvidia rankommen... Und das eventuell sogar bei einem geringeren Stromverbrauch.

Und Zack sind die Dinger ausverkauft
 
konkretor schrieb:
ne das glaube ich nicht. Dann kannst auch direkt nen Asic bauen.
Da gibt's schon andere Firmen die Asics bauen. Ebenfalls bei tsmc Kapazitäten gebucht haben.

ASICs sind doch hochspezialisiert, nicht umsonst werden für ETH noch GPUs genutzt, der Antminer E9 ist auch noch nicht released oder? Selbst wenn ETH auf PoS umsteigen sollte, es gibt genug Hashwährungen um sie zu ersetzen.

Und ja, die ASICs blockieren Fertigungskapazitäten in den besten Prozessen und benötigen viele Wafer pro Stück, dennoch reicht es den Minern nie, denn mehr ist nicht genug. Wenn die Intelkarten also gute Hashrates bieten, dann weiß ich was passiert ;)

Mal schauen wie sich Krypto 2022 entwickelt, eventuell bekommen die Suchenden durch eine Kurskorrektur dann endlich eine Karte.
 
Naja bitmain bietet es ja erst zum Verkauf wenn sie schon was besseres haben. Ich gehe davon aus der Antminer E9 wird bei denen schon im Einsatz sein.

Du hast Recht mit Grakas lässt sich halt auch andere Coins Minen.

Mal sehen wie sich das bei Intel entwickelt
 
Czk666 schrieb:
Ich dachte xess wird für alle Karten aller Firmen zur Verfügung stehen?

Ja da hast du recht. XeSS läuft natürlich auch auf den anderen Karten. Mal gucken, ob es auf allen gleich gut funktioniert.
Czk666 schrieb:
Wieso spricht niemand von der 6800 als direkten Konkurrenten?

Die 3070 ist halt mit Abstand die erfolgreichste und am meisten vertretene Karte in der Leistungsklasse. Also ziehen sie alle als Vergleich ran. Wenn man Autos der Kompaktklasse vergleicht, vergleicht man die auch oft mit einem VE Golf, einfach weil es der erfolgreichste Vertreter ist. Zudem kann man bei der schon abschätzen, was man mit AI Upsampling erreichen kann.

Bis auf die klassische Rasterization Leistung liefert die 3070 halt das umfangreichste Featureset.
 
emerald schrieb:
Versprechen die das nicht seit...2017?
Ergänzung ()

Stahlseele schrieb:
Schade, aber verständlich.
Ich hätte mir eine Einstiegslösung gewünscht, die man mit einem i3 ohne iGPU kombinieren könnte für einen schnellen, günstigen und hoffentlich recht leisen Büro oder HTPC . .
Gern auch single slot / low profile . .
Wieso dann nicht gleich einen mit iGPU kaufen?...
Ergänzung ()

BxBender schrieb:
Mit Koduri haben die außerdem den unfähigsten Mann an Land gezogen
Hat Koduri nicht RDNA mit angestossen? Die letzten GCN Krücken waren ja eher notgedrungen, kann man ihm nur bedingt vorwerfen. Zaubern können die auch nicht, aus ner fast 10 Jahre alten Compute Architektur wird nicht plötzlich ein moderner Gaming Chip.
Ergänzung ()

pipip schrieb:
es ist völlig belanglos ob sie am oberen Drittel mitspielen.
Ist es tatsächlich nicht, was Konsumenten Meinung betrifft. Wer die Leistungskrone trägt, wird tendenziell als "besser" angesehen von den Kunden, auch wenn diese zu 99% dieses Flaggschiff nicht kaufen werden. Psychologie ist wild, Käufer sind leicht beeinflussbar.
Ergänzung ()

GerryB schrieb:
Weil Intel keinen IF-Cache hat, wird evtl. die Bandbreite auch ein Problem, falls überhaupt, Arc genügend Shaderleistung hat.
Intel Arc hat Cache. Intel nennts "Smart Cache". Gleicher Ansatz wie AMD Infinity Cache.
Ergänzung ()

Vitec schrieb:
Schade, dass der GPU + IGPU Ansatz mit
Das Problem an dem Ansatz ist, dass die Frametimes damit furchtbar werden. Die zwei GPUs sind so unterschiedlich stark, dass es fast unmöglich ist, sie sinnvoll zu synchronisieren.

Gab ja schon in der Vergangenheit mehrmals ähnliche Implementierungen, waren aber nie gut.
Ergänzung ()

xy_Tux schrieb:
Ja sicherlich ... Hach wie putzig ...
Arc wurde angestossen, bevor die Preise explodiert sind. Also ja, ursprünglich waren da sicher tatsächlich humane Preise angedacht.
Ergänzung ()

xy_Tux schrieb:
Fertigungsausfälle durch weltweite Corona-Histerie,
*Pandemie
Ergänzung ()

xy_Tux schrieb:
am Ende noch die Händler, die nun auch weit höhere Gewinne einfahren
Lol. Du erfindest dir deine eigene Welt. Die Händler haben keine weitaus (oder überhaupt) höheren Gewinne, weil die Karten im Einkauf genauso teurer geworden sind und nur begrenzt verfügbar.
 
Zuletzt bearbeitet:
Vielleicht weil man lieber austauschbare Komponenten statt ultra integriert hat?
Vielleicht weil es die CPU die für die Verwendung geplant ist nicht mit iGPU gibt?
Vielleicht weil bis zum Release von den neuen AMD APUs mit RDNA2 IGPU eine
iGPU schlicht und einfach nicht mit einer dedizierten GPU, egal wie klein, wird
mithalten können?

Schade, dass multi GPU nicht mehr so gewünscht ist.
Sowas wie nVidia Optimus aber als "SLI"-Gespann aus einer iGPU und einer dGPU
wenn beide vom selben Hersteller sind wäre noch eine interessante Idee gewesen.
Wenn Power nötig, wird flüssig auf die dGPU umgeschaltet und alles weitere läuft
auf der iGPU . .
 
Powl_0 schrieb:
Ist es tatsächlich nicht, was Konsumenten Meinung betrifft. Wer die Leistungskrone trägt, wird tendenziell als "besser" angesehen von den Kunden, auch wenn diese zu 99% dieses Flaggschiff nicht kaufen werden. Psychologie ist wild, Käufer sind leicht beeinflussbar.
Nur leben wir aktuell in einem Markt, wo die Nachfrage bei weitem nicht gedeckt werden kann und die Mehrheit das nimmt, was sie nehmen kann, selbst wenn es am Balkendiagram schnellere Karten gäbe. Wenn man selbst gedeckt ist und Geld keine Rolle spielt, kann man sicherlich den Markt ignorieren.
 
Stahlseele schrieb:
Vielleicht weil man lieber austauschbare Komponenten statt ultra integriert hat?
Vielleicht weil es die CPU die für die Verwendung geplant ist nicht mit iGPU gibt?
Vielleicht weil bis zum Release von den neuen AMD APUs mit RDNA2 IGPU eine
iGPU schlicht und einfach nicht mit einer dedizierten GPU, egal wie klein, wird
mithalten können?
Du hast aber nur i3 HTP genannt, und da ist i3-F + low end Schwachsinn und teurer als ein i3 mit iGPU.
Ergänzung ()

pipip schrieb:
Nur leben wir aktuell in einem Markt, wo die Nachfrage bei weitem nicht gedeckt werden kann und die Mehrheit das nimmt, was sie nehmen kann, selbst wenn es am Balkendiagram schnellere Karten gäbe
Selbst im aktuellen Markt gibts viele Käufer mit diesem komischen Denken, dass zB Nvidia besser sei (u.a. weil ja die 3090 die schnellste Karte ist).

Das hat dann so Blüten, dass zB die 6900XT für "nur" ~1400-1500€ sofort verfügbar ist, während 3080/3080Ti/3090 erst ab 1800-3000€ manchmal verfügbar sind.
Es gibt also eine signifikante Anzahl Käufer, die lieber 1800€ für eine 3080/Ti hinblättern als 1400€ für eine 6900XT. 400€ mehr für weniger Speicher und weniger Rasterleistung. DLSS und der leichte RT Vorsprung können das kaum wert sein.
osprung
 
Zuletzt bearbeitet:

Powl_0

Achso, und ich dachte das liegt am größeren Speicher Interface (und den wesentlich höheren Anzahl der Shader) der 3090 und damit zusammenhängenden deutlich höheren Hash-Rate. Schau dir mal die RDNA1 Karten an. Da wird einem auffallen dass diese auch teils teurer sind als die vergleichbaren RDNA2 Karten. Mining profitiert aktuell nicht vom infinty cache. Das hat nichts oder kaum was mit Gaming zu tun...

Ohne jetzt aber dem eigentlichen Thema zu entfernen. Intel wäre mit einer gut verfügbaren Mittelklasse und das zu guten Preis besser bedient, als homöopathisch ein paar GPUs auf den Markt zu werfen, nur damit die Balken lang sind. Das wird man schon versuchen, aber bestimmt nicht mit der ersten Generation. Bei AMD hat sich gezeigt, dass die zweite Generation ebenso ein guter Zeitpunkt ist und es wird sich zeigen, was wir in der dritten Generation von RDNA sehen werden.
 
Zuletzt bearbeitet:
pipip schrieb:
Achso, und ich dachte das liegt am größeren Speicher Interface (und den wesentlich höheren Anzahl der Shader) der 3090 und damit zusammenhängenden deutlich höheren Hash-Rate
Auch, aber zB in den Steam Statistiken sind ja auch absurd viele 3090 ggü den AMD Karten. Irgendwer kauft die also haufenweise für Gaming, trotz der absurden Preise aktuell.
 
D3xo schrieb:
So weit ist es schon gekommen, dass wir jetzt alle auf Intel hoffen.
Ein neues 3dfx ist ja auch nicht in Sicht.
Schlechter als ein Dritter im Bunde auf meiner aktuellen Grafikkartenherstellerignorliste zu werden, kann Intel schon mal nicht abschneiden. ;)
 
Powl_0 schrieb:
Intel Arc hat Cache. Intel nennts "Smart Cache". Gleicher Ansatz wie AMD Infinity Cache.
4MB bei der 128 EU, 1024 Variante und 16MB L3 Cache bei der grössten Variante (512 EU, 4096) sind so wenig das man es eigentlich auch gleich hätte weglassen können.
Auf einer Marketingfolie hört sich so etwas natürlich gut an, aber de facto dürfte das selbst bei 1080p bei der kleinsten Variante nur in etwa 10% und bei 1440p / 4K noch mal deutlich weniger bringen.

Selbst bei der maximalen Ausbaustufe mit voraussichtlich 16MB wird es wohl bei 1440p keine 15% und bei 4K keine 10% bringen.

Bei AMD wiederum hat bereits die kleinste Variante 16MB und die maximale Ausbaustufe hat 128MB da sollte man sich von Intels sogenannten Smart Cache nicht blenden lassen.

IF Cache .png
 
ArrakisSand schrieb:
sind so wenig das man es eigentlich auch gleich hätte weglassen können
Vermutlich, kommt aber auch auf die Architektur an. Bei CPUs schafft es Intel ja beispielsweise auch, mit weniger Cache die gleiche Rechenleistung zu liefern wie AMD.
 
Powl_0 schrieb:
Arc wurde angestossen, bevor die Preise explodiert sind. Also ja, ursprünglich waren da sicher tatsächlich humane Preise angedacht.
Ergänzung ()


*Pandemie
Ergänzung ()


Lol. Du erfindest dir deine eigene Welt. Die Händler haben keine weitaus (oder überhaupt) höheren Gewinne, weil die Karten im Einkauf genauso teurer geworden sind und nur begrenzt verfügbar.
1) sicher ... Bist du da wirklich sicher und wer oder was sind deine seriösen Quellen bei Intel? Intel und humane Preise? Aber gut, du sprichst ja von Fiktion.

2) Ach ja, Herr Doktor. Wie konnte ich nur ...

3) Das stimmt so nicht, die Händler berechnen ihre Margen immer prozentual nach Einkaufspreis(en), sind diese höher sind auch die Summe der Margen dementsprechend höher. Was den Endpreis dann nochmal zusätzlich nach oben peitscht. Genauso wie es aktuell überall deutlich sichtbar ist.

Da brauche ich mir keine Welt zu erfinden, da muss ich nur die zugehörige Berichterstattung in den vergangenen 15 Monaten verfolgen. Das könntest du auch ganz leicht haben, nämlich hier auf dieser Seite, das würde auch ein wenig helfen Erfindung und Realität in ein angemessenes Gleichgewicht zu bringen.
 
SirSilent schrieb:
Spielt gar keine Rolle. Wenn Etherium auf PoS umsteigt wird auf andere Coins ausgewichen. Das Grafikkartenmining wird bleiben und somit auch die hohen Preise..
Die ist aber schon klar, dass von außen jemand da richtiges Geld in die "Alternativ-Coins" investieren muss, damit sich das Mining rentiert?
 
xy_Tux schrieb:
sicher ... Bist du da wirklich sicher und wer oder was sind deine seriösen Quellen bei Intel? Intel und humane Preise? Aber gut, du sprichst ja von Fiktion.
Ja, sicher, weil sie an die Konkurrenz und deren Preisgefüge gebunden sind. Beliebige Mondpreise gingen vor dem Mining Boom nicht, auch nicht für Nvidia und AMD.

xy_Tux schrieb:
Ach ja, Herr Doktor. Wie konnte ich nur ...
Auch wenns dir nicht gefällt, ist es eine Pandemie. Spar dir dein Geschwurbel.

xy_Tux schrieb:
brauche ich mir keine Welt zu erfinden, da muss ich nur die zugehörige Berichterstattung in den vergangenen 15 Monaten verfolgen.
BIsher erscheinst du als jemand, der nur die Berichte beachtet, die deine voreingenommene Ansicht bestätigen.
Ergänzung ()

elmex201 schrieb:
Die ist aber schon klar, dass von außen jemand da richtiges Geld in die "Alternativ-Coins" investieren muss, damit sich das Mining rentiert?
Jein. Es muss nur genug gepumpt und gehyped werden. Das Geld muss ja nur reichen, um Verkäufe in Fiat zu decken. Sieht man ja an genügend überbelasteten Coins, deren Marktwert deutlich die gedeckten Investitionen überschreitet.

Bis zum Verkauf ist der Wert eines Coins ja erstmal nur fiktiv.
 
Zurück
Oben