News Intel Arc: Alchemist erreicht GeForce RTX 3070 Ti in Benchmarks

Santa Clause schrieb:
Konkurrenz gerne, aber ausgerechnet von Intel?🙈
Niemand anderes ist technologisch in der Lage etwas ebenbĂŒrtiges zu kreieren. Finanziell die meisten auch nicht.

Von daher ist deine Aussage total unsinnig.

Da wĂ€re noch Apple, aber die sind am Gamingmarkt einfach null interessiert und der M1, bald der M2 leisten gute Arbeit fĂŒr CC. Obendrein wĂ€re Apple deinem Vergleich nach auch nicht besser wie Intel ^^
 
[wege]mini schrieb:
Und jetzt schauen wir uns die Verteilung von Int zu FP an und stellen fest, dass etwa 2/3 FP sind und nur 1/3 Int, wenn man ĂŒber Games redet.

Das war so nicht erwartet worden, da es nun einmal schwer zu erklÀren ist, warum Takt mehr bringt als Rohleistung und die Ingenieure nun einmal studierte Leute sind, die sich ganz doll auskennen.

Der komplette Rest der Renderpipeline ist eben nicht komplett mit skaliert worden.
Der Funktionswechsel dauert soweit ich weiß einige Taktzyklen und erfolgt auch nicht auf den Individuellen Shader, sondern auf einen ganzen Cuda Core Verbundsblock. Je nach Szenario wird man da etwas mehr Rohleistung liegen lassen (oder auch nicht).

Im ĂŒbrigen dĂŒrfte letzteres durchaus auch auf etliche Mitglieder des Forums zutreffen.
Insbesondere, wenn man bedenkt, wie verbĂ€ndelt NVIDIA mit einer gewissen großen Uni und einigen deutschen Verbindungen ist.
 
  • GefĂ€llt mir
Reaktionen: [wege]mini
Ja, so langsam scheint Arc in die Pötte zu kommen. Ich bin gespannt. Hier:
mykoma schrieb:
Jetzt steht und fÀllt die Intel GPU mit dem Preis
muss ich aber widersprechen. Der Preis wird völlig Rille sein - das Teil geht weg wie warme Semmeln. Entweder an miner, die nehmen ehŽ alles. Oder auch an die Gamer, wenn der Treibersupport stimmt und bei den HÀndlern auch welche im Regal landen. So oder so - es wird zusÀtzliche GPU am Markt geben.
 
Bin gespannt wieviele StĂŒck Intel liefern kann. Ich wĂŒrde eine auf 3070 Niveau mit 16GB kaufen. Wobei AMD Prozessor und Intel Grafikkarte ist auch etwas komisch in meinen Ohren. :D
 
mykoma schrieb:
Zwar nur ein einzelner, synthetischer Benchmark, aber immerhin mal was
Und immerhin muss man auch genug Wunschdenken und Phantasie mitbringen oder (ob der aktuellen Graka-Situation) auch genug Verzweiflung, um so etwas dann auch wirklich zu glauben.
 
TigerNationDE schrieb:
Niemand anderes ist technologisch in der Lage etwas ebenbĂŒrtiges zu kreieren. Finanziell die meisten auch nicht.

Von daher ist deine Aussage total unsinnig.

Da wĂ€re noch Apple, aber die sind am Gamingmarkt einfach null interessiert und der M1, bald der M2 leisten gute Arbeit fĂŒr CC. Obendrein wĂ€re Apple deinem Vergleich nach auch nicht besser wie Intel ^^

Ich sehe es genauso wie er. Wer weiß, was da wieder fuer Vertraege ins Haus stehen, die in der Oeffentlichkeit diskutiert werden.

Ich sehe den Bench jetzt nicht als final an.
 
Hört sich erst mal gut an, auch wenn es nur ein synthetischer Benchmark ist.
Man muss natĂŒrlich erst mal echte unabhĂ€ngige Tests abwarten.

Ich hoffe nur, dass die Karten (und auch Nachfolgemodelle) auch lÀngerfristig von Intel gepflegt werden und das nicht nur eine Eintagsfliege ist.
WĂ€re ja nicht das erste Mal, dass Produkte wie eine heiße Kartoffel fallengelassen werden und es am weiteren Treibersupport mangelt.
 
paul.muad.dib schrieb:
Die Hardware ist gut genug. Selbst das Niveau einer 3060 wĂ€re fĂŒr einen Neueinsteiger noch aller Ehren wert.

Jetzt kommt es darauf an, ob der Treiber die PS auch auf die Straße bringt. Ich denke, es wird ab Verkaufsstart 2-3 Jahre brauchen, bis es hier rund lĂ€uft.
Also ich bin da ehrlich gesagt nicht so negativ eingestellt. Intel macht seit zig Jahren Onboard-GPUs ... klar nochmal ein anderer Kaliber, aber ... denke das kann schon was Werden. Ist ja kein Start von NULL.
 
  • GefĂ€llt mir
Reaktionen: Strahltriebwerk und Nobbi56
CyLord83 schrieb:
Ich sehe es genauso wie er. Wer weiß, was da wieder fuer Vertraege ins Haus stehen, die in der Oeffentlichkeit diskutiert werden.
Dann nenne mir doch einen Konzern der aktuell in der Lage wÀre, Forschung und Technologie in der Dimension zu stemmen ?

AMD wĂ€re am Ende gewesen, wenn die Ryzens nicht eingeschlagen wĂ€ren. Dieses Risiko werden nicht viele Firmen eingehen wollen. So wie es zuletzt bei Intel lief, war bzw. ist die ARC Geschichte auch mehr als riskant, auch wenn die sich finanziell sicherlich mehr erlauben können und es ĂŒberleben wĂŒrden.
 
Die GPU Preise sind noch sehr hoch und das sagt mir, dass es noch dauern kann bis die Karten kommen. Intel bietet sich hier eine einmalige Gelegenheit, die vermutlich nie wieder kommen wird. Nvidia und AMD haben alle Sympathien verspielt, die man nur verspielen kann und du brauchst sehr viel Sympathie, wenn du den MarktfĂŒhrer angreifen willst. Andernfalls, endest du wie AMD als Ersatzspieler und wir werden in Zukunft vermehrt solche Sachen lesen wie: "FĂŒr alle AMD Nutzer" und "FĂŒr alle Intel Nutzer". Weil alle nur noch fĂŒr Nvidia optimieren. Was darf es also sein Intel ? Verkauf von CPU's, GPU's und Mainboards an die Kunden oder nur GPU's an die Miner ?
 
DoSBos_74 schrieb:
Je nach Szenario wird man da etwas mehr Rohleistung liegen lassen (oder auch nicht).

Nvidia hat hat nun einmal super Treiber. Die Zusammenarbeit mit UniversitĂ€ten round about the world zahlt sich hier aus. Die kennen ihre zukĂŒnftigen Mitarbeiter schon, bevor diese ihren Abschluss haben :D

Bei 2000 Mhz (2.000.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefĂŒhlte "Umschalten" aber keinen so großen unterschied, wie du glaubst und die Tatsache, dass ganze Blöcke "umgeschaltet" werden, ist auch total egal, wenn man mit MilchmĂ€dchenzahlen rechnet wie ich. 1/3 zu 2/3 kann jedes Kind, obwohl das meistens keine ganzen Zahlen ergibt.

Es ist aber leider nicht 3/4 zu 1/4, dann könnten es Kinder in der 8ten Klasse.

Nvidia mĂŒsste schneller sein und Nvidia wird im Laufe der nĂ€chsten Jahre den Abstand zu AMD verĂ€ndern. Wir werden in 2-3 Jahren sehen, ob meine EinschĂ€tzung stimmt, wenn die dann erscheinenden Spiele mit heutigen Karten getestet werden. Hier darf man dann natĂŒrlich nichts nehmen, was seine Gene von den Konsolen hat. Die sind auch auf AMD optimiert, da sie nun einmal mit AMD arbeiten.

Ich bin aber guter Dinge, dass AMD ordentlich auf dem Gaspedal bleibt. Das MCM System verspricht viel Gutes und mit TSMC haben sie sich auch auf neue KapazitÀten geeinigt. Das ist im Vergleich zu 2018 ein unglaublicher Fortschritt.

Damals musste AMD in Vorkasse gehen (mit Sicherheitsleistungen) um Buchungen machen zu können. Heute reicht ihr (mittlerweile wieder) guter Name.

mfg

Edit

mal eben schnell das Mega und kilo wieder in die richtige Reihenfolge gebracht.
 
Zuletzt bearbeitet:
Cheetah1337 schrieb:
Also ich bin da ehrlich gesagt nicht so negativ eingestellt. Intel macht seit zig Jahren Onboard-GPUs ... klar nochmal ein anderer Kaliber, aber ... denke das kann schon was Werden. Ist ja kein Start von NULL.
Die iGPUs sitzen auf dem Prozessor, nicht auf dem Board :D Das Board gibt nur das Signal aus.
 
  • GefĂ€llt mir
Reaktionen: Rockstar85
TigerNationDE schrieb:
Dann nenne mir doch einen Konzern der aktuell in der Lage wÀre, Forschung und Technologie in der Dimension zu stemmen ?

AMD wĂ€re am Ende gewesen, wenn die Ryzens nicht eingeschlagen wĂ€ren. Dieses Risiko werden nicht viele Firmen eingehen wollen. So wie es zuletzt bei Intel lief, war bzw. ist die ARC Geschichte auch mehr als riskant, auch wenn die sich finanziell sicherlich mehr erlauben können und es ĂŒberleben wĂŒrden.

Das eine hat mit dem anderen nichts zu tun. Es wird mit Sicherheit wieder zu einem Verdraengungswettbewerb fuehren mit Rabatt fuer Kombinationen mehrerer Intel-Produkten. Jetzt noch einen Gelsinger mit aggressivem Ton gegenueber Mitbewerbern. Am Anfang ist das sicher toll mit der Konkurrenz, aber ich sehe es langfristig nicht positiv.
 
  • GefĂ€llt mir
Reaktionen: Santa Clause
[wege]mini schrieb:
Bei 2000 Mhz (2.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefĂŒhlte "Umschalten" aber keinen so großen unterschied, wie du glaubst

Da bin ich mir nicht allzu sicher.
Bedenke wie hĂ€ufig bei der Berechnung eines einzelnen Bildes die Funktion gewechselt wird (ist immerhin mit der grĂ¶ĂŸte Unterschied zwischen GCN und RDNA).

Wir (IngenieursbĂŒro) hatten vor ein paar Jahren zusammen mit NVIDIA an einer automotive Lösung gearbeitet.
Da hatte die Anzahl der Strafzyklen beim Funktionswechsel einen gravierenden Einfluss auf die Geschwindigkeit der Bildverarbeitung. Wie gut sich dies auf entsprechende Game engines und den Wechsel von Float auf Int basierte Funktionen ĂŒbertrĂ€gt kann ich leider nur mutmaßen.
 
  • GefĂ€llt mir
Reaktionen: JJJT und [wege]mini
[wege]mini schrieb:
Bei 2000 Mhz (2.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefĂŒhlte "Umschalten" aber keinen so großen unterschied, wie du glaubst und die Tatsache, dass ganze Blöcke "umgeschaltet" werden, ist auch total egal, wenn man mit MilchmĂ€dchenzahlen rechnet wie ich. 1/3 zu 2/3 kann jedes Kind, obwohl das meistens keine ganzen Zahlen ergibt.

Ich bin mal kleinlich, Mathe ist oft nicht ganz so einfach wie es aussieht ;-)
2.000 Mhz = 2.000.000 Khz = 2.000.000.000 Hz

Ich bin sehr gespannt was Intel wann abliefern wird. So oder so, hoffentlich ziehen sie es diemal durch.
 
  • GefĂ€llt mir
Reaktionen: Onkel Föhn und [wege]mini
DoSBos_74 schrieb:
Wie gut sich dies auf entsprechende Game engines

Hier ist das "Zauberwort".

Wenn sie Raytracing wÀren, wÀre ich bei dir. Mit aktuellem "Fake 3D", macht das weniger Unterschied.

Bei euch, sollte z.B. der InfinityCache deutlich weniger bringen. (Wenn ich die Funktionsweise von dem Ding komplett verstanden habe.)

Und natĂŒrlich, die Pipeline spielt hier die große Rolle. Daher ist es schön, dass bei Games nichts passieren kann, was "unerwartet" ist. Die gesamte "Welt" ist ja schon bekannt. Nur die Ausgabe wird von Bild zu Bild dem Blickwinkel des Beobachters angepasst.

Wenn die Engine schwÀchelt, nimmt der User "lags" war. :D

mfg

JJJT schrieb:
Mathe ist oft nicht ganz so einfach wie es aussieht ;-)

Weil Nullen zÀhlen ja Mathe ist. Das kack Griechisch ist nicht so mein Ding. ;D
 
  • GefĂ€llt mir
Reaktionen: JJJT
Erster Gedanke:
Dann haben sie ja noch einen weiten Weg vor sich.

Zweiter Gedanke:
Ok, Intel will also erstmal 'nur' das MassengeschÀft abgraben.
 
Dass ausgerechnet Intel mal als Alternative fĂŒr irgendwas 'gefeiert' wird, hĂ€tte ich mir bis dato nicht vorstellen können.
 
  • GefĂ€llt mir
Reaktionen: BGnom und Onkel Föhn
CyLord83 schrieb:
Das eine hat mit dem anderen nichts zu tun. Es wird mit Sicherheit wieder zu einem Verdraengungswettbewerb fuehren mit Rabatt fuer Kombinationen mehrerer Intel-Produkten. Jetzt noch einen Gelsinger mit aggressivem Ton gegenueber Mitbewerbern. Am Anfang ist das sicher toll mit der Konkurrenz, aber ich sehe es langfristig nicht positiv.
Sorry, aber wer hindert AMD daran Ă€hnliche VertrĂ€ge mit Unternehmen abzuschließen ?
Wieso versucht man immer den schwarzen Peter jemandem zuzuschieben, der einfach geschickter gehandelt hat ?
ErgÀnzung ()

Cheetah1337 schrieb:
@TigerNationDE ... da hat auch jemand in der Witzkiste geschlafen ... kopfschĂŒttel
Findest du ? Ne Onboard Grafikkarte ist keine iGPU. Aber wenn du das glaubst
ErgÀnzung ()

hamju63 schrieb:
Zweiter Gedanke:
Ok, Intel will also erstmal 'nur' das MassengeschÀft abgraben.
Was sonst, wenn du mit einer neuen Architektur beginnst ? Willst du hoffen das du Enthusiasten erreichst ? Witz komm raus.
 
ZurĂŒck
Oben