News Intel Arc: Alchemist erreicht GeForce RTX 3070 Ti in Benchmarks

Santa Clause schrieb:
Konkurrenz gerne, aber ausgerechnet von Intel?🙈
Niemand anderes ist technologisch in der Lage etwas ebenbürtiges zu kreieren. Finanziell die meisten auch nicht.

Von daher ist deine Aussage total unsinnig.

Da wäre noch Apple, aber die sind am Gamingmarkt einfach null interessiert und der M1, bald der M2 leisten gute Arbeit für CC. Obendrein wäre Apple deinem Vergleich nach auch nicht besser wie Intel ^^
 
[wege]mini schrieb:
Und jetzt schauen wir uns die Verteilung von Int zu FP an und stellen fest, dass etwa 2/3 FP sind und nur 1/3 Int, wenn man über Games redet.

Das war so nicht erwartet worden, da es nun einmal schwer zu erklären ist, warum Takt mehr bringt als Rohleistung und die Ingenieure nun einmal studierte Leute sind, die sich ganz doll auskennen.

Der komplette Rest der Renderpipeline ist eben nicht komplett mit skaliert worden.
Der Funktionswechsel dauert soweit ich weiß einige Taktzyklen und erfolgt auch nicht auf den Individuellen Shader, sondern auf einen ganzen Cuda Core Verbundsblock. Je nach Szenario wird man da etwas mehr Rohleistung liegen lassen (oder auch nicht).

Im übrigen dürfte letzteres durchaus auch auf etliche Mitglieder des Forums zutreffen.
Insbesondere, wenn man bedenkt, wie verbändelt NVIDIA mit einer gewissen großen Uni und einigen deutschen Verbindungen ist.
 
  • Gefällt mir
Reaktionen: [wege]mini
Ja, so langsam scheint Arc in die Pötte zu kommen. Ich bin gespannt. Hier:
mykoma schrieb:
Jetzt steht und fällt die Intel GPU mit dem Preis
muss ich aber widersprechen. Der Preis wird völlig Rille sein - das Teil geht weg wie warme Semmeln. Entweder an miner, die nehmen eh´ alles. Oder auch an die Gamer, wenn der Treibersupport stimmt und bei den Händlern auch welche im Regal landen. So oder so - es wird zusätzliche GPU am Markt geben.
 
Bin gespannt wieviele Stück Intel liefern kann. Ich würde eine auf 3070 Niveau mit 16GB kaufen. Wobei AMD Prozessor und Intel Grafikkarte ist auch etwas komisch in meinen Ohren. :D
 
mykoma schrieb:
Zwar nur ein einzelner, synthetischer Benchmark, aber immerhin mal was
Und immerhin muss man auch genug Wunschdenken und Phantasie mitbringen oder (ob der aktuellen Graka-Situation) auch genug Verzweiflung, um so etwas dann auch wirklich zu glauben.
 
TigerNationDE schrieb:
Niemand anderes ist technologisch in der Lage etwas ebenbürtiges zu kreieren. Finanziell die meisten auch nicht.

Von daher ist deine Aussage total unsinnig.

Da wäre noch Apple, aber die sind am Gamingmarkt einfach null interessiert und der M1, bald der M2 leisten gute Arbeit für CC. Obendrein wäre Apple deinem Vergleich nach auch nicht besser wie Intel ^^

Ich sehe es genauso wie er. Wer weiß, was da wieder fuer Vertraege ins Haus stehen, die in der Oeffentlichkeit diskutiert werden.

Ich sehe den Bench jetzt nicht als final an.
 
Hört sich erst mal gut an, auch wenn es nur ein synthetischer Benchmark ist.
Man muss natürlich erst mal echte unabhängige Tests abwarten.

Ich hoffe nur, dass die Karten (und auch Nachfolgemodelle) auch längerfristig von Intel gepflegt werden und das nicht nur eine Eintagsfliege ist.
Wäre ja nicht das erste Mal, dass Produkte wie eine heiße Kartoffel fallengelassen werden und es am weiteren Treibersupport mangelt.
 
paul.muad.dib schrieb:
Die Hardware ist gut genug. Selbst das Niveau einer 3060 wäre für einen Neueinsteiger noch aller Ehren wert.

Jetzt kommt es darauf an, ob der Treiber die PS auch auf die Straße bringt. Ich denke, es wird ab Verkaufsstart 2-3 Jahre brauchen, bis es hier rund läuft.
Also ich bin da ehrlich gesagt nicht so negativ eingestellt. Intel macht seit zig Jahren Onboard-GPUs ... klar nochmal ein anderer Kaliber, aber ... denke das kann schon was Werden. Ist ja kein Start von NULL.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und Nobbi56
CyLord83 schrieb:
Ich sehe es genauso wie er. Wer weiß, was da wieder fuer Vertraege ins Haus stehen, die in der Oeffentlichkeit diskutiert werden.
Dann nenne mir doch einen Konzern der aktuell in der Lage wäre, Forschung und Technologie in der Dimension zu stemmen ?

AMD wäre am Ende gewesen, wenn die Ryzens nicht eingeschlagen wären. Dieses Risiko werden nicht viele Firmen eingehen wollen. So wie es zuletzt bei Intel lief, war bzw. ist die ARC Geschichte auch mehr als riskant, auch wenn die sich finanziell sicherlich mehr erlauben können und es überleben würden.
 
Die GPU Preise sind noch sehr hoch und das sagt mir, dass es noch dauern kann bis die Karten kommen. Intel bietet sich hier eine einmalige Gelegenheit, die vermutlich nie wieder kommen wird. Nvidia und AMD haben alle Sympathien verspielt, die man nur verspielen kann und du brauchst sehr viel Sympathie, wenn du den Marktführer angreifen willst. Andernfalls, endest du wie AMD als Ersatzspieler und wir werden in Zukunft vermehrt solche Sachen lesen wie: "Für alle AMD Nutzer" und "Für alle Intel Nutzer". Weil alle nur noch für Nvidia optimieren. Was darf es also sein Intel ? Verkauf von CPU's, GPU's und Mainboards an die Kunden oder nur GPU's an die Miner ?
 
DoSBos_74 schrieb:
Je nach Szenario wird man da etwas mehr Rohleistung liegen lassen (oder auch nicht).

Nvidia hat hat nun einmal super Treiber. Die Zusammenarbeit mit Universitäten round about the world zahlt sich hier aus. Die kennen ihre zukünftigen Mitarbeiter schon, bevor diese ihren Abschluss haben :D

Bei 2000 Mhz (2.000.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefühlte "Umschalten" aber keinen so großen unterschied, wie du glaubst und die Tatsache, dass ganze Blöcke "umgeschaltet" werden, ist auch total egal, wenn man mit Milchmädchenzahlen rechnet wie ich. 1/3 zu 2/3 kann jedes Kind, obwohl das meistens keine ganzen Zahlen ergibt.

Es ist aber leider nicht 3/4 zu 1/4, dann könnten es Kinder in der 8ten Klasse.

Nvidia müsste schneller sein und Nvidia wird im Laufe der nächsten Jahre den Abstand zu AMD verändern. Wir werden in 2-3 Jahren sehen, ob meine Einschätzung stimmt, wenn die dann erscheinenden Spiele mit heutigen Karten getestet werden. Hier darf man dann natürlich nichts nehmen, was seine Gene von den Konsolen hat. Die sind auch auf AMD optimiert, da sie nun einmal mit AMD arbeiten.

Ich bin aber guter Dinge, dass AMD ordentlich auf dem Gaspedal bleibt. Das MCM System verspricht viel Gutes und mit TSMC haben sie sich auch auf neue Kapazitäten geeinigt. Das ist im Vergleich zu 2018 ein unglaublicher Fortschritt.

Damals musste AMD in Vorkasse gehen (mit Sicherheitsleistungen) um Buchungen machen zu können. Heute reicht ihr (mittlerweile wieder) guter Name.

mfg

Edit

mal eben schnell das Mega und kilo wieder in die richtige Reihenfolge gebracht.
 
Zuletzt bearbeitet:
Cheetah1337 schrieb:
Also ich bin da ehrlich gesagt nicht so negativ eingestellt. Intel macht seit zig Jahren Onboard-GPUs ... klar nochmal ein anderer Kaliber, aber ... denke das kann schon was Werden. Ist ja kein Start von NULL.
Die iGPUs sitzen auf dem Prozessor, nicht auf dem Board :D Das Board gibt nur das Signal aus.
 
  • Gefällt mir
Reaktionen: Rockstar85
TigerNationDE schrieb:
Dann nenne mir doch einen Konzern der aktuell in der Lage wäre, Forschung und Technologie in der Dimension zu stemmen ?

AMD wäre am Ende gewesen, wenn die Ryzens nicht eingeschlagen wären. Dieses Risiko werden nicht viele Firmen eingehen wollen. So wie es zuletzt bei Intel lief, war bzw. ist die ARC Geschichte auch mehr als riskant, auch wenn die sich finanziell sicherlich mehr erlauben können und es überleben würden.

Das eine hat mit dem anderen nichts zu tun. Es wird mit Sicherheit wieder zu einem Verdraengungswettbewerb fuehren mit Rabatt fuer Kombinationen mehrerer Intel-Produkten. Jetzt noch einen Gelsinger mit aggressivem Ton gegenueber Mitbewerbern. Am Anfang ist das sicher toll mit der Konkurrenz, aber ich sehe es langfristig nicht positiv.
 
  • Gefällt mir
Reaktionen: Santa Clause
[wege]mini schrieb:
Bei 2000 Mhz (2.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefühlte "Umschalten" aber keinen so großen unterschied, wie du glaubst

Da bin ich mir nicht allzu sicher.
Bedenke wie häufig bei der Berechnung eines einzelnen Bildes die Funktion gewechselt wird (ist immerhin mit der größte Unterschied zwischen GCN und RDNA).

Wir (Ingenieursbüro) hatten vor ein paar Jahren zusammen mit NVIDIA an einer automotive Lösung gearbeitet.
Da hatte die Anzahl der Strafzyklen beim Funktionswechsel einen gravierenden Einfluss auf die Geschwindigkeit der Bildverarbeitung. Wie gut sich dies auf entsprechende Game engines und den Wechsel von Float auf Int basierte Funktionen überträgt kann ich leider nur mutmaßen.
 
  • Gefällt mir
Reaktionen: JJJT und [wege]mini
[wege]mini schrieb:
Bei 2000 Mhz (2.000.000 Takte pro Sekunde) und meistens unter 300 Bildern pro Sekunde, macht das von dir (zu recht) ins Feld gefühlte "Umschalten" aber keinen so großen unterschied, wie du glaubst und die Tatsache, dass ganze Blöcke "umgeschaltet" werden, ist auch total egal, wenn man mit Milchmädchenzahlen rechnet wie ich. 1/3 zu 2/3 kann jedes Kind, obwohl das meistens keine ganzen Zahlen ergibt.

Ich bin mal kleinlich, Mathe ist oft nicht ganz so einfach wie es aussieht ;-)
2.000 Mhz = 2.000.000 Khz = 2.000.000.000 Hz

Ich bin sehr gespannt was Intel wann abliefern wird. So oder so, hoffentlich ziehen sie es diemal durch.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und [wege]mini
DoSBos_74 schrieb:
Wie gut sich dies auf entsprechende Game engines

Hier ist das "Zauberwort".

Wenn sie Raytracing wären, wäre ich bei dir. Mit aktuellem "Fake 3D", macht das weniger Unterschied.

Bei euch, sollte z.B. der InfinityCache deutlich weniger bringen. (Wenn ich die Funktionsweise von dem Ding komplett verstanden habe.)

Und natürlich, die Pipeline spielt hier die große Rolle. Daher ist es schön, dass bei Games nichts passieren kann, was "unerwartet" ist. Die gesamte "Welt" ist ja schon bekannt. Nur die Ausgabe wird von Bild zu Bild dem Blickwinkel des Beobachters angepasst.

Wenn die Engine schwächelt, nimmt der User "lags" war. :D

mfg

JJJT schrieb:
Mathe ist oft nicht ganz so einfach wie es aussieht ;-)

Weil Nullen zählen ja Mathe ist. Das kack Griechisch ist nicht so mein Ding. ;D
 
  • Gefällt mir
Reaktionen: JJJT
Erster Gedanke:
Dann haben sie ja noch einen weiten Weg vor sich.

Zweiter Gedanke:
Ok, Intel will also erstmal 'nur' das Massengeschäft abgraben.
 
Dass ausgerechnet Intel mal als Alternative für irgendwas 'gefeiert' wird, hätte ich mir bis dato nicht vorstellen können.
 
  • Gefällt mir
Reaktionen: BGnom und Onkel Föhn
CyLord83 schrieb:
Das eine hat mit dem anderen nichts zu tun. Es wird mit Sicherheit wieder zu einem Verdraengungswettbewerb fuehren mit Rabatt fuer Kombinationen mehrerer Intel-Produkten. Jetzt noch einen Gelsinger mit aggressivem Ton gegenueber Mitbewerbern. Am Anfang ist das sicher toll mit der Konkurrenz, aber ich sehe es langfristig nicht positiv.
Sorry, aber wer hindert AMD daran ähnliche Verträge mit Unternehmen abzuschließen ?
Wieso versucht man immer den schwarzen Peter jemandem zuzuschieben, der einfach geschickter gehandelt hat ?
Ergänzung ()

Cheetah1337 schrieb:
@TigerNationDE ... da hat auch jemand in der Witzkiste geschlafen ... kopfschüttel
Findest du ? Ne Onboard Grafikkarte ist keine iGPU. Aber wenn du das glaubst
Ergänzung ()

hamju63 schrieb:
Zweiter Gedanke:
Ok, Intel will also erstmal 'nur' das Massengeschäft abgraben.
Was sonst, wenn du mit einer neuen Architektur beginnst ? Willst du hoffen das du Enthusiasten erreichst ? Witz komm raus.
 
Zurück
Oben