News ACM-G10 („Alchemist“): Arc A750 schlägt GeForce RTX 3060 in ausgewählten Spielen

Fuchiii schrieb:
Ich hatte zwar ne G400 Dualhead - aber eigentlich waren das nie Gamerkarten.
Naja gabs überhaupt richtige Gamerkarten zu der Zeit?
1657967384691.png

immerhin hatte sie schon 3D Beschleuniger - auch wenn er nicht perfekt war. In Verbindung mit Voodoo 3DFX war es eine gute Kombi.

Die Millenium mit 32MB war auch für die Zeit top.


Lustig waren die Zeiten mit den VL-Bus GPUs von Cirrus Logic gewesen. Hatte eine Karte mit 256kb Grafikkartenspeicher und massig leere Sockel gehabt. Auf einigen uralten Mainboards hatte ich "identische Bausteine" gefunden, die genau in diese leeren Sockel passten. Also vom Mainboard runter gezogen und auf die GPU drauf gesteckt und tadaa... 1MB Grafikspeicher

damals wars so einfach mit Speicher erweitern und das ohne zu löten 😂
 
  • Gefällt mir
Reaktionen: ThePlayer, Jan, Celinna und 2 andere
Also auf die Gefahr mich zu wiederholen.

Es ist Intels zweite Generation von ded. Grafikkarten.
Das hier ist DG2, es gab aber auch DG1.
Hat im Grunde den Markt nie erreicht, weil nicht lauffähig.

Intel hat seit Jahrzehnten eine Grafikabteilung, welche die letzten Jahre (hoffentlich?) mehr Aufmerksamkeit bekam, wenn man sich so ansieht wie stark die integrierte Grafik aufgebohrt wurde. Da kann mir keiner weiß machen das man die Software ignorierte.

Es kann seitens Intel keine Entlastung im Markt geben. Es ist weiterhin ein Oligopol und noch dazu kommen alle(!) Grafik-DIEs demnächst ausschließlich von TSMC. Dazu braucht Intel für selbe Leistung deutlich mehr DIE Fläche. Die Zielstellung war vermutlich auch eher der Miningmarkt. Der ist nun mal aber aus Intels Sicht leider zusammen gebrochen. Da sollen die Karten nämlich gut performen.

Welche Argumentation soll also stützen das Intel den "Wettbewerb fördert" respektive man Intel die "erste Gen" verzeihen kann?
 
  • Gefällt mir
Reaktionen: ThePlayer
Powl_0 schrieb:
Höhö Wunschdenken.
Verak Drezzt schrieb:
Wenn Intel dann demnächst mit RDNA3 sowie Lovelace

wenn die 4060 und 7600 non XT dann kommt, kannsde von ausgehen das diese dann wohl um die 300€ kosten wird und ansatzweise 3070 Leistung liefert
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
bensen schrieb:
Zweite Baustelle sind Treiber und Unterstützung durch Entwickler. Da muss extrem viel aufgeholt werden.
Deswegen müssen die Teile auf den Markt ganz egal ob konkurrenzfähig oder nicht.
Hmmm, wenn dieses Erstlingswerk aber von Anfang an nicht rund läuft und dazu noch eine nicht konkurrenzfähige Leistung bietet ist die Reputation erst einmal im Eimer.
Ich glaube nicht das sich ein Unternehmen mit sowas einen Gefallen tut.
Meine Hoffnung ist daher das die Teile Konkurrenzfähig sind und rund laufen, und sei es nur im Einsteigerbereich.
 
Ob auch QuickSync wieder mit an Board ist ? Und ob man es dieses mal wirklich besser einstellen kann ?

Ich sage nur : Minimum Bitrate 100.000K, Maximum Bitrate : 150.000K.

Was macht er draus ? 2000K als Minimum, je nachdem wie der Algorithmus gerade meint, was wirklich nötig ist.

Wie bei CQP und LA/IC. Dasselbe….

Hoffendlich fixen die das endlich mal. Bei CBR und auch VBR erwarte ich das als Ausgabe, was ich eingegeben habe. Ansonsten ist Quicksync echt stark. Locker mit ner 750er im 11700K die WQHD@60FPS ohne Encoderprobleme.

Bin gespannt.

LG
 
Powl_0 schrieb:
Intel doch auch. Die bauen seit 20 Jahren eigene GPUs.

Kann niemand behaupten, dass Intel hier ja ein Erstlingswerk liefert und man deshalb nur Mittelmaß erwarten darf.
Ist doch leicht was anderes. Das Ziel ist ein anderes und einfach so problemlos upscalen ist eben nicht.
Wer auf Anhieb konkurrenzfähige Produkte erwartet hat ist ziemlich naiv.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Sehr gut das das Intel als dritter Hersteller in den Markt kommt. Wenn die Treiber und Stabilität passen würde ich mir so eine Karte durchaus vorstellen können
 
  • Gefällt mir
Reaktionen: Kuristina, Corpus Delicti und Strahltriebwerk
Verak Drezzt schrieb:
wenn die 4060 und 7600 non XT
Dein vorheriger Kommentar sprach davon, "Wenn Intel dann [...] 300€ (für 3070 Leistung) aufruft".
 
Naa is eh Suppa des Ding ...
 
bensen schrieb:
Ist doch leicht was anderes. Das Ziel ist ein anderes und einfach so problemlos upscalen ist eben nicht.
Wer auf Anhieb konkurrenzfähige Produkte erwartet hat ist ziemlich naiv.
Der Treiber braucht aber in beiden Fällen viel Aufmerksamkeit. Die zu unterstützenden APIs sind die gleichen. Dass Intel da gefühlt keinen Furz getan hat, ist peinlich und einzig ihr eigenes Versagen.

Intel ist doch klar, dass man da viel investieren muss. Und was kommt? Schnarchlahmer Fortschritt bei den Xe Treibern, eklatante Fehler, die über viele Monate mit gezogen werden...
Und all die Probleme jetzt auch mit den Desktop Treibern.
Wie klein ist deren GPU Treiber Team?

Reibungslos erwarte ich nicht. Aber von einem Giganten wie Intel, die sonst immer Unsummen in die Entwicklung stecken und groß tönen, wie gut sie es können, da erwarte ich einfach mehr als das gebotene Gesamtpaket.

Ewige Verschiebung, und jetzt? Erst nur Low End, erst nur in China, Vorführung nur schleppend, grundlegende Treiberprobleme, fragwürdige Benchmarks,...
 
  • Gefällt mir
Reaktionen: Fuchiii
@Intruder

Das sind die Benchmarks, die haben alle keinen Platz mehr im Gehäuse:))
 
MehlstaubtheCat schrieb:
Die Treiberentwicklung wird bei Intel das Problem sein, wie schon im "GamerNexus" Video erklärt.
DX12 wird voll "gefokust" erst dann kommen DX11.
Und Intel geht die Liste von Steam ab, welche Games am meisten gespielt werden
und da ist der Fokus ebenso drauf.

Würde ich genau so machen!

Intel hat soviel Kohle auf der Kante liegen, die müssen nix überstürzten.
Es ist schlicht und einfach egal, ob sie erst in 1 oder 3 Jahren den Anschluss im "Middrange" Grafikkartenmarkt erreichen oder sogar noch später.

Eines ist 100%ig, sie werden eines Tages da sein wo Nvidia und AMD heute ist, das ist unausweichlich!

falls sie nicht vorher den Stecker ziehen wie damals bei Larrabee !
 
  • Gefällt mir
Reaktionen: ThePlayer
Raytracing wäre mir erstmal ganz egal. Zumindest so lange, bis es nicht mal irgendwie durch irgendeine blöde Idee eines Devs. zur Voraussetzung wird (was nicht passieren sollte/wird/darf).

Ich denke auch nicht, das die Intelkarte schon Raytracing beherrscht. Und wenn, vermute ich einen krasseren Leistungseinbruch als bei den Konkurrenten.

Lassen wir uns überraschen ^^
Freu mich, das Intel da nun auch reinspringt.

Frag mich wie das bei Machine Learning aussieht. Würde die Karte gerne mal gegen meine 2070S antreten lassen und dann mal schauen wie viel it/s die Intelkarte packt.

LG
 
amorosa schrieb:
Raytracing wäre mir erstmal ganz egal. Zumindest so lange, bis es nicht mal irgendwie durch irgendeine blöde Idee eines Devs. zur Voraussetzung wird (was nicht passieren sollte/wird/darf).
Das wird definitiv irgendwann Voraussetzung. (Aber frühestens mit der nächsten Konsolen Generation)

So wie auch Programmable Shader oder bestimmte Shader Models mal zur Voraussetzung und somit alle vorherigen Grafikkarten nutzlos wurden.

Fortschritt geht nicht, wenn man alle Altlasten immer mitnehmen will.
Ergänzung ()

amorosa schrieb:
Ich denke auch nicht, das die Intelkarte schon Raytracing beherrscht.
Doch, Intel Arc beherrscht Raytracing. Hat dafür extra Einheiten ebenso wie RDNA2 und Turing/Ampere, betont Intel im Marketing auch.
 
  • Gefällt mir
Reaktionen: amorosa
=dantE= schrieb:
Sind die Dinger FSR kompatibel?

Alles ist FSR 1.0 kompatibel.

Ansonsten hat Intel XeSS (AMD: FSR 2.0, nVidia: DLSS) zum upsample'n.
 
  • Gefällt mir
Reaktionen: =dantE=
Corpus Delicti schrieb:
Alles ist FSR 1.0 kompatibel.

Ansonsten hat Intel XeSS (AMD: FSR 2.0, nVidia: DLSS) zum upsample'n.
Nahezu alles ist ebenso FSR2.0 kompatibel. Ist auch völlig shader-basiert.

Nur DLSS und XeSS (per XMX) sind auf den jeweiligen Hersteller gebunden.
XeSS per DP4a soll auch auf GPUs aller Hersteller laufen...wann auch immer es kommt.
Ergänzung ()

nille02 schrieb:
Die sind vor Jahren auf AMD GPUs umgeschwenkt und später auf Nvidia GPUs.
Ist die neueste Matrox Karte nicht wieder AMD GCN?
 
polyphase schrieb:
Die sind doch schon offiziell erhältlich, aber eben erstmal nur in China.

USA und Europa folgen später.
ja aber wann, wenn Weihnachtsmann dem Osterhasen die Hand schüttelt, ich check den Release Sinn von Intel nicht wirklich (ernsthaft).
 
Zurück
Oben