Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsArc Pro?: Intel soll 24-GB-Grafikkarten mit Battlemage planen
Finde ich absolut in Ordnung und verstehe die Aufregung darüber nicht, denn wenn ich schon in 8k zocke, dann will ich wenigstens auch stabile 4 FPS mit dieser Karte haben.
Alles andere wäre ein Witz 😁
Spass..... vieleicht bringen die 24 Gb ein Extra im Videobearbeiten oder anderen Szenarian abseitz von Spielen.
Für 350€ würde ich die sofort für meinen Homeserver kaufen um ollama 24/7 auf allen Geräten zu haben. Ich finde mit LLMs kann ich viel bessere Geschichten selber schreiben als alle AAA Spiele der letzten Jahre. Die Grafik kann ich mir selbst vorstellen oder mit Stable Diffusion generieren.
Zuletzt bearbeitet:
(ich hatte an Dollar Preise gedacht und nicht Euro.)
Frage mich nach wie vor, warum man mit solchen Intel-Karten unbedingt spielen will? Die sind was Game-Performance angeht, ziemlich leistungsschwach und relativ neu an Markt. Und dazu noch die mangelnde Treiberunterstützung. Zum Glück gibt es nicht nur Spiele ^^
Ich bin gezwungen, mir 2025 eine neue Karte zu kaufen.
WENN Nvidia mit RTX 5000 ihr NVDEC nicht updatet und immer noch kein h265 4:2:2 decodieren kann (was sehr wahrscheinlich ist), wird es eine Intel Arc werden, entweder so eine "B580 24GB" oder eine B750 16GB.
Vielleicht wird es auch B580 und eine RTX 5070 Ti. Es ist für meine Bedürfnisse völlig irrelevant, ob dann die Arc nur mit 4 Lanes angebunden wird.
Das weißt du woher und kannst es weswegen beurteilen? Mal ganz davon abgesehen, dass jene Grafikkarte NICHT für Spiele vorgesehen ist. Mein Gott, hier ist es schon wie auf Facebook. Lest die Artikel doch wenigstens, bevor ihr in die Tasten haut. Okay, dann bleibt immer noch die Sache mit dem Verstehen ...
Ich bin zwar nicht @Zensored, aber gerade Videoschnitt profitiert enorm von VRAM. Idealerweise kann das komplette Video direkt im VRAM bearbeitet werden anstatt im wesentlich langsameren Hauptspeicher. Und bei 8K wird es mit 12 GB schon eng.
NIemand kauft sich solch eine GPU um alte Schinken zu zocken. Interessant wird, was die Games in 2-3 Jahren an VRAM benötigen und da ist jetzt schon fast absehbar wie die 5080 16GB mit wehenden Fahnen gegen den Eisberg fährt und untergeht.
Wer keine neuen Games zockt braucht sich aber keine Sorgen machen, da sind die 16GB save
Also ich wüsste genau wo viel vram wichtig ist. video rendern also das braucht sehr viel vram. auch Wetter vorberechnung oder die ganze welt modellieren braucht sehr viel vram. Hier wird Intel richtig gut glänzen und das neben der teuren nvidia gpu. Hier kann AMD nicht mehr mit halten. Für AMD ist das schlecht. Wobei weiß ich nicht ob AMD nicht auch ne Profi gpu hat mit viel vram. Auf jedenfall ist es dann in den Bereich sehr spannend und so ne richtige Konkurrenz. Das würde man sich im mainstream auch gerne wünschen.
Bei den Profi Karten verdient man sehr viel Kohle. Intel macht es da Gold richtig. Intel kann auch gut Geld gebrauchen. Also ich werde das auch wenn ich es nicht brauchen werde, dennoch das ganze weiter verfolgen. rendern finde ich ebenso spannend wie Videos umzuwandeln.
ich selbst brauche kaum die gpu weil ich da nur ältere games zocke. Hier könnte Intel in Zukunft aber auch noch einholen. Wenn alles passt wäre ne Alternative vorhanden. Kommt drauf an ob Intel was für dx9 games auch was optimiert. Noch ist intel da noch keine alternative. Aber muss ja nicht für immer so sein, kann sich die Jahre ja noch verändern. Auf jeden Fall hat Intel mehr Potentcial als AMD insgesamt gesehen.
Nichts davon braucht zwingend viel VRAM. Wenn Du aber aufwändigeres Editing bzw. richtiges Compositing machst, ist VRAM wichtig für eine gute Performance. Erweitertes Color Grading, 3D-Compositing inkl. 3D Camera Tracking etc. macht aber halt nicht jeder. Von daher sehe ich nicht, wie der durchschnittliche (!) Video-Editor von viel VRAM profitiert. Auch und vor allem, da Auflösungen über 4K für ~99% aller Cutter immer noch und auch auf eher absehbare Zeit keine Rolle spielen. Und das ist auch gut und richtig so.
Ripcord schrieb:
da ist jetzt schon fast absehbar wie die 5080 16GB mit wehenden Fahnen gegen den Eisberg fährt und untergeht.
KI-Anwendungen natürlich. Wenn das halbwegs bezahlbar ist, dann ist das sinnvoll so eine Karte. Hier kann man z.B. per Ollama ganze KI Modelle (auch die mit 12bn und mehr) komplett in den Speicher laden. Reine Grafikleistung für Spiele ist da weniger gefragt, und so muss man keine 1000€+ für eine Nvidia ausgeben, nur um den großen Speicher zu haben.
Das sagten die Leute damals schon bei den 8GB Karten. Heute können die User diese Karten nicht schnell genug verkaufen. Aber hey, wenn ständig Leute das Märchen erzählen von "es gibt da gar keine Probleme" werden wir sowas auch in Zukunft beobachten können.
Meine nächste Karte wird ganz sicher eine Intel. Für die heutigen langweiligen AAA Games brauche ich nichts Teures mehr. Meist Titel, die man eh nach einer Woche vergessen hat.
Kaufe seit der TNT2 nur Nvidia, davor hatte ich 3dfx . Aber das möchte ich endgültig beenden. Die Preise die Nvidia mit Blackwell abrufen wird, werden absurd, das hat doch alles nichts mehr mit Gaming zu tun.
Die Ampere RTX 3090 Ti FE war meine Letzte Grüne auf lange Sicht.