News Arc Pro?: Intel soll 24-GB-Grafikkarten mit Battlemage planen

@Hate01 Kann man aber gut mit schnellem VRAM kompensieren.
 
rentex schrieb:
Warum? Für Leute mit einem 4K Bildschirm, zb. Total War zocken sind doch 24 GB V Ram eine gute Sache.

Wenn die Karte nur 600 € kostet oder 700 muss man doch keine 1000 € für eine 4080 Super mehr ausgeben.

Da Intel ja bei CPUs total abgehängt worden ist von AMD,vielleicht kriegen sie ja mit Grafikkarten wieder einen Fuß in die Tür.
 
Hate01 schrieb:
Umgekehrt geht's auch nicht: Leistung bringt nichts wenn der Speicher ausgeht.
Ergänzung ()


LLMs.
Doch einfach Auslösung runterschrauben. Es bringt halt nichts wenn selbst in Low Settings und 1080p man 20fps bekommt aber dafür 24GB Speicher hat
 
Zensored schrieb:
:) klar, hier:
Multitasking;

mehrere Browser nebst vielen Tabs gleichzeitig offen haben.
Lohnt sich auch wenn man z.B. eine Webseite auf Kompatibilität in den Browsern testen möchte.
Also Chrome, Chromium, Firefox,Zen usw.
Mehrere Instanzen von der genutzten IDE. (zum Programmieren)
DAW offen haben. (Musik erstellen)
Was hat das hier konkret mit VRAM zu tun?
Zensored schrieb:
Mehrere Instanzen der Texturing Software offen haben.
Software für Animation offen haben.
Software für Modellieren.
Die Game Engine bzw. mehrere Game engine Instanzen gleichzeitig offen haben und die Daten der verschiedenen Programme hin und her schicken.
Die Sachen kann ich zugegebenermaßen nicht beurteilen, wie wichtig hier dann VRAM ist.

Zensored schrieb:
Hin und wieder den Webcam Hintergrund blurren sofern die webcam aktiv ist. Solche "AI" sachen nutzen VRAM.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?

Zensored schrieb:
Intel ARC hat einen Virtual Green Screen bei Nvidia lief das über den Broadcast. Mittlerweile hat OBS das Teil von Nvidia integriert.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?

Zensored schrieb:
Ein paar VSTs die während man aufnimmt laufen. (Audio plugins zum Live Rauschen entfernen)
Es gibt auch VSTs die auf den GPU Ram zugreifen.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?

Generell fehlt mir bei deinem Beitrag einfach die Unterscheidung, wo VRAM was bringt und wo GPU-Unterstützung generell etwas bringt.
Hast du Messungen gemacht, wie viel schneller Video-Encoding durch mehr VRAM geht?
 
Die Arc Pro 24Gb ist nicht für Spieler gedacht, eher für LLM, KI Gedöns usw. Wird spannend wieviel intel dafür aufruft, es wären ja wenn man von einer regülären Arc B580 LE 12Gb ausgeht 5-600$ möglich.
 
rentex schrieb:
@Hate01 Kann man aber gut mit schnellem VRAM kompensieren.
Nein kann man nicht. Wenn er voll ist er voll, da bringt Geschwindigkeit nichts, Daten müssen dann über den PCI Express Bus geladen werden, und das ist vergleichsweise Stillstand.
Ergänzung ()

paganini schrieb:
Doch einfach Auslösung runterschrauben. Es bringt halt nichts wenn selbst in Low Settings und 1080p man 20fps bekommt aber dafür 24GB Speicher hat
Wenn ich bei einer LLM die "Auflösung" runter schraube, ist die AI "dümmer" d.h produziert schlechtere Ergebnisse.
 
Ja darum werde ich auch keine AI in Zukunft brauchen.Der Gewinn bei Full HD ist ja eh sehr gering. Da kann man AI ja auch gleich abschalten.Wenn dann heißt es ja ab wann hat man echten nutzen von mehr Vram,also ab wann fängt es an ein Vorteil davon zu haben.Und naja darum hat sich sowas wie Ai auch bisher nur mehr schlecht als Recht durch gesetzt.Die Breite Masse profitiert jedenfalls noch nicht davon.Darum sind solche GPUS eher Nischen,weil es nur eine bestimmte Zielgruppe ein Nutzen daraus zieht.
 
latiose88 schrieb:
Und naja darum hat sich sowas wie Ai auch bisher nur mehr schlecht als Recht durch gesetzt.
Bitte? Der Markt lechzt nach entsprechender Hardware. Die Zahlen schießen in den letzten 2 Jahren durch die Decke. Nvidia macht damit um Welten (Faktor 10?) mehr Umsatz, als mit Gaming.

Eine solche Karte mit viel Speicher wäre für viele professionelle Anwender grundsätzlich interessant. Und an die richtet sich dieses Angebot in erster Linie, wie dem Text zu entnehmen ist.
 
  • Gefällt mir
Reaktionen: konkretor, Teropet, Nekkepenn und eine weitere Person
rentex schrieb:
:> !
Diablo z.b

grabilla.h25704.png
 
Nicht ausgeschlossen werden kann, dass hinter den Gerüchten bereits größere Battlemage-Grafikkarten auf Basis der BMG-G31-GPU stecken, deren Existenz Intel bis dato weder bestätigt noch dementiert hat.

Ja, das wird auch von Hardware Unboxed nicht ausgeschlossen, die sich zur Arc B580 äussern (Verfügbarkeit, Preis, etc.) und ob eine Arc B770/750 noch kommen könnte und unter welchen Voraussetzungen (ob sich das für Intel lohnen würde oder nicht).

Wenn nVidia auch in der 60er Serie die Preise ansteigen lassen wird mit den Blackwell Karten (und AMD dann höchstwahrscheinluch mitziehen wird), dann öffnet das evt. auch eine Tür für Intel Battlemage Karten mit größerem Chip zu einem vergleichsweise moderaten/akzeptablen Preis.

 
11gb sind bei meiner 1080ti zu wenig für After Effects und ich mach nichts sonderlich anspruchsvolles…wenn Intel es schafft im AE auf RTX Niveau zu performen beim workflow, deutlich günstiger ist und dann 24 GB Ram mitbringt, können die in der Ecke gut Boden machen.

Wenn ich nur meinen Usecase anschaue sind das bis zu 5 Standorte, 15 gpus, minimum wäre momentan die 4060ti@16gb
 
Zuletzt bearbeitet:
tollertyp schrieb:
Was hat das hier konkret mit VRAM zu tun?

Die Sachen kann ich zugegebenermaßen nicht beurteilen, wie wichtig hier dann VRAM ist.


Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?

Generell fehlt mir bei deinem Beitrag einfach die Unterscheidung, wo VRAM was bringt und wo GPU-Unterstützung generell etwas bringt.
Hast du Messungen gemacht, wie viel schneller Video-Encoding durch mehr VRAM geht?

Vram wird benötigt für so ziemlich jedes offene Program das ein Graphisches Interface hat.
Je mehr geöffnet ist, desto mehr wird an vram reserviert und benutzt.

Selbst das zeigen deiner Bildschirme ohne irgendwas weiteres offen zu haben beansprucht bei z.B. 1080p bis zu ~200MB.

Hardware Beschleunigung der Browser verlangt GPU Ressourcen.
Wer Browser, Tabs, Aufwendige Webseiten öffnet oder Videos schaut verbraucht vram
https://help.scoot.app/how-do-i-enable-my-browsers-hardware-acceleration

https://www.reddit.com/r/linux_gami..._normal_for_my_gpu_to_be_using_nearly_2gb_of/

https://forum.blackmagicdesign.com/viewtopic.php?f=21&t=180608
https://www.reddit.com/r/davinciresolve/comments/1026huc/does_gpu_memory_matter_for_resolve/

Nvidia Broadcast verlangt vram

https://forums.tomshardware.com/thr...olution-nvidia-broadcast-is-to-blame.3785124/

VSTs die sich z.B. nvidia broadcast zu nutze machen, brauchen natürlich auch VRAM.

Habe keine Messungen gemacht. Bin vor einigen Jahren auf Resolve Studio gewechselt weil es GPU Beschleunigung hat und bin gut gefahren mit dem möglichst maximalen an RAM das ich mir jeweils leisten konnte.
Ich hoffe das hilft dir etwas weiter.
 
  • Gefällt mir
Reaktionen: Teropet
rentex schrieb:
Wisst ihr, so langsam nerven solche Kommentare einfach.

Wenn Intel ne 24GB Karte veröffentlicht, dann wird gemeckert, weil die Karte keine 24GB braucht.

Wenn Nvidia eine 16GB Karte veröffentlicht, dann wird auch gemeckert, weil die Karte keine 24GB hat.

Wenn AMD eine 16GB Karte veröffentlicht, dann wird es einfach nie kommentiert. Warum eigentlich?
Wenn AMD eine 24 Karte veröffentlicht, dann wird sie über alle Maße in den Himmel gelobt und Nvidia wird verteufelt.

Die Sache ist nur... weder die eine, noch die andere Karte brauchen 24GB. Das hat nur offenbar immernoch keiner der hier ständig die selbe Leier kommentierenden verstanden. In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus. Für die Szenarien in denen 16GB nicht mehr ausreichen, und die man wirklich an einer Hand abzählen kann, sind die entsprechenden GPUs mit 16GB (z.B. RTX 4080 oder langsamer) ohnehin zu schwach und da macht es auch keinen Unterschied ob diese Karten dann 16GB, 24GB, 32GB oder 9999 Exabyte and VRAM haben. Es ist einfach vollkommen irrelevant. Dass die 7900 XTX z.B. 24GB hat, ist auch kompletter Unfug für Gaming. Die Karte ist zu schwach, als dass sie überhaupt in realistische Szenarien kommen könnte, in denen 24GB überhaupt erst benötigt werden. Aber ja, ihr spielt ja sicher alle liebend gerne in 4K nativ mit 8xMSAA oder in 8K bei 20 FPS. Welch' tolle Errungenschaft... dafür lohnen sich 24GB allemal. Bravo... ganz klasse, ich bin so begeistert... Ihr merkt es langsam endlich mal selbst, oder?

Es geht hier jetzt natürlich nur um Gaming. Professionelle Anwendungszwecke sind natürlich eine andere Sache. Aber wenn ich mir so die letzten Umfragen ansehe, sind 95% der CB-Leser auf Gaming fokussiert, und da haben wir auch diese 95% wieder.

Fragt euch besser mal, warum AMD nur noch Schrott-Karten veröffentlicht die gegen Nvidia kein Land sehen, und warum Nvidia trotz weniger VRAM schneller ist als AMD Äquivalente, z.B. RTX 4080 gegen 7900XTX.

Der einzige Grund warum Intel und AMD den Weg mit den 24GB gehen ist folgender: Marketing. Es ist nur Marketing... nichts weiter.
 
  • Gefällt mir
Reaktionen: Nahkampfschaf, Sinatra81 und thuering
Also ich finde das sehr zu begrüßen mit den 24GB. Habe mir gerade extra eine 7900XT gekauft mit 20GB extra wegen LLMs und StableDIffusion. Das dann auch Spiele etwas schneller laufen ist nur ein netter Nebeneffekt. Von mir aus dürfte die Karte auch gerne 48GB oder 96GB haben. In der KI Welt sind 24GB nicht viel aber besser als nichts.
 
  • Gefällt mir
Reaktionen: Teropet, konkretor und dms
BDR529 schrieb:
Fragt euch besser mal, warum AMD nur noch Schrott-Karten veröffentlicht die gegen Nvidia kein Land sehen, und warum Nvidia trotz weniger VRAM schneller ist als AMD Äquivalente, z.B. RTX 4080 gegen 7900XTX.
Bis zu diesem Punkt wollte ich deinem Posting zu 100 Prozent zustimmen. Endlich sagt's mal einer.

Aber an dieser Stelle schreibst du so einen Quatsch, wie du es den Intel-Hassern vorwirfst. RTX 4080 Super und RX 7900 XTX entsprechen zu 99,9 % einander. Von absoluten Ausreißern bei den Spielen mal abgesehen, ist mal die eine und mal die andere Karte schneller. Bei RTX 4070 Super und RX 7800 XT kann ich das sogar aus eigener Erfahrung bestätigen. Vielleicht erklärst du noch mal, warum AMD angeblich nur noch Schrott-Karten veröffentlicht. Gerade von der Rohleistung her schlagen sie preisgleiche Nvidias doch meistens.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eSportWarrior, muvmend und RedDragon83
BDR529 schrieb:
Der einzige Grund warum Intel und AMD den Weg mit den 24GB gehen ist folgender: Marketing. Es ist nur Marketing... nichts weiter.

Okay, und wo ist jetzt das Problem? Scheinbar wollen die Leute dieses "Marketing''. Warum also macht Nvidia das nicht auch?

BDR529 schrieb:
In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus.

«Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC.»
 
  • Gefällt mir
Reaktionen: blauescabrio und RedDragon83
3er slot_breite und dann nur 1x4 anschlüsse? tz

  • 4x hdmi
  • 4x displayports
  • 4x ???

wieso wird der space so schlecht ausgenutzt -.-

VllT peilt intel es ja !!!
 
BDR529 schrieb:
In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus. "" die entsprechenden GPUs mit 16GB (z.B. RTX 4080 oder langsamer) ohnehin zu schwach und da macht es auch keinen Unterschied ob diese Karten dann 16GB, 24GB, 32GB oder 9999 Exabyte and VRAM haben. Es ist einfach vollkommen irrelevant.
Die Karte ist zu schwach, als dass sie überhaupt in realistische Szenarien kommen könnte, in denen 24GB überhaupt erst benötigt werden.
Es geht hier jetzt natürlich nur um Gaming.
Modding..?
Es gibt auch schon heute Mods die benötigen eine menge Ressourcen, da wird mal pauschal die RTX 4080 oder eine 7900 XTX, mit 16GBVRAM empfohlen.
https://www.nexusmods.com/cyberpunk2077/mods/13822?tab=posts

Sollte eine Karte "zu schwach sein" kann man immer noch mithilfe von angepassten TdrDelay sowie TdrDdiDelay werten dem Windows sagen; warte etwas länger bis alles geladen ist, das ist kein Crash, lauf weiter.

https://support.nvidia.eu/hc/de/art...iederherstellung-und-Sammeln-von-Dump-Dateien

https://www5.cs.fau.de/conrad/tutor...ime-out-detection-and-recovery-tdr/index.html

https://www.reddit.com/r/nvidia/comments/4y4202/for_those_of_you_having_frame_freezing_or_driver/

Diese Registry Änderung wurde vor 8 Jahren empfohlen für Spieler die z.B. Overwatch, Final Fantasy XIV, Bioshock Infinite spielen.

Modding ist beliebt und eine gern genutzte Möglichkeit um die eigene Grafikkarte auszureizen.
 
@blauescabrio das liegt daran das AMD öfters abstürzt, Fehler produziert und die Menschen auf herum doktorn keine lust haben. Zudem brauchen AMD gpus mehr Strom als bei nvidia. Da bringt es nix wenn es bei AMD funktioniert und dabei die selbe Leistung haben. Der Rest ist halt auch wichtig. Und in dem Punkt ist halt AMD hinten. Also muss AMD erst mal ihre Probleme lösen. schrieben ja selbst das sie erst mal auf der Software Ebene sich bessern müssen um wieder konkurrenzfähig zu sein. Dann braucht die gpu auch dann weniger wenn sie das im Griff haben. Nichts für ungut. Intel hat ja noch ähnliche Probleme wie AMD. Also Intel arbeitet ja auch an ihren Problemen. Bin echt gespannt wie es in dieser hinsicht weiter gehen wird.
Ja es ist nun mal leider die Wahrheit, um die kommt man nicht drum rum.
 
latiose88 schrieb:
das liegt daran das AMD öfters abstürzt, Fehler produziert und die Menschen auf herum doktorn keine lust haben.
Also ich betreue zur Zeit gute 10 Gaming-PCs. Von GTX 1070 über 1080 Ti, RTX 3060, RX 6800 XT geht es bis zur 7800 XT und RTX 4070 Super. Die 7800 hatte am Anfang so starke Probleme, dass ich sie für defekt hielt und an den Händler schickte. Das Problem war damals sehr bekannt und geisterte durch viele Foren. Dann hat AMD die Treiber verbessert, und nun läuft die Karte genauso stabil die 4070 Super. Ich spiele hauptsächlich Mafia 2 DE, The Division 2, Forza Horizon 5, Ratchet and Clank: Rift Apart, Fortnite, RoboCop: Rogue City - und in keinem dieser Spiele habe ich seit einem Jahr einen Absturz erlebt. Wo sollen diese Abstürze denn stattfinden?

latiose88 schrieb:
Zudem brauchen AMD gpus mehr Strom als bei nvidia.
Ich habe meine PCs meist an einer Smart-Steckdose stecken und messe den realen Verbauch. Wenn ich zocke, ist es mir ziemlich egal, ob das System gerade 400 oder 500 Watt frisst. Die GPU ist ja nur eine Komponente. Mit der Begründung des Stromverbrauchs dürfte man auch nur 65 Watt-CPUs verwenden, RGB und Overclocking wären tabu. Dafür verwende ich für reines Office und Internet häufig einen Pi5, da ich für derart niedere Computerarbeiten wirklich keinen Gaming-PC anwerfen muss. Jeder, wie er mag. Aber wenn Stromverbrauch beim Gaming eine große Rolle spielt, ist man beim PC wahrscheinlich grundsätzlich falsch und sollte sich lieber nach einer Konsole umschauen.
Ergänzung ()

LuminousVision schrieb:
«Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC.»
"Ein Internet-Browser ist nur ein unbedeutendes Stück Software."
 
Zurück
Oben