Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Arc Pro?: Intel soll 24-GB-Grafikkarten mit Battlemage planen
- Ersteller Jan
- Erstellt am
- Zur News: Arc Pro?: Intel soll 24-GB-Grafikkarten mit Battlemage planen
Christian1976B
Lt. Junior Grade
- Registriert
- Juli 2024
- Beiträge
- 378
Warum? Für Leute mit einem 4K Bildschirm, zb. Total War zocken sind doch 24 GB V Ram eine gute Sache.rentex schrieb:@Christian1976B Der war gut😁
Wenn die Karte nur 600 € kostet oder 700 muss man doch keine 1000 € für eine 4080 Super mehr ausgeben.
Da Intel ja bei CPUs total abgehängt worden ist von AMD,vielleicht kriegen sie ja mit Grafikkarten wieder einen Fuß in die Tür.
Doch einfach Auslösung runterschrauben. Es bringt halt nichts wenn selbst in Low Settings und 1080p man 20fps bekommt aber dafür 24GB Speicher hatHate01 schrieb:Umgekehrt geht's auch nicht: Leistung bringt nichts wenn der Speicher ausgeht.
Ergänzung ()
LLMs.
Was hat das hier konkret mit VRAM zu tun?Zensored schrieb:klar, hier:
Multitasking;
mehrere Browser nebst vielen Tabs gleichzeitig offen haben.
Lohnt sich auch wenn man z.B. eine Webseite auf Kompatibilität in den Browsern testen möchte.
Also Chrome, Chromium, Firefox,Zen usw.
Mehrere Instanzen von der genutzten IDE. (zum Programmieren)
DAW offen haben. (Musik erstellen)
Die Sachen kann ich zugegebenermaßen nicht beurteilen, wie wichtig hier dann VRAM ist.Zensored schrieb:Mehrere Instanzen der Texturing Software offen haben.
Software für Animation offen haben.
Software für Modellieren.
Die Game Engine bzw. mehrere Game engine Instanzen gleichzeitig offen haben und die Daten der verschiedenen Programme hin und her schicken.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?Zensored schrieb:Hin und wieder den Webcam Hintergrund blurren sofern die webcam aktiv ist. Solche "AI" sachen nutzen VRAM.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?Zensored schrieb:Intel ARC hat einen Virtual Green Screen bei Nvidia lief das über den Broadcast. Mittlerweile hat OBS das Teil von Nvidia integriert.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?Zensored schrieb:Ein paar VSTs die während man aufnimmt laufen. (Audio plugins zum Live Rauschen entfernen)
Es gibt auch VSTs die auf den GPU Ram zugreifen.
Generell fehlt mir bei deinem Beitrag einfach die Unterscheidung, wo VRAM was bringt und wo GPU-Unterstützung generell etwas bringt.
Hast du Messungen gemacht, wie viel schneller Video-Encoding durch mehr VRAM geht?
Nein kann man nicht. Wenn er voll ist er voll, da bringt Geschwindigkeit nichts, Daten müssen dann über den PCI Express Bus geladen werden, und das ist vergleichsweise Stillstand.rentex schrieb:@Hate01 Kann man aber gut mit schnellem VRAM kompensieren.
Ergänzung ()
Wenn ich bei einer LLM die "Auflösung" runter schraube, ist die AI "dümmer" d.h produziert schlechtere Ergebnisse.paganini schrieb:Doch einfach Auslösung runterschrauben. Es bringt halt nichts wenn selbst in Low Settings und 1080p man 20fps bekommt aber dafür 24GB Speicher hat
Ja darum werde ich auch keine AI in Zukunft brauchen.Der Gewinn bei Full HD ist ja eh sehr gering. Da kann man AI ja auch gleich abschalten.Wenn dann heißt es ja ab wann hat man echten nutzen von mehr Vram,also ab wann fängt es an ein Vorteil davon zu haben.Und naja darum hat sich sowas wie Ai auch bisher nur mehr schlecht als Recht durch gesetzt.Die Breite Masse profitiert jedenfalls noch nicht davon.Darum sind solche GPUS eher Nischen,weil es nur eine bestimmte Zielgruppe ein Nutzen daraus zieht.
Rossie
Rear Admiral
- Registriert
- Dez. 2010
- Beiträge
- 5.145
Bitte? Der Markt lechzt nach entsprechender Hardware. Die Zahlen schießen in den letzten 2 Jahren durch die Decke. Nvidia macht damit um Welten (Faktor 10?) mehr Umsatz, als mit Gaming.latiose88 schrieb:Und naja darum hat sich sowas wie Ai auch bisher nur mehr schlecht als Recht durch gesetzt.
Eine solche Karte mit viel Speicher wäre für viele professionelle Anwender grundsätzlich interessant. Und an die richtet sich dieses Angebot in erster Linie, wie dem Text zu entnehmen ist.
shortex
Commander
- Registriert
- Nov. 2009
- Beiträge
- 2.164
Chismon
Admiral
- Registriert
- Mai 2015
- Beiträge
- 8.653
Nicht ausgeschlossen werden kann, dass hinter den Gerüchten bereits größere Battlemage-Grafikkarten auf Basis der BMG-G31-GPU stecken, deren Existenz Intel bis dato weder bestätigt noch dementiert hat.
Ja, das wird auch von Hardware Unboxed nicht ausgeschlossen, die sich zur Arc B580 äussern (Verfügbarkeit, Preis, etc.) und ob eine Arc B770/750 noch kommen könnte und unter welchen Voraussetzungen (ob sich das für Intel lohnen würde oder nicht).
Wenn nVidia auch in der 60er Serie die Preise ansteigen lassen wird mit den Blackwell Karten (und AMD dann höchstwahrscheinluch mitziehen wird), dann öffnet das evt. auch eine Tür für Intel Battlemage Karten mit größerem Chip zu einem vergleichsweise moderaten/akzeptablen Preis.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
11gb sind bei meiner 1080ti zu wenig für After Effects und ich mach nichts sonderlich anspruchsvolles…wenn Intel es schafft im AE auf RTX Niveau zu performen beim workflow, deutlich günstiger ist und dann 24 GB Ram mitbringt, können die in der Ecke gut Boden machen.
Wenn ich nur meinen Usecase anschaue sind das bis zu 5 Standorte, 15 gpus, minimum wäre momentan die 4060ti@16gb
Wenn ich nur meinen Usecase anschaue sind das bis zu 5 Standorte, 15 gpus, minimum wäre momentan die 4060ti@16gb
Zuletzt bearbeitet:
Zensored
Cadet 3rd Year
- Registriert
- Mai 2007
- Beiträge
- 39
tollertyp schrieb:Was hat das hier konkret mit VRAM zu tun?
Die Sachen kann ich zugegebenermaßen nicht beurteilen, wie wichtig hier dann VRAM ist.
Kannst du zeigen, wie groß hier der Einfluss von VRAM ist?
Generell fehlt mir bei deinem Beitrag einfach die Unterscheidung, wo VRAM was bringt und wo GPU-Unterstützung generell etwas bringt.
Hast du Messungen gemacht, wie viel schneller Video-Encoding durch mehr VRAM geht?
Vram wird benötigt für so ziemlich jedes offene Program das ein Graphisches Interface hat.
Je mehr geöffnet ist, desto mehr wird an vram reserviert und benutzt.
Selbst das zeigen deiner Bildschirme ohne irgendwas weiteres offen zu haben beansprucht bei z.B. 1080p bis zu ~200MB.
Hardware Beschleunigung der Browser verlangt GPU Ressourcen.
Wer Browser, Tabs, Aufwendige Webseiten öffnet oder Videos schaut verbraucht vram
https://help.scoot.app/how-do-i-enable-my-browsers-hardware-acceleration
https://www.reddit.com/r/linux_gami..._normal_for_my_gpu_to_be_using_nearly_2gb_of/
https://forum.blackmagicdesign.com/viewtopic.php?f=21&t=180608
https://www.reddit.com/r/davinciresolve/comments/1026huc/does_gpu_memory_matter_for_resolve/
Nvidia Broadcast verlangt vram
https://forums.tomshardware.com/thr...olution-nvidia-broadcast-is-to-blame.3785124/
VSTs die sich z.B. nvidia broadcast zu nutze machen, brauchen natürlich auch VRAM.
Habe keine Messungen gemacht. Bin vor einigen Jahren auf Resolve Studio gewechselt weil es GPU Beschleunigung hat und bin gut gefahren mit dem möglichst maximalen an RAM das ich mir jeweils leisten konnte.
Ich hoffe das hilft dir etwas weiter.
Wisst ihr, so langsam nerven solche Kommentare einfach.rentex schrieb:24GB für was?
Wenn Intel ne 24GB Karte veröffentlicht, dann wird gemeckert, weil die Karte keine 24GB braucht.
Wenn Nvidia eine 16GB Karte veröffentlicht, dann wird auch gemeckert, weil die Karte keine 24GB hat.
Wenn AMD eine 16GB Karte veröffentlicht, dann wird es einfach nie kommentiert. Warum eigentlich?
Wenn AMD eine 24 Karte veröffentlicht, dann wird sie über alle Maße in den Himmel gelobt und Nvidia wird verteufelt.
Die Sache ist nur... weder die eine, noch die andere Karte brauchen 24GB. Das hat nur offenbar immernoch keiner der hier ständig die selbe Leier kommentierenden verstanden. In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus. Für die Szenarien in denen 16GB nicht mehr ausreichen, und die man wirklich an einer Hand abzählen kann, sind die entsprechenden GPUs mit 16GB (z.B. RTX 4080 oder langsamer) ohnehin zu schwach und da macht es auch keinen Unterschied ob diese Karten dann 16GB, 24GB, 32GB oder 9999 Exabyte and VRAM haben. Es ist einfach vollkommen irrelevant. Dass die 7900 XTX z.B. 24GB hat, ist auch kompletter Unfug für Gaming. Die Karte ist zu schwach, als dass sie überhaupt in realistische Szenarien kommen könnte, in denen 24GB überhaupt erst benötigt werden. Aber ja, ihr spielt ja sicher alle liebend gerne in 4K nativ mit 8xMSAA oder in 8K bei 20 FPS. Welch' tolle Errungenschaft... dafür lohnen sich 24GB allemal. Bravo... ganz klasse, ich bin so begeistert... Ihr merkt es langsam endlich mal selbst, oder?
Es geht hier jetzt natürlich nur um Gaming. Professionelle Anwendungszwecke sind natürlich eine andere Sache. Aber wenn ich mir so die letzten Umfragen ansehe, sind 95% der CB-Leser auf Gaming fokussiert, und da haben wir auch diese 95% wieder.
Fragt euch besser mal, warum AMD nur noch Schrott-Karten veröffentlicht die gegen Nvidia kein Land sehen, und warum Nvidia trotz weniger VRAM schneller ist als AMD Äquivalente, z.B. RTX 4080 gegen 7900XTX.
Der einzige Grund warum Intel und AMD den Weg mit den 24GB gehen ist folgender: Marketing. Es ist nur Marketing... nichts weiter.
Also ich finde das sehr zu begrüßen mit den 24GB. Habe mir gerade extra eine 7900XT gekauft mit 20GB extra wegen LLMs und StableDIffusion. Das dann auch Spiele etwas schneller laufen ist nur ein netter Nebeneffekt. Von mir aus dürfte die Karte auch gerne 48GB oder 96GB haben. In der KI Welt sind 24GB nicht viel aber besser als nichts.
blauescabrio
Lieutenant
- Registriert
- März 2015
- Beiträge
- 688
Bis zu diesem Punkt wollte ich deinem Posting zu 100 Prozent zustimmen. Endlich sagt's mal einer.BDR529 schrieb:Fragt euch besser mal, warum AMD nur noch Schrott-Karten veröffentlicht die gegen Nvidia kein Land sehen, und warum Nvidia trotz weniger VRAM schneller ist als AMD Äquivalente, z.B. RTX 4080 gegen 7900XTX.
Aber an dieser Stelle schreibst du so einen Quatsch, wie du es den Intel-Hassern vorwirfst. RTX 4080 Super und RX 7900 XTX entsprechen zu 99,9 % einander. Von absoluten Ausreißern bei den Spielen mal abgesehen, ist mal die eine und mal die andere Karte schneller. Bei RTX 4070 Super und RX 7800 XT kann ich das sogar aus eigener Erfahrung bestätigen. Vielleicht erklärst du noch mal, warum AMD angeblich nur noch Schrott-Karten veröffentlicht. Gerade von der Rohleistung her schlagen sie preisgleiche Nvidias doch meistens.
Zuletzt bearbeitet:
LuminousVision
Lieutenant
- Registriert
- Mai 2011
- Beiträge
- 1.008
BDR529 schrieb:Der einzige Grund warum Intel und AMD den Weg mit den 24GB gehen ist folgender: Marketing. Es ist nur Marketing... nichts weiter.
Okay, und wo ist jetzt das Problem? Scheinbar wollen die Leute dieses "Marketing''. Warum also macht Nvidia das nicht auch?
BDR529 schrieb:In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus.
«Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC.»
Zensored
Cadet 3rd Year
- Registriert
- Mai 2007
- Beiträge
- 39
Modding..?BDR529 schrieb:In 95% der Fälle brauchen die GPUs keine 24GB, und 16GB reichen mehr als dicke aus. "" die entsprechenden GPUs mit 16GB (z.B. RTX 4080 oder langsamer) ohnehin zu schwach und da macht es auch keinen Unterschied ob diese Karten dann 16GB, 24GB, 32GB oder 9999 Exabyte and VRAM haben. Es ist einfach vollkommen irrelevant.
Die Karte ist zu schwach, als dass sie überhaupt in realistische Szenarien kommen könnte, in denen 24GB überhaupt erst benötigt werden.
Es geht hier jetzt natürlich nur um Gaming.
Es gibt auch schon heute Mods die benötigen eine menge Ressourcen, da wird mal pauschal die RTX 4080 oder eine 7900 XTX, mit 16GBVRAM empfohlen.
https://www.nexusmods.com/cyberpunk2077/mods/13822?tab=posts
Sollte eine Karte "zu schwach sein" kann man immer noch mithilfe von angepassten TdrDelay sowie TdrDdiDelay werten dem Windows sagen; warte etwas länger bis alles geladen ist, das ist kein Crash, lauf weiter.
https://support.nvidia.eu/hc/de/art...iederherstellung-und-Sammeln-von-Dump-Dateien
https://www5.cs.fau.de/conrad/tutor...ime-out-detection-and-recovery-tdr/index.html
https://www.reddit.com/r/nvidia/comments/4y4202/for_those_of_you_having_frame_freezing_or_driver/
Diese Registry Änderung wurde vor 8 Jahren empfohlen für Spieler die z.B. Overwatch, Final Fantasy XIV, Bioshock Infinite spielen.
Modding ist beliebt und eine gern genutzte Möglichkeit um die eigene Grafikkarte auszureizen.
@blauescabrio das liegt daran das AMD öfters abstürzt, Fehler produziert und die Menschen auf herum doktorn keine lust haben. Zudem brauchen AMD gpus mehr Strom als bei nvidia. Da bringt es nix wenn es bei AMD funktioniert und dabei die selbe Leistung haben. Der Rest ist halt auch wichtig. Und in dem Punkt ist halt AMD hinten. Also muss AMD erst mal ihre Probleme lösen. schrieben ja selbst das sie erst mal auf der Software Ebene sich bessern müssen um wieder konkurrenzfähig zu sein. Dann braucht die gpu auch dann weniger wenn sie das im Griff haben. Nichts für ungut. Intel hat ja noch ähnliche Probleme wie AMD. Also Intel arbeitet ja auch an ihren Problemen. Bin echt gespannt wie es in dieser hinsicht weiter gehen wird.
Ja es ist nun mal leider die Wahrheit, um die kommt man nicht drum rum.
Ja es ist nun mal leider die Wahrheit, um die kommt man nicht drum rum.
blauescabrio
Lieutenant
- Registriert
- März 2015
- Beiträge
- 688
Also ich betreue zur Zeit gute 10 Gaming-PCs. Von GTX 1070 über 1080 Ti, RTX 3060, RX 6800 XT geht es bis zur 7800 XT und RTX 4070 Super. Die 7800 hatte am Anfang so starke Probleme, dass ich sie für defekt hielt und an den Händler schickte. Das Problem war damals sehr bekannt und geisterte durch viele Foren. Dann hat AMD die Treiber verbessert, und nun läuft die Karte genauso stabil die 4070 Super. Ich spiele hauptsächlich Mafia 2 DE, The Division 2, Forza Horizon 5, Ratchet and Clank: Rift Apart, Fortnite, RoboCop: Rogue City - und in keinem dieser Spiele habe ich seit einem Jahr einen Absturz erlebt. Wo sollen diese Abstürze denn stattfinden?latiose88 schrieb:das liegt daran das AMD öfters abstürzt, Fehler produziert und die Menschen auf herum doktorn keine lust haben.
Ich habe meine PCs meist an einer Smart-Steckdose stecken und messe den realen Verbauch. Wenn ich zocke, ist es mir ziemlich egal, ob das System gerade 400 oder 500 Watt frisst. Die GPU ist ja nur eine Komponente. Mit der Begründung des Stromverbrauchs dürfte man auch nur 65 Watt-CPUs verwenden, RGB und Overclocking wären tabu. Dafür verwende ich für reines Office und Internet häufig einen Pi5, da ich für derart niedere Computerarbeiten wirklich keinen Gaming-PC anwerfen muss. Jeder, wie er mag. Aber wenn Stromverbrauch beim Gaming eine große Rolle spielt, ist man beim PC wahrscheinlich grundsätzlich falsch und sollte sich lieber nach einer Konsole umschauen.latiose88 schrieb:Zudem brauchen AMD gpus mehr Strom als bei nvidia.
Ergänzung ()
"Ein Internet-Browser ist nur ein unbedeutendes Stück Software."LuminousVision schrieb:«Niemand braucht mehr als 640 Kilobyte Arbeitsspeicher in seinem PC.»
Ähnliche Themen
- Antworten
- 61
- Aufrufe
- 9.445