News Arc Pro?: Intel soll 24-GB-Grafikkarten mit Battlemage planen

BDR529 schrieb:
Es geht hier jetzt natürlich nur um Gaming. Professionelle Anwendungszwecke sind natürlich eine andere Sache. Aber wenn ich mir so die letzten Umfragen ansehe, sind 95% der CB-Leser auf Gaming fokussiert, und da haben wir auch diese 95% wieder.
Sicherlich sind hier viele Gamer unterwegs und haben ihren Fokus (ausschließlich?) darauf. Mir leuchtet allerdings trotzdem nicht ein, warum man eine Karte, die explizit an Nicht-Gamer adressiert ist und deswegen eine andere Ausstattung mitbringt als dort üblich, dafür kritisiert und irrige Schlüsse zieht. Das Gaming-Pendant (mit 12 GB) wurde doch schon von Computerbase getestet? Für andere Szenarien bedarf es eben mehr RAM. So what?
 
  • Gefällt mir
Reaktionen: Nahkampfschaf und Teropet
@blauescabrio ALso man kann auch sparsam zocken,das sieht man ja bei mir.
Ich hatte mal 4k gehabt und bin wieder auf Full HD gewechselt.Seid dem ist der bedarf an GPU Leistung massiv gesunken.Und ich bin zufrieden mit Full HD.Ich habe und werde auch kein RT benutzen.Damit komme ich gut zurecht. Auch das ich mit einer 75 Watt GPU zocke ist wohl kein Standard.Ich habe auch vor meine nächste GPU mit 75 Watt zu betreiben.Also wähl man gleich eine GPU aus die sparsam ist.Sollte das 75 Watt ziel damit noch immer nicht erreicht sein,dann wird noch extra gedrosselt.Und weil ich momentan so wenig Leistung brauche habe ich die 75 Watt GPU sogar noch extra gedrosselt.Damit bin ich gewiss bei rund 40-50 Watt angekommen.Und wenn man zudem noch alte Games zockt,dann kommt man sogar noch weiter runter.
Ich habe auch noch eine 50 Watt GPU wie die gtx 750 ti.Bis auf ein Game packt die alles was ich habe.
Ich bin sogar so auf Sparsammkeit gewesen ,das ich sogar überlegt hatte die gtx 750 ti auf gt 1030 zu wechseln.Aber ich habe es nicht getan weil ich da nur 20 Watt einsparen würde.
Zudem war sie damals sau teuer gewesen.
Und bei meinem Kumpel der seinen PC bei mir hatte wurde sogar wegen Stromsparen von rtx 2080 ti auf rtx 3050 getauscht.Damit Strom eingespart wird.Die rtx 2080 ti wurde verkauft.
Und ich sehe momentan geht es in die andere Richtung.Die GPUS brauchen immer mehr Strom,anstatt weniger.

Also wenn ich nun interesse an wenig Strom hätte,würde die rtx 4060 sogar noch extra Gedrosselt werden müssen um sparsamer zu werden.Wirklich viel Leistung käme aber dabei nicht raus.Wobei die RTX 4060 mit 75 Watt so schnell wäre wie die rtx 3050 mit 120 oder waren es 130 Watt.
Aber sie ist teuer und ob sich das lohnt,das bezweifle ich doch stark.

Und ja sowas macht wirklich kein richtiger Gamer.
Oder mit Workstation PC mit einer rtx 3050 6 gb 75 Watt GPU kombinieren.Jap sowas mache ich. Aber nur weil ich die CPU Leistung wirklich brauche.Gut bei reiner Zocker kiste wird wohl ein 6-8 kerner locker reichen.
ABer das würde bedeuten den ganzen untersatz zu tauschen,nur um etwas Strom zu sparen.
So Verrückt bin ich dann doch nicht und Geld ist ja nur begrenzt vorhanden,darum gut überlegen was ich wie mache.
 
shortex schrieb:
Läuft auch locker mit 16GB. Belegter Vram heißt NICHT benötigter Vram!
Ergänzung ()

latiose88 schrieb:
Ich hatte mal 4k gehabt und bin wieder auf Full HD gewechselt.
So ein deutliches downgrade würde ich nie machen. Aber gut, ich bin auch Gamer. Du ja anscheinend nicht so wirklich wenn in den restlichen Post so durchlese :)
 
  • Gefällt mir
Reaktionen: Haldi und latiose88
jap so ist es.Nun es heißt ja nicht das es für immer so bleiben wird.Im moment sieht es nicht danach aus das es sich ändern wird.Kann sich ja in einigen Jahren vielleicht noch ändern.Auch wenn ich 2013 mal ein richtiger Gamer war.Das ist halt einfach zu lange her.Das ist ja ne sehr lange Zeit kann man so sagen.Selbst wenn es bei mir mal die Anforderungen in den nächsten Jahren steigen würde,kann ich noch lange nicht zu einem richtigen Zocker wie es ihr so seid mich bezeichnen. Zumindest würde ich dann aber wirklich mehr Leistung benötigen als ich zurzeit zur Verfügung habe.

Bis es so weit ist,wird es noch dauern.Sollte ich mich da nicht auskennen,brauche ich ja eh nur wen von euch zu Fragen.Das ist also kein Thema.
 
Es geht mit der Technik halt nur 24 statt 12GB. Und 12GB sind eben heute an der unteren Grenze. Dementsprechend finde ich es absolut vorbildlich, dass Intel dann die 24GB-Version bringt. 16GB würde ja dann 2/3 Bandbreite heißen. Das wäre kontraproduktiv. Ich bin auf den Aufpreis gespannt. Dann wissen wir mal, was VRAM wirklich kostet, denn Intel wird über den Preis kommen, also wahrscheinlich die Kosten nahezu 1:1 weitergeben.
 
lWllMl schrieb:
3er slot_breite und dann nur 1x4 anschlüsse?
Punkt eins: Das Bild im Artikel bezieht sich auf die normale B580, die gerüchteweise "Pro" gibt es nicht. Und da es eben auch bisher nur Gerüchte sind, wird es auch kein Bild von Intel geben.
Punkt zwei: Es ist ein 2-Slot-Design, wird klar, wenn man sich die B580 anschaut.
Punkt drei: Anschlüsse kann man nicht beliebig an eine GPU schrauben, dafür muss die GPU ausgelegt sein. Mit einen Chip der möglicherweise nicht einmal der Stärkste sein soll, wenn B770 auch noch kommen sollte, wird da höchstwahrscheinlich nicht mehr drin sein. Am Ende sprechen wir von einer GPU, die eher im Einsteigersegment platziert ist und mit größeren VRAM eben Kapazitäten für diverse Compute-Anwendungen besitzt. Mehr Anschlüsse in der Klasse wäre die Nische von der Nische und würde die GPU selbst teurer und größer machen für einen Bruchteil der abgesetzten Nutzer dieser GPU.

BTT:
Wenn die Karte so kommt und nicht allzu viel mehr kostet, könnte ich tatsächlich mal wieder was von Intel vorstellen. Wäre was für ein Nebensystem für KI-Kram. Mehr als 16GB sind ja sonst nur schwer zu bekommen, die dann auch in mein ITX-Gehäuse passen. AMD fällt da komplett flach, da wäre eine 7600XT das höchste der Gefühle. "Standard RTX" wäre eben auch nur max eine 4070 Ti Super drin, bleiben nur noch sowas wie eine RTX4000 als "Einstieg" für über 1300€ mit 20GB.
Also sollte eine B580 "Pro" in exakt 2-Slot-Design (nicht drüber beim Kühler) und auch in Länge und Höhe es nicht übertreiben, könnte ich es mir durchaus vorstellen. Dann muss es allerdings auch noch Softwareseitig passen und unter Linux gut laufen. Schön, wenn man dann noch die TDP runterschrauben könnte.
 
Zurück
Oben