News CB-Funk-Podcast #84: Jetzt noch eine Grafikkarte kaufen? Das ist unsere Meinung.

Das Gespräch über die Monitore hat mir gefallen. Für mich ist es UWQHD geworden und Immersion und Gameplay sind großartig. Schade das keine Benchmarks in 3440x1440 gemacht werden.
 
  • Gefällt mir
Reaktionen: feris, fatalis, justFlow und eine weitere Person
Tja normale härte, würde ich mal sagen, aber nächster Woche stehen die Nikoläuse beim Discountern wieder im Regal, was das Weihnachtsgeschäft einläutet, ab da an, bis Februar wird die Technik wieder Teurer.
 
  • Gefällt mir
Reaktionen: Chocobo
Mich enttäuscht vor allem dass die 5080 mit "nur" 16 GB kommen soll.. wenn es denn stimmt. Naja Nvidia bleibt sich treu und geizt am Speicher.
5080 war für mich die nächste angepeilte Graka.
 
5080 - 16 GB
5090 - 32 GB
??
Klingt nicht wirklich realistisch.
Aber nVidia trau ich es zu.

Die 5090 kommt bestimmt > 2500 €

Für mich absolut unattraktiv.

Fahre selbst noch mit einer RX 6800 ganz gut.
Hab mir günstig eine Ersatzkarte (gleiches Modell) besorgt.

So hab ich die nächsten Jahre Ruhe.

Für die Spiele die ich besitze vollkommen ausreichend.
 
  • Gefällt mir
Reaktionen: justFlow
Askat86 schrieb:
Wie viele andere bin ich mit meiner 6900XT eigentlich noch gut ausgerüstet, aber ich hätte gerne ähnliche oder ein bisschen mehr Leistung für deutlich weniger Verbrauch. Ne schön effiziente 8800 würde mir schmecken. Vom Geld her mach ich da nur Verlust, aber ich fühl mich weniger schuldig, wenn die GPU immer nur für Youtube und Browsen herhalten muss.
Auch ich fühle mich mit meiner 6900XT eigentlich überhaupt nicht unter Zugzwang à la "jetzt noch kaufen", zudem ist die Karte leicht heruntergesetzt bzgl. Takt und Spannung, was den Alltagsverbrauch im Multimonitorbetrieb zügelt.
Irgendwie muss es ja auch einen Vorteil haben, wenn frau / man / HundKatzeMaus zu alt ist, um aktuelle FPS-Monster spielen zu können, und bei einem Civ6-Spiel nach 6 Stunden bestenfalls der Stromverbrauch der CPU gegen 100W geht, die GPU bei ihrem 70/80W (@144FPS @maxedDetails @UWQHD) bleibt.

Aber für Leute, die AAA spielen, war es ein nicht nur unterhaltsamer, sondern vielleicht aus ausblickender Podcast!? :)
 
eigentlich muss man nur warten wenn man keine high end will die kommen eh erst sommer 25. aber jetzt noch 4090 latzen. nope
 
  • Gefällt mir
Reaktionen: justFlow
Ich bin momentan von der langlebigkeit der hardware doch angetan. meine 2070 hat mich 5 Jahre begleitet und ihren Job super gemacht.

Von der 4080Super die ich jetzt habe erhoffe ich mir ähnliches.

NVIDIA macht sein Geld zur Zeit in den Datacenters. Die Fortschritte in der Fertigungstechnik haben massiv abgenommen weil man immer mehr gegen physikalische Wände läuft und Aufwand vs. Nutzen immer geringer wird für jeden Fortschritt.

Zudem gibt es faktisch nur noch einen Fertiger der solche Chips kann und dessen Kapazitäten sind begrenzt und da kommen erstmal die mit höhrer marge dran. Das Endkundensegment ist immer noch Preissensitiv. Jedenfalls gegenüber dem professionellem Segment.

Das merkt man auch in der ganzen PC Industrie. Die leute wollen zwar aber es gibt kaum merkliche Gründe aufzurüsten außer Defekten. Die Konsolen kommen auch technisch nicht voran und stellen meistens den kleinsten gemeinsamen Nenner in der Spieleentwicklung dar.

Und jetzt kommt noch die allgemeine wirtschaftliche Lage hinzu wo Basics (Lebensmittel Wohnen) viel mehr vom Einkommen auffressen und für Luxusartikel/Hobbies weniger über bleibt.

Ich glaube wir sehen einem starken abflachen der Entwicklung entgegen und werde ne weile mit der Performance leben müssen die wir haben.

Es muss halt auch Spiele geben die das Nutzen und der Aufwand für diese spiele ist enorm geworden. Und viele Publisher schlagen sich momentan mit einem Flop nach dem nächsten rum.
 
Inxession schrieb:
Die 5090 kommt bestimmt > 2500 €

Ich hab zu Krisenzeiten meine RTX 3070 (non Ti) für ich glaube weit über 1.000 Euro gekauft. Genau weiß ich es nicht mehr weil mein Verstand mich vor dieser Erinnerung beschützt :freak:
So im P/L-Verhältnis betrachtet, erscheinen mir die 2.500 Flocken für eine RTX 5090 ja schon gerade zu billig :daumen:
 
  • Gefällt mir
Reaktionen: Inxession
War ein sehr informativer Podcast.

Ich halte es da so wie Jan: Hardware wird erst entsorgt, wenn die defekt ist. Deswegen habe ich ja noch einen i5-2400 mit einer GT 1030 im Einsatz bzw. bei meiner Mutter und meinem Bruder einen i5-3570 mit einer HD 7950. Für meine Nutzung, bestehend aus Surfen, Kommentare schreiben, Genshin Impact und Palworld spielen (C&C muss ich auch mal wieder spielen) reicht die Hardware halt noch vollkommen. Da sehe ich es auch nicht ein, die einfach zu entsorgen. Zumal ich den i5-2400 eh vorm Müll gerettet hatte. Das ist nämlich ein DELL Desktop aus der Firma, der nur des Alters wegen entsorgt werden sollte. RAM Modul steckte nicht richtig und HDD fehlte absichtlich. Also gefragt und das OK bekommen den mitzunehmen. Mein vorheriger Core 2 Duo E6700 war auch ein Fujitsu M450 und war auch von der Firma, weil der entsorgt werden sollte. Davor hatte ich meinen selbst zusammen gebauten P4 gehabt.

Was den Monitor angeht: An die Marke der Röhre erinnere ich mich nicht mehr, aber mein erster flacher war ein DELL 2412M (24 Zoll 1920 x 1200). Der werkelt inzwischen bei meiner Mutter. Ich habe von meinem Bruder von der Arbeit, als deren Büro dicht gemacht wurde, ebenfalls 2 DELL (P2417 oder so) bekommen. Bei meiner Mutter habe ich selber auch einen 27 Zoll DELL inzwischen. Davor war es dort ein Samsung. DELL ist bei den Monitoren aber durchaus gut und Preiswert. Der DELL UltraSharp 2412M wurde mir damals hier im Forum empfohlen. Auf der Arbeit haben wir auch DELL. Sind halt auch solide Geräte. Ich brauche persönlich keine Gaming Monitore, weil mir die Office DELLs sehr gut reichen. Würde mir so auch eher wieder DELL kaufen, bevor ich mir wieder einen Samsung hole. Der Samsung war nämlich kurz nach Garantie defekt.

Was die GPUs und dessen Auflösung angeht: Ich kann die Aussage verstehen, aber für mich persönlich werde ich erst mal bei Full HD und schwacher GPU bleiben. Das reicht mir und mein DELL Desktop kann eh nur Low Profile und ohne extra Stromstecker. DELL ist sogar nur auf 25W limitiert auf dem PCIe Slot (steht so in der Anleitung). Zukünftig würde ich es aber auch weiterhin so handhaben, dass ich eine GPU ohne extra Stromstecker will. Dann verbraucht mein System auch weniger Strom. Und in der fernen Zukunft komme ich ja eventuell sogar mit nur einer iGPU aus. Daher begrüe ich alle Entwicklungen in der iGPU Sparte.
 
Habe mir vor 3 Wochen eine gebrauchte 7800XT gekauft um die 6600XT abzulösen. Preis war gut, der Leistungssprung deutlich spürbar, ich bin mehr als zufrieden.
 
Mir hat leider einiges in diesem Podcast gefehlt an Perspektiven und ich kann daher auch einen Teil der Einschätzungen/Meinungen nicht teilen, vor allen Dingen den Abgesang auf Full HD.

Für das Hochfrequenz-Gaming (First Person Shooter, Rennspiele, usw.) wird man mit 4K/UHD und auch WQHD oft schon ziemlich alt/schlecht aussehen, weil die Grafikkarten (auch eine RTX 4090) die nötigen fps in bspw. kompetitvem Gaming oft nicht (einmal ansatzweise) leisten können.

Ja, Grafik ist nicht nur "frames per second" und flüssige Darstellung aber eben (für nicht wenige) auch und wenn ich vor der Wahl stehe ob ausreichend fps und flüssiges Spiel oder Unreal Engine 5 (Lumen/Nanite-)Showeffekte mit stotterndem Gameplay, dann bin ich ganz klar bei ersterer Vorgehensweise (die viele Spielentwickler leider mittlerweile nicht mehr genügend berücksichtigen).

Dazu kommt der deultich höhere Energieverbrauch mit steigender Auflösung, der auf dem Desktop vielleicht noch gerne ignoriert wird, aber auf dem (Gaming/Content Creator) Notebook eben auf Kosten der Akkulaufzeit und Mobilität geht und gibt es meist Full HD (+) Display ab 120 Hz oder mit großenm Aufpreis dunkle 4K/OLED Displays, so dass es da auch sicherlich Präferenzen und eine Existenzberechtigung für beide Optionen gibt und ein Abgesang auf die Full HD Auflösung da m.E. auch eher fehl am Platze ist.

Dann kommen wir zu meinem aktuellen "Lieblingsthema", dem Grafikkartenspeicher bei mobilen Grafikkarten und welchen Modellen man denn auf dem Notebook und den maximal 18" Displays (also immer noch relativ klein) mit Raytracing und in 4K/UHD am liebsten spielen soll.

Dafür reicht eine mobile RTX 4090 mit 16GB (also eine heruntergetaktete Desktop RTX 4080 mit 16GB) aber auch nur noch sehr eingeschränkt, wenn man immer von Höchstauflösungen ausgeht und die meisten mobilen 8GB Grafikkarten (besonders von nVidia, die z.T. auch noch viel zu teuer angesetzt sind, siehe mobile RTX 4070) verhungern im Notebook am bewusst unterdimensionierten, nicht mehr zeitgemäßem Speicher schon in Full HD Auflösung teilweise.

Was die Empfehlungen zu den vermutlich noch einmal deutlich teureren, kommenden Blackwell Grafikkarten (evt. wird die im Vergleich zur 90er Serie dann noch schwächere 70er Serie dann schon zwischen 800 und 1000 Euro kosten und vielleicht auch daran per Leistungsklasse angepasst/orientierend RDNA4 Grafikkarten von AMD) angeht, so denke ich, dass sich da noch einige wünschen dürften im Nachinein - solange es die Karten noch zu relativ anständigen Preisen im Handel gab - nicht zugegriffen zu haben (die RX 6800 dürfte da ein sehr gutes Beispiel sein, aber evt. wird das auch eine RTX 4070 Ti Super sein, obwohl diese bei rund 800 Euro aktuell liegt).

Interessant auch zu hören, dass @Wolfgang beim Monitorkauf wohl nicht bei ASUS gelandet ist (da letzteres Unternehmen ohnehin schon sehr überproportional die CB Seite regelmäßig schmückt mit Produktvorstellungen/-werbungen/-tests, ebenso wie Huawei), sondern vermutlich bei Dell/AlienWare, MSI, LG, Acer, Gigabyte, Samsung, BenQ, oder aber einem anderen Hersteller von Gaming-OLED-Monitoren.

Was die getesteten Spiele angeht, so hat doch schon ein sehr fragwürdig optimiertes Stratiegiespiel wie Frostpunk 2 gezeigt, wie sehr der Leistungshunger per Unreal Engine und schwacher Optimierung dann zur Folge haben kann, dass Grafikkarten unter 700 Euro keine 60 fps mehr in WQHD schaffen können und das ist ein Budget, welches sicherlich die Mehrheit aller PC Spieler nicht zur Verfügung hat um (inklusive eines OLED WQHD Monitors, der auch nicht unbedingt günstiger ist) auf hochfrequentes WQHD Gaming umzusteigen.

Ja, für Strategiespiele und RPGs reichen auch 32" 60Hz IPS Displays mit 4K/UHD Auflösung noch locker aus (die es, wie mein Monitor von BenQ, schon unter 300 Euro zu kaufen gibt und sicherlich nicht das Bankkonto der meisten sprengen sollten) und das ist bedeutend günstiger als die hier getätigten Empfehlungen (für ca. 1500 Euro, alleine nur für einen Monitor und eine Grafikkarte), die sich eher an (kompetitive) Spieler von Ego-Shootern und Rennspiele richten dürften bzw. dorthin, wo hohe Bildwiederholfrequenzen vorteilhaft bis nötig sind.

So, sorry, dass meine Kritik dieses Mal etwas umfangreicher ausgefallen ist ;) @Jan , aber ich denke die ist auch mit den obigen Argumenten nachvollziehbar und mir haben da eben viele andere (nicht im CB Funk Podcast angeschnittene Perspektiven zum Thema gefehlt und es sind dabei zu viele individuell geprägte Faktoren bei der Wahl/Kaufentscheidung von Grafikkarte (und Monitor) nicht erwogen und diskutiert worden, auch wenn ich natürlich weiss, dass Ihr es nur gut meint und nicht glaubt dass Eure Meinung allgemeingültig sei (aber ich fand meine Einwürfe wichtig, sonst hätte ich nicht das obige ja nicht geschrieben).

P.S.: Ein Vorschlag wäre noch Ara : History Untold einem Test (evt. ohne Upscaling) zu unterziehen ;) @Wolfgang , wegen der neuen von Oxide selber entwickelten Spielengine anstelle von Unreal Engine Einheitsbrei, denn da wurde auch mangelnde Optimierung von einigen Spielern angeprangert in Steam Rezensionen, wohingegen andere vollkommen zufrieden mit den Leistungsanforderungen an Ihre Hardware waren.
 
Zuletzt bearbeitet:
Wenn die 5080 16GB hat, dann bekommt die 5060 wieder 8GB.

2016 hat angerufen und will seine VRAM-Standards zurück.

Oder anders: garantierte Obsoleszenz.
 
CDLABSRadonP... schrieb:
Verstehe nicht, wieso bei Euch jetzt RDNA 4 keine Rolle spielte.
Sie haben sogar explizit gesagt ne 7800xt kann man Bedenkenlos kaufen weil nichts neues kommt, also das Gegenteil der Situation.

Sehr Strange, muss ja nimmer dieses Jahr sein aber sehr früh 2025 ist ja dann sicher, hat AMD die ganze Industrie erfolgreich verarscht das niemand sie aufn Plan hat und nicht nur Nvidia überrascht wird ohne gute Alternative außer teuer herstellbare Karten dann im Preis zu senken und die Gewinnmarge entweder drastisch zu senken, was dann das Upselling auch kaputt macht, wenn man die 4070ti super 16gb für 600 verkaufen muss, wer zahlt dann noch 2500 für ne 5090 oder selbst 1500 für ne 5080 oder 4080 für 1000 Euro.

Wie auch immer, mag bisschen Fanboy sein mit meiner Einschätzung oder was auch immer aber das sie bald kommt steht fest (zumindest so viel wie die 5090).
 
habe bisher (bis 2022) immer eine generation übersprungen und dann eine neue grafikkarte gekauft.

das war bei der 3000er reihe schon nicht mehr der fall, da die preise so sehr hoch gingen (habe meine 3090 über ein jahr nach erscheinungsdatum für <1k€ gekauft).

Eigentlich wollte ich bei der 5000er reihe mal wieder überlegen eine neue Karte zu kaufen (max 5080), aber ich denke die 3090 reicht noch länger. Nvidias Preispolitik hat gefühlt den Bedarf an neuen Grafikkarten ausgebremst.
 
Chismon schrieb:
Für das Hochfrequenz-Gaming (First Person Shooter, Rennspiele, usw.) wird man mit 4K/UHD und auch WQHD oft schon ziemlich alt/schlecht aussehen, weil die Grafikkarten (auch eine RTX 4090) die nötigen fps in bspw. kompetitvem Gaming oft nicht (einmal ansatzweise) leisten können.
Danke für dein Feedback. Diesen Punkt hatte ich aber definitiv angesprochen! :-)
 
  • Gefällt mir
Reaktionen: Chismon
War sehr interessant, den Wolfgang zum Thema Grafikkarten und Bildschirmen zuhören, speziell da ich ja noch zu der Sorte gehöre, welche eben auf einem 1080p Panel spielt, die aber auch schon merken, dass speziell die UE5 böse werden kann, mit 8GB VRAM.

Halte es da nämlich wie der Jan, soweit es mir möglich ist, was noch funktioniert und ausreicht, braucht keinen Ersatz.

Habe für mich jetzt das Fazit geschlossen, dass ich mir weniger Gedanken darum machen sollte, ob ich eine neue Grafikkarte, oder neuen Hauptmonitor brauche und stattdessen einfach offen weiterhin die Thematik verfolge, speziell wenn irgendwann doch ein Spiel da ist, welches bei mir nur noch wie ein Sack Schrauben laufen könnte.

Schätze das wird spätestens mit Cyberpunk 2078 der Fall sein, es sei denn Valve schießt doch plötzlich mit einem neuen Half-Life um die Ecke.

Gut, als VR-Spieler sollte man meinen, Du willst schon eine gute Graka haben, Jung', doch Alyx läuft, Pavlov und meine Renn Sims ebenfalls, mit meinen Headsets, da ist das weniger problematisch.

Eventuell wenn ich mir doch die Pico 4, Quest 3 oder die neue Vive irgendwann mal hole.
 
Naja, ohne neuen Node bzw. ganz anderem Herstellungsverfahren gibt es nur wenige Möglichkeiten
  • weniger Leistung bei viel weniger Verbrauch
  • gleiche Leistung bei etwas weniger Verbrauch
  • etwas mehr Leistung bei gleichem Verbrauch
  • mehr Leistung bei viel mehr Verbrauch
  • viel mehr Leistung bei sehr viel mehr Verbrauch
Jetzt kann man drüber debattieren was davon am besten wäre.
Zu beachten bleibt dabei nur, dass wir bereits eine recht hohen Verbrauch haben, dass aber nur die wenigsten überhaupt in dieser Leistungsklasse einkaufen natürlich auch.
Interessant wird es aber sein wie Nvidia die 5090 wirklich auslegt, ich rieche "Kleber"^^
 
Zurück
Oben