Test The Last of Us Part I (PC) im Test: Grafisch Referenz, technisch (noch) nicht

Taxxor schrieb:
Zumal es ja auch immer die jüngere Generation gibt. Wer sagen wir um 2005 herum geboren wurde, der wird TLOU nicht 2013 auf der PS3 gespielt haben, die können es jetzt eben das erste Mal in besserer Quali auf dem PC spielen.

Scheinbar weiß nicht jeder, dass manch jüngere von 2013-heute noch minderjährig waren, und es somit noch gar nicht spielen konnten bzw. durften.
 
Ich "kämpfe" im Moment mit einem Hitzeproblem meiner CPU.
Wenn ich TLoU spiele, rennt mein 5800X3D durchgehend auf 100% (nichts anderes im Hintergrund an) und wird damit unter einem Arctic Freezer 34 in der Spitze 94°C heiß..
Durchschnittlich sind es ~78°C, aber eben immer wieder mit Peaks auf 90+..

Hatte ich bisher in keinem anderen Spiel..
 
troyan schrieb:
@DevPandi
Ich denke, du vermischt hier was. Texturkompression gibt es schon seit den Anfängen der GPUs von über 30 Jahren. Intel, nVidia und AMD lesen auch nur noch mit einer verlustfreien Speicherkompression die Informationen aus dem VRAM aus.
Die aber vorher in verlustbehafteten Formaten in den VRAM übertragen wurden...
 
Mit mittel kann man die Schrift auf dem Bild noch erkennen. Das geht schon noch. Leicht unscharf, aber erkennbar. Viele ältere Herren und Damen, die "zu schön" für eine Brille sind, sehen jeden Tag so.

Bei niedrig ist es dann natürlich eher "Maulwurf-Niveau".

Hoch und Ultra sind dann für Indianer-Adleraugen. :D

mfg
 
  • Gefällt mir
Reaktionen: NMA und floTTes
wtfNow schrieb:
Und eine RX 6800 "versagt" gegenüber einer RTX 3070 bei eingeschaltetem Raytracing...
Manche wollen eben RT, und manche wollen halt stumpf Texturen auf Ultra obwohl das häufig keine optische Verbesserung ist. Für den einen ist mehr VRAM wichtiger und der andere legt mehr wert auf andere Features (RT, DLSS Verbreitung, CUDA, Broadcast-App, etc.). Beides zusammen gibt es in der Mittelklasse leider nicht.
Aber The Last of Us hat doch soweit ich das sehe gar kein Ray Tracing, und die meisten Konsolenports (immerhin das wofuer die Spielefirmen primär Spiele produzieren PC ist ja nur ne Nische die man nebenbei mit nimmt), werden das nicht haben, mein Punkt ist ja auch nicht ob du diese Nachteile in Kauf nimmst fuer eventuelle Vorteile, die Frage ist, wieso wird nicht klar der Nvidia Nachteil als solcher genant wird, da wird irgendwie verblümt von "8gb VRAM sind nicht genug" was schlicht nicht stimmt die sind nur bei Nvidia nicht genug, weil die Karten die bei AMD 8gb haben auch mit 16gb nicht für Ultra schnell genug wären. Das ist wie wenn man Gesetze macht die denjenigen der auf die Kinder auf passt bevorzugt und den Besserverdienenden benachteiligt (ob das so ist ist ne separate Diskussion, ist nur ein Beispiel), und das Wort Frau und Mann nie im Gesetzestext verwendet und dann so tut als hätte man ja kein Sexistisches Gesetz gemacht, auch wenn ganz zufällig in ca. 99% der Fälle das eine der Mann ist und das andere die Frau. Wobei es da zumindest Ausnahmen gibt wo gibts denn die Ausnahmen hier? Nvidia wird bei diesen Spielen durch zu wenig Raum ausgebremst AMD nie (oder wenn dann weniger stark).

Zumal man auf den Vapordefekt massivst reagiert hat mit 5 Updates einer fetten User befragung war vermutlich Top News der Woche oder Monats, und bei Nvidia ists nicht mal eine kleine News in der man ja auch leicht beschtwichtigen koennte wert? Also im einen Fall die groesste Aufmachung ever, im anderen Totschweigen, selbst wenn es nicht gleich schlimm wäre, könnte die Unterschiedliche Behandlung nicht extremer sein.
wtfNow schrieb:
Am Ende stellte sich heraus dass es nur eine Hand voll defekte gab, und auch alle weil diejenigen die sie eingebaut haben zu doof waren den Stecker ganz reinzustecken.
Naja bei Bränden die bis zum abbrennen des Hauses führen kann, reichen auch wenige Fälle weil jeder Fall potenziell so massiven Schaden anrichten kann, und nein man muss Produkte auch so bauen das dumme Leute sich damit nicht schaden, ein extremes Beispiel das mir hier einfällt ist mit den Ueberaschungseiern die in den USA verboten sind weil Kinder es verschlucken könnten, ein blödes Beispiel da es so extrem selten vor kam das es irrelevant ist, aber bei den Nvidia Karten kam das ja in 1-2 Monaten deutlich häufiger vor als Kinder Überraschungseier geschluckt haben seit der Einführung der Eier und das bei deutlich höheren Stückzahlen.

Ein Beispiel das mir einfaellt sind Fensterheber, da gibts ja auch Einklemmschutz ich weiss nicht ob das Gesetzlich verpflichtend ist aber unverantwortlich das heute zu bauen ohne solch einen, vermutlich zumindest bei Neuwagen Pflicht? Da koennte man auch sagen wenn sich jemand einklemmt das ist ein Benutzerfehler niemand wird sich einklemmen ohne irgendwas dazwischen zu halten wenn man es aus loesst. Die Stuckzahlen der Karten >1000 Euro waren ja auch gering daher sind ein paar Faelle schnell recht viel. Haette man die selbe Problematik bei 200 Euro Karten mit 1000x so viel Kunden haette man zehntausende wenn nicht hunderttausende solcher Unfälle, das heisst es passiert nicht nur den allerbloedsten, selbst Reviewer checken das mitlerweile 5x Paranoid, es gibt wohl kein klares Klick einrastgeraeusch oder so mal nicht immer.

wtfNow schrieb:
Daraus schlussfolgere ich, die Tech-Presse schaute bei der D4 3080 Ti "Problematik" genauer hin und machte aus einer Maus keinen Elefanten.
Das stimmt so nicht, Tomshardware eine große Techseite hat einen Bericht von vor 8 Tagen:
https://www.tomshardware.com/news/rtx-3080-ti-gpus-are-mysteriously-dying-on-diablo-iv-beta

Also es ist nicht das irgendwie niemand darueber berichtet oder nur kleine Webseiten, man ist sich dessen wohl bewusst und verhaelt sich hier anders wie bei dem AMD Ding, was nun auch nicht extrem Schlimm war, man meldet sich beim Support bekommt die ersetzt und das Problem ist auch geloest, und von den Karten wurden extrem wenig verkauft da >800 Euro Karten sehr wenige Menschen kaufen, kann ich genauso argumentieren und immerhin brennt niemand die Bude ab von.

wtfNow schrieb:
Btw ich vermisse übrigens auch bei den aktuellen Radeons die Artikel über zu hohen Idle Verbrauch bei bestimmten Monitor Setups. Die liegt um ein vielfaches höher als bei Nvidia, einige wollen die Karten auch schon loswerden.
Das wurde hier aber in Artikels zu Tests zu neuen Treibern z.B. erwähnt, wo wurde das mit sterbenden Nvidia Karten erwähnt? Zumal ein höherer Stromverbrauch in sehr ungewöhnlichen Multi-monitorsetups nicht vergleichbar sind mit Defekten und Braenden. >95% der Kunden benutzen Singlemonitor Setups, und auch wenn sie Multimonitorsetups benutzen ist nicht bei allen der Verbrauch so hoch, ich glaub das Problem kann auftreten wenn man unterschiedliche Frequenzen auf beiden Monitoren faehrt, also eine noch exotischere Situation da die meisten Multimonitorsetups wohl mit 2x 60hz arbeiten werden.

Und Stromverbrauch wird ja nunmal auch auf dieser Seite und in der IT sehr wenig bewertet, die Intel CPUs bekommen ja gute Wertungen weil sie gleich viel Speed in Spielen teils erreichen, das die dazu 200Watt mehr verbrauchen oft, ist ja egal. Klar es wird erwähnt aber eher so nebenbei, also wieso erwartest bei Grafikkarten da mehr? Das wäre ja dann noch mehr biased gegen AMD, bei Intel macht man kein großen Deal draus das die mehr verbrauchen aber bei Grafikkarten problematisiert man es noch mehr als eh schon.

https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop

hier sieht man ja schoen das die 7900 XT(X) sogar besseren Stromverbrauch Dualmonitor hat wie die meisten Nvidia Karten, es geht also wenn dann um die letzte Generation. Der Forumeintrag den du verlinkst ist eine Einzelperson die nicht angibt was fuer ein Setup sie faehrt muss ein Exotisches sein da bei normalem Dual-Monitor die 7900 sehr sparsam (idle) ist. (laut Test).
wtfNow schrieb:
Bei den aktuellen Karten muss man also sehr genau hinschauen ob einem eine Radeon oder Nvidia besser passt, Kompromisse gibts bei allen. Und sei es nur der Preis einer 4090 :freak:
Das sehe ich auch so, aber trotzdem sollten eben Seiten wie diese auf die Vor und Nachteile beider gleich oft / stark / angemessen hin weisen, und nicht massiv sich auf 1 Problematik eines Herstellers fokusieren und die des anderen Tot schweigen. Nur gut informiert kann man diese Abwägung gut machen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anon-525334
.Sentinel. schrieb:
Die aber vorher in verlustbehafteten Formaten in den VRAM übertragen wurden...
Werden sie ja hier bei Ultra nicht. Die Einstellung ist also komplett sinnlos, wenn man nicht in 4K spielt. Und der Unterschied zwischen Hoch und Mittel liegt ja nicht in der Kompression, sondern in komplett anderen Texturen, die für Objekte angewendet werden.

Dem Spiel fehlen einfach die richtigen Texturen für 1080p und 1440p.
 
troyan schrieb:
Werden sie ja hier bei Ultra nicht. ...
Auch bei TLOU werden BCx Kompressionsverfahren verwendet. Inkl. oodle. Also verlustbehaftet.

Es gibt mehrere Instanzen, die besagen, wie eine Textur "abgerufen" wird. Vor allem auch der Detailgrad (MIP).
Dafür ist auch ein sogenanntes LOD- Bias zuständig. Die Engine sagt der Streaming- Engine, was gerade für eine Detailstufe einer Textur gefragt ist. Ist die Tür- Textur 100 Meter weg, brauch ich dafür nicht die höchste Auflösung. Steh ich direkt davor, kann sie einen 4K Bildschirm füllen.
Die benötigte Entfernungsstufe im Textur- Satz ausgelesen und dann im VRAM verarbeitet. Sind im Texturfiles die MIPs nicht hinterlegt, muss die GPU in Echtzeit einen MIP- Satz errechnen.

Sonst würden alle Texturen immer mit maximalen Details im VRAM liegen, was unnötig Ressourcen fressen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und rumpeLson
troyan schrieb:
Ich denke, du vermischt hier was. Texturkompression gibt es schon seit den Anfängen der GPUs von über 30 Jahren. Intel, nVidia und AMD lesen auch nur noch mit einer verlustfreien Speicherkompression die Informationen aus dem VRAM aus.
Ne, vermische nicht, hab aber noch nen Fehler drin. Ich hab zu lange nicht mehr in dem Bereich programmiert. :P

Die Texturen sind - das hab ich immer falsch im Kopf - werden durchaus Verlustbehaftet gespeichert, das Format ist aber für eine schnelle Dekompression optimiert und im weiten nicht so Artefakt anfällig, weil hier feste Werte erreicht werden.

Wenn es wen interessiert, die kurze Fassung: https://de.wikipedia.org/wiki/S3_Texture_Compression
:p
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: NMA und .Sentinel.
@.Sentinel.
Exakt das passiert jedoch in dem Spiel hier. Bei Ultra und High werden Texturen in niedrigen Auflösungen angewendet, die eben keinen qualitativen Unterschied machen. Habe mir Bild 13 und 14 runtergeladen und sehe in 1440p Null Unterschiede. Laut dem Video von oben benötigt jedoch Ultra 3GB mehr Speicher. Offensichtlich ergibt dies kein Sinn und zeigt einfach, dass das Texturmanagement kaputt ist.
 
DevPandi schrieb:
Ne, vermische nicht, hab aber noch nen Fehler drin. Ich hab zu lange nicht mehr in dem bereich programmiert. :P
Fang doch wieder damit an :) Macht gerade echt Spaß, weil sich ziemlich was bewegt...
Ergänzung ()

troyan schrieb:
@.Sentinel.
Exakt das passiert jedoch in dem Spiel hier. Bei Ultra und High werden Texturen in niedrigen Auflösungen angewendet, die eben keinen qualitativen Unterschied machen.
Das kann leider viele Ursachen haben. Von tatsächlichen Problemen bei LOD- Bias (Auflösungsstufen werden nicht adäquat mit der Annäherung geschalten) über UV- Probleme (Textur wird nicht passgenau/ordentlich über die Objekte gezogen), oder dass sich die oberen MIP- Schichten nicht mehr unterscheiden bzw. es da einfach wirklich schlechte Texturen gibt.

Ich muss zu meiner Schande gestehen, dass ich mir TLOU auf dem PC noch nicht im Live- Betrieb angesehen habe.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Aber The Last of Us hat doch soweit ich das sehe gar kein Ray Tracing, und die meisten Konsolenports (...), werden das nicht haben
An TLUO würde ich den GPU Kauf auch nicht abhängig machen, das ist ein SP der nach 15h durch ist.
Bei mir ist es z.B. zu 80%+ BF2042 mit nun knapp 400h und es unterstützt DLSS aber kein FSR.
Hier muss auch wieder jeder für sich selbst gewichten.

blackiwid schrieb:
mein Punkt ist ja auch nicht ob du diese Nachteile in Kauf nimmst fuer eventuelle Vorteile, die Frage ist, wieso wird nicht klar der Nvidia Nachteil als solcher genant wird, da wird irgendwie verblümt von "8gb VRAM sind nicht genug" was schlicht nicht stimmt
Das stimmt nicht:
Fazit zum 3070 Test
"Wirklich kritisch zu betrachten ist bei der GeForce RTX 3070 am Ende also nur ein Thema: der Speicherausbau. Mit 8 GB liegt er auf dem Niveau der GeForce GTX 1070, die vor vier Jahren im Juni 2016 erschienen ist...."

Fazit zum 3080 Test
"Eine kleine Schwachstelle ist der Speicherausbau. Ja, die GeForce RTX 3080 hat mit 10 GB mehr Speicher als die GeForce RTX 2080 (Super) mit 8 GB, aber mehr als die kleinstmögliche Verbesserung ist dies eben nicht. Die hat dabei durchaus bereits heute einen entscheidenden Effekt"

Fazit zum 4070 Ti Test
"Weniger beeindruckend ist hingegen der Speicherausbau. 12 GB sind zwar 50 Prozent mehr VRAM als bei der GeForce RTX 3070 Ti, was aber nichts daran ändert, dass die Radeon RX 7900 XT mit 20 GB klar mehr bietet und 12 GB auch heute schon nicht mehr durchweg den optimalen Betrieb ermöglichen und in Zukunft von Zeit zu Zeit zu wenig sein werden."
blackiwid schrieb:
Das stimmt so nicht, Tomshardware eine große Techseite hat einen Bericht von vor 8 Tagen:
https://www.tomshardware.com/news/rtx-3080-ti-gpus-are-mysteriously-dying-on-diablo-iv-beta

Also es ist nicht das irgendwie niemand darueber berichtet oder nur kleine Webseiten, man ist sich dessen wohl bewusst und verhaelt sich hier anders wie bei dem AMD Ding
Wie man sieht ist die Anzahl an Defekten sehr überschaubar und offensichtlich war es ein Fehler von Gigabyte, nicht Nvidia.

blackiwid schrieb:
Das wurde hier aber in Artikels zu Tests zu neuen Treibern z.B. erwähnt ...
...
Der Forumeintrag den du verlinkst ist eine Einzelperson die nicht angibt was fuer ein Setup sie faehrt muss ein Exotisches sein...
Ich kann hier nichts finden, hast du einen Link.
Meine Info habe ich nur von PCGH und mein Setup ist mit einem UHD@144Hz Monitor jetzt auch nichts sehr exotisches.


Btw das war mein 1.000ster Kommentar 🥳🥳🥳
Sry für OT^^
 
  • Gefällt mir
Reaktionen: Icke-ffm, NMA, rumpeLson und eine weitere Person
blackiwid schrieb:
Das wurde hier aber in Artikels zu Tests zu neuen Treibern z.B. erwähnt, wo wurde das mit sterbenden Nvidia Karten erwähnt? Zumal ein höherer Stromverbrauch in sehr ungewöhnlichen Multi-monitorsetups nicht vergleichbar sind mit Defekten und Braenden.

Meinst du die defekten RTX 4000 Karten, bei denen es nicht bei einer zu einem Brand kam oder kommen konnte aufgrund des Materials? Die Ursache ist doch bekannt - die entsprechende handvoll Nutzer sollten das Hobby wohl generell lassen - die Stecker wurden nicht richtig mit der entsprechenden Sicherheitsverriegelung eingesteckt sondern waren "lose". Dass das "gefährlich" für die Hardware ist nicht erst seit gestern bekannt.

blackiwid schrieb:
95% der Kunden benutzen Singlemonitor Setups, und auch wenn sie Multimonitorsetups benutzen ist nicht bei allen der Verbrauch so hoch, ich glaub das Problem kann auftreten wenn man unterschiedliche Frequenzen auf beiden Monitoren faehrt, also eine noch exotischere Situation da die meisten Multimonitorsetups wohl mit 2x 60hz arbeiten werden.

Und Stromverbrauch wird ja nunmal auch auf dieser Seite und in der IT sehr wenig bewertet, die Intel CPUs bekommen ja gute Wertungen weil sie gleich viel Speed in Spielen teils erreichen, das die dazu 200Watt mehr verbrauchen oft, ist ja egal.

Beziehst du dich auf diesen CB Test des 7950X3D?

Screenshot 2023-03-31 at 17-32-28 Ryzen 9 7950X3D im Test gegen 5800X3D und 13900K(S).png


Wer lesen kann ist selbstverständlich klar im Vorteil - zwischen 13900K und 7950X3D liegen AVG 69 Watt. Sie verbrauchen "dazu" also nicht

Für deine Werte muss der übliche Otto Prime95 laufen lassen - nur wie oft und für welche Dauer macht man das? Nicht wirklich relevant für einen vom jeweiligen Hersteller als "Gaming CPU" vermarktete CPU.

Da gibt es auch eine ganz einfache Rechnung dazu:

Preisdifferenz 7950X3D (804€) und 13900K (599€) - 205€

Ersparnis je Stunde Gaming: 0,069kWh x 0,40€ = 0,0276€

Stunden benötigt um die Differenz auszugleichen: 205€ / 0,0276€ = 7.427,xx Stunden

Nochmal - man benötigt bei 6 Stunden Gaming die Woche 7.427 (!!!) Stunden um den höheren Preis gegenüber dem 13900K durch den geringeren Stromverbrauch des 7950X3D wieder rauszuholen - selbstverständlich ist die Ersparnis an Stromkosten für den Betrieb bei höheren Kosten völlig irrelevant.

Bei einem Server, der 24/7 unter Last ist, würde ich aktuell auch lieber eine AMD CPU verwenden - darum geht es hier aber ja offensichtlich nicht.

blackiwid schrieb:
Klar es wird erwähnt aber eher so nebenbei, also wieso erwartest bei Grafikkarten da mehr? Das wäre ja dann noch mehr biased gegen AMD, bei Intel macht man kein großen Deal draus das die mehr verbrauchen aber bei Grafikkarten problematisiert man es noch mehr als eh schon.

Naja, der Idle Verbrauch +- 5 Watt liegt bei den meisten öfter an, und dadurch fallen 10-20 Watt im Idle selbstverständlich mehr ins Gewicht als 70 Watt bei Auslastung. Und als Vergleich taugt hier wohl besser Nvidia, Intel ihre dedizierten GPUs sind ja mehr oder weniger noch in der Beta Phase, die besitzt so gut wie keiner.

Hier ein Thread bei CB zu dem hohen Verbrauch im Multimonitor-Betrieb der 7900 XTX:

https://www.computerbase.de/forum/threads/rx-7900-xtx-im-idle-100-watt.2120513/

Und nein, Multi-Monitor Setups sind nicht ansatzweise selten, erst recht nicht unter "Enthusiasten" :rolleyes:
 
  • Gefällt mir
Reaktionen: NMA und Mcr-King
Skatch schrieb:
Ich "kämpfe" im Moment mit einem Hitzeproblem meiner CPU.
Wenn ich TLoU spiele, rennt mein 5800X3D durchgehend auf 100% (nichts anderes im Hintergrund an) und wird damit unter einem Arctic Freezer 34 in der Spitze 94°C heiß..
Durchschnittlich sind es ~78°C, aber eben immer wieder mit Peaks auf 90+..

Hatte ich bisher in keinem anderen Spiel..
Kurze Frage! Hast du dich mal mit dem optimieren des 5800X3D beschäftigt?
Da kann man so viel machen was Leistung und Temperatur angeht.
Schau mal in die Signatur! 😉
 
  • Gefällt mir
Reaktionen: Mcr-King, Skatch und wtfNow
Skatch schrieb:
Wenn ich TLoU spiele, rennt mein 5800X3D durchgehend auf 100%
Das hört sich eigentlich so an, als wäre die Shader Erstellung noch nicht abgeschlossen worden, solange die andauert, ist eine 100% CPU Last normal. Danach nicht mehr.
 
  • Gefällt mir
Reaktionen: Icke-ffm, NMA, Mcr-King und 2 andere
wtfNow schrieb:
An TLUO würde ich den GPU Kauf auch nicht abhängig machen, das ist ein SP der nach 15h durch ist.
Bei mir ist es z.B. zu 80%+ BF2042 mit nun knapp 400h und es unterstützt DLSS aber kein FSR.
Hier muss auch wieder jeder für sich selbst gewichten.
Halo ist ein anderes Ding das ich schon genannt habe, aber das wird auch viele andere Titel betreffen.
wtfNow schrieb:
Das stimmt nicht:
Fazit zum 3070 Test
"Wirklich kritisch zu betrachten ist bei der GeForce RTX 3070 am Ende also nur ein Thema: der Speicherausbau. Mit 8 GB liegt er auf dem Niveau der GeForce GTX 1070, die vor vier Jahren im Juni 2016 erschienen ist...."
Dort wird nur im allgemeinen Gehalten gesagt das es "kritisch" ist, nicht konkret auf die Titel wo es real Auswirkungen hat hin gewiesen wie diesen hier. Stattdessen findet man bei Google massenhaft Seiten die belegen mit Tests (natürlich schön ausgewählte Spiele) das es angeblich kein Problem ist.
Kritisch kann heißen, das man damit keine Texturmods machen kann oder das in 10 Jahren die Spiele mehr brauchen, es heißt nicht das es konkret jetzt Nachteile gibt, das ist alles immer so nebulös, während man ganz Konkret immer auf die Raytracingschwaeche mit konkreten Benchmarks und auch generellen news und alles drauf rum reitet.

https://www.computerbase.de/artikel...t_nur_8_gb_vram_ist_raytracing_nicht_moeglich

Hier erwähnt man immerhin mal 2 Nvidia Karten konkret, btw noch ein Titel wo der geringe Ram von Nvidia Karten stört, aber es wird immer noch nur als Beispiel gebracht nicht vielleicht so nen Satz wie "hier rächt sich das Nvidia weniger VRam wie AMD verbaut".
Es kommt immer noch so daher wie wenn man zufällig hier 2 Nvidia Karten nennt nicht das es deren durchgehende generelle Geschäftspolitik ist zu wenig Ram zu verbauen.
wtfNow schrieb:
Wie man sieht ist die Anzahl an Defekten sehr überschaubar und offensichtlich war es ein Fehler von Gigabyte, nicht Nvidia.
Ja die News ist vor 8 Tagen und die Gelisteten Leute sind verifizierte, das war nicht mal 1 Woche nach oeffnung der Beta wo viele gar nicht rein kamen weil zu viel Leute drin waren, die Zahlen kannst getrost multiplizieren. Nochmal ich erwarte nicht das man das massiv skandalisiert, aber zwischen verschweigen und nen riesen Deal draus machen gibt es noch Abstufungen. Alleine da bisher vermutlich 90% der Besitzer solcher Karten das Spiel als Beta nicht gespielt haben, aber vielleicht dann beim Release es tun, zeigt das neben irgend ner Dunkelziffer von Leuten die nichts schreiben oder man nicht verifizieren kann das das Potenzial an Nutzern mit Teildefekter Hardware easy 10x so groß ist (noch ohne die Dunkelziffer).

wtfNow schrieb:
Ich kann hier nichts finden, hast du einen Link.
Meine Info habe ich nur von PCGH und mein Setup ist mit einem UHD@144Hz jetzt auch nichts sehr exotisches.
AMD redet hier von "certain displays" in der Stellungnahme weiß also nicht ob das mit allem ist das war aber noch zum Release gab ja schon Treiber die das Problem reduziert haben und laut dem Test ist ein Workaround auf 120hz runter zu stellen damit spart man deutlich Strom und verliert fast 0 an Qualität, weiß nicht wie das in Windows ist aber in Linux kann ich in Spielen andere Settings einschalten wie aufm Desktop. Sicher trotzdem unschön, aber nicht vergleichbar mit Defekten und Bränden.
Ergänzung ()

MalWiederIch schrieb:
Meinst du die defekten RTX 4000 Karten, bei denen es nicht bei einer zu einem Brand kam oder kommen konnte aufgrund des Materials?
Nein ich rede von dem Diablo Bug und RTX 3070 Karten meistens von Gigabyte aber nicht nur.
MalWiederIch schrieb:
Wer lesen kann ist selbstverständlich klar im Vorteil - zwischen 13900K und 7950X3D liegen AVG 69 Watt. Sie verbrauchen "dazu" also nicht
Nein ich die 7950X3D wurde von AMD explizit nicht für Spieler empfohlen dafür kommt die 7800X3D. Und ich rede jetzt nicht von irgend ner Teillast weil die GPUs im Moment der Flaschenhals und ich muss mir auch Grad Idleverbraeuche Anhoeren das da AMDs Grafikkarten schlecht seien, obwohl es um Gaming geht. Also wenn Idle zaehlt dann zaehlt auch der Stromverbrauch aufm Desktop, denn man wird eher am PC noch an was arbeiten aber nicht Idle sein als Idle sein. Genauso wie sich wenige Leute ne Grafikkarte nur fuer Spielen kaufen, kaufen sie sich auch keine CPU nur fuer Spielen. Nen 13900k verbraucht 253 Watt unter Volllast und ein Ryzen 9 7900 88Watt. Setz doch mal die Powerlimits auf so ner Intel so niedrig da wird der komplett verhungern. Gut 200W ist bisschen übertrieben aber 150W ist ja auch schon was.
MalWiederIch schrieb:
Und nein, Multi-Monitor Setups sind nicht ansatzweise selten, erst recht nicht unter "Enthusiasten" :rolleyes:
Bei Gamern sind sie sehr wohl selten. Programmierer benutzen das oder Leute die Arbeiten und oft hat man für sowas dann ein Geschäftslaptop oder im Betrieb oder so, wo man in der Regel keine solche Karte hat. Also nur Leute die mit Cuda propagieren sind wohl die Schnittmenge von Gaming Grafikkarten und Dualhead. Aber bringt ja nichts da drüber zu streiten offenbar gibts auch mit Singlehead mit 144hz teils Probleme, wobei hier der Nachtest fehlt CB hat hier nur 60hz gemessen das sauber läuft wo AMD sogar sparsam ist (idle)

Btw machen wir jetzt das Gleiche ich erwähne nur als kleinen Seiteneinwurf die CPUs aber es geht eigentlich um GPUs und es geht nicht was AMD Falsch macht das wurde hier in zig News breit aufgedröselt und AMD massiv kritisiert, ich erwarte nur die gleiche Kritik auch bei Nvidia, werd mit deiner Intel CPU glücklich, es wäre nur ein Doppelstandard da anders zu sagen, im großen und ganzen bin ich mit der CPU Berichterstattung hier halbwegs zufrieden.

Wäre auch Schwer hier massiv gegen Ryzen zu hetzen wenn Intel nur noch den Preis und hier und da mit der Brechstange nen Spielsieg mal kurzfristig erreichen kann. Die haben grad Entlassungswellen und Krise hoch 10, das passt schon :D

Deine tolle CPU hast auch nur gekriegt weil Intel entweder mit negativer oder zumindest sehr kleiner Marge arbeitet. Also Preisdumping um nicht komplett bedeutungslos zu werden, ist ja auch nicht schlimm hat AMD mit Bulldozer auch gemacht. (und nein die Intel CPUs sind nicht gleich schlecht wie damals Bulldozer)
 
Zuletzt bearbeitet:
Taxxor schrieb:
Das hört sich eigentlich so an, als wäre die Shader Erstellung noch nicht abgeschlossen worden, solange die andauert, ist eine 100% CPU Last normal. Danach nicht mehr.
Shader sind definitiv durchgelaufen.
Habe sonst absolut keine Probleme.. läuft auf Ultra mit 100+ fps absolut ruckel und stutteringfrei, kein Nachladen, kein "Bitte warten" oder sonst was..

Im Hauptmenu ist doie CPU Auslastung immer bei ~60%.. gehe ich dann ins Spiel rein, ist sie fast durchgehend immer 97-100%..
Das Hitzeproblem habe ich mittlerweile gelöst, indem ich das Frontpanel von meinem Gehäuse abgemacht habe.
Da sind nur oben und unten zwei kleine Lüfterschlitze.. jetzt können die Lüfter frei Luft ziehen und die Temps sind bei ~70°C.. :)

MehlstaubtheCat schrieb:
Kurze Frage! Hast du dich mal mit dem optimieren des 5800X3D beschäftigt?
Da kann man so viel machen was Leistung und Temperatur angeht.
Schau mal in die Signatur! 😉
Nein.. habe früher auch trotz K CPUs nie übertaktet oder sowas, da mir das immer zu heikel war.
Schaue mir deine Sachen aber mal an, Danke.. :)
 
Die Controllerlsteuerung ist ja mal verbuggt...
3 Controller 3x unterschiedliches Verhalten.
Mal rennt der Charakter nicht, mal bleibt er nach 3 Sekunden stehen.

Ein Neustart behebt meist das Problem, aber dann hat man über wieder die Ladezeit.

Und das bei einem Konsolenport. Peinlich.

Die Performance ist sehr unterschiedlich. Mal Ruckler, Mal flüssig. Vorhin hatte ich mittendrin ein "Bitte warten". 5 Minuten. What?!? Und ja... Ich habe die shader gebäuden lassen :D
 
  • Gefällt mir
Reaktionen: NMA
OT an:
Skatch schrieb:
Nein.. habe früher auch trotz K CPUs nie übertaktet oder sowas, da mir das immer zu heikel war.
Schaue mir deine Sachen aber mal an, Danke.. :)
Bei einer modernen CPU kannst du einen festen Wert für die maximale Leistungsaufnahme festlegen, den die CPU nicht überschreiten darf.

Wenn du diesen Wert reduzierst (sagen wir auf 65 - 80 Watt), verlierst du wenige MHz Takt unter Verwendung aller Cores. Die jeweiligen Temperaturen sinken jedoch teils massiv!

Um diesen kleinen Takt- und Leistungsverlust zu kompensieren, kann man nun mittels Curve Optimizer die Spannung, die für einen bestimmten Takt anliegen soll, reduzieren. -15 oder so sollte absolut jeder 5800X3D stabil packen.

Beides schadet der CPU auch nicht, sondern ist sogar förderlich für die Lebensdauer.

OT aus:
Bin schon sehr neugierig auf tlou und werde es kaufen, sobald ich mit Hogwarts Legacy durch bin :)
 
Taxxor schrieb:
Zumal es ja auch immer die jüngere Generation gibt. Wer sagen wir um 2005 herum geboren wurde, der wird TLOU nicht 2013 auf der PS3 gespielt haben, die können es jetzt eben das erste Mal in besserer Quali auf dem PC spielen.
Bin heute 38 und habe bisher kein TLOU gespielt, da ich diese Art Games nicht mit Controller spiele. Konsolen eignen sich für mich ausschließlich für Sportspiele.

Von daher bin auch ich jetz vollkommen fine damit, das es endlich ne PC Version gibt :D
 
habs jetzt runtergeladen, installiert... shader sind durch, aber... CPU läuft am Limit bei 90-100% und GPu bei 0% Auslastung.. Takt geht nicht höher als 600MHZ. Frames bei ca. 120 in WQHD und alles hoch. Sieht aus wie ein CPU Limit, da Grafikeinstellungen keine/kaum Unterschiede in der Performance zeigen.

Hat das noch jemand?
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben