• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: Raytracing zum Start nur mit Nvidia-Grafikkarten

Trimipramin schrieb:
@vaN Da muss ich Dir leider gleich eine Absage erteilen, da ich die Lüfterkurve so konfigurieren werde, dass die Lüfter auch im Desktopbetrieb zumindest langsam drehen. Ich mag es nicht, wenn diese sich gar nicht bewegen, ..sry.

nun durch dieses hin und her quasi 0 % bis 15 % resultiert es in ein nerviges Anlaufgeräusch was störend ist. Ich werde die Tage mal msi afterburner nehmen, mit precision x lässt es sich jedenfalls nicht einstellen.

Edit: lässt sich doch einstellen na das kleine Kästchen muss man erstmal sehen :)
 

Anhänge

  • evga.JPG
    evga.JPG
    33,8 KB · Aufrufe: 315
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Trimipramin und Mcr-King
Lübke82 schrieb:
Dann schau einfach besser hin. Ich find es deutlich besser. Die Details machen halt den Unterschied!


Nenn mich alt aber ich erkenne viele Dinge auch im nin rtx und nichts ist da für mich im hektischen Spiel nun der auffallende Unterschied. Dann lieber die höhere bzw native Auflösung.
 
  • Gefällt mir
Reaktionen: Mcr-King
DiamondDog schrieb:
Konsole mit Controller ist so ziemlich das dümmste was machen machen kann :D

für die Konsolen Gamer gibt es eingebautes Autoaim in allen Spielen, und für die Grobmotoriker noch Hardwaremods (Aim Controller, MOD Sticks) Crossplay ist damit absolut Sinnlos... da muss man als PC Spieler quasi aktiv Cheaten um mithalten zu können..
 
  • Gefällt mir
Reaktionen: USB-Kabeljau, McTheRipper und foo_1337
So warten wir erstmal ob und wann es raus kommt, wie es dann wirklich aussieht und performt.
 
FormatC schrieb:
Es hat sich bestätigt, sonst hätte man die Treiber nicht so fix geändert...

Nein, hat es sich nicht, Karten mit MLCC Gruppen fielen 1:1 genauso aus und am Ende konnte man Karten mit MLCC Kondensatoren maximal ein paar Mhz höher takten, ausfallsicherer waren sie nicht und ich glaube kaum, dass Igors Lab mehrere hundert Karten verfügbar hat, um sagen zu können, dass Kondensatoren je relevant gewesen wären. Andere können das schon und die wissen auch, was sie von gewissen Selbstdarstellern zu halten haben.

Das ist sich nur jemand zu fein einen Fehler einzugestehen, schadet den Versandhäusern, weil die mit verängstigten Kunden zu kämpfen haben, die behaupten die Kondensatoren müssen so und so verbaut sein und dann ein Videolink von Igors Lab als Beleg in den Retourenkarton legen.

Die Kondensatoren haben mit den Ausfällen absolut nichts zu tun gehabt, diese waren um die Spezifikationen der Karte zu erfüllen absolut ausreichend.

FormatC schrieb:
Ich habe mehrmals geschrieben, dass es eine Verkettung von Umständen war, die auf die schnelle und heftige Lastwechsel zurückzuführen sind.

Und in dieser Kette, waren die Kondensatoren nicht vorhanden, sonst hätten die Karte mit MLCC Gruppen nicht dieselben Probleme gehabt. Deine Darstellung fokussierte sich auf die Kondensatoren und nicht darauf, es sei eine Verkettung von Umständen. Die Fehlerhafte Berechnung der Leistungsaufnahme der Radeon Karten wird von Igors Lab auch nicht eingeräumt und nun auf Custom Designs ausgewichen. Reine Eitelkeit.
Fehler einzugestehen ist eine Tugend.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: bad_sign, Porky Pig und Mcr-King
Ctrl schrieb:
für die Konsolen Gamer gibt es eingebautes Autoaim in allen Spielen, und für die Grobmotoriker noch Hardwaremods (Aim Controller, MOD Sticks) Crossplay ist damit absolut Sinnlos... da muss man als PC Spieler quasi aktiv Cheaten um mithalten zu können..

ja wieso gibt es wohl Auto-Aim auf den Konsolen, wieso wohl :D


vaN schrieb:
war das jetzt ironisch gemeint oder wie genau ist dies zu verstehen? ;) Schaut man sich so einige Pro Streamer an mit Controller an fällt mir glatt die Kinnlade hinunter. Aber die Entwicklung geht wohl in Zukunft mehr zu Controller siehe Cold War (Aim Assist und neue Aimhilfe Spielereien).

Auto-Aim.... Diskussion beendet :D
 
Zuletzt bearbeitet:
Ferax schrieb:
Nenn mich alt aber ich erkenne viele Dinge auch im nin rtx und nichts ist da für mich im hektischen Spiel nun der auffallende Unterschied. Dann lieber die höhere bzw native Auflösung.
Wo ist das Spiel denn hektisch??? Und immer daran denken, dass deine Details schnell verschwinden, wenn die spiegelnden Objekte nicht im Bild sind 😉
 
MichaG schrieb:
Für wie viele FPS die jeweiligen Anforderungen gelten, konnte zur Stunde nicht beantwortet werden.
Das sagt mir, dass das nicht nicht -oder nur unfertig- in 3 Wochen erscheint.
 
  • Gefällt mir
Reaktionen: Apocalypse
FormatC schrieb:
Und nur mal so am Rande: ich habe hier im Lab per Video und Remote mit 2 R&Ds zwei Nächte getüftelt und NV hat meine Messdaten bekommen. Nur ist das nichts für ein Video sondern die tägliche Arbeit :)
Warum eigentlich nicht? Muss ja nicht in Videoform sein, aber sowas kannst du deinem Publikum schon erzählen. Viele wissen gar nicht, wieviel Arbeit um die Artikel und Videos herum existiert.
 
  • Gefällt mir
Reaktionen: Wadenbeisser
Oneplusfan schrieb:
zu dem Preis hätte ich die Karte nicht genommen
Ich kann nichts sinnvolles dagegen sagen. Letztlich schwingt ein bisschen EVGA-Fanboytum mit (haben halt wirklich gute Garantiebedienungen) und sie soll auch recht leise sein (wird aber eh nochmal undervoltet).
 
  • Gefällt mir
Reaktionen: Oneplusfan
KlaraElfer schrieb:
Die Fehlerhafte Berechnung der Leistungsaufnahme der Radeon Karten wird von Igors Lab auch nicht eingeräumt und nun auf Custom Designs ausgewichen. Reine Eitelkeit.
Fehler einzugestehen ist eine Tugend.

Wie wahr dass ist ein erhebliches Problem heutzutage keiner ist fehlerfrei habe auch schon welche gemacht gebe sie aber dann auch zu.

So jetzt aber was anderes fakt ist GPUs sind einfach absurd Teuer geworden grade im mittleren bis unterem Bereich gibt es nix mehr (150-300€). Da muss man auf Intel hoffen weil die wollen richtig Aggressiv sogar mit minus in den Markt drücken wenn meine Quelle bei TSMC recht hat.

Kann auf jeden fall nur gut für uns alle sein.
 
Mcr-King schrieb:
Dass mag sein, naja obwohl beide Designs altmodisch sind hust, aber was stimmen zu scheint dass die Qualität der Chips sehr schwankt siehe Temps und kühler Ergebnisse vom gleichen Board PCB auf verschieden Testseiten.

Der Treiber reduziert die Belastung für die Caps, aber am Ende sollen es nicht die Caps gewesen sein? Die waren ausreichend, der Treiber war nur Mist? Ja klar, kann man so sehen. Das PCB Design bei Nvidia ist trotzdem um Welten schlechter und die Spannungsspitzen fürs Netzteil deutlich höher als bei den AMD Karten.
 
  • Gefällt mir
Reaktionen: Mcr-King
Apocalypse schrieb:
Der Treiber reduziert die Belastung für die Caps, aber am Ende sollen es nicht die Caps gewesen sein? Die waren ausreichend, der Treiber war nur Mist? Ja klar, kann man so sehen.

Welcher Hersteller hat denn seine Karten zurückgerufen um die Kondensatoren umzubauen?
Keiner.
Warum wohl nicht?

Der Treiber hat die Belastung reduziert weil er sie zuvor zu hoch angesetzt hatte. Softwareproblem -> Softwarefix
 
Apocalypse schrieb:
Der Treiber reduziert die Belastung für die Caps, aber am Ende sollen es nicht die Caps gewesen sein? Die waren ausreichend, der Treiber war nur Mist? Ja klar, kann man so sehen. Das PCB Design bei Nvidia ist trotzdem um Welten schlechter und die Spannungsspitzen fürs Netzteil deutlich höher als bei den AMD Karten.

Wie wahr und AMD bei der Vega und Polaris 10 ordentlich kritisiert zu recht, wie gesagt denke viele werden sich in 2-3 Jahren ein neues NT kaufen müssen. (wenn sie nicht grade eins für 120-250€ besitzen)
 
DocWindows schrieb:
Der Treiber hat die Belastung reduziert weil er sie zuvor zu hoch angesetzt hatte. Softwareproblem -> Softwarefix
Die Karten haben durch diese Software Fix etwas Leistung verloren weil die Karten nicht mehr so aggressiv boosten -> Hardware Problem das mit der Software Lösung billig umschifft wurde.
 
  • Gefällt mir
Reaktionen: cunhell und cele
KlaraElfer schrieb:
Die Fehlerhafte Berechnung der Leistungsaufnahme der Radeon Karten wird von Igors Lab auch nicht eingeräumt und nun auf Custom Designs ausgewichen.
Das ist mir auch aufgefallen, und wie das Video dazu betitelt war

Über 320W! Der wahre Verbrauch der RX 6800XT

Da kommt er dann mit den 255W TGP, die die Karte haben sollte, auf 320W.
Die 6800XT hat nun tatsächlich eine TGP von 255W und wo landet sie? Ca da wo er die 220W TGP Karte „errechnet“ hat.

Jetzt heißt es da im Forum ja mit Rage Mode kommt man auf die 320W. Mag sein nur ist die Basis dann auch keine 255W TGP mehr.
Die Rechnung lag schlicht und einfach 20-30W daneben und AMD kann wohl doch "zaubern", denn die Differenz zwischen TGP und Realverbrauch beträgt ziemlich exakt 40W (255W zu 295W) anstelle der dort errechneten 65W.

Derweil hat die 200W TGP Karte Probleme überhaupt ihre angegebene TBP zu erreichen. Bei Igor kam man mit 220W TGP auf 290W, die 6800 kommt mit 200W TGP auf ~235W.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign, Sly123, KlaraElfer und eine weitere Person
Wadenbeisser schrieb:
Die Karten haben durch diese Software Fix etwas Leistung verloren weil die Karten nicht mehr so aggressiv boosten -> Hardware Problem das mit der Software Lösung billig umschifft wurde.

Wenn der Boost nicht richtig eingestellt ist, warum ist es dann ein Hardwareproblem?
Die Sache hätte auch auch umgekehrt passieren können: erster Treiber normal, und nach einem Treiberupdate dann zu aggressiver boost, welcher Probleme macht - wäre es dann immer noch ein Hardwareproblem?

Außerdem sollen doch auch Karten mit den "guten" Kondensatoren Probleme mit dem ersten Treiber gehabt haben.
 
  • Gefällt mir
Reaktionen: guillome und foo_1337
@thuNDa

Weil das nunmal die Rahmenbedingungen waren die nvidia vorgesehen hatte, seitens der Hardware aber nicht erfüllt wurden und die Karten deshalb nachträglich per Eingriff in deren Specs gedrosselt wurden.
Nvidia hatte in den Specs für die Stromversorgung der Karte Mist gebaut und der Kunde darf die Zeche dafür zahlen.
 
Zurück
Oben