-
ComputerBase erhält eine Provision für Käufe über eBay-Links.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
- Ersteller SVΞN
- Erstellt am
- Zur News: GeForce RTX 3080: Inhaber berichten vermehrt von Abstürzen in Spielen
Ohne Grund hätten die das Powerlimit bestimmt nicht so hoch gedreht, die Lederjacke ist mit Sicherheit gut informiert.Novasun schrieb:Krass wie arg NV anscheinend an die Kotzgrenze mit der 3080 gegangen ist.... So langsam glaube ich wirklich AMD hat was im Feuer.,..
chr1zZo
Commodore
- Registriert
- Feb. 2009
- Beiträge
- 4.257
schön für dichMalustra schrieb:
Palatas schrieb:Hoffentlich wird das Problem schnell gelöst, hab keine Lust das jetzt zu viele auf AMD/BigNavi warten - durch meinen FreeSync TV ist AMD quasi ein Pflichtkauf und Nvidia eher eine Notlösung wo man zittern muss ob VRR/120hz über HDMI 2.1 unterstützt wird.
Ist das Satire?! AMD hat vor Monaten die Unterstützung von HDMI VRR für Radeon Grafikkarten angekündigt, passiert ist NICHTS!
https://community.amd.com/thread/239290
Nvidia hat das längst implementiert. Das ist der Grund warum man mit NVIDIA Grafikkarten VRR auf LG's OLED Fernsehern nutzen kann und mit AMD nicht!
Der eigentliche Witz ist: im Grunde sind die Karten von AMD in der Lage dazu. Wenn man mit CRU Freesync per "Ghettomod" in die Displaykonfig einfügt, funktioniert es perfekt. Halt nur bei 1440p/120 wegen der Bandbreitenlimitierung von HDMI 2.0, aber damit konnte ich die letzten Monate ganz gut leben.
Für mich wäre das fast der Grund gewesen meine Vega64 frustriert raus zu werfen und eine 2070 zu holen...
DisOrcus
Lieutenant
- Registriert
- Apr. 2016
- Beiträge
- 908
Vitali.Metzger schrieb:Ohne Grund hätten die das Powerlimit bestimmt nicht so hoch gedreht, die Lederjacke ist mit Sicherheit gut informiert.
Das ist für mich bei den 3000ern (bzw. der 3080) mit das größte Rätsel. Warum ist die 3080 bis auf ein paar wenige MHz an die Grenze getaktet?
Wenn sich jetzt schon Fehler häufen, dass die Karten bei >2 GHz instabil werden sich aber (wie im CB Test zu lesen) so nah an den instabilen Bereich takten kommt mir(!) das komisch vor.
Nvidia Karten liefen seit Jahren im Sweetspot. Und die 3000er opfern jetzt plötzlich ihre gute Effizienz für "magere" 3-5% Mehrleistung im Vergleich zum Sweetspot. Grundlos haben die das mMn nicht gemacht.
Holindarn
Lt. Junior Grade
- Registriert
- Okt. 2018
- Beiträge
- 442
immortuos schrieb:Vielleicht erst den Artikel lesen, bevor die Hatekeule ausgepackt wird
du bist jetzt schon der ... 3. oda so, welcher mit der behauptung kommt das ich den text nicht gelesen habe...
dann behaupte ich einfach mal du hast meine anderen kommentare dazu auch nicht gelesen...
also, erstmal lesen bevor die keule geschwungen wird
Verak Drezzt
Fleet Admiral
- Registriert
- Jan. 2020
- Beiträge
- 10.359
Wie gesagt wird wohl beim Großteil der Leute am Netzteil liegen, da entweder zu alt oder zu unterdimensioniert von der Leistung her. Habe nun auch seit 2015 wieder AMD im Rechner, vor meiner Vega64 eine R9 390 und beide Karten liefen einwandfrei und hatte selbst nie Probleme mit den Treibern. Meine Vega64 läuft seit Kauf mit über 100W weniger verbrauch durch's undervolting und hab sogar noch den Speicher um 120MHz als auch den Chip um 100MHz angehoben.
Meine nächste Karte wird wohl wieder ne AMD im Frühjahr. Sofern sie über mehr als 8GB Speicher, gegenüber der 3070, verfügt. Ansonsten wird es wohl dann wegen RT und DLSS 2.0 diesmal ne Nvidia. Wobei ich atm kaum Probleme habe mit dem Speicherverbrauch unter WQHD. Liege beim Großteil der Spiele zwischen 4-6GB Vram und habe ansich immer Texturen auf ultra-sehr hoch. Der Rest wird auf mittel-hoch eingestellt und alles läuft mit über 60 bis 90FPS, quer durch die Bank an Games, bisher.
Meine nächste Karte wird wohl wieder ne AMD im Frühjahr. Sofern sie über mehr als 8GB Speicher, gegenüber der 3070, verfügt. Ansonsten wird es wohl dann wegen RT und DLSS 2.0 diesmal ne Nvidia. Wobei ich atm kaum Probleme habe mit dem Speicherverbrauch unter WQHD. Liege beim Großteil der Spiele zwischen 4-6GB Vram und habe ansich immer Texturen auf ultra-sehr hoch. Der Rest wird auf mittel-hoch eingestellt und alles läuft mit über 60 bis 90FPS, quer durch die Bank an Games, bisher.
Zuletzt bearbeitet:
gedi
Lt. Junior Grade
- Registriert
- Mai 2013
- Beiträge
- 458
DisOrcus schrieb:Das ist für mich bei den 3000ern (bzw. der 3080) mit das größte Rätsel. Warum ist die 3080 bis auf ein paar wenige MHz an die Grenze getaktet?
Ist sie doch gar nicht. Standard-Boosttakt liegt bei 1710MHz und viele machen 1850 bis 1900 MHz Boosttakt mit. Darüber hinaus ist der 102er einfach ein großer Chip. Kleinere Chips aus Mid und Low lassen sich höher takten ja.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
DagdaMor
Lt. Commander
- Registriert
- Jan. 2006
- Beiträge
- 1.946
FoXX87 schrieb:Der Preis der Early Adopter. Genau deswegen wartet man
Genau.
Es sollte doch allgemein bekannt sein, dass diejenigen,
die immer alles als Erste haben müssen, als Betatester herhalten.
So ist das nun mal.
Nicht ärgern, sondern das Positive sehen.
Man hilft Nvidia hier zu behebende Probleme aufzuzeigen,
die bei der Qualitätsprüfung halt einfach nicht aufgefallen sind .
jemandanders
Commander
- Registriert
- Mai 2019
- Beiträge
- 2.978
@SV3NIguana Gaming schrieb:Selbst PCGH vor einigen Tagen musste beim Test von Crysis: Remastered von ihrem 750W auf ein 1000W NT wechseln, damit das System mit einem 3900X un einer 3080 problemlos lief.
Und da finde ich es schon etwas bedenklich oder zumindest Merkwürdig, das CB mit einem 1,5 Kw Netzteil testet.
Wenn der Hersteller 750W empfiehlt, sollte auch damit getestet werden. Sonst fallen Fehler in diese Richtung nicht / kaum auf.
Man könnte natürlich Argumentieren, ein optimales System ohne potenzielle Bremsschuhe bereit stellen zu wollen, aber ist dann der Sinn des Tests noch gegeben?
Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.379
SPECIALIZED- schrieb:Ne 1060 im System, aber ne 3090 ist nen "Fiasko" ...wenn du dir die Karten nicht Leisten kannst okay, wenn du meinst du brauchst sowas nicht, auch okay, aber den Sinn dieser Karte scheinst du nicht verstanden zu haben oder?
Mal davon ab das die jenigen die sich eine 3090 Kaufen, das nicht wegen der 10 - 20% mehr Leistung tuen, aber die jammern auch nicht wegen den 1500 - 1800€, weil sie wissen warum sie eine 3090 haben wollen / brauchen!
du solltest als erstes mal lernen wie die „Zitat“ Funktion richtig funktioniert bevor du mich 2 mal mit dem gleichen zitierst.
Was hat meine Karte die ich privat verwende damit zutun? Warum so untergriffig?
In meiner Aussage ging es darum die 3090 hat 20% mehr shader wenn die im schlimmsten fall nur 8-10% mehr Leistungen resultiert in Gaming dann zeigt es wohl das die überarbeitung der Shader wohl zu lasten der effizienz ging. Das die Karte eher für andere dinge als fürs Gaming geeignet sein soll ist ja auch Ok aber RTX war wie GTX eigentlich ein „Gaming“ markenname daher kann man sich dann schon berechtigt die Frage stellen was für einen gamer ein 100%iger Aufschlag gür 8% mehr Leistungen bringen soll.
Damit möchte ich sagen das wenn die 3090 der Titan nachfolger ist hätte man besser auch dabei bleiben sollen.
und PS: ich kann mir einige dieser Karten Leisten und ich kaufe Karten die meinen bedarf entsprechen ;-) fertig
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.563
Och mensch, bitte richtig lesen. Die Karten stürzen mit Default Settings ab Werk ab.GroMag schrieb:Ach bei OC wird eine GPU instabil?
Dass das überhaupt ne News wert ist...
4to cka3al
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 576
Ja habe auch die Red Dragon Vega 56. Bei maximal 200 Watt habe ich sie festgenagelt bei 1632MHz GPU-Takt mit 950mV (GPU P7) und 1000 MHZ HBM-Takt mit 912mV (HBM P3). Dann noch Ghetto Mod mit 2x140 Lüfter mit 3D-Befestigungsplatte. Über 60 Grad sieht die Karte nicht. Unglaublich wie schnell die unterwegs ist, wenn die nicht ins Powerlimit oder Temperatur Limit läuft. Beste Karte die ich jemals hatte! Die kommt später Mal in die Virtrine.Czk666 schrieb:Meine Vega 56 Pulse läuft mit UV und RAM oc wunderbar. Dank angepasster Lüfterkurve ist sie dabei auch sehr leise. Beste Karte die ich jemals hatte. Nach allen xx60ern von nvdia.
martin28bln
Ensign
- Registriert
- Mai 2019
- Beiträge
- 173
Wiederholung weil Beiträge überlesen werden, weil alle posten ohne das Problem zu kennen oder diese Karte haben. Bitte um Prüfung/RM weiterer 3080 besitzer:
"
Es wäre mal schön wenn sich vermehrt die melden, die eine Karte besitzen und nicht alle rumunken und Artikel rausholen mit der angeblichen Ursache.
Meine Karte ist unter Wasser, also wird es kein Temperaturproblem prinzipiell des Chips oder des RAM sein!
Ich hatte bisher wenig Zeit zu testen, um das Problem einzugrenzen. Was ich bisher sagen kann bei OC-75 Mhz des Chips und + 800Mhz des RAMs. Stock bisher nicht geprüft...
1. keine Abstürze bei hohen Lasten >90% (300W und mehr) und Taktraten unter 2 Ghz
2. keine Abstürze auf Triple WQHD in 3-4 Spielen getestet (hohe Last)
3. Abstürze bisher COD Warzone mit gesetztem FPS Limiter bei 142 und wenig Last (<70%) und Taktraten >2050Mhz
Für Punkt 3 gestern kurzen Test mit OC aber cappen der Taktkurve bei 2 Ghz ergab kein Absturz, muss aber in längerer Session verifiziert werden.
Es wird meiner Meinung nach sicher nicht am Netzteil, Temps GPU/RAM liegen. Eventuell ist einfach der hohe Takt das Problem. Ob dann ggf. kurzzeitiger Stromüberbedarf ursächlich ist wage ich zu bezweifeln, denn selbst bei hoher vcore ist ja die Last gering (siehe oben).
Gruß "
"
Es wäre mal schön wenn sich vermehrt die melden, die eine Karte besitzen und nicht alle rumunken und Artikel rausholen mit der angeblichen Ursache.
Meine Karte ist unter Wasser, also wird es kein Temperaturproblem prinzipiell des Chips oder des RAM sein!
Ich hatte bisher wenig Zeit zu testen, um das Problem einzugrenzen. Was ich bisher sagen kann bei OC-75 Mhz des Chips und + 800Mhz des RAMs. Stock bisher nicht geprüft...
1. keine Abstürze bei hohen Lasten >90% (300W und mehr) und Taktraten unter 2 Ghz
2. keine Abstürze auf Triple WQHD in 3-4 Spielen getestet (hohe Last)
3. Abstürze bisher COD Warzone mit gesetztem FPS Limiter bei 142 und wenig Last (<70%) und Taktraten >2050Mhz
Für Punkt 3 gestern kurzen Test mit OC aber cappen der Taktkurve bei 2 Ghz ergab kein Absturz, muss aber in längerer Session verifiziert werden.
Es wird meiner Meinung nach sicher nicht am Netzteil, Temps GPU/RAM liegen. Eventuell ist einfach der hohe Takt das Problem. Ob dann ggf. kurzzeitiger Stromüberbedarf ursächlich ist wage ich zu bezweifeln, denn selbst bei hoher vcore ist ja die Last gering (siehe oben).
Gruß "
Das stimmt aber so nicht. Das ist das Problem. By the Way das NV System ist im Moment auch nicht stabil.DarkSoul schrieb:AMD hat den Treiber lange nicht in den Griff bekommen, da muss man kein "NV Jünger" sein um beim Anspruch an ein stabiles System eben nicht zu AMD zu greifen, solange so ein Problem bekannt ist. Aus meiner Sicht gab es da schon einen signifikanten Unterschied, ich will schließlich ein stabiles System bauen, und nicht auf gut Glück in ein paar Monaten oder Jahren auch einen stabilen Treiber nachgeschoben bekommen.
Ergänzung ()
Ich weiß von einigen die Probleme hatten - weil Ihr alt NV Treiber nicht sauber vom System war...DarkSoul schrieb:Aus meiner Sicht gab es da schon einen signifikanten Unterschied, ich will schließlich ein stabiles System bauen, und nicht auf gut Glück in ein paar Monaten oder Jahren auch einen stabilen Treiber nachgeschoben bekommen.
Glaub mir - die Sicht die wir auf die Thematik haben ist wie mit der Lupe.
Im Netz findet man nur die, die Probleme haben. Vieles wird dem Treiber angehängt. Nur das zweifelsfrei festzustellen ist überhaupt nicht einfach. Es gibt viele Faktoren die da eine Rolle spielen,
Bei AMD kam hinzu das bei der 5700 gewisse Boardpartner auch Murks (in den ersten Chargen) verbrochen haben... Viele die meinten mein Spiel läuft nicht fehlerfrei... Eine Suche in Google und siehe da - ist bekannt läuft sauber mit Treiberversion x.xxx [man muss nicht immer den neusten Treiber nutzen...]
sidewinderpeter
Lt. Commander
- Registriert
- Mai 2008
- Beiträge
- 1.055
Also dass es an den Netzteilen liegt, kann ich mir irgendwie nicht vorstellen, denn dann würde es vermutlich zum kompletten Neustart des PC kommen. Ich hatte das Problem mal mit einer X850XT und einem 450 Watt Netzteil: sobald ich Empire at War gestartet habe, also sobald sich der 3D-Part zugeschaltet hat, ist der PC komplett abgeschmiert. Es hat sich dann herausgestellt, dass ich sogar mit diesem Netzteil weiter machen konnte, aber ich musste die Grafik an einem anderen Stromanschluss des Netzteils anstecken. In der Doku des Netzteils wurde das so beschrieben, dass in dem Gerät zwei Strom-"Schienen" mit jeweils 250 Watt Peak-Leistung laufen. Da ich zunächst alle Geräte, also auch den SATA-Raid und die CPU Power scheinbar auf einer Schiene angesteckt hatte, kam es zu der Überlastung, als ich die Graka an die Anschlüsse der anderen Schiene gesteckt hatte, war das Problem weg.
Ich würde daher vermuten, dass es eher an einem Treiber-Problem oder eben falsch kalibrierten Boost-Takten liegt. Trotzdem eine weiterer Dämpfer bei diesem Launch von Ampere. Denn auch wenn die GPU in der Theorie top ist, hat Nvidia möglicherweise die Yield-Rate per Federstrich aus der Finanzabteilung erhöht. Anders kann man sich ja auch die Preise im Vergleich zur Vorgängergeneration nicht erklären. Den Schaden haben die Nutzer, die ihre Grafikkarten jetzt auch mal um 1% nach unten korrigieren müssen. Andererseits, bei diesen exorbitant guten Leistungen auch kein Beinbruch, oder? Mit dem Clocking haben diese Daddler ja eh schon genug Erfahrung, jetzt halt mal nach unten, um den optimalen Spot zu finden.
Ich würde daher vermuten, dass es eher an einem Treiber-Problem oder eben falsch kalibrierten Boost-Takten liegt. Trotzdem eine weiterer Dämpfer bei diesem Launch von Ampere. Denn auch wenn die GPU in der Theorie top ist, hat Nvidia möglicherweise die Yield-Rate per Federstrich aus der Finanzabteilung erhöht. Anders kann man sich ja auch die Preise im Vergleich zur Vorgängergeneration nicht erklären. Den Schaden haben die Nutzer, die ihre Grafikkarten jetzt auch mal um 1% nach unten korrigieren müssen. Andererseits, bei diesen exorbitant guten Leistungen auch kein Beinbruch, oder? Mit dem Clocking haben diese Daddler ja eh schon genug Erfahrung, jetzt halt mal nach unten, um den optimalen Spot zu finden.