Ersatz für eine abgerauchte GTX 970

Nickel schrieb:
Was haben die Nvidianer nur immer für Probleme mit den AMD GPU Treiber 🤷‍♂️

Unwissenheit. Gibt genug technisch versierte Leute bei denen es sehr gut läuft.

Seit RX 6000er Gen ist da doch alles im Lot. Gibt es Mal kurzzeitig Probleme? Ja, bei beiden Herstellern.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Demon_666 und Ltcrusher
Da hast du wohl Recht - gerade auch in Kombination mit dem alten Vierkerner könnte man auch einfach zur 66x0 (XT) greifen. Oder halt doch eine 3060 12 GB. Aber die 12 GB Variante kostet halt auch schon wieder so viel wie eine 6700 XT.

Die 6650 XT ist von vielen Herstellern für unter 300 Euro zu haben. Wäre wohl mein Pick bei der Config. Und doch, für FHD finde ich 8 GB noch absolut okay.
Meine Empfehlung: Die Pulse von Sapphire https://www.mindfactory.de/product_...aming-OC-Pulse-GDDR6-HDMI-Retail_1453294.html

@TE: Nur für dich zur Info. Die 3060 rangiert irgendwo zwischen RX 6600 und RX 66x0 XT. Die 6700 XT liegt dagegen zwischen RTX 3060 Ti und RTX 3070. Das sind also von der Rasterizer-Leistung her zwei komplett unterschiedliche Leistungsklassen.
 
Eine abgespeckte RX 6600 XT und dann noch bei PCIe 3.0 würde ich nicht nehmen.
Aber du wusstest ja, dass das wohl kommt.
 
Ich würde das Budget an der Stelle ausschöpfen. Dann hat man ne Karte, die man auch gut ins neue System mitnehmen kann. Was kommen wird, 4 Kerne ohne SMT und ohne Win11 Support ist so ne Sache in 2023.
 
  • Gefällt mir
Reaktionen: EmBee99999
Es gibt so viele Tests dazu... Eine x8 Anbindung auch über PCIE3 ist in den allermeisten Fällen absolut ausreichend. Das ist nicht vergleichbar mit den deutlichen Einbrechen bei 6500 XT oder 6400 mit der x4-Anbindung in Kombination mit den nur 4 GB VRAM. Mit mehr VRAM wäre wahrscheinlich selbst bei denen die schlechte Anbindung gar nicht so kritisch. Aber die Kombination macht es.


Bevor hier die Bandbreite limitiert, geht der Karte vermutlich eher die Leistung aus.
 
Gebraucht geht auch eine Vega 56 8GB für 100 Euro. Absoluter Schnapper und schneller als die GTX970.

Gruß
Holzinternet
 
kachiri schrieb:
Eine x8 Anbindung auch über PCIE3 ist in den allermeisten Fällen absolut ausreichend.
Das meinte ich nicht, sondern das man mit einem Skylake 4-Kerner generell keine Wurst mehr vom Teller zieht.

//edit: ach so, du meintest mich gar nicht. Ich sollte vorher nachsehen, was meine Ignoreliste so treibt.
 
kachiri schrieb:
Es gibt so viele Tests dazu...

Dein Youtube Beweis und Test im Netz sind durchaus unterschiedlich.
Die Tür über PCIe zum Hauptspeicher ist immer offen und wird genutzt,
nicht erst wenn der VRam ausgeht, nur dann merkt man es noch eher.
Aber wie auch immer, ich würde keine abgespeckte Karte ( 8 Lanes) kaufen
und da PCIe 3.0 hier schon mal gar nicht.
Die RX 6700 XT ist eine super FHD Karte, auch jetzt für den TE und auch später
beim Upgrade von Mainboard/CPU auf was aktuelles.
 
  • Gefällt mir
Reaktionen: EmBee99999
C0rteX schrieb:
Unwissenheit. Gibt genug technisch versierte Leute bei denen es sehr gut läuft.
Erfahrungen hier im Forum und keinerlei HW oder Treiber Probleme seit 15 Jahren.
Man kann, bei aller Liebe, nicht Leugnen, dass AMD wesentlich mehr Probleme bei den Karten mit den Treibern hat als Nvidia.
Dennoch ist die HW fantastisch und bietet oft mehr fürs Geld.
 
Ich schmeiße mal zwei Karten in den Raum:

Intel Arc 770 mit 16 GB Speicher

Sapphire Radeon RX 6700XT Pulse mit 12 GB Speicher

Passen beide wunderbar ins Budget, haben zur "gestorbenen" GTX 970 auf jeden Fall mehr Leistung. Ich vermute auch mal, daß du sonst gar nicht an eine neue Karte gedacht hättest, von daher kann man auch unter deinem Preisrahmen bleiben.

Nachtrag:

@Azghul0815 nur bedingt richtig. Gucke ich mir an in welcher Regelmäßigkeit nVidia seit vielen Jahren immer wieder Hotfix Treiber raushauen muss, ist das mindestens genauso nur mit Wasser gekocht, wie bei AMD.

Und was in einem anderen Thread auch genannt wurde, daß im AMD Treiber viele Einstellungen zum Thema undervolting, etc. möglich sind, das würde ich mir für meine RTX 3060 Ti von nVidia auch wünschen.

Ca. 900 MB Treiber und dann das fast schon Dekaden alte Menü ohne groß mehr Inhalt - ist schon echt 'ne böse Nummer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Demon_666
C0rteX schrieb:
Das sind jetzt nicht die aktuellsten Infos. Die idle Leistungsaufnahme hat sich bei mir mit einen der letzten Treiber nochmal reduziert. Ansonsten frisst die Karte jetzt echt nicht viel. Mit Nvidia hat man wieder andere Probleme.
Das Problem ist seit 2021 durchgehend vorhanden, nicht gelöst, und seit Januar in den "Known Issues" Sektionen der Patch Notes eines jenen Treiber-Releases notiert ohne Behebung....das sind mehr als aktuelle Infos. Das Problem ist aktuell und leider auch ein Showstopper in Bezug auf den Kauf von AMD Karten - vor Allem dann, wenn man mehr als einen Monitor benutzt.

Heisst nicht, dass die AMD Karten schlecht sind. AMD bekommt diesen Bug nur nicht gefixt. Wer mit hohen Idle Temperaturen und höherem Strombedarf im Idle leben kann, der kann das Problem gerne ignorieren - machts aber eben nicht ungeschehen, da es eben bei einer Vielzahl von Displays auftritt nach wie vor.

Zu 8 vs 16 GB Ram: Zustimmung.
 
Hab jetzt 2 Jahre eine AMD und strapaziere sie mit OLED 4 k TV und AVR aufs Maximum. Vor der 6000er gab's da vielleicht erhebliche Probleme, aber das ist ja Mal Schnee von gestern. 3080 kam mit dem LG OLED nicht klar und wenn man 3 Monitore hat, dann verkackt Nvidia immer wieder den Wake Up bei einem Monitor. Beide Hersteller nehmen sich hier mittlerweile absolut gar nichts. Die Treiberoberfläche und der Funktionsumfang ist bei AMD aber Mal Meilen voraus.
Ergänzung ()

Bono35 schrieb:
Das Problem ist seit 2021 durchgehend vorhanden, nicht gelöst, und seit Januar in den "Known Issues" Sektionen der Patch Notes eines jenen Treiber-Releases notiert ohne Behebung....das sind mehr als aktuelle Infos. Das Problem ist aktuell und leider auch ein Showstopper in Bezug auf den Kauf von AMD Karten - vor Allem dann, wenn man mehr als einen Monitor benutzt.

Heisst nicht, dass die AMD Karten schlecht sind. AMD bekommt diesen Bug nur nicht gefixt. Wer mit hohen Idle Temperaturen und höherem Strombedarf im Idle leben kann, der kann das Problem gerne ignorieren - machts aber eben nicht ungeschehen, da es eben bei einer Vielzahl von Displays auftritt nach wie vor.

Zu 8 vs 16 GB Ram: Zustimmung.

Siehe Post oben drüber. Die Multimonitor engine beider Treiber haben ihre eigenen Probleme.
 
  • Gefällt mir
Reaktionen: Demon_666
C0rteX schrieb:
Hier Mal die momentane Lage dazu:
Sehr sehr schlecht gealtert die 3070.... Das nächste Opfer wird die 3080 sein.
Verkrüppelter Vram bleibt eben Verkrüppelter Vram.

Meine Empfehlung ganz klar ne 6700XT.
 
Azghul0815 schrieb:
Erfahrungen hier im Forum und keinerlei HW oder Treiber Probleme seit 15 Jahren.
dass AMD wesentlich mehr Probleme bei den Karten mit den Treibern hat als Nvidia.
Bin seit 18 Jahren auch hier auf CB unterwegs und seit 18 Jahren
nutze ich privat nur ATi/AMD Karten und ich weiß nicht welche wesentliche mehr Probleme
hier die Karten von AMD und deren Treiber vs Nvidia haben sollen.
Man braucht ja auch nur hin und wieder mal ins Nvidia Forum zu schauen,
auch in anderen Foren.

C0rteX schrieb:
Siehe Post oben drüber. Die Multimonitor engine beider Treiber haben ihre eigenen Probleme.
Eben, ist bei Nvidia auch der Fall, nur die Rahmenbedingungen
sind unterschiedlich bzgl. VRam bleibt nicht im Idle bei Multi Monitor.
 
  • Gefällt mir
Reaktionen: Ltcrusher
Ist doch immer das gleiche. Zu Release sind die Balken noch saftig, aber lass 2 Jahre vergehen und die höhere VRAM Menge überflügelt alles. Ist bei den 4070er genau das selbe. Die schaffen es ja teilweise bei den heutigen Games nicht mehr ausreichend Speicher und Speicherinterface zu haben. Man soll ja zur nächsten gen gleich wieder kaufen.
 
Nun Nvidia taktet aber nicht bei Nullast den VRAM an Anschlag. Das ist halt für die Effizient im Idle extrem wichtig - vor Allem wenn man den Rechner nicht nur zum zocken verwendet.

Das beide Hersteller ihre Problemchen haben steht ja ausser Frage. Das ist so. Nur ist dieses VRAM Verhalten in sehr vielen Fällen - kann man ja an jeder Stelle quasi nachlesen wo es um GPUs geht - ist halt ein recht gravierendes Problem, da es wegen der hohen Abwärme auch zur Verringerung der Lebensdauer der Karten führen kann, wenn man nicht den Jackpott mit den Monitoren hat, die eben nicht das VRAM Problem mit bedingen.

Diese Aussage sagt aber keineswegs aus, dass AMD GPUs schlecht sind. Im Gegenteil. Man muss sich eben nur bewusst machen, dass hier ein langfristig nicht gelöstes Problem eben vorhanden ist.
 
Bevor wir uns gegenseitig jetzt mit AMD gegen nVidia, etc. "an den Karren pissen", warten wir mal ab, was der TE @unstille01 von den genannten Karten hält.
 
  • Gefällt mir
Reaktionen: Azghul0815, Sbibi und fundeath
Nich falsch verstehen - das ist nicht das Anliegen meiner Aussagen. Es geht mir nur darum eben eine "awareness" für diese Dinge zu schaffen VOR dem Kauf. Dieser Faktor mit dem VRAM Problem macht AMD GPus nicht per se schlecht und ist ja nicht per se für jeden potentiellen Käufer von Relevanz.
 
  • Gefällt mir
Reaktionen: Azghul0815
Daran wird ja gerade umfangreich gearbeitet. Ansonsten kann man jederzeit nicht benötigte Monitor deaktivieren. Ist aus Gründen der Effizienz sowie so zu empfehlen. Wenn ein 4k Fernseher dran steckt, takten beide Hersteller hoch.

Mich würde es viel eher anpissen, wenn eine 3080 nicht mit einen der besten Fernseher überhaupt klarkommt oder ein Monitor nur durch ab und anstecken des Kabels aus dem Standby kommt, aber das scheint wohl nur meine Auffassung zu sein.
 
Zurück
Oben