Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestNvidia GeForce RTX 3070 FE im Test: 2080-Ti-Leistung mit 8 GB für 499 Euro UVP
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
natürlich kann ein 500w netzteil in der regel auch ein paar watt an spitzen abfangen, aber je nachdem was das restliche system so nuckelt, kann es hier schneller eng werden als einem lieb ist. abgesehen davon finde ich es alles andere als erstrebenswert wenn das system das netzteil immer wieder in den oberen grenzbereich drückt und dieses quasi an der kotzgrenze läuft...
Geb ich dir ja Recht - >1.000 für ne Graka würde ich nie ausgeben, aber für 500E sone Karte, wenn ne 2080ti vorher deutlich jenseits von 1K gekostet hat. Ich versteh dich nicht.
Laphonso schrieb:
Die "Faster as 2080Ti" sind pauschal flasch und schlicht gelogen.
Genauso wie "3080 twice as fast as 2080".
Ihr dürft nicht immer darauf hoffen, dass bei AMD alles viel besser sein wird.
AMD hat weder den Preis, noch die Leistung noch die Leistungsaufnahme veröffentlicht, ergo müssen wir noch ein paar Stunden warten und die RT Leistung ist bei AMD allerhöchstens auf dem Niveau der 3070 - mehr geht nicht.
Xtrasmart schrieb:
Unabhängig davon, wie gebetsmühlenartig manche den Ausbau des Speichers von 8 GB als ausreichend verteidigen.
Also ich würde die Karte auch mit 8GB für meinen WQHD Monitor kaufen, wenn es da nicht von AMD eine 12GB Lösung gäbe. Aber das wird sich noch entscheiden, vor allem daran was AMD sonst noch liefern kann. (DLSS)
Das ist eigentlich der Knackpunkt, weniger der Speicher, denn Grafikkarten kann man auch wieder verkaufen, man muss nicht 2 Jahre warten bis der RAM wirklich zu wenig ist.
Ich hatte mit spezial Settings auch den RAM einer RTX 3080 gerissen (Flight Simulator) + Downsampling.
Aber die wenigsten werden spezielle Settings wählen, insofern sollten 8GB noch ne Zeit lang reichen.
Was bei mir persönlich immer in den Klamotten hängt bei AMD ist auch die Situation bei den Treibern, dass die meisten Spiele und auch viele Anwendungen immer noch auf nvidia optimiert sind.
Ich hab keinen Bock mehr auf ne Vega64 mit 105°C auf den VRMs oder 6 Monate auf nen funzenden Treiber zu warten wie bei der 5700XT.
Mag übertrieben sein, aber so ist es bei mir in der Birne haften geblieben.
Ich als 2080Ti Besitzer würde meine Karte niemals für 400€ hergeben. Leistungsklasse liegt mit dem maximalen OC eher auf Höhe der 3080. Wer eine solche Karte für 400€ herschenkt, dem ist nicht mehr zu helfen und ist weiterhin voll auf dem Hypetrain. 400€ für ne Karte die eindeutig schneller ist (im OC vs OC), bis auf ein paar komische Sonderfälle und die dazu noch deutlich und vernünftig mehr VRam hat. Glücklich kann derjenige sein, der ein Verkaufstrottel gefunden hat.
Ich glaube, in ein paar Jahren gilt die neue Generation von NVIDIA als Nachfolger für Fermi. Bei 100% mehr Materialeinsatz (Shader & Rechenwerke) nur knapp 30% mehr Leistung bei gleichem Takt, ist nicht gut.
Die hier vorgestellte Graka ist mMn die erste wirklich sinnvolle Version aus der aktuellen Gen. Aber NVIDIA ist das Apple der „Hardwarewelt“. Die können alles und treue Fans kaufen alles.
@gut und richtig die GeForce RTX 3070 FE ist für mich die aktuell beste, da effizienteste „Gaming Ampere“, passt aber nicht in mein Anforderungsprofil.
Das einzige was hier keinen Sinn ergibt, denn Sinn machen gibt es nicht, sind deine inhaltslosen Bashing-Posts.
gut und richtig schrieb:
Ist mir klar das man hier nicht als Redakteur finanziell durchkommt, aber sag mal Nvidia das sie eigentlich in deinen Werbevertrag rein schreiben müssen das Werbung gekennzeichnet gehört.
Ich weiß zwar nicht ob es dir aufgefallen ist, aber der Test und der Text sind nicht von mir. Am Test ist inhaltlich auch nichts auszusetzen und Werbung kann ich keine erkennen.
Wirklich armselig dein Auftritt hier, aber dafür gibt es ja eine „Ignorieren“-Funktion.
@Mcr-King schon ziemlich schwach, dass du hier jeden Schmutz likest, nur weil er gegen Nvidia ist. Echt schade.
Ich bin hier raus, das Niveau ist einfach zu nah am Bodensatz.