Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
VRAM kannst du mit dem RivaTuner oder mit GPU-Z unter dem Reiter Sensors messen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
So jetzt noch ein bisschen OC und du knackst die 1500Watt, war ja klar das die Fermis ein 1200Watt NT killen.Das maximum erziehlte ich mit dem Furmark 1.8.2. Es Betrug sich auf 1289 Watt
Übelst, anhand der Benchmarks behaupte ich mal Fermi hat ein perfektes Speichermanagement, anders sind diese Werte nicht zu erklären. Solche Werte hab ich bis jetzt noch nie gesehen, das schafft nur Thermi.Metro 2033 @ max DX11 8xAA 16AF
läuft ohne Probleme mit 40 bis 60fps (auch mit 3D Vision)
War klar deutlich über 1GB, das packen die 1GB Radeons einfach nicht...Bei Metro 2033 sind es 1159MB die benutzt werden
ich werde trotzdem immer bei nvidia bleiben, bin zwar kein Fan Boy
Kasmopaya schrieb:Das Problem ist die HD 5000, Leistung stark gesteigert, weniger Verbrauch als vorher, stell dir mal vor die HD 6000(ein paar Monate noch) macht genau so weiter -> NV kann einpacken
Also nein, Leistung heißt nicht gleich Strom schleudern auf neuen Rekordwerten...
Oder wie die Chevrolet ImpalaIch habe einen guten Vergleichsbegriff über die Jahre zwischen Nvidia und ATi (AMD) entwickelt.
Nvidia GPU's bzw. Karten sind wie dicke Cevrolet Camro, Doge Charger, Shelby GT500.... von 1969 mit fetten Big Block V8 Motoren die einfach nicht kaputt gehen und eben saufen wie Löcher
Während ATi's (AMD's) GPUs wie hochgezüchtete Ferrari Motoren wirken die beim kleinsten Problem in ihrer Umwelt schnell mal bockig werden und vielleicht effizenter mit ihren Verbrauchsmittel umgehen.