Test Asus GeForce RTX 2070 Strix im Test: Kleiner Turing gegen GTX 1080 GLH und RX Vega 64 Nitro+

Palmdale schrieb:
mich würde jedoch interessieren, wie das automatische OC-Tool hier seinen Dienst verrichtet im Vergleich zu eurem Auslooten?

Hi. Wenn ich mich nicht vertue stand dazu was im großen Test zu. Weiß Grad nicht ob zu den xx80 oder zur xx70. Aber irgendetwas habe ich hier gelesen. (Soll ganz brauchbar sein und nur niedrige einstellige Verluste gg manuellem OC haben) Klammer ist Gedächtnis, ohne Gewehr und Pistole.
 
Immerhin dürfte die 2070 weitaus weniger Probleme bereiten als die 2080Ti. Die Tis sterben reihenweise nach bereits 2-3 Wochen weg bzw. der VRAM der Karten. Das NVIDIA-Forum ist voll von Karten mit defektem VRAM. Selbst Karten, die auf Wasser umgebaut wurden, sind betroffen.

Erklärt wohl auch, warum so gut wie keine Tis derzeit auf dem Markt erhältlich sind. Da scheinen Probleme zu existieren, die NVIDIA bislang nicht kommunizieren möchte. :)
 
  • Gefällt mir
Reaktionen: Chismon und CMDCake
@[wege]mini Du kannst Recht haben, ich finde nur den Unterschied zwischen der stock Vega und der Nitro im OC relativ niedrig. Könnte aber ungefähr passen.
 
Gibt es auf CB.de jetzt gar keine 1080p Benches mehr?
 
SKu schrieb:
Immerhin dürfte die 2070 weitaus weniger Probleme bereiten als die 2080Ti. Die Tis sterben reihenweise nach bereits 2-3 Wochen weg bzw. der VRAM der Karten. Das NVIDIA-Forum ist voll von Karten mit defektem VRAM. Selbst Karten, die auf Wasser umgebaut wurden, sind betroffen.

Erklärt wohl auch, warum so gut wie keine Tis derzeit auf dem Markt erhältlich sind. Da scheinen Probleme zu existieren, die NVIDIA bislang nicht kommunizieren möchte. :)

Erzähl keinen Schmuh die Karten sind gut verfügbar.

https://geizhals.de/?cat=gra16_512&xf=9810_9+11750+-+28rtxxa

und auch der V-Ram ist es nicht dann wären auch 2070 und 2080 betroffen. Eher der Grund dürfte der Große Chip sein...
 
Gortha schrieb:
Wow, für 4% mehr FPS satte 180 € mehr als für die Turbo...
Wer macht sowas? ...

Werden sich unter garantie einige finden lassen.

SKu schrieb:
Immerhin dürfte die 2070 weitaus weniger Probleme bereiten als die 2080Ti. Die Tis sterben reihenweise nach bereits 2-3 Wochen weg bzw. der VRAM der Karten. Das NVIDIA-Forum ist voll von Karten mit defektem VRAM. Selbst Karten, die auf Wasser umgebaut wurden, sind betroffen.

Erklärt wohl auch, warum so gut wie keine Tis derzeit auf dem Markt erhältlich sind. Da scheinen Probleme zu existieren, die NVIDIA bislang nicht kommunizieren möchte. :)

Ajo , interessant. Nix von mitbekommen.
Sowas wäre mal ne New's wert....
 
Zuletzt bearbeitet:
Flossenheimer schrieb:
Wurde nicht die letzte Zeit irgendwann was gesagt das die 10x0 Karten mit den aktuellen Treibern 10 - 15 % Leistung verlieren? Irgendwie muss ja ein Anreiz geschaffen werden die neuen Karten zu kaufen.
Nein das ist nicht der Fall. Hat sogar jemand getestet.
 
  • Gefällt mir
Reaktionen: Zitterrochen
nun ja, die controller heinis haben überall die herrschaft übernommen :D

evtl. hat ja nvidia von intel "gelernt", hat billiges lötzinn (bei intel zahnpasta) verwendet und jetzt sterben die kontakte reihenweise den hitzetot, da man diese karten ja meistens ins temperatur limit laufen lässt.

die karten, die per stromaufnahme limitieren, sollten von dem vram problem nicht betroffen sein. klingt komisch, ist aber so.

mfg
 
ampre schrieb:
Erzähl keinen Schmuh die Karten sind gut verfügbar.

https://geizhals.de/?cat=gra16_512&xf=9810_9+11750+-+28rtxxa

und auch der V-Ram ist es nicht dann wären auch 2070 und 2080 betroffen. Eher der Grund dürfte der Große Chip sein...

Von guter Verfügbarkeit würde ich sprechen, wenn durch die Bank weg alle Modelle der Hersteller verfügbar sind. Das ist aber nicht der Fall. NVIDIA hat bislang keine offizielle Stellungnahme zu den Problemen geäußert, obwohl die ganzen FE-Karten nach kurzer Zeit mit Artefakten ihr Ende finden. Artefakte sprechen eher für defekten VRAM. Die 2080 hat auch einen wesentlich größeren Chip als die 1080Ti, ihre Speicherbandbreite fällt aber geringer aus. Bei der 2080Ti wird da noch eine ganze Ecke mehr durchgeschoben und wie schon beim Turing-Test auf TH zu sehen war, hatte der VRAM exorbitant hohe Temperatur-Hotspots. Etwas, was EVGA mit Pascal bereits in der Vergangenheit lernen musste, als die 1080 weggestorben sind, weil die RAM-Chips konstant mit zu hoher Temperatur liefen.

Sollte das einfach ein grundlegender Design-Fehler sein, wundert es mich nicht, dass sich NVIDIA bis dato komplett bedeckt hält.

Hinzu kommen noch die ganzen anderen Probleme wie Black Screens, BSODs und Flickering der Turing-Karten mit den neusten Treibern. Nicht nur in einem Spiel, sondern in mehreren. Das ist nicht wirklich ein rundum gelungenes Produkt für über 1.200 Kröten.
 
  • Gefällt mir
Reaktionen: CMDCake und Qonqueror
pietcux schrieb:
Nein das ist nicht der Fall. Hat sogar jemand getestet.

Ohne scheiss ,das wird immer behauptet wenn Nvidia neue Gk's raushaut. Eine Art "Running Gag".
Auch wenn Nvidia viel mist baut, aber das hatt sich soweit ich weiss nie bewahrheitet.
 
nur mal rein technisch....99% aller user hängen ihre karten in den pc....die bauteile werden also nur durch die lötkontakte gehalten(und die ollen platten, die vorn und hinten draufgeschraubt sind, die sich in diesen dimensionen, um die es hier geht, tatsächlich ausdehnen) ....wenn man da am lötzinn auch nur 1cent spart, merkt das der user....das backofen prinzip kann helfen, bringt aber seit jahren nur etwas, wenn der hersteller schlampig gearbeitet hat. wenn sich das bei nvidia hier auch heraus stellen sollte, wäre das einfach nur peinlich.

mfg
 
Wenn es der VRAM wäre, wären auch 2080 davon massiv betroffen. Das muss ein Fehler im Chip sein. Vielleicht Wird der VRAM Controller zu heiß.

Sind das nur die FEs die sterben? Dannn könnte es noch das PCB sein
 
ampre schrieb:
Wenn es der VRAM wäre, wären auch 2080 davon massiv betroffen. Das muss ein Fehler im Chip sein. Vielleicht Wird der VRAM Controller zu heiß.

Könnte natürlich möglich sein, dass, wenn der Controller Temperatur X erreicht, es dann zu Artefaktbildungen kommt. Fraglich wie NVIDIA so einen Fehler ohne großes Aufsehen beheben möchte.
 
sagen wir mal so....der ram takt ist zwar bei rtx2080 und rtx2080ti identisch, dafür hat die ti ein 50% größeres speicherinterface. was bei uns usern am ende als geschwindigkeit übrig bleibt ist ja hier egal. die ti schickt in 50% kürzeren abständen neue befehle zum speichern oder lesen an den ram. der kann also 50% weniger zeit "abkühlen".

das wäre meine theorie, warum die 2080 nicht sterben. da wird der ram einfach nicht wirklich ordentlich "befeuert"

mfg
 
[wege]mini schrieb:
sagen wir mal so....der ram takt ist zwar bei rtx2080 und rtx2080ti identisch, dafür hat die ti ein 50% größeres speicherinterface. was bei uns usern am ende als geschwindigkeit übrig bleibt ist ja hier egal. die ti schickt in 50% kürzeren abständen neue befehle zum speichern oder lesen an den ram. der kann also 50% weniger zeit "abkühlen".

das wäre meine theorie, warum die 2080 nicht sterben. da wird der ram einfach nicht wirklich ordentlich "befeuert"

mfg
Nope. Die 2080ti hat deshalb mehr Speichermenge. Die Belastung pro RAM Chip bleibt gleich.
 
  • Gefällt mir
Reaktionen: [wege]mini
Aha, ~550€ - 650€ kostet also Nvidias "Einsteigerkarte" nun, was mich und viele normale Gamer etc wohl besonders interessieren würde, wären Karten die man für circa 300€ - 350€ bekäme. Eine GTX 970 (um mal bei Team Grün zu bleiben) gab es damals beim Release auch nicht ab 550 Euro, sondern sie war bezahlbar. Nvidias hochpreisen ihrer Grafikkarten für weniger Mehrleistung gegenüber der Vorgängergeneration, ist sehr leicht durchschaubar. Eine Offenbarung im Mittelklasse Segment (und das ist preislich bei 399€ spätestens zuende) wird es wohl in absehbarer Zeit nicht mehr geben. Es sei denn AMD bereitet ihnen schwere Konkurrenz mit neuen und schnelleren Chips.
Der Preis-Performance-King ist doch momentan eine RX 570 mit 8GB. Freesync drin, schnell genug für vieles in 1440p und für um die 200€ zu haben. Nvidia hat da nur 3GB Speicherkrüppel mit Uralttechnik und für Gsync zahlt man immer noch zu viel Aufpreis.
 
  • Gefällt mir
Reaktionen: russianinvasion
Zurück
Oben